Springer-Lehrbuch
Wilhelm Forst
Dieter Hoffmann
Gewöhnliche Differentialgleichungen Theorie und Praxis – vertieft und visualisiert mit Maple®
123
Professor Dr. Wilhelm Forst Universität Ulm Fakultät für Mathematik und Wirtschaftswissenschaften Abteilung Numerik 89069 Ulm, Deutschland E-mail:
[email protected]
Professor Dr. Dieter Hoffmann Universität Konstanz Fachbereich Mathematik und Statistik Fach D 198 78457 Konstanz, Deutschland E-mail:
[email protected]
Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.
Mathematics Subject Classification (2000): 34-01
ISBN 3-540-22226-X Springer Berlin Heidelberg New York Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de © Springer-Verlag Berlin Heidelberg 2005 Printed in Germany Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, daß solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Satz: Reproduktionsfertige Vorlage von den Autoren Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Einbandgestaltung: design & production GmbH, Heidelberg Gedruckt auf säurefreiem Papier
SPIN: 10989555
44/3142YL - 5 4 3 2 1 0
Inhaltsverzeichnis Inhaltsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
V
Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX 1
¨ ............................... Einf¨ uhrende Uberlegungen
1
1.1 Erste Aspekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
Was ist eine Differentialgleichung? . . . . . . . . . . . . . . . . . .
3
Welche Fragen stellen wir? . . . . . . . . . . . . . . . . . . . . . . . . .
4
Mathematische Modellierung . . . . . . . . . . . . . . . . . . . . . . .
5
1.2 Richtungsfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
Euler-Polygonzugverfahren . . . . . . . . . . . . . . . . . . . . . . .
8
Historische Notizen zu Euler und Cauchy . . . . . . . . . . . . . . . . . . . . 10 Maple Worksheets zu Kapitel 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2
Elementare Integrationsmethoden . . . . . . . . . . . . . . . . . . . . . . . . 19 2.1 Differentialgleichungen mit getrennten Variablen‘ . . . . . . . . . . 19 ’ + q1 y +r1 2.2 Differentialgleichungen vom Typ y = f pp21xx + q2 y + r2 . . . . . . 23
2.3 Lineare Differentialgleichungen 1. Ordnung . . . . . . . . . . . . . . . . 26 2.4 Bernoulli-Differentialgleichung . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.5 Riccati-Differentialgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Zusammenhang mit homogener linearer DGL 2. Ordnung . 30 Elementare Integration bei bekannter spezieller L¨ osung . . . 31 2.6 Exakte Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Multiplikatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.7 Clairaut-Differentialgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Historische Notizen zu Bernoulli, Clairaut und Riccati . . . . . 41 Maple Worksheets zu Kapitel 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
VI
3
Existenz- und Eindeutigkeitssatz . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.2 Fixpunktsatz f¨ ur verallgemeinerte Kontraktionen . . . . . . . . . . . 70 3.3 Existenz- und Eindeutigkeitssatz . . . . . . . . . . . . . . . . . . . . . . . . . 75 Differentialgleichungssystem 1. Ordnung . . . . . . . . . . . . . 78 Explizite Differentialgleichungen k-ter Ordnung . . . . . . 79 3.4 Fehlerabsch¨atzungen und Abh¨angigkeits¨ uberlegungen . . . . . . . 80 3.5 L¨ osungen im Großen‘ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 ’ Maximale Existenzintervalle . . . . . . . . . . . . . . . . . . . . . . . 84 3.6 Qualitative Beschreibung autonomer Systeme . . . . . . . . . . . . . . 86 Mathematisches Pendel . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 R¨auber-Beute-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 Fluß zu einer gegebenen DGL . . . . . . . . . . . . . . . . . . . . . . 97 3.7 Modifikation des Hauptsatzes f¨ ur Funktionen mit Werten im
k
98
Historische Notizen zu Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 Maple Worksheets zu Kapitel 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 4
Lineare Differentialgleichungen und DGL-Systeme I . . . . . . 123 4.1 Existenz- und Eindeutigkeitssatz . . . . . . . . . . . . . . . . . . . . . . . . . 123 4.2 Linear-algebraische Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 124 4.3 Homogene lineare Differentialgleichungssysteme . . . . . . . . . . . . 125 4.4 Homogene lineare DGLen h¨oherer Ordnung . . . . . . . . . . . . . . . . 129 4.5 Transformation von Differentialgleichungssystemen . . . . . . . . . 130 4.6 Inhomogene lineare Differentialgleichungen . . . . . . . . . . . . . . . . . 131 Inhomogene lineare DGL k-ter Ordnung . . . . . . . . . . . . . 131 4.7 Reduktion der Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 Historische Notizen zu d’Alembert . . . . . . . . . . . . . . . . . . . . . . . . . . 136 Maple Worksheets zu Kapitel 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
VII
5
Lineare Differentialgleichungen und DGL-Systeme II . . . . . 151 5.1 Exponentialfunktion von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . 152 5.2 Homogene lineare DGL-Systeme mit konstanten Koeffizienten 155 5.3 Zweidimensionale Systeme, Stabilit¨at . . . . . . . . . . . . . . . . . . . . . 159 5.4 Lineare DGL-Systeme mit konstanten Koeffizienten und speziellen Inhomogenit¨aten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 5.5 Lineare DGLen h¨oherer Ordnung mit konstanten Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 5.6 Homogene lineare Differentialgleichungen mit periodischen Koeffizientenfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 Historische Notizen zu Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Maple Worksheets zu Kapitel 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
6
N¨ utzliches — nicht nur f¨ ur den Praktiker . . . . . . . . . . . . . . . . . 205 6.1 L¨ osungen u ¨ber Potenzreihenansatz . . . . . . . . . . . . . . . . . . . . . . . . 205 Hermite-Differentialgleichung . . . . . . . . . . . . . . . . . . . . . 207 Legendre-Differentialgleichung . . . . . . . . . . . . . . . . . . . . 208 6.2 Schwach singul¨are Punkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 Bessel-Differentialgleichung . . . . . . . . . . . . . . . . . . . . . . . 220 6.3 Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 Anwendung auf Anfangswertaufgaben . . . . . . . . . . . . . . . 231 Unstetige Inhomogenit¨aten . . . . . . . . . . . . . . . . . . . . . . . . 236 Zur inversen Laplace-Transformation . . . . . . . . . . . . . . 238 Kleine Tabelle von Laplace-Transformierten . . . . . . . . 240 Historische Notizen zu Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 Maple Worksheets zu Kapitel 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
7
Rand- und Eigenwertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 7.1 Randwertaufgaben f¨ ur lineare DGL-Systeme mit linearen Randbedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 Green-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
VIII
7.2 Randwertprobleme f¨ ur lineare DGLen k-ter Ordnung . . . . . . . . 274 7.3 Nicht-lineare Randwertaufgaben und Fixpunktprobleme . . . . . 282 7.4 Selbstadjungierte Randwertaufgaben . . . . . . . . . . . . . . . . . . . . . . 283 7.5 Selbstadjungierte Randeigenwertaufgaben . . . . . . . . . . . . . . . . . 287 Fourier-Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292 Entwicklungss¨atze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294 7.6 Sturm-Liouville-Randeigenwertaufgaben . . . . . . . . . . . . . . . . 301 Historische Notizen zu Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304 Maple Worksheets zu Kapitel 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . 305 8
Anhang u ¨ ber Matrixfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 325 8.1 Matrixpolynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325 Spektraldarstellung von Sylvester-Buchheim . . . . . . 328 8.2 Matrixfunktionen: Definition, Eigenschaften . . . . . . . . . . . . . . . . 331 8.3 Beispiele zur Berechnung von Matrixfunktionen . . . . . . . . . . . . 339 Historische Notizen zu Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 Maple Worksheets zum Anhang u ¨ ber Matrixfunktionen . . 347
Anhang zu Maple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371 Namen- und Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373 Index zu Maple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
Einleitung
Es gibt viele gute und auch einige sehr gute B¨ ucher u ohnliche Diffe¨ber Gew¨ rentialgleichungen. Das vorliegende Buch versucht keineswegs, allein die Zahl solcher B¨ ucher zu erh¨ ohen; das Hauptziel wird aus dem Untertitel Theorie ” und Praxis“ und dem Zusatz vertieft und visualisiert mit Maple“ deutlich. ” Sein besonderer Reiz liegt in der Kombination einer sehr sorgf¨ altig ausgearbeiteten zeitgem¨ aßen Einf¨ uhrung in die Theorie mit zahlreichen Beispielen und zugeh¨ origen Arbeitsbl¨ attern mit Maple vom Feinsten‘. Das Computeral’ gebrasystem wird so mit den Inhalten der Theorie verkn¨ upft, daß das Schwergewicht auf Erkl¨ arung, Vertiefung, Ein¨ ubung und Visualisierung liegt. Es wird eine Einf¨ uhrung in die Theorie der Gew¨ ohnlichen Differentialgleichungen gegeben f¨ ur Mathematiker, Physiker, Wirtschaftswissenschaftler und Ingenieure — allgemeiner auch f¨ ur Studierende mit Mathematik als Nebenfach. Dabei haben wir durchaus auch die vermehrt eingef¨ uhrten BachelorStudieng¨ ange im Blick, bei denen eine angemessene Stoffreduzierung gegen¨ uber vielen herk¨ ommlichen Darstellungen unumg¨ anglich ist. Gerade auch bei den Differentialgleichungen ist Visualisierung, oft gekoppelt mit dynamischen Abl¨ aufen, besonders wichtig. Bei uns wird zus¨ atzlich gezeigt, wie man solche Dinge relativ leicht selbst verwirklichen kann. Solide Grundkenntnisse der Linearen Algebra vorausgesetzt, kann unser Buch nach einer zweisemestrigen Einf¨ uhrung in die Analysis, also ab dem 3. Studiensemester, gewinnbringend f¨ ur alle Studieng¨ ange herangezogen werden. ahige MethoDem Lernenden werden mathematisch saubere‘ und leistungsf¨ ’ den an die Hand gegeben, was die praktische Arbeit wesentlich erleichtert. Der Lehrende findet ein ansprechendes und ausgefeiltes Buch, das er zur Orientierung oder als Begleittext ohne jeden Vorbehalt empfehlen kann. Gleich zu Beginn sei ausdr¨ ucklich gesagt: Vokabeln wie etwa Leser‘ sollten ’ stets als Leserin und Leser‘ verstanden werden. Sprachliche Spielereien wie ’ ¨ LeserInnen‘ oder der (die) Leser(in)‘ und Ahnliches finden wir unsch¨ on und ’ ’ wenig sinnvoll. Auch wenn wir das nicht fortw¨ ahrend betonen: Weibliche und m¨ annliche Leser des Buches sind uns gleichermaßen willkommen. Das vorliegende Buch kann den Lernenden von Beginn an begleiten und als Grundlage oder Erg¨ anzung zu einer Einf¨ uhrung in die Gew¨ ohnlichen Differentialgleichungen im Grundstudium dienen. Es schafft gute Voraussetzungen f¨ ur die Besch¨ aftigung mit weiterf¨ uhrenden oder allgemeineren Themen und vor allem f¨ ur die vielf¨ altigen Anwendungen. Das Buch kann dem Lehrenden, der die zu pr¨ asentierenden Themen und Methoden st¨ arker heutigen computerunterst¨ utzten M¨ oglichkeiten anpassen will, eine gute Hilfe und zuverl¨ assiger Wegweiser sein.
X
Einleitung
Wir haben uns immer wieder bem¨ uht, dem Leser die zugrundeliegenden Ideen nahezubringen und ihn zum Mitmachen zu animieren. Dies hat die Darstellung stark gepr¨agt. Zu allen Themen finden sich im Text zahlreiche, meist vollst¨ andig durchgerechnete und mit Bedacht ausgew¨ ahlte Beispiele. Die große F¨ ulle der ausgef¨ uhrten Beispiele zeigt ausgiebig das Wie“, der sonstige Text erl¨ autert ” das Warum“. Die Maple-Arbeitsbl¨ atter zeigen dann, wie man die Dinge ” mit einem Computeralgebrasystem umsetzen kann. Sie geben vielf¨ altige Anregungen zum selbst¨ andigen Experimentieren. Instruktive und sorgf¨ altig ausgew¨ ahlte Abbildungen tragen — auch schon im Textteil — zur Veranschaulichung des Stoffes bei und erleichtern so das Verst¨andnis. Auf ein detailliertes Durchgehen der Gliederung des Buches verzichten wir. ¨ Das ausf¨ uhrlich gehaltene Inhaltsverzeichnis gibt vorweg gen¨ ugend Ubersicht. Ein erstes Durchbl¨ attern d¨ urfte zur Lekt¨ ure des gesamten Buches verf¨ uhren. Es seien nur einige Besonderheiten des Textes erw¨ ahnt: • Anders als in vielen sonstigen Lehrb¨ uchern wird der Stoff an dem orientiert, was in einem Semester im Grundstudium machbar ist. Die vielen ungew¨ohnlich positiven R¨ uckmeldungen von Studenten und Kollegen zu unserem entprechenden Buch u ¨ber Funktionentheorie zeigen, daß eine Darstellung der vorgelegten Art sehr willkommen ist. • Exemplarisch werden Anwendungsbeispiele unter verschiedenen Aspekten angesprochen. • Laplace-Transformationen werden angemessen behandelt, da sie — besonders f¨ ur viele Praktiker — ein unverzichtbares Werkzeug darstellen. • Viele Themen werden relativ fr¨ uh mit Vorteil f¨ ur allgemeine DGL-Systeme behandelt und dann jeweils auf den zweidimensionalen Fall beziehungsweise Differentialgleichungen h¨ oherer Ordnung spezialisiert. Dies erweist sich als fruchtbar und erh¨ oht die Durchsichtigkeit. • Nach der Pflicht in den ersten 7 Kapiteln enth¨ alt der Anhang u ¨ber Matrixfunktionen noch ein K¨ urprogramm. Die Besch¨ aftigung mit diesem Thema entwickelte sich urspr¨ unglich aus der Frage, wie ein Computeralgebrasystem — hier speziell Maple — die Exponentialfunktion von Matrizen beziehungsweise allgemeiner Matrixfunktionen berechnet. • Zahlreiche historische Anmerkungen und Notizen unterstreichen, daß sich hinter den zentralen Begriffen und Theorien der Mathematik das Wirken herausragender Einzelpers¨ onlichkeiten verbirgt. Nat¨ urlich konnten nicht alle Themen behandelt werden: So fehlen etwa bewußt der Satz von Peano, separate Eindeutigkeits¨ uberlegungen, Ausf¨ uhrungen zum Lorentz-Attraktor und weitergehende Stabilit¨ atsaussagen.
Einleitung
XI
Zur inhaltlichen und didaktischen Konzeption ist folgendes zu sagen: Unser Buch soll den Lernenden ab dem dritten Semester begleiten und wird sicher auch sp¨ ater noch zuverl¨assiger Ratgeber und Nachschlagem¨ oglichkeit sein. Es ist durchaus auch zum Selbststudium geeignet; denn es ermuntert fortw¨ ahrend zu aktivem Mitdenken und eigenem Tun. Dabei ist die mathematische Darstellung durch die Computerrealisierung begleitet. Beide Ebenen werden jedoch bewußt voneinander getrennt. Die Darstellung ist weit entfernt davon, eine bloße Sammlung von Kochrezepten zu sein. Gerade die mathematisch strenge Herleitung zentraler Ideen und durchgehend pr¨azise Formulierung f¨ordern entscheidend Verst¨ andnis und Durchblick und geben so erst die gew¨ unschte Sicherheit bei der Anwendung. Nur ganz vereinzelt, wo ein vollst¨andiger strenger Beweis nicht ratsam schien, beschr¨ anken wir uns auf einen Literaturverweis.
Zu Maple Wir wollen Lernende, Lehrende und Praktiker gewinnen, ein Computeralgebrasystem im Alltag‘ angemessen einzusetzen. Anwender k¨ onnen st¨ arker f¨ ur ’ die erforderliche Theorie gewonnen werden, wenn — mehr als sonst meist u ¨blich — Verbindungen zum praktischen Rechnen erkennbar sind. Das dauernde Wechselspiel zwischen Text, dort auch mit vielen ausf¨ uhrlich durchgerechneten instruktiven Beispielen, und Maple-Worksheets‘, kurz MWSs, ’ f¨ uhrt zu einer wesentlich besseren Durchdringung des Stoffes. Viele Beispiele des Textteils werden in den MWSs aufgegriffen und neue Gesichtspunkte beleuchtet, die nicht nur f¨ ur Maple-Nutzer interessant sind. Auch andere Leser finden hier erg¨ anzendes Material und ausf¨ uhrlich durchgerechnete Aufgaben. Wir hoffen, daß etwas von unserer Begeisterung auf die Leser u ¨berspringt und Lehrende neue Impulse f¨ ur die Gestaltung ihrer Vorlesungen mitnehmen. Computeralgebrasysteme wie etwa Maple k¨onnen in Kombination mit innovativen Ans¨ atzen Lehre, Lernen und den Gebrauch von Mathematik nachhaltig reformieren. Wir stehen erst am Anfang einer rasanten Entwicklung. Der Stoff kann effizienter und weniger fehleranf¨ allig pr¨ asentiert werden, als dies allein mit Bleistift und Papier bzw. Kreide und Tafel m¨ oglich ist. Vor allem k¨ onnen viel komplexere Beispiele bearbeitet und visualisiert werden. Die ausgef¨ uhrten und didaktisch aufbereiteten Worksheets geben Vorschl¨ age onnen. und Anregungen, die selbst¨andig erg¨anzt und modifiziert werden k¨ Zur L¨ osung von Differentialgleichungen gibt es — vergleichbar etwa mit der Bestimmung von Stammfunktionen — kein Patentrezept, keine Methode, die immer zum Ziel f¨ uhrt. Zu vielen Differentialgleichungen existiert gar keine analytische L¨ osung. Dies trifft durchaus bereits auf solche zu, die bei der Modellierung von einfachen Problemen der Praxis auftreten. Deshalb zieht
XII
Einleitung
Maple — wie andere Computeralgebrasysteme — neben analytischen Verfahren auch numerische Methoden heran. Mit der zus¨ atzlichen M¨ oglichkeit der Visualisierung (Richtungsfelder, Phasenportraits, . . . ) hat man eine leistungsf¨ahige Arbeitsumgebung zur Hand, in der auch lebensnahe Aufgaben ¨ angegangen werden k¨ onnen und nicht nur einfache Ubungsaufgaben, die mit zumutbarem Aufwand von Hand‘ gel¨ ost werden k¨ onnen. Jedoch nur mit si’ cheren theoretischen Kenntnissen und intensivem Ein¨ uben der zugeh¨ origen Ergebnisse k¨onnen solche Computeralgebrasysteme sinnvoll eingesetzt werden. Sonst ist man ihnen hilflos ausgeliefert. Wir wollen keineswegs Maple unkritisch preisen, sondern weisen durchaus immer wieder auch auf Grenzen, Schw¨ achen und Macken‘ des Systems hin. ’ Maple ist sicher kein Rundum-Sorglos-Paket! Wie bei vielen Dingen im Computerbereich in der heutigen Zeit, w¨ unschen sich die Nutzer eigentlich ruhigere und daf¨ ur deutlich ausgereiftere Produkt-Zyklen‘. Neben faszinierenden ’ Dingen stehen n¨amlich auch solche, bei denen man den Kopf sch¨ uttelt. Wir nutzen Maple nicht nur, wie oft zu sehen, sondern gestalten damit und setzen Ideen um, hier speziell bei Gew¨ ohnlichen Differentialgleichungen. Wir sind u atsmaßstab ¨berzeugt, auch mit diesem Buch einen neuen Qualit¨ zu setzen, was f¨ ur die Akzeptanz von Computeralgebrasystemen im Hochschulbereich — auch ausbauf¨ ahig in Richtung e-learning — f¨ orderlich sein wird. Nat¨ urlich soll niemand m¨ uhsam Maple-Code abtippen. Diesen findet man — sp¨ ater auch mit Aktualisierungen — u ¨ber
http://www.springeronline.com/3-540-22226-X . An die Lehrenden Das Konzept des Buches basiert auf unseren langj¨ ahrigen Erfahrungen mit recht verschiedenartigen Veranstaltungen aus dem Gesamtspektrum der Analysis. Neben vielen Vorlesungen f¨ ur Mathematik- und Physikstudenten der Anfangssemester bis hin zum Aufbaustudium an den Universit¨ aten Konstanz und Ulm haben wir beide oft auch Serviceveranstaltungen abgehalten und so Gesp¨ ur daf¨ ur entwickelt, was außerhalb des Elfenbeinturms‘ ben¨ otigt ’ wird. Gerade durch die Anforderung, Mathematik auf sehr verschiedenen Niveaus bei unterschiedlichen Ausrichtungen und zum Teil noch deutlich auseinanderliegenden Eingangsvoraussetzungen zu lehren, ist im Laufe der Zeit vieles mehrfach u anzt worden und ¨berarbeitet, gegl¨attet, verbessert und erg¨ auf diese Weise ein — mathematisch und didaktisch — u ¨berzeugendes und bew¨ ahrtes Konzept entstanden. Leistungsf¨ahige und zugkr¨ aftige Methoden erwachsen in dieser Darstellung aus dem Zusammenspiel zwischen mathematisch richtiger‘ Sichtweise, die Eleganz und Transparenz nach sich zieht, und ’ Anwendungsorientierung.
Einleitung
XIII
Was die Kombination der Differentialgleichungen mit Computeralgebrasystemen angeht, findet man im deutschsprachigen Bereich noch relativ wenige ausgereifte Darstellungen. Die Skepsis mancher Kollegen in Bezug auf den Einsatz eines solchen Systems ist oft auch uneingestandene Angst vor dem Unbekannten und noch nicht Vertrauten. Wir wollen besonders auch diejenigen Kollegen ansprechen, sie ermuntern und ihnen Hilfen geben, die bisher dem Einsatz von Computeralgebrasystemen auch in der Lehre eher distanziert gegen¨ uberstehen. Die M¨ oglichkeiten, das Lernen und Begreifen von Mathematik durch ein solches System zu unterst¨ utzen, sind beeindruckend — nur wissen das viele Kollegen gar nicht und z¨ ogern daher noch, solche Dinge auch in den Lehrveranstaltungen einzusetzen. Der Einsatz Neuer Medien in der Lehre birgt besonders in der Mathematik neben Chancen auch zahlreiche Risiken. Gerade deshalb sollten die Lehrenden ihre Sachkenntnis einbringen und dieses Gebiet mitgestalten, bevor fachfremde Instanzen die Alleinkompetenz beanspruchen. Wir sind u ¨berzeugt, daß unser Buch langfristig neben den Klassikern der Theorie einen festen und besonderen Platz im Angebot einnehmen wird. Das mathematisch ausgereifte — jedoch recht anspruchsvolle — Buch [Sc/Sc] von Friedrich-Wilhelm Sch¨ afke und Dieter Schmidt und Lehrveranstaltungen dieser beiden Autoren schon w¨ ahrend der 60er-Jahre haben einige Teile unseres Buches deutlich gepr¨ agt. Doch haben wir diese Dinge dann aufgebohrt‘ und mit durchgerechneten Beispielen angereichert, weil wir in ’ vielen Jahren die Erfahrung gemacht haben, daß der u ¨berwiegende Teil der Studenten deutlich mehr Hilfen ben¨ otigt, als dort gegeben werden. Auf diese Weise entstand ein Buch, das nicht allein f¨ ur die Kollegen, sondern vor allem f¨ ur die Lernenden geschrieben, aber gewiß kein N¨ urnberger Trichter ist. Die Lernenden werden von uns ein St¨ uck des Weges an der Hand gef¨ uhrt, sie bekommen die Sch¨ onheiten am Wegesrand gezeigt, werden allerdings nicht in einer S¨anfte getragen! Da sich das Buch nicht ausschließlich an Studierende der Mathematik, Wirtschaftswissenschaften und Physik und sicher nicht an Spezialisten wendet, hat es — in Umfang, Tiefe und Stoffauswahl — deutlich andere und wesentlich bescheidenere Ziele als etwa die Darstellungen von [Sc/Sc], [Wal], [Co/Le] oder auch [Hs/Si]. Diese B¨ ucher empfehlen wir besonders interessierten Studenten zur erg¨ anzenden und weiterf¨ uhrenden Lekt¨ ure. Im Vergleich dazu liegen hier mathematisches Niveau und Stoffumfang niedriger. F¨ ur den Gebrauch zu und neben Vorlesungen haben wir insgesamt einen realistischen Zeitplan im Auge und mußten uns so beschr¨ anken! An die Lernenden Mathematik lernt man — wie fast alles im Leben — vor allem durch eigenes Tun. Man sollte beim Durcharbeiten eines Mathematikbuches Bleistift, Pa-
XIV
Einleitung
pier und einen (großen) Papierkorb — und in diesem speziellen Fall m¨ oglichst auch einen Computer mit Maple — parat haben und fleißig nutzen. Ausdr¨ ucklich sei gesagt: Die L¨ange der Darstellung eines einzelnen Themas in der Vorlesung oder in einem Buch entspricht nur selten dem zeitlichen Aufwand, der f¨ ur das Durcharbeiten bis zum wirklichen Verst¨ andnis erforderlich ist.
Zum Gebrauch des Buches √ soll das Ende eines Beweises optisch hervorheben. Mit “ haben ” ¨ wir gelegentlich Routine-Uberlegungen abgehakt‘. Manche Dinge haben wir ’ farbig eingerahmt, um sie optisch st¨ arker hervorzuheben. Nat¨ urlich geh¨ort etwa bei Symbolen oder Notierungsweisen der Rahmen nicht dazu. In Beweisen haben wir manchmal linke Seite‘ und rechte Seite‘ mit .S.‘ bzw. ’ ’ ’ r.S.‘ abgek¨ urzt. Œ‘ steht f¨ ur Ohne Einschr¨ ankung‘. ’ ’ ’ H¨ aufig haben wir einzelne W¨ orter oder Formulierungen mit einfachen Anf¨ uhrungsstrichen versehen: Dabei handelt es sich meist um eigentlich‘ noch zu ’ pr¨azisierende Dinge. Die Beispiele im Text sind kapitelweise numeriert.
Animationen, die im Buch nat¨ urlich nur auszugsweise zu sehen sind, haben wir am Rande durch das Symbol
gekennzeichnet. Durch die Daumenindizes k¨ onnen die einzelnen Kapitel und MWSs leicht aufgefunden werden.
Zum Maple-Layout Da die recht einfache Darstellung u ¨ber Export LATEX‘ unter Maple bei uns ’ doch viele W¨ unsche — f¨ ur eine Buchwiedergabe — offenließ, haben wir einen eigenen, uns voll befriedigenden Stil f¨ ur die Ein- und Ausgabe von Maple gew¨ahlt und dabei das m¨ ogliche Zusammenspiel Maple-LATEX-PostScript genutzt. Um ein besseres Schriftbild zu erhalten, haben wir manche Ausgaben geringf¨ ugig gesch¨ ont‘, z. B. Klammern weggelassen oder hinzugef¨ ugt, manch’ mal etwa ϕ statt Φ oder P1 statt P 1 geschrieben. Um Platz zu sparen, sind oft Maple-Ausgaben (auch Graphiken) nebeneinander plaziert. Titel von Graphiken wurden durchgehend im Text gesetzt.
Einleitung
XV
Dank Gern benutzen wir diese Gelegenheit, um noch einmal all denen zu danken, die uns bei der Erstellung des Buches unterst¨ utzt haben. Nur einige davon wollen wir namentlich besonders erw¨ ahnen: Markus Sigg hat das gesamte Manuskript durchgesehen. Er war uns mit seiner Sorgfalt und mathematischen und sprachlichen Kompetenz eine große Hilfe, gelegentlich kritisch und mahnend, immer der Sache dienend. Stefanie Rohrer hat einige Kapitel aufmerksam gelesen und auf manche Unstimmigkeiten hingewiesen. Die Verantwortung f¨ ur eventuell noch verbliebene Fehler liegt nat¨ urlich allein bei uns. Albert Schneider hat uns freundlicherweise das Kursmaterial [Schn] zur Verf¨ ugung gestellt, aus dem wir einige Anregungen entnehmen konnten. D.H. verdankt Rainer Janßen als gutem Freund Anregungen, Ermutigung und manche Hilfe, was das Arbeitsumfeld angeht. Ein Buch wie dieses ist nicht ohne gute Computer-Arbeitsbedingungen zu realisieren. Hierf¨ ur danken wir unserem Ulmer Kollegen Franz Schweiggert sowie den Mitarbeitern seiner Abteilung. Von diesen sei Andreas Borchert namentlich erw¨ahnt. Er hat — wie schon bei der Arbeit an unserem Buch u ¨ber Funktionentheorie — bei der Computerverbindung Konstanz-Ulm mit bewundernswerter Sachkenntnis Starthilfe gegeben und uns immer wieder unterst¨ utzt. D.H. dankt noch Oliver Maruhn f¨ ur sehr kompetente Hilfen im Computerbereich. Wir danken Thomas Richard von der Firma Scientific Computers GmbH f¨ ur Unterst¨ utzung bei der Arbeit mit Maple. Wir danken unseren Ehefrauen, die besonders in der langen Schlußphase der Bucherstellung viel Geduld mit ihren gestreßten und nur noch bedingt alltags´ ´on, Etienne, tauglichen M¨annern aufbringen mußten. D.H. dankt noch Le Gabriel, Nicolas und Luca, die zwar noch nicht wirklich bei der Arbeit an diesem Buch helfen konnten, ihm dabei aber einen wunderbaren Blick aus anderer Augenh¨ohe auf die nicht-mathematische Welt erm¨ oglicht haben. Zum Schluß m¨ochten wir allgemein, besonders aber auch den Fachleuten und Kennern, sagen: Wir w¨ urden uns u onliche Reaktionen sehr freuen. ¨ber pers¨ Verbesserungsvorschl¨ age, Hinweise auf Fehler(chen), Anregungen und konstruktive Kritik sind willkommen — aber auch Lob nehmen wir gerne entgegen! Ulm Konstanz 8. Dezember 2004
Wilhelm Forst Dieter Hoffmann
¨ Einfu ¨ hrende Uberlegungen 1.1
1.2
Erste Aspekte Was ist eine Differentialgleichung? Welche Fragen stellen wir? Mathematische Modellierung Richtungsfelder Euler-Polygonzugverfahren
Die Theorie der gew¨ ohnlichen Differentialgleichungen ist eine der mathematischen Disziplinen, in denen die Anwendbarkeit der Mathematik besonders augenf¨ allig zutage tritt. Die Bedeutung der wechselseitigen Beziehungen zwischen der Theorie der Differentialgleichungen und den Naturwissenschaften, oder — allgemeiner — Wissenschaften, die die Erfahrung auf einer h¨ oheren Ebene als der rein beschreibenden interpretieren, kann nur schwerlich u ¨bersch¨atzt werden. Die Theorie steht in andauerndem fruchtbaren Kontakt zu diesen Wissenschaften, wobei diese einerseits wertvolle Hilfe durch die Theorie der Differentialgleichungen erfahren, andererseits die Theorie immer wieder mit konkreten Fragestellungen neu beleben und fordern. Dadurch ist dieses Gebiet weniger als manch andere Bereiche in der Mathematik ausschließlich seiner Eigendynamik gefolgt und weniger in Gefahr, durch mathematische Inzucht‘ in Richtung l’art pour l’art“ zu degenerieren. ’ ” Um einen Eindruck von dem faszinierenden Anwendungsreichtum der Differentialgleichungen zu geben, haben wir einige Beispiele zusammengestellt, die aufzeigen, wie Forscher verschiedenster Gebiete Differentialgleichungen zur L¨ osung oder als einen L¨ osungsversuch auch von real life‘-Problemen mitbe’ nutzen:
¨ ist proportional zum IstSchon der ganz einfache Fall y = ay (Anderung Zustand) erfaßt so verschiedenartige Dinge wie z. B.: Radioaktiver Zerfall [Zac] Anf¨angliche Entwicklung einer Bakterienkultur [Ma/Mu] Blutkonzentration eines Pharmakons nach intraven¨oser Injektion [Fuc] Barometrische H¨ohenformel [Hai]
Kapitel 1
Kapitel 1
Kapitel 1
2
¨ Einf¨ uhrende Uberlegungen
Kapitel 1
Zellwachstum1 Stetige Verzinsung
[Bat] [Hof]
Man vergleiche hierzu insbesondere auch [Heu] und [Bra].
ay + by + cy = f (x) b = 0, f = 0: Hookesches Gesetz Schwingendes Federpendel Schwingungen von Atomen und Molek¨ ulen ¨ + R Q˙ + Elektromagnetische Schwingkreise L Q Elektrische Polarisation Modell zur Diabetes-Aufdeckung (GTT)
Q C
[Col] [Hof] [Zac] = U0 cos ω t [Me] [Ma/Mu] [Bra]
y1 = −α1 y1 y2 = α1 y1 −α2 y2 Radioaktiver Zerfall von Mutter- und Tochtersubstanz Futterdurchgang durch Wiederk¨ auermagen
[Ma/Mu] [Bat]
y1 = ay1 −by1 y2 y2 = cy1 y2 −dy2 (kontinuierliches) R¨ auber-Beute-Modell Verwendung von Insektenvernichtungsmitteln Zwei Parteien, die unabh¨ angig voneinander existieren k¨ onnen, treten in Konkurrenz und sch¨ adigen sich gegenseitig.
[Had] [Bra] [Kn/Ka]
y = k(a − y)(b − y) Chemische Reaktion, bei der sich Stoffe A und B zum Stoff C (= y) zusammensetzen.
[Zac]
y1 = −ay1 y2 y2 = ay1 y2 −by2 y3 = by2 Epidemie-Verlauf (y1 anf¨ allig, y2 infiziert, y3 isoliert, immun oder tot) [Def]
y1 = y1 + 2y2 − µ
y2 = y2 − 2y1 − µ
y1 + µ
[(y1 + µ)2 + y22 ] y2
2 3
2
[(y1 + µ)2 + y22 ] 3
− µ
− µ
y 1 − µ 2
[(y1 − µ )2 + y22 ] 3 y2
Bewegung eines Satelliten im Kraftfeld von Erde und Mond (unter vereinfachenden Annahmen) 1
bis zu einer gewissen Gr¨ oße, dann Zellteilung
2
[(y1 − µ )2 + y22 ] 3
[Bu/St]
1.1
Erste Aspekte
3
Kapitel 1
1.1 Erste Aspekte Was ist eine Differentialgleichung? Es seien k ∈
, D ⊂
×
und F : D −→
k+1
.
Dann heißt
F x, y, y , . . . , y (k) = 0
(∗)
gew¨ ohnliche Differentialgleichung“, kurz DGL“. Genauer bedeutet dies: ” ” Gesucht sind ein Intervall2 J ⊂ und eine k-mal differenzierbare Funktion y : J −→ mit: x, y(x), y (x), . . . , y (k) (x) ∈ D und F x, y(x), y (x), . . . , y (k) (x) = 0 f¨ ur alle x ∈ J .
y heißt dann L¨ osung“ von (∗) (in J), in ¨ alterer Literatur auch Integral“. ” ” Man sagt auch y erf¨ ullt die DGL“ oder y gen¨ ugt der DGL“. ” ” Das Argument l¨ aßt man in der Notierung meistens — wie in (∗) — weg.
H¨ angt F t1 , . . . , tk+2 in D effektiv‘ vom (k + 2)-ten Argument ab, so ’ wird k als Ordnung“ der DGL (∗) bezeichnet. ” Wir beschr¨anken uns weitgehend auf den expliziten“ Fall, d. h. die DGL ist ” nach der h¨ochsten Ableitung der gesuchten Funktion aufgel¨ost, hat also — mit einer geeigneten Funktion f — die Form:
y (k) = f x, y, . . . , y (k−1) Sonst sprechen wir von impliziten“ DGLen. ” Bei einer gew¨ ohnlichen Differentialgleichung ist eine Funktion einer Variablen gesucht; anders als bei partiellen Differentialgleichungen, bei denen die gesuchte Funktion von mehreren Variablen abh¨ angt. In den folgenden Vor¨ uberlegungen beschr¨ anken wir uns auf den einfachen Fall einer expliziten DGL 1. Ordnung
y = f (x, y) 2
D⊂
2
, f : D −→
.
Ein Intervall“ sei im folgenden immer ein echtes Intervall, d. h. eine nicht” leere, nicht-einpunktige zusammenh¨ angende — m¨ oglicherweise unbeschr¨ ankte — Teilmenge von .
Kapitel 1
4
Kapitel 1
¨ Einf¨ uhrende Uberlegungen
Welche Fragen stellen wir? Es stellen sich sofort zumindest die folgenden zentralen Fragen: 1) Existiert (lokal) eine L¨ osung? 2) Falls ja: Wie gewinnt man eine L¨ osung? 3) Falls ja: Eindeutigkeit? (bei gegebenem Anfangswert“ (a, b) ∈ D)3 ” 4) Maximale L¨ osung (Existenzintervalle): Fortsetzung (von L¨osungen) 5) Abh¨ angigkeit der L¨ osung(en) von Parametern‘ ’ 6) Charakterisierung der L¨ osung(en) 7) Qualitatives Verhalten Erste Anmerkungen dazu: Zu 1), 2):
angt und l¨osen‘ Schon im einfachsten Fall y (x) = f (x) , wo f nur von x abh¨ ’ das Aufsuchen einer Stammfunktion4 bedeutet, sehen wir, daß die Gewinnung einer L¨osung Probleme bereiten ur stetiges x kann: Zwar k¨onnen wir f¨ f eine L¨osung durch y(x) = b + a f (t) dt sofort angeben; aber diese ist nicht immer in geschlossener Form‘ durch bekannte elementare Funktionen x ’ darstellbar. Dies ist aber wiederum auch nicht so schlimm; denn a f (t) dt l¨aßt sich mit kontrollierbarer Genauigkeit berechnen. (Man vergleiche dazu etwa auch die approximative Berechnung von sin x durch Partialsummen der definierenden Potenzreihe.) Dar¨ uber hinaus hat Liouville (1841) gezeigt, daß im allgemeinen Fall viele Differentialgleichungen — z. B. die scheinbar harmlose Differentialgleichung y = x2 − y 2 — keine L¨osungen haben, die in geschlossener Form durch Integration aus elementaren und in der Differentialgleichung selbst gegebenen Funktionen ausgedr¨ uckt werden k¨onnen. Zu 3): √ y = y
3
(y ≥ 0),
hat in [0, ∞[ die L¨ osungen
Gesucht sind ein Intervall I mit a ∈ I und eine differenzierbare Funktion so, daß (x, y(x)) ∈ D und y (x) = f (x, y(x)) f¨ ur alle x ∈ I sowie y : I −→ y(a) = b gelten. Man spricht von einem Anfangswertproblem“ oder einer An” ” fangswertaufgabe“ ( AWP“ oder AWA“). ” ” In diesem Spezialfall wird die fr¨ uhere Bezeichnung Integral“ f¨ ur eine L¨ osung ” besonders verst¨ andlich.
4
y(0) = 0
1.1
Erste Aspekte
5
Kapitel 1
4 2 y(x) = 0 , y(x) = x und 4
⎧ ⎨0 , 2 y(x) = ⎩ (x − α) , 4
3 2
0≤x≤α
1
α≤x<∞ 0 0
1
2
4
3
5
6
f¨ ur 0 < α < ∞ . Es gibt also lokal um 0 unendlich viele L¨ osungen! In Abschnitt 2.1 werden wir sehen, daß durch die o. a. Funktionen alle L¨ osungen erfaßt sind.
F¨ ur diejenigen, die ein Faible f¨ ur besonders Abartiges haben, sollten wir noch sagen: Es gibt eine Differentialgleichung, die an jeder Stelle des 2 lokal nicht eindeutig l¨osbar ist ([Har], Lavrentieff (1925)).
Zu 4) — Existenzintervalle: Die einfache AWA y = y 2 ,
y(x) =
osung y(0) = c > 0 hat die L¨
c f¨ ur − ∞ < x < 1 . c 1 − cx
Dies zeigt: Allgemeine Existenzs¨atze sind notwendig von lokaler Natur. Existenz im Großen‘ kann nur unter zus¨atzlichen Bedingungen gesichert wer’ den. Mathematische Modellierung Ehe wir zu 5) etwas sagen, wollen wir uns ansehen, wie im Groben die Beziehung zwischen Theorie und Anwendung ist — man spricht von Modellierung oder Mathematisierung eines Problems. Bei der mathematischen Beschreibung einer Fragestellung — etwa aus Naturwissenschaften, Technik, Medizin, Wirtschafts- und Sozialwissenschaften — ist jeweils eine Darstellung gesucht, die nur die als wichtig angesehenen Eigenschaften eines Vorbildes in einem u ¨berschaubaren und mathematisch beherrschbaren geeigneten Modell wiedergibt. Ein solches Modell kann ein leistungsf¨ahiges Werkzeug zum Verst¨ andnis der Welt‘ sein und zu Vorhersagen und zur Kontrolle dienen. ’ Es handelt sich also um eine vereinfachende, schematisierende und idealisierende Darstellung eines Objektes oder Objektbereiches, in der Beziehungen und Funktionen der Elemente der Objekte — unter speziell vorgegebenen Gesichtspunkten — deutlich herauskristallisiert und hinreichend gut beschrieben werden. Beobachtung, Erfahrung, Experiment, . . . f¨ uhren durch Idealisierung und Isolierung zur mathematischen Formulierung des Problems.
Kapitel 1
6
Kapitel 1
¨ Einf¨ uhrende Uberlegungen
¨ Nach Ubersetzung“ in die Sprache der Differentialgleichungen (diese be” schreibt meist nur approximativ das Problem) ist dann zun¨achst eine L¨ osung — im Sinne von 1) – 4) — gefragt. ¨ Die Ubertragung der aus der Modellierung gewonnenen Ergebnisse auf die Wirklichkeit (R¨ uckinterpretation) erfordert stets sorgf¨altige und kritische ¨ Uberpr¨ ufung (Begrenztheit des G¨ ultigkeitsbereiches). Sie m¨ ussen interpretiert, diskutiert und ausgedeutet werden. Die theoretischen Folgerungen sind dann empirisch zu u ufen. Sie best¨ atigen im g¨ unstigen Fall das Modell ¨berpr¨ oder widerlegen es, was eine bessere Modellierung und damit einen Neuansatz erfordert. Zu 5) — Abh¨ angigkeit der L¨ osung(en) von Parametern‘: ’ Die Abh¨ angigkeit der L¨ osung von Eingabedaten ist daher von gr¨oßter Wichtigkeit f¨ ur Anwendungen: Die Anfangswerte a und b erh¨alt man etwa durch Messen (Experiment), sie haben also nur beschr¨ankte Genauigkeit! Auch f ¨ beschreibt oft nur angen¨ ahert das Problem. Die Anderungen von a, b und f ¨ beeinflussen die L¨ osung‘. Wie beherrscht man dieses Anderungsverhalten? ’¨ ¨ Bringen kleine‘ Anderungen von a, b und f auch nur kleine‘ Anderungen ’ ’ der L¨ osungen?
g g y = − sin y ≈ − y (einfaches Pendel) h h g Die rechte Seite der DGL − sin y wird — lokal um 0 — durch h g den einfacheren Ausdruck − y ersetzt. h Zu 6) — Charakterisierung der L¨ osung(en):
Beispiel:
Das breite Spektrum der Aussagen hierzu sei exemplarisch durch drei v¨ ollig unterschiedliche m¨ ogliche Antworten angedeutet: • Die Menge der L¨ osungen ist ein Vektorraum. (Dies ist z. B. bei der homogenen linearen DGL (Abschnitte 2.3 und 4.2) der Fall.) • Alle L¨ osungen lassen sich durch Potenzreihen darstellen. (Hier ist dann ein Potenzreihenansatz gerechtfertigt.) • Die L¨ osungen liegen zwischen einer minimalen und einer maximalen. (Man vergleiche dazu etwa (B2) aus Abschnitt 2.1.) Zu 7) — Qualitatives Verhalten Nicht zu allen Differentialgleichungen kann eine analytische L¨ osung gefunden werden. Selbst aber, wenn eine solche L¨ osung existiert, kann die zugeh¨ orige Formel‘ oder Beschreibung zu kompliziert sein, um daraus wichtige Eigen’ schaften der L¨ osung zu entnehmen.
1.2
Richtungsfelder
7
Kapitel 1
Die qualitative Theorie der Differentialgleichungen besch¨aftigt sich mit dem geometrischen Charakter von L¨ osungen, speziell damit, wie charakteristische Eigenschaften der L¨ osung erschlossen werden k¨onnen, ohne die vorgegebene Differentialgleichung zu l¨ osen. So wird etwa in Phasenbildern‘ die Dynamik‘ spezieller Systeme visuali’ ’ siert. Dabei untersucht man u. a. das Langzeitverhalten (x → ∞), speziell Fragen der Stabilit¨ at. So interessieren etwa bei Planetenbewegungen nicht immer die genauen Bahnen, wohl aber die Stabilit¨at des Planetensystems. Entsprechendes gilt z. B. auch in der Biologie (R¨auber-Beute-Modelle) und in den Wirtschaftswissenschaften (Marktmodelle). Wir gehen darauf allgemein kurz in Abschnitt 3.6 und speziell — f¨ ur homogene lineare Differentialgleichungssysteme mit konstanten Koeffizienten — in Abschnitt 5.3 ein.
1.2 Richtungsfelder Wir betrachten hier die explizite DGL 1. Ordnung y = f (x, y) . f ordnet jedem Punkt (x, y) (aus dem Definitionsbereich von f ) eine Steigung (Richtung) f (x, y) zu. Repr¨ asentiert man diese Richtungen in ihren Tr¨agerpunkten durch kleine Geradenst¨ ucke von eben diesen Richtungen — sogenannte Linienelemente“ —, so erh¨ alt man ein Richtungsfeld“. L¨osun” ” gen der DGL entsprechen Kurven‘, die ins Richtungsfeld hineinpassen, in ’ jedem ihrer Punkte also das dort vorgegebene Linienelement als Tangente haben. Richtungsfelder — als geometrische Deutung von DGLen — dienen nicht nur zu deren besserem intuitiven Verst¨ andnis, sondern k¨onnen den Charakter der L¨ osungsgesamtheit aufzeigen und liefern zudem eine einfache graphische Methode, um N¨ aherungsl¨ osungen zu finden. Sehen wir uns einige Beispiele an: b) y = 1 y a) y = y − x2 2
Kapitel 1
8
¨ Einf¨ uhrende Uberlegungen
Kapitel 1
Die durchgezogenen Linien zeigen jeweils m¨ ogliche L¨osungskurven. In b) h¨ angt f nur von y ab, was sich nat¨ urlich auch aus der Zeichnung entnehmen l¨ aßt. Im folgenden Beispiel c) sind die L¨ osungen mit y(a) = b > 0 Halbkreise: √ √ 2 2 y(x) = r − x (−r < x < r) mit r := a2 + b2 : y c) y = − x d) y = y x
Bei d) ist die L¨osung mit y(a) = b (a > 0) gegeben durch die Halbgerade: y(x) := b x (x > 0) . a
Euler-Polygonzugverfahren Aus der geometrischen Beschreibung durch Richtungsfelder liest man eine sehr einfache Methode zur n¨aherungsweisen Bestimmung einer L¨ osung direkt ab. Man startet irgendwo‘, legt eine positive Schrittweite h fest und geht ’ dann jeweils in der am schon erreichten Punkt vorgegebenen Richtung ein St¨ uck — der L¨ ange h in x-Richtung — geradlinig weiter: Bei Vorgabe eines Startwertes‘ (x0 , y0 ) erh¨alt man so den Polygonzug durch ’ die Punkte (xn , yn ), wobei xn := x0 + n h,
yn+1 := yn + f (xn , yn ) h
(n ∈
0)
.
1.2
Richtungsfelder
y = 14 x, y(0) = 0; x0 := y0 := 0, h := 1
Dieses Beispiel ist bewußt einfach gehalten, damit die Steigungen und Funktionswerte noch durch Handrechnung leicht nachvollzogen werden k¨onnen. 4 3 2 1 0 0
1
2
3
4
5
6
Das so erhaltene Verfahren wird Euler-Polygonzugverfahren, auch CauchyPolygonzugverfahren, Euler-Cauchy-Polygonzugverfahren oder nur Euler-Verfahren genannt. Es ist eines der ¨altesten und einfachsten Einschrittverfahren‘ ’ zur n¨ aherungsweisen L¨osung einer AWA. Auf numerische Gesichtspunkte dabei — etwa Einfluß der Schrittweise und Verhalten f¨ ur große n — gehen wir an dieser Stelle nicht ein.
Kapitel 1
Beispiel
9
Kapitel 1
10
Kapitel 1
¨ Einf¨ uhrende Uberlegungen
Historische Notizen
Leonhard Euler (1707–1783) Mathematiker und Physiker, geb. 15. 4. 1707 in Basel, gest. 18.9.1783 in St. Petersburg. Er war wohl der bedeutendste Mathematiker des 18. Jahrhunderts. Neben der Mathematik hatte er stets ein weites Spektrum von Anwendungen im Blick. Trotz seiner Erblindung im Jahre 1766 war er bis zu seinem Tod wissenschaftlich t¨ atig. Ausdruck seiner Vielseitigkeit und Kreativit¨ at sind die zahlreichen Begriffe, Methoden und S¨ atze, die mit seinem Namen verbunden sind.
Augustin Louis Cauchy (1789–1857) Franz¨ osischer Mathematiker, geb. 21.8.1789 in Paris, gest. 22.5.1857 in Sceaux. Er hatte wesentlichen Anteil an der Entwicklung und Pr¨ azisierung der Analysis im 19. Jahrhundert. In seinem Cours d’Analyse de ” ´ l’Ecole Polytechnique“ wurden vorher nur intuitiv benutzte Begriffe von ihm exakt erfaßt, so der Grenzwertbegriff, Ableitung und Integral. Seine Interessenund Arbeitsgebiete waren sehr breit angelegt. Sein Name wird heute vor allem mit den Gebieten Analysis, Funktionentheorie und Differentialgleichungen verbunden.
¨ Einfu ¨ hrende Uberlegungen Wichtige Maple-Befehle dieses Kapitels: PDEtools-Paket: declare DEtools-Paket: DEplot, dfieldplot, phaseportrait arrows (line, small, medium, . . . ), dirgrid, grid, stepsize plots-Paket: animatecurve, coordplot, fieldplot, odeplot dsolve (type=numeric, method=classical[foreuler])
1.2 Richtungsfelder Graphische Veranschaulichung Die Eingabe einer Differentialgleichung erfolgt in naheliegender Weise in Form einer Gleichung. F¨ ur das weitere Arbeiten mit Maple empfiehlt es sich, der Gleichung einen Namen zuzuweisen. Fr¨ uhere Maple-Versionen gaben alle Ableitungen, die in einer DGL auftreten, als partielle Ableitungen aus. Ab d y(x) verwendet: Maple 8 wird die gewohnte Schreibweise dx > restart: OFF: Dgl := diff(y(x),x) = f(x,y(x));
Dgl :=
d dx
y(x) = f (x, y(x))
Mit Hilfe des declare-Befehls aus dem PDEtools-Paket kann man Funktionen und Ableitungen in u ¨bersichtlicherer Form ausgeben. Variablen, nach denen abgeleitet wird, erscheinen als Indizes, und man kann einer Variablen — etwa durch die Option prime = x — eine besondere Rolle geben. Ableitungen nach dieser Variablen werden dann durch Apostrophe gekennzeichnet.
Wir haben diese Anweisung (neben anderen) bereits in unsere private Initialisierungsdatei ( .mapleinit bei Unix/Linux bzw. maple.ini bei Windows) in der Form PDEtools[declare](prime=x,y(x),quiet): eingetragen. Dies hat den Vorteil, daß sie beim Hochfahren von Maple und nach jedem restart uckt die Ausgabe von ausgef¨ uhrt wird. Die zus¨atzliche Option quiet unterdr¨
MWS 1
MWS zu Kapitel 1
MWS 1
12
MWS zu Kapitel 1
¨ Einf¨ uhrende Uberlegungen
kommentierendem Text dazu. Mit Hilfe der Befehle OFF (siehe oben) und ON (siehe unten) kann man die Wirkung des declare-Befehls nach Belieben aus- bzw. wieder einschalten.
y = f (x, y)
> ON: Dgl;
Die Veranschaulichung einer Differentialgleichung durch ein Richtungsfeld kann mit Maple auf unterschiedliche Weise realisiert werden. Wir beginnen mit dem Maple-Befehl DEplot aus dem DEtools-Paket, der aufgrund der Voreinstellung dirgrid=[20, 20] ein Gitter von 20 × 20 Linienelementen zeichnet. Durch eine Liste von Anfangswerten kann man einfach eine oder mehrere L¨ osungen in das Richtungsfeld einzeichnen:
Beispiel a) > with(DEtools): with(plots): f := (x,y) -> y-x^2; AnfBed := [y(0) = 1], [y(0) = 3]; # Alternativ: AnfBed := [0,1], [0,3];
f := (x, y) → y − x2 AnfBed := [y(0) = 1], [y(0) = 3] > DEplot(Dgl,y(x),x=-1..3.5,y=-12..30,[AnfBed],linecolor=blue, color=black,arrows=line,axes=frame,xtickmarks=3); 30
20
y(x)
10
0
–10 0
x
2
Die Option y=-12..30 kann hier mit der Liste [AnfBed] vertauscht werden: > DEplot(Dgl,y(x),x=-1..3.5,[AnfBed],y=-12..30,linecolor=blue, color=black,arrows=line,axes=frame,xtickmarks=3):
alt man dasselbe Bild. Hier kann die Reihenfolge der Mit phaseportrait erh¨ Optionen [AnfBed], y=-12..30 nicht vertauscht werden! Wir wissen nicht, ob die Maple-Entwickler sich dabei etwas gedacht haben.
1.2
Richtungsfelder
(MWS)
13
Soll der Verlauf der L¨ osungen im Richtungsfeld durch Pfeile (an Stelle von einfachen Linienelementen) betont werden, so ist die Option arrows=line wegzulassen oder z. B. durch arrows=medium zu ersetzen.
Ben¨ otigt man nur das Richtungsfeld, so kann es auch mit dem Befehl ¨ dfieldplot aus dem DEtools-Paket gezeichnet werden. Durch Uberlagerung mit zwei L¨ osungen der Differentialgleichung erhalten wir folgende Animation:
5
> dsolve({Dgl,y(0)=b},y(x)): y1 := unapply(rhs(%),x,b): Feld := dfieldplot(Dgl,y(x),x=-1..3.5,y=-12..30,color=gray, arrows=medium,thickness=1): Kurven := animatecurve({y1(x,1),y1(x,3)},x=-1..3.5,color=blue, thickness=3,frames=50): display(Kurven,Feld,axes=frame,xtickmarks=3);
30
20
10
0
–10 0
x
2
F¨ ur die Animation berechnet Maple entsprechend der Option frames=50 eine Folge von 50 Bildern. Durch Anklicken der Graphik erscheint eine Men¨ uleiste. Ist Balloon-Help aktiviert, kann man leicht feststellen, welche Funktion die einzelnen Kn¨opfe haben, und damit das Ablaufen der Animation steuern. Dies stimmt mit den Tasten auf u aten u ¨blichen Abspielger¨ ¨berein, ist daher ganz einfach. Interessant ist auch folgende Animation, welche die Abh¨ angigkeit der L¨ osung vom Anfangswert veranschaulicht. Wir verzichten hier auf die Ausgabe einer Momentaufnahme der Graphik. > Kurven := animate(y1(x,b),x=-1..3.5,b=1..3,color=blue,thickness=3, frames=50): display(Kurven,Feld,axes=frame,xtickmarks=3);
MWS 1
> phaseportrait(Dgl,y(x),x=-1..3.5,[AnfBed],y=-12..30,linecolor=blue, color=black,arrows=line,axes=frame,xtickmarks=3):
MWS 1
14
MWS zu Kapitel 1
¨ Einf¨ uhrende Uberlegungen
Hier noch — wieder ohne Ausgabe der Graphik — eine weitere Variante: > NORM := sqrt(1+f(x,y)^2): Feld := fieldplot([1/NORM,f(x,y)/NORM],x=-1..3.5,y=-12..30, color=gray,arrows=medium,thickness=1): display(Kurven,Feld,axes=frame,xtickmarks=3,view=-12..30):
Soll bei der Erzeugung eines Richtungsfeldes mittels fieldplot das voreingestellte Gitter von 20 × 20 Linienelementen ver¨andert werden, so ist an Stelle von dirgrid hier grid zu verwenden.
Beispiel b) In diesem Falle h¨ angt die Funktion f nur von y ab. > f := (x,y) -> y/2; AnfBed := [y(0) = 1/4], [y(0) = 1/2];
f := (x, y) →
1 y, 2
AnfBed := [y(0) = 1/4], [y(0) = 1/2]
> DEplot(Dgl,y(x),x=-3..5,y=-3/2..4,[AnfBed],linecolor=blue,color =black,arrows=line,axes=frame,xtickmarks=3,scaling=constrained); 4 3 2
y(x)
1 0 –1 –2
0
2
4
x Beispiel c) > f := (x,y) -> -x/y; AnfBed1 := seq([y(0) = k],k=1..5); AnfBed2 := [y(0) = -5/2],[y(0) = -9/2];
x y AnfBed1 := [y(0) = 1], [y(0) = 2], [y(0) = 3], [y(0) = 4], [y(0) = 5] AnfBed2 := y(0) = −5/2 , y(0) = −9/2 f := (x, y) → −
Wegen der Singularit¨at f¨ ur y = 0 setzt sich die folgende Abbildung aus zwei Teilbildern zusammen. Ferner muß die Schrittweite mittels der Option stepsize hinreichend klein gew¨ ahlt werden.
1.2
(MWS)
15
> DEplot(Dgl,y(x),x=-5..5,y=0.1..5,[AnfBed1],linecolor=blue, color=gray,arrows=line,stepsize=0.02): DEplot(Dgl,y(x),x=-5..5,y=-5..-0.1,[AnfBed2],linecolor=black, color=gray,arrows=line,stepsize=0.02): display(%,%%,tickmarks=[[-5,-3,-1,1,3,5],0],scaling=constrained);
–5
–3
–1
1
3
5
x
Beispiel d) > f := (x,y) -> y/x; AnfBed1 := seq([y(1)=y0],y0=[-2,-1/4,1/2,4/3,4]); AnfBed2 := seq([y(-1)=y0],y0=[-3,-1/5,1,4]);
y x AnfBed1 := [y(1) = −2], [y(1) = −1/4], [y(1) = 1/2], [y(1) = 4/3], [y(1) = 4] f := (x, y) →
AnfBed2 := [y(−1) = −3], [y(−1) = −1/5], [y(−1) = 1], [y(−1) = 4]
5
> DEplot(Dgl,y(x),x=0.1..7,y=-4..7,[AnfBed1],linecolor=blue, color=gray,arrows=none): DEplot(Dgl,y(x),x=-7..-0.1,y=-4..7,[AnfBed2],linecolor=black, color=gray,arrows=none): display(%,%%,thickness=2,tickmarks=[3,3],scaling=constrained);
5
y(x)
–5
5
x
MWS 1
5
Richtungsfelder
MWS 1
16
MWS zu Kapitel 1
¨ Einf¨ uhrende Uberlegungen
Euler-Polygonzugverfahren Wir betrachten die folgende einfache Anfangswertaufgabe: > restart: with(plots): f := (x,y) -> x/4: Dgl := diff(y(x),x) = f(x,y(x)); AnfBed := y(0) = 0;
Dgl := y =
x , 4
AnfBed := y(0) = 0
Obwohl deren L¨ osung auf der Hand liegt (Stammfunktion zu f durch (0, 0)), berechnen wir sie symbolisch mit Hilfe des vielseitigen Maple-Befehls dsolve: > dsolve({Dgl,AnfBed},y(x));
y=
x2 8
Die anschauliche Deutung einer Differentialgleichung mittels eines Richtungsfeldes legt es nahe, die exakte L¨ osung dieser Anfangswertaufgabe durch eine st¨ uckweise lineare Funktion zu approximieren, die man in das Richtungsfeld einpaßt: Ausgehend von einem N¨ aherungswert Y an der Stelle X erh¨alt man so die N¨aherung Y + h · f (X, Y ) an der Stelle X + h . Wir berechnen die N¨ aherungsl¨ osung mit Hilfe elementarer Maple-Befehle und unterlegen ihr in der Graphik zur Verdeutlichung ein Gitter:
5
> n := 6: Xend := 6: h := Xend/n: X := 0: Y := 0: S := X,Y: to n do Y := Y+h*f(X,Y); X := X+h; S := S,X,Y end do: printf("%13s %16s","x","Y(x,h)"); printf(cat("%14.1f %04.2f \n"$n+1),S);
x 0.0 1.0 2.0 3.0 4.0 5.0 6.0
Y (x, h) 0.00 0.00 0.25 0.75 1.50 2.50 3.75
> L := [[S[2*j-1],S[2*j]] $ j=1..n+1]: Loesung := plot(x^2/8,x=0..Xend,color=black,thickness=2): Punkte := pointplot(L,symbol=circle,color=blue): Polygon := listplot(L,color=blue):
1.2
(MWS)
17
GitterOption := cartesian,[0..Xend,0..4],view=[0..Xend,0..4]: Gitter := coordplot(GitterOption,grid=[7,5],color=[black $ 2]), coordplot(GitterOption,grid=[25,17],color=[gray $ 2]): display(Loesung,Punkte,Polygon,Gitter,axes=frame,tickmarks= [[$ 0..Xend],[$ 0..4]],scaling=constrained); 4
3
2
1
0 0
1
2
3
4
5
6
x Durch die zweifache Anwendung des Kommandos coordplot wird ein grobes (schwarzes) bzw. ein feines (graues) Gitter mit Gitterbreite 1 bzw. 1/4 erzeugt. GitterOption enth¨ alt die drei wichtigsten Parameter: cartesian ist der Name des gew¨ unschten Koordinatensystems. Es folgt eine Liste von zwei Bereichen, die in der kartesischen Parameterebene das Rechteck [0, 6] × [0, 4] ur das Gitter beschreiben, und durch view wird im Bildbereich ein Fenster f¨ festgelegt. Die Zahl der Gitterlinien wird mit Hilfe der Option grid gesteuert.
Leser, die mit diesem Teil des Worksheets herumexperimentieren und dabei z. B. die Schrittweite h verkleinern wollen, indem sie die Zahl n der Integrationsschritte vergr¨ oßern, werden beobachten, daß die zugeh¨origen EulerPolygonz¨ uge sich — erwartungsgem¨ aß — der L¨osung der AWA n¨ahern. Alternativ kann man die L¨ osung mit dsolve unter Verwendung der Optioaherungsweise berechnen type=numeric und method=classical[foreuler] n¨ nen. Mit Hilfe des Befehls odeplot aus dem plots-Paket kann man sie zeichnen: > p := dsolve({Dgl,AnfBed},y(x),type=numeric, method=classical[foreuler],stepsize=h, output=array([evalf(k*h) $ k=0..n])): eval(p);
MWS 1
5
Richtungsfelder
MWS 1
18
MWS zu Kapitel 1
⎡
0 ⎢1 ⎢ ⎢2 ⎢ ⎢3 ⎢ ⎢4 ⎢ ⎣5 6
¨ Einf¨ uhrende Uberlegungen
[x, y] ⎤ 0.00 0.00 ⎥ ⎥ 0.25 ⎥ ⎥ 0.75 ⎥ ⎥ 1.50 ⎥ ⎥ 2.50 ⎦ 3.75
> Punkte := odeplot(p,style=point,symbol=circle,color=blue): Polygon := odeplot(p,color=blue): display(Loesung,Punkte,Polygon,Gitter,axes=frame, tickmarks=[[$ 0..Xend],[$ 0..4]],scaling=constrained):
Da die Graphik nahezu identisch ist mit der vorangehenden Abbildung, verzichten wir hier auf eine Wiedergabe.
Kapitel 2 Kapitel 2
Elementare Integrationsmethoden 2.1 Differentialgleichungen mit getrennten Variablen‘ ’ 1 y+r1 2.2 Differentialgleichungen vom Typ y = f pp12 x+q x+q2 y+r2 2.3 Lineare Differentialgleichungen 1. Ordnung 2.4 Bernoulli-Differentialgleichung 2.5 Riccati-Differentialgleichung Zusammenhang mit homogener linearer DGL 2. Ordnung Elementare Integration bei bekannter spezieller L¨osung 2.6 Exakte Differentialgleichungen Multiplikatoren 2.7 Clairaut-Differentialgleichung Von elementaren Integrationsmethoden‘ sprechen wir, wenn die L¨ osung etwa durch ’ Aufsuchen von Stammfunktionen, durch Aufl¨ osen von Gleichungen oder mit Hilfe geeigneter Transformationen gewonnen wird.
2.1 Differentialgleichungen mit getrennten Variablen‘ ’ Wir betrachten in diesem Abschnitt Differentialgleichungen der Gestalt
y =
f (x) . g(y)
(∗)
Dazu machen wir die Annahmen: Es seien I1 und I2 Intervalle, f : I1 −→ g : I2 −→
stetig und stetig mit g(s) = 0 f¨ ur s ∈ I2 .
Aufgabe: Zu den Anfangswerten“ a ∈ I1 und b ∈ I2 suchen wir ein Intervall ” osung y von (∗) mit y(a) = b . I ⊂ I1 mit a ∈ I und eine auf I definierte L¨ Wir bezeichnen — wie schon erw¨ ahnt — diese Aufgabe (hier und analog im folgenden) als Anfangswertaufgabe“, kurz AWA“. ” ” Vorweg bemerken wir: 1) Durch Variation von a und b werden alle L¨ osungen erfaßt.
20
Kapitel 2
Elementare Integrationsmethoden
2) Eine L¨ osung von (∗) ist automatisch stetig differenzierbar.
Kapitel 2
Die grobe Idee recht einfach: Man formt um zu y (t) g(y(t)) = f (t) und x ist x integriert: a y (t)g(y(t)) dt = a f (t) dt . Nach Substitution s := y(t) ist y(x) die linke Seite gerade y(a) g(s) ds. Anschließend l¨ost man nach y(x) auf. Die genaue Durchf¨ uhrung folgt dem skizzierten Vorgehen, erfordert jedoch etwas mehr Aufwand: Die Vor¨ uberlegung f¨ uhrt zur Betrachtung der beiden Funktionen x y G(y) := g(s) ds (y ∈ I2 ) . F (x) := f (t) dt (x ∈ I1 ), a
b
Da die Funktion g in I2 keine Nullstellen und damit — als stetige Funktion — konstantes Vorzeichen hat, ist G streng monoton (streng wachsend oder streng fallend). Zudem ist G nat¨ urlich stetig differenzierbar. F¨ ur das Intervall I3 := G(I2 ) gilt somit: G : I2 −→ I3 ist bijektiv. So ist die Umkehrfunktion G−1 : I3 −→ I2 stetig differenzierbar und (in gleichem Sinne) streng monoton. F¨ ur eine auf einem Intervall I ⊂ I1 mit a ∈ I definierte differenzierbare Funktion y : I −→ I2 ist die AWA offenbar a ¨quivalent zu G(y(x)) = F (x) bzw. y(x) = G−1 F (x) = G−1 ◦ F (x) f¨ ur x ∈ I . Es sei I0 das maximale‘ Teilintervall von I1 mit a ∈ I0 und F (x) ∈ I3 f¨ ur ’ x ∈ I0 1 , so gilt — falls I0 ein echtes Intervall ist — : ist eine L¨ osung der AWA. y0 ist maximale L¨ y0 := G−1 ◦ F | osung“ in I0 ” dem Sinne, daß jede andere L¨ osung der AWA hieraus durch Einschr¨ ankung entsteht. Wegen a ∈ I, F (a) = 0 und b ∈ I2 , 0 = G(b) ∈ I3 hat man stets a ∈ I0 . Jedoch kann I0 einpunktig sein! (Man vergleiche hierzu (B 1).)
Von den folgenden drei Beispielen ist das erste Routine (man vergleiche auch das unter c) in Abschnitt 1.2 skizzierte Richtungsfeld), die letzten beiden sind besonders wichtig: (B1) y = − x y
(y > 0)
Dieses Beispiel ordnet sich mit I1 := , f (x) := −x, I2 := ]0, ∞ [, ¨ g(y) := y und beliebigen a ∈ I1 , b ∈ I2 in die allgemeinen Uberlegungen ein. Daher wird 2F (x) = −x2 + a2 , 2G(y) = y 2 − b2 und ¨ Aus der Aquivalenz F (x) ∈ I3 somit I3 := G(I2 ) = ] − 12 b2 , ∞ [. genau√dann, wenn x2 < a2 + b2 , ergibt sich I0 = ] − r , r [ mit G(y(x)) = F (x) liefert y(x)2 − b2 = r := a2 + b2 . Die Forderung √ ur x ∈ I0 . −x2 + a2 , also y(x) = r2 − x2 f¨ 1
Vornehmer ausgedr¨ uckt: I0 ist diejenige Zusammenhangskomponente von alt. F −1 (I3 ) , die a enth¨
2.1
Differentialgleichungen mit getrennten Variablen‘ ’
21
W¨ ahlt man f¨ ur a ≥ 0 die Intervalle I1 := [ a , ∞ [ und I2 := [ b , ∞ [ , dann ist — wegen I3 = [ 0 , ∞ [ — I0 = {a} , also einpunktig.
(B2) y =
|y|
F (x) := G(y) :=
x a y
f (t) dt = x − a (x ∈ I1 ) , 1
s− 2 ds = 2
√ √ y− b
(y ∈ I2 )
b
ergibt sich √ I3 := G(I2 ) = ] − 2 b, ∞ [ ,
√ F (x) ∈ I3 ⇐⇒ x > a − 2 b =: β, 2 (x ∈ I0 ). I0 = ]β , ∞ [ , y0 (x) := G−1 F (x) = 1/4 x − β Entsprechend erh¨ alt man ur I1 := , I2 := ] − ∞, 0[ und a ∈ I1 , f¨ osung b ∈ I2 mit α := a + 2 |b| auf I0 = ] − ∞ , α [ die L¨ y0 (x) = −1/4 (x − α)2 . Dies kann man — ohne erneute Rechnung — unmittelbar aus der ersten ¨ Uberlegung erhalten; denn mit y ist offenbar die durch v(x) := −y(−x) gegebene Funktion v ebenfalls L¨ osung. Auch aus der Symmetrie des Richtungsfeldes ist dies unmittelbar abzulesen.
osung. (Hierzu k¨ onnen die Zudem liefert y(x) = 0 (x ∈ ) eine L¨ ¨ obigen allgemeinen Uberlegungen nicht herangezogen werden!) Als Gesamtl¨ osung der DGL erh¨alt man so f¨ ur −∞ ≤ α ≤ β ≤ ∞ (im nicht-trivialen Fall α = +∞ und β = −∞ ): ⎧ 1 2 ⎪ ⎨− 4 (x − α) , x < α yα,β (x) := 0 , α≤x≤β ⎪ ⎩1 2 (x − β) , x>β 4
Hierzu sind nur noch die (einseitigen) Grenz¨ uberg¨ange von yα,β und an den Nahtstellen‘ zu betrachten. yα,β ’ S¨ amtliche L¨osungen erh¨alt man hieraus durch Einschr¨ankung. Insbesondere existieren f¨ ur a ∈ und jedes Intervall I mit a ∈ I unendlich viele L¨ osungen durch (a, 0). Diese liegen zwischen den extremalen‘ ’ L¨ osungen: 0 ,x≤a , also ymax = y−∞,a , ymax (x) := 1 2 (x − a) ,x≥a 4
Kapitel 2
Wir w¨ahlen zun¨ achst I1 := , I2 :=]0, ∞ [, a ∈ I1 und b ∈ I2 1 beliebig und setzen f (t) := 1 (t ∈ I1 ), g(s) := s− 2 (s ∈ I2 ) . Mit
22
Kapitel 2
Kapitel 2
und
− 14 (x − a)2 ymin (x) := 0
Elementare Integrationsmethoden
,x≤a , ,x≥a
also
ymin = ya,∞
Man spricht in einem solchen Fall gelegentlich von einem Trichter‘ ’ von L¨osungen. Lokal hat man also keine Eindeutigkeit, obwohl eine explizite DGL vorliegt, ihre rechte Seite stetig ist und diese nur von y abh¨angt.
ymax 4 3
y−1,2
2 1 −4 −3 −2 −1 −1
1
2
3
4
−2 −3
ymin
−4
(B3) y = 1 + y 2
1 w¨ahlen. Zu 1 + y2 alt man F (x) = x−a, G(y) = arctan y − arctan b . beliebigen a, b ∈ erh¨ Daher ist I3 = ]− π2 − arctan b, π2 − arctan b[ . Wegen F (x) ∈ I3 ⇐⇒ x ∈ ] − π2 + c, π2 + c[ = I0 mit c := a − arctan b ergibt sich (x ∈ I0 ) . y0 (x) = tan(x − c) Hier kann man I1 := I2 :=
, f (x) = 1 und g(y) =
Diese L¨ osungen haben private‘ (individuelle) beschr¨ ankte maximale ’ Existenzintervalle, die nicht direkt aus der DGL ablesbar sind, obwohl die DGL mit sehr regul¨ aren‘ Funktionen gebildet ist. ’ Man vergleiche auch das Beispiel zu 4) auf Seite 5.
2.2
Differentialgleichungen vom Typ y = f
p1 x + q1 y +r1 p2 x + q2 y + r2
2.2 Differentialgleichungen vom Typ y = f
23
p1 x+ q1 y + r1 p2 x+ q2 y + r2
Als ersten Spezialfall behandeln wir
y = f (λx + y)
(λ ∈ )
und dazu naturgem¨ aß den Streifen S := {(x, y) ∈
(I) 2
: λx + y ∈ J} .
Z. B. f¨ ur J = ] − 1, 2[ und λ = 1: 4 3 2 1
-2
-1 -1
1
2
3
-2
F¨ ur ein Intervall I betrachten wir die (bijektive) Transformation 2 y −→ u
u(x) = λx + y(x) (x ∈ I) und erhalten: speziell (x, y(x)) ∈ y ist genau dann eine L¨osung von (I) auf I S f¨ ur x ∈ I , wenn u : I −→ differenzierbar ist mit u(x) ∈ J und u (x) = λ + f (u(x)) f¨ ur x ∈ I . mit
Damit ist dieser Spezialfall im wesentlichen auf Abschnitt 2.1 zur¨ uckgef¨ uhrt. ur ein u0 ∈ J gilt, liefert Es ist dabei noch zu beachten: Falls λ + f (u0 ) = 0 f¨ y(x) = u0 − λx eine L¨osung. ¨ Ein einfaches Beispiel soll die Uberlegungen verdeutlichen. Wir greifen es dann — geringf¨ ugig modifiziert — noch einmal in dem zugeh¨ origen MapleWorksheet auf: 2
Von einer Transformation sprechen wir, wenn jeder Funktion y einer gegebenen Klasse eindeutig eine Funktion u zugeordnet wird und umgekehrt.
Kapitel 2
Hierbei seien pκ , qκ , rκ f¨ ur κ = 1, 2 reelle Zahlen, J ein Intervall und f : J −→ eine stetige Funktion. Œ k¨ onnen wir ausgehen von (q1 ,q2 ) = (0,0) (sonst w¨ are nur‘ eine Stamm’ p1 q1 r1 aren Z¨ ahler funktion zu bestimmen) und rg p2 q2 r2 = 2 (denn sonst w¨ und Nenner proportional).
24
Kapitel 2
Kapitel 2
(B4) y = (x + y)2
Elementare Integrationsmethoden
y(0) = 0
Eine L¨ osung y dieser DGL auf einem Intervall I ergibt f¨ ur u(x) = x + y(x) (x ∈ I) die DGL u (x) = 1 + u(x)2 . Die Anfangsbedingung y(0) = 0 wird zu u(0) = 0. (B3) zeigt u(x) = tan x f¨ ur x ∈ J mit maximalem Intervall J := ]− π2 , π2 [ . Folglich gilt:
y(x) = tan x − x f¨ ur x ∈ − π , π 2 2 Im zweiten Spezialfall
y = f
y −y 0
(II)
x − x0
f¨ ur feste x0 , y0 ∈
betrachten wir entsprechend den Winkelbereich y − y0 ∈J . W := (x, y) ∈ 2 : x = x0 ∧ x − x0
Z. B. f¨ ur x0 = y0 = 0 und J = ]0.5, 1.5[: 4 3 2 1
-2
-1 -1
1
2
3
-2
F¨ ur ein Intervall I, das x0 nicht enth¨alt, transformieren wir y(x) − y0 = u(x)(x − x0 ) f¨ ur x ∈ I und erhalten unter Beachtung von y (x) = u (x)(x − x0 ) + u(x): y ist eine L¨ osung von (II) auf I speziell (x, y(x)) ∈ W f¨ ur x ∈ I differenzierbar ist mit u(x) ∈ J und genau dann, wenn u : I −→ f¨ u r x ∈ I . u (x) = f (u(x))−u(x) x−x0
Damit ist auch dieser Spezialfall im wesentlichen zur¨ uckgef¨ uhrt auf Abschnitt 2.1. Wir beachten noch: Wenn f (γ) = γ f¨ ur ein γ ∈ J gilt, liefert dann y(x) = γ(x − x0 ) + y0 eine L¨osung in ] − ∞, x0 [ und in ]x0 , ∞[ . Auch hierzu ein Beispiel, das dann in dem entsprechenden Maple-Worksheet — wieder leicht modifiziert — aufgegriffen und vertieft wird:
Differentialgleichungen vom Typ y = f
2.2
y y (B5) y = sin x + x ,
p1 x + q1 y +r1 p2 x + q2 y + r2
25
y(1) = π 2
u =
f (u) − u = sin u x x
mit
u(1) = π 2
¨ gilt. In die Uberlegungen von Abschnitt 2.1 ordnet sich dies ein mit:
ur x ∈ I1 := ]0, ∞ [ , h(x) := 1 f¨ x
g(u) :=
1 f¨ ur u ∈ I2 := ]0, π [ sin u
Gewiß wird niemand dar¨ uber stolpern, daß wir hier f¨ ur die erste Funktion eine andere Bezeichnung (h statt f ) gew¨ ahlt haben, da ja f oben schon ur x ∈ ]0, ∞ [ und u ∈ ]0, π [ betrachten wir verwendet wurde. F¨
x F (x) :=
1 dt = log x und G(u) := t
1
u π 2
1 ds = log(tan(u/2)) . sin s
Offenbar ist I3 := G(I2 ) = . Die Bedingung G(u(x)) = F (x) bedeutet tan(u(x)/2) = x . Damit hat man u(x) = 2 arctan x und so y(x) = 2x arctan x . Jetzt k¨ onnen wir die allgemeine Aufgabe durch Reduktion auf (I) und (II) p1 q1 p1 q1 = λ . So = 1 existiert ein λ ∈ mit l¨ osen: Im Fall rg p2 q2 p2 q 2 erh¨ alt man q (λx + y) + r p x + q y + r 1 1 1 1 1 =: f(λx + y) , = f f q2 (λx + y) + r2 p2 x + q 2 y + r 2
also eine DGL vom Typ (I). p 1 q1 Im Fall rg = 2 existiert eindeutig (x0 , y0 ) ∈ 2 mit p2 q 2 p1 x0 + q1 y0 + r1 = 0 , p2 x0 + q2 y0 + r2 = 0 . Hier erh¨alt man u ¨ber f
y −y p (x − x ) + q (y − y ) p x + q y + r 0 1 0 1 0 1 1 1 =: f = f x − x0 p2 (x − x0 ) + q2 (y − y0 ) p2 x + q 2 y + r 2
eine DGL vom Typ (II).
Kapitel 2
¨ F¨ ur dieses Beispiel ist in den allgemeinen Uberlegungen J := , 0 zu setzen. Der Winkelf (s) := sin(s) + s f¨ ur s ∈ und y0 := x0 := bereich ist somit W = (x, y) ∈ 2 : x = 0 , und die Transformation lautet speziell y(x) = xu(x) f¨ ur x ∈ I auf einem Intervall I mit 1 ∈ I, 0 ∈ / I . Eine dort definierte Funktion y l¨ ost genau dann die vorgegebene AWA, wenn
26
Kapitel 2
Elementare Integrationsmethoden
2.3 Lineare Differentialgleichungen 1. Ordnung Wir betrachten hier die ¨ außerst wichtige lineare DGL 1. Ordnung
Kapitel 2
y = f (x) y + g(x) ;
(I)
dabei seien J ein Intervall und f, g : J −→ stetige Funktionen. Im Falle g = 0 bezeichnen wir die DGL als inhomogen. Die Bedeutung dieser DGL kann nur schwerlich u ¨bersch¨atzt werden. Selbst ¨ ist proportional zum Ist-Zustand) der ganz einfache Fall y = C y (Anderung — also g = 0 und f konstant — erfaßt recht verschiedenartige Dinge, wie wir schon in der Auflistung auf Seite 1f angedeutet haben. F¨ ur ein a ∈ J wird durch
x
y0 (x) := exp
f (t) dt
a
f¨ ur x ∈ J eine (stetig differenzierbare) L¨ osung y0 der zugeh¨origen homoge” nen (linearen) Differentialgleichung“
y = f (x) y
(H)
auf J erkl¨ art, die y0 (x) > 0 und y0 (a) = 1 erf¨ ullt. (Dies kann man auch mit der Methode aus Abschnitt 2.1 herleiten.)
Ist y eine L¨ osung von (I) in dem Existenzintervall J0 ⊂ J mit a ∈ J0 und aßt sich y stets in der Form y(a) = b ∈ , dann l¨ y(x) = c(x) y0 (x)
(x ∈ J0 )
mit (stetig) differenzierbarem c : J0 −→ ist ja durchweg ungleich 0. Es gilt dann
Variation der Konstanten“ ” schreiben; denn die Funktion y0
f c y0 + g = f y + g = y = c y0 + c y0 = c y0 + cf y0 , ::::
::::
also c (x) = g(x) y0 (x)
−1
; damit ist notwendig: x y(x) = y0 (x) g(t)y0 (t)−1 dt + b
(1)
a
Andererseits wird durch (1) eine L¨ osung von (I) mit y(a) = b erkl¨art. Wir fassen zusammen: Satz 2.3.1
F¨ ur a ∈ J und b ∈ ist die — eindeutig bestimmte — L¨ osung y von (I) auf J mit y(a) = b gegeben durch (1) . S¨ amtliche L¨ osungen von (I) erh¨ alt man durch Variation von a und b und Einschr¨ ankung auf Teilintervalle.
2.3
Lineare Differentialgleichungen 1. Ordnung
27
Das maximale Existenzintervall der L¨ osungen ist also hier jeweils J . Folgerung 2.3.2
β) F¨ ur eine L¨ osung y der homogenen DGL gilt: Ist y nicht konstant gleich Null, so ist y stets von Null verschieden. γ) Jede beliebige L¨ osung von (I) (auf J) entsteht aus einer speziellen ( par” tikul¨ aren“) L¨ osung durch Addition einer L¨ osung von (H) . Beweis: Die erste Aussage liest man direkt aus (1) mit g(t) := 0 (t ∈ J) ab. Aus α) erh¨alt man unmittelbar β), da y0 (x) = 0 (x ∈ J). Die dritte Aussage folgt aus der Linearit¨ at der Ableitung: Sind y und z L¨osungen von (I), so gilt (y − z) = y − z = f y − f z = f (y − z); (y − z) ist also eine L¨ osung von (H); so ergibt y = z + (y − z) die gew¨ unschte Darstellung. F¨ ur die (lineare) Abbildung
y
∈
∈
L : C1 (J) −→ C0 (J) −→ y − f y
wissen wir also: L ist surjektiv, und der Kern von L ist 1-dimensional. Wir sehen uns auch zu diesem Typ von DGLen ein einfaches Beispiel an: (B6) y = −xy + 3x,
y(0) = 5
¨ Zur L¨ osung dieser AWA sind in den allgemeinen Uberlegungen ur x ∈ zu J := , a := 0, b := 5, f (x) := −x und g(x) := 3x f¨ x 1 2 (−t) dt = exp − 2 x und setzen. Dann ergibt sich y0 (x) := exp 0 x y(x) := y0 (x) 3t exp 12 t2 dt + 5 = y0 (x) 3 exp 12 x2 + 2 , 0
1 2 x 1 2 2 dt = 3 exp t 2 t = 3 exp( 2 x ) − 1 2 0 0 benutzt haben. Daher ist y(x) = 3 + 2 exp − 12 x2 die eindeutig bestimmte L¨ osung der AWA.
wobei wir
x
3t exp
1
Wir rechnen die gleiche Aufgabe noch einmal mit Variation der Kon” stanten“ direkt (d. h. ohne die Formel (1)): ullt y0 = −x y0 und y0 (0) = 1. Der Ansatz‘ y0 (x) = exp − 12 x2 erf¨ ’ y(x) = c(x) y0 (x) liefert hier −x(cy0 ) + 3x = −xy + 3x = y = ::::::::
Kapitel 2
α) F¨ ur die zugeh¨ orige homogene DGL (H) sind alle L¨ osungen auf J gegeben durch: y(x) = c y0 (x) f¨ ur x ∈ J (c ∈ )
28
Kapitel 2
Elementare Integrationsmethoden
Kapitel 2
c y0 + cy0 = c y0 + c(−xy0 ) und somit c y0 = 3x, also c (x) = ::::::: 3x exp 12 x2 . Daraus folgt c(x) = 3 exp 12 x2 + α . c(0) = y(0) = 5 gibt dann α = 2, insgesamt also die obige L¨ osung.
Oft ist es aber noch einfacher, eine L¨ osung von (I) zu erraten‘ und ’ dann mit γ) (und α)) die allgemeine L¨osung zu notieren: Schreibt man die gegebene DGL in der Form y = x(−y + 3), so erkennt man leicht die durch yp (x) := 3 gegebene konstante Funktion are L¨ osung. Mit der oben schon bestimmten L¨ osung y0 yp als partikul¨ der zugeh¨origen homogenen DGL ist die allgemeine L¨ osung y — nach α) und γ) — gegeben durch: y(x) = cy0 (x) + yp (x) = c exp − 12 x2 + 3 (mit beliebigem c ∈ ). Die Forderung y(0) = 5 zeigt dann abschließend c = 2.
2.4 Bernoulli-Differentialgleichung Als solche wird die DGL
y = f (x) y + g(x) y α
(1)
bezeichnet. Dabei seien wieder J ein Intervall, f, g : J −→ tionen und Œ α ∈ \ {0, 1}.
stetige Funk-
F¨ ur α = 1 erhielte man eine homogene lineare DGL 1. Ordnung, f¨ ur α = 0 eine (inhomogene) lineare DGL 1. Ordnung.
Es werden — f¨ ur beliebiges α — nur L¨ osungen y : J0 −→ ur x ∈ J0 betrachtet. tervall J0 von J mit y(x) > 0 f¨
f¨ ur ein Teilin-
F¨ ur spezielle α kann man auch y(x) ≤ 0 zulassen. Ist 0α = 0 definiert, so ist nat¨ urlich auch y = 0 eine L¨ osung.
Die Transformation
u(x) = y(x)1−α
(x ∈ J0 )
liefert, daß
y genau dann eine L¨ osung von (1) ist, wenn u auf J0 die lineare DGL u = (1 − α)f (x)u + (1 − α)g(x)
(2)
l¨ ost und u(x) > 0 f¨ ur x ∈ J0 gilt. Beweis:
Ist y eine L¨ osung von (1), dann gilt f¨ ur u : u = (1 − α)y −α y = (1 − α)y −α f (x)y + g(x)y α = (1 − α)f (x)u + (1 − α)g(x) .
Geht man andererseits von einer L¨ osung u von (2) aus, so rechnet man f¨ ur y :
2.5
Riccati-Differentialgleichung
29
α 1 −1 1 u 1−α 1 u 1−α (1 − α)f (x)u + (1 − α)g(x) u = 1− y = 1 − α α α 1 = f (x)u 1−α + g(x)u 1−α = f (x)y + g(x)y α .
¨ Insgesamt ist somit das Problem auf die Uberlegungen aus Abschnitt 2.3 zur¨ uckgef¨ uhrt.
Auch hier ein kleines Beispiel zum Ein¨ uben: (B7) y = xy − 3xy 2 ,
y(0) =
1 5
Mit α = 2 und somit u(x) := y(x)−1 in einem Intervall J0 ⊂ mit 0 ∈ J0 und y(x) > 0 f¨ ur x ∈ J0 geht diese AWA nach den ge¨ schilderten Uberlegungen u ¨ber in u = −xu + 3x, u(0) = 5. Nach Beispiel osung dieser DGL durch u(x) = (B6) ist die allgemeine L¨ ucksichtigung der Anfangsbedinc exp − 12 x2 + 3 gegeben. Die Ber¨ gung liefert c = 2. Die L¨osung y der urspr¨ AWA ist demnach unglichen 1 2 −1 f¨ ur x ∈ , also mit = 1/ 3 + 2 exp − 2 x durch y(x) = u(x) J0 = , gegeben.
2.5 Riccati-Differentialgleichung Eine DGL der Form
y = f (x)y 2 + g(x)y + h(x)
(1)
stetige heißt Riccati-Differentialgleichung. Hierbei seien f, g, h : J −→ Funktionen auf einem Intervall J. Œ kann dabei von f = 0 ausgegangen werden; denn sonst h¨atte man eine lineare DGL . Erste Anmerkungen: 1) Ohne Beweis (und ohne weitere Begriffserl¨auterung) vermerken wir: Im allgemeinen ist diese DGL nicht elementar integrierbar‘! ’ 2) Falls eine L¨ osung bekannt ist, k¨onnen andere L¨osungen elementar gewonnen werden.
Kapitel 2
Anmerkung: Eine L¨ osung u von (2) existiert auf ganz J; aber der oben aufgezeigte Zusammenhang y ←→ u besteht nur solange, wie u(x) > 0 (bzw. y(x) > 0) gilt.
30
Kapitel 2
Elementare Integrationsmethoden
Kapitel 2
3) Gegen¨ uber der linearen DGL hat man hier noch den Term f (x)y 2 ; dieser andert das L¨osungsverhalten betr¨ achtlich: Das zeigt ja schon 1). Zudem ¨ sind private‘ maximale Existenzintervalle m¨oglich, die echte Teilintervalle ’ des Ausgangsintervalls J sind! Man vergleiche dazu die schon bekannten Beispiele auf den Seiten 5 (y = y 2 ) und 22 (y = 1 + y 2 ).
Zusammenhang mit homogener linearer DGL 2. Ordnung Hier machen wir die zus¨ atzliche Annahme: f sei stetig differenzierbar mit f (x) = 0 f¨ ur alle x ∈ J
3
.
a) Durch die Transformation z(x) = −f (x)y(x) gelingt die Reduktion auf eine Normalform:
Es sei y : J0 −→ eine differenzierbare Funktion auf einem Teilintervall J0 von J ; dann folgt: y ist genau dann eine L¨ osung von (1), wenn f¨ ur alle x ∈ J0 gilt f (x)y = f (x)2 y 2 + f (x)g(x)y + f (x) h(x) ⇐⇒ (f y) (x) = f (x)y(x) + f (x)y (x) = (f (x)y(x))2 + f (x)g(x) + f (x) y(x) + f (x)h(x) ⇐⇒
z = −z 2 − g(x)z − h(x)
f (x)g(x) + f (x) , h(x) := f (x)h(x) f (x) Die Funktionen g und h sind nat¨ urlich stetig.
mit
g(x) := −
(2)
(x ∈ J).
b) Betrachtung von (2): ur a ∈ J0 Ist z eine L¨osung von (2) auf J0 , dann bilden wir f¨ x u(x) := exp z(t) dt (x ∈ J0 ), a
also die L¨osung u von u = z u mit u(a) = 1. Die Funktion u ist somit ugt der zweimal stetig differenzierbar mit u(x) = 0 f¨ ur x ∈ J0 und gen¨ DGL
u + g(x)u + h(x)u = 0 ; denn mit u = z u folgt u = z u + z u = (z + z 2 )u h(x)u . = (− g (x)z − h(x))u = − g (x)u − 3
Oben wurde nur gefordert: Es existiert ein x ∈ J mit f (x) = 0 .
2.5
Riccati-Differentialgleichung
31
Ist andererseits u eine L¨ osung dieser DGL auf einem Intervall J0 ⊂ J (x) f¨ ur x ∈ J0 und dort stets von Null verschieden, dann liefert z(x) := uu(x) offenbar eine L¨ osung z von (2) auf J0 .
Die zugeh¨ orige DGL zweiter Ordnung f¨ ur u lautet somit u + u = 0 . Diese wird u. a. durch die Funktion u = cos gel¨ost. Die Beziehung sin(x) (x) . lautet hier − tan(x) = −cos(x) z(x) = uu(x)
Elementare Integration bei bekannter spezieller L¨ osung Sind y und y0 L¨ osungen von (1) auf einem Intervall J0 ⊂ J , dann gilt f¨ ur z := y − y0 unter Beachtung von y 2 − y02 = (y + y0 )(y − y0 ) = (z + 2y0 )z : z = f (y 2 − y02 ) + g z = f z 2 + (2f y0 + g)z
(Bernoulli-DGL mit α = 2)
Mit der in Abschnitt 2.4 beschriebenen Transformation gelingt die Reduktion auf eine lineare DGL 1. Ordnung: ur Ist z(x) = 0 f¨ ur x aus einem Teilintervall J0 von J , so erh¨alt man f¨ u(x) := z(x)−1 , also u (x) = −z(x)−2 z (x), −u = f + (2f y0 + g)u . ¨ Mit diesen motivierenden Uberlegungen haben wir bewiesen: Satz 2.5.1
Hat man eine L¨ osung y0 der Riccati-DGL (1) auf einem Teilintervall J0 von J, so gilt f¨ ur zwei Funktionen y , u : J0 −→ mit u(x) y(x) − y0 (x) = 1 (x ∈ J0 ) : y l¨ ost genau dann die DGL (1) auf J0 , wenn u dort eine L¨ osung ist von: u = − 2f (x)y0 (x) + g(x) u − f (x) (3) F¨ ur u hat man also eine lineare Differentialgleichung 1. Ordnung. Damit gewinnt man nun leicht die Folgerung 2.5.2 (Eindeutigkeitssatz)
Sind die beiden Funktionen y und y0 in einem gemeinsamen Intervall J0 von J L¨ osungen der Riccati-DGL (1), dann gilt y = y0
oder
y(x) = y0 (x) f¨ ur alle x ∈ J0 .
Kapitel 2
(B8) Die (schon reduzierte) DGL z = −z 2 − 1 wird in dem Intervall J := ]−π/2 , π/2[ gel¨ ost durch z mit z(x) := − tan(x). Hier sind also in den ¨ obigen allgemeinen Uberlegungen g(x) = 0 und h(x) = 1 zu setzen.
32
Kapitel 2
Elementare Integrationsmethoden
Beweis (indirekt): Sonst h¨ atte man y = y0 (∗), und es existierte ein t ∈ J0 mit y(t) = y0 (t). Da die Funktionen y und y0 stetig sind, folgt aus (∗): Es ◦
Kapitel 2
existiert ein τ1 ∈ J0 mit y(τ1 ) = y0 (τ1 ). Œ sei τ1 < t . Wir betrachten τ2 := inf τ ∈ J0 τ > τ1 ∧ y(τ ) = y0 (τ )} . Die Stetigkeit von y und y0 liefert y(τ2 ) = y0 (τ2 ) (∗∗). F¨ ur x aus dem Intervall J1 := [τ1 , τ2 [ gilt y(x) = y0 (x). Die auf J1 durch u(x) := (y(x) − y0 (x))−1 definierte Funktion u l¨ ost dort die lineare Differentialgleichung (3); da der ort, kann die Funktion u in τ2 hinein stetig Punkt τ2 zum Intervall J0 geh¨ fortgesetzt werden, dies im Widerspruch zu (∗∗). ¨ Insgesamt erhalten wir einen Uberblick u osungsgesamtheit von (1) ¨ber die L¨ in Teilintervallen J1 des Definitionsbereiches J0 einer speziellen L¨ osung y0 : Satz 2.5.3
Auf einem Teilintervall J0 von J seien y0 eine L¨ osung von (1), u0 eine osung der zugeh¨ origen L¨ osung der DGL (3) und v0 eine nicht-triviale L¨ homogenen Differentialgleichung. ost F¨ ur ein Intervall J1 ⊂ J0 und eine darauf definierte Funktion y gilt: y l¨ ankung von y0 auf J1 ist oder genau dann (1) auf J1 , wenn y die Einschr¨ mit einem reellen γ gilt: u0 (x) + γ v0 (x) = 0
(x ∈ J1 )
und
y =
y0 +
1 u0 + γ v0 J1
¨ Der Beweis ist durch die bisherigen Uberlegungen gegeben: Ist y eine L¨ osung von (1) auf J1 mit y = y0 | , so gilt y(x) = y0 (x) f¨ ur J1 −1 f¨ ur x ∈ J1 liefert x ∈ J1 nach Folgerung 2.5.2. u(x) := (y(x) − y0 (x)) nach Satz 2.5.1 eine L¨ osung u der linearen DGL (3) auf J1 . Somit existiert ur y . ein γ ∈ mit u = u0 + γ v0 . Dies liefert die behauptete Darstellung f¨ Ausgehend von einer solchen Darstellung von y l¨ ost u := u0 +γ v0 die lineare DGL (3), also y die DGL (1) auf J1 . Zum besseren Verst¨ andnis dieses Satzes kann die Abbildung zu Beispiel 7 auf Seite 60 helfen. ¨ Auf weitere Uberlegungen zur (wichtigen) Riccati-Differentialgleichung gehen wir nicht ein (man vergleiche hierzu die Literatur, z. B. [Sc/Sc]), da noch ein reichhaltiges Programm auf uns wartet.
2.6
Exakte Differentialgleichungen
33
2.6 Exakte Differentialgleichungen In diesem Abschnitt seien G ein Gebiet — d. h. eine offene und zusamstetige Funktionen. menh¨ angende Menge — im 2 und f1 , f2 : G −→ Wir betrachten die Differentialgleichung:
(1)
Diese DGL heißt genau dann (in G) exakt“ 4 , wenn eine Stammfunktion zu ” (f1 , f2 )T in G existiert, d. h. eine differenzierbare Funktion F : G −→ mit D1 F = f1 und D2 F = f2 — in anderer Notierung Fx = f1 und Fy = f2 . Die Bedeutung der Exaktheit‘ (mit einem solchen F ) wird ersichtlich aus ’ der folgenden einfachen Bemerkung 2.6.1
F¨ ur ein Intervall J und eine differenzierbare Funktion y : J −→ mit (x, y(x)) ∈ G f¨ ur x ∈ J ist y genau dann eine L¨ osung von (1), wenn mit einem reellen γ gilt: F x, y(x) = γ (x ∈ J) . d F x, y(x) = f (x, y(x)) + f (x, y(x))y (x) f¨ ur x ∈ J 1 2 dx Sind die Funktionen f1 und f2 sogar stetig differenzierbar, dann ist f¨ ur die Exaktheit von (1) notwendig (f1 )y = (f2 )x . D2 f1 = D1 f2
Beweis:
Dies sind die aus der mehrdimensionalen Analysis vertrauten Integrabilit¨ atsbedingungen, die bekannterweise unmittelbar aus dem Satz von Schwarz resultieren. Unter den st¨ arkeren Voraussetzungen, daß G einfach-zusammenh¨ angend ist und die Funktionen f1 und f2 stetig differenzierbar sind, hat man: Die DGL (1) ist in G genau dann exakt, wenn D2 f1 = D1 f2 gilt. Ist dies gegeben, dann kann mit festem (x0 , y0 ) ∈ G f¨ ur (x, y) ∈ G mit einer (beliebigen) st¨ uckweise stetig differenzierbaren Kurve C, die innerhalb , y ) nach (x, y) verl¨ a uft a(C) = (x , y ), e(C) = (x, y) und von G von (x 0 0 0 0 (C) ⊂ G f1 F (x, y) := d ( uv ) f2 C 4
gelegentlich auch total“ ”
Kapitel 2
f1 (x, y) + f2 (x, y)y = 0
34
Kapitel 2
Elementare Integrationsmethoden
(wegunabh¨ angig!) gebildet werden. Lokal kann somit speziell x y F (x, y) = f1 (ξ, y0 )dξ + f2 (x, η)dη
Kapitel 2
x0
( xy )
y0
berechnet werden, und so geht man praktisch meist vor.
( yx00 )
( yx0 )
Der Satz u ¨ber implizite Funktionen liefert mit obiger Bemerkung 2.6.1 den Satz 2.6.2
Ist die DGL (1) exakt in G und (a, b) ∈ G mit f2 (a, b) = 0, so existieren ein offenes Intervall J mit a ∈ J und eine L¨ osung y : J −→ von (1) mit alt, und jede weitere y(a) = b derart, daß f¨ ur jedes Intervall J0 , das a enth¨ L¨ osung y0 : J0 −→ der DGL (1) mit y0 (a) = b gilt: y(x) = y0 (x)
(x ∈ J ∩ J0 )
Beweis: Der Satz u ¨ber implizite Funktionen — angewendet auf Φ(x, y) := F (x, y) − F (a, b) — liefert die Existenz einer eindeutigen lokalen Aufl¨ osung von F (x, y) = F (a, b) um (a, b). In einer geeigneten Umgebung von (a, b) ist somit die DGL (1) ¨ aquivalent zu einer expliziten DGL. Zum Verst¨ andnis dieses Satzes kann die Graphik mit den H¨ ohenlinien auf Seite 62 des Worksheets zu Kapitel 2 helfen. Anmerkung: Die in Abschnitt 2.1 behandelten Differentialgleichungen mit getrennten Variablen k¨ onnen — unter den dort gemachten Voraussetzungen — als exakte Differentialgleichungen aufgefaßt werden: y =
f (x) ⇐⇒ f (x) − g(y)y = 0 g(y)
Hier ist also f1 (x, y) := f (x) und f2 (x, y) := −g(y) zu setzen. Obiges F kann somit lokal durch y x f (ξ)dξ − g(η)dη F (x, y) = x0
y0
berechnet werden.
Multiplikatoren Ist die DGL (1) nicht exakt, so kann — nach einer auf Euler zur¨ uckgemit henden Idee — versucht werden, eine stetige Abbildung µ : G −→ µ(x, y) = 0 f¨ ur alle (x, y) ∈ G zu finden, f¨ ur die die ¨ aquivalente DGL
2.6
Exakte Differentialgleichungen
35
µf1 + µf2 y = 0
D2 (µf1 ) = D1 (µf2 ) bzw. f2 (x, y)µx − f1 (x, y)µy = (f1 )y (x, y) − (f2 )x (x, y) µ . Dies sind gerade die Integrabilit¨ atsbedingungen f¨ ur die neuen‘ Funktionen ’ µf1 und µf2 . Hat man einen Multiplikator, so ist die DGL im wesentlichen gel¨ost; denn ¨ nach den obigen Uberlegungen ist ja nur‘ die Stammfunktion F (durch ein’ dimensionale Integrationen) zu bestimmen. Das Auffinden eines Multiplikators kann aber im Einzelfall eine schwierige Aufgabe sein, da die obige Bestimmungsgleichung eine partielle Differentialgleichung f¨ ur µ ist. Deshalb versucht man oft, einen Multiplikator einfacher Struktur zu bestimmen: Als Beispiel f¨ ur solche speziellen Multiplikatoren sehen wir uns von y un’ abh¨ angige‘ Multiplikatoren an und machen dazu wieder die Voraussetzung, daß G einfach-zusammenh¨ angend ist und die Funktionen f1 , f2 , µ : G −→ stetig differenzierbar sind. Bezeichnet J :=
x∈
: Es existiert ein y ∈
mit (x, y) ∈ G
die Projektion‘ von G auf die x-Achse, so muß offenbar hier eine stetige ’ Funktion ϕ : J −→ mit f2 (x, y)ϕ(x) = (f1 )y (x, y) − (f2 )x (x, y) f¨ ur (x, y) ∈ G existieren. Denn aus der obigen Charakterisierung wird f2 (x, y)µx = (f1 )y (x, y) − (f2 )x (x, y) µ . Dies ist aber auch hinreichend : Man bestimmt eine nicht-triviale stetig differenzierbare L¨ osung µ0 : J −→ von µ0 = ϕµ0 und setzt µ(x, y) := µ0 (x) f¨ ur (x, y) ∈ G . Analog behandelt man Multiplikatoren der Form µ0 (y) und ¨ ahnlich auch Multiplikatoren der Form µ0 (x + y) und µ0 (x · y) .
¨ Zur Erl¨ auterung dieser Uberlegungen sehen wir uns — unter den Annahmen und mit den Bezeichnungen aus Abschnitt 2.3 f¨ ur ein offenes Intervall J
Kapitel 2
in G exakt ist. Ein solches µ heißt Multiplikator (f¨ ur (1) in G)“ oder auch ” integrierender Faktor“. ” Unter den st¨ arkeren Voraussetzungen, daß G einfach-zusammenh¨ angend stetig differenzierbar sind mit ist und die Funktionen f1 , f2 , µ : G −→ µ(x, y) = 0 f¨ ur alle (x, y) ∈ G , gilt: µ ist genau dann Multiplikator, wenn
Kapitel 2
36
Kapitel 2
Elementare Integrationsmethoden
und stetig differenzierbare Funktionen f und g — die inhomogene lineare Differentialgleichung 1. Ordnung y = f (x)y + g(x) noch einmal an. Wir schreiben diese in der Form 1 = 0 (x, y) ∈ G := J × · y . −f (x)y − g(x) + !"# # !" =: f2 (x, y) =: f1 (x, y)
Wegen (f1 )y −(f2 )x = −f (x) ist diese Differentialgleichung i. a. nicht exakt. ¨ Nach den obigen Uberlegungen kann mit ϕ := −f x µ(x, y) := µ0 (x) := exp − f (t)dt a
f¨ ur ein festes a ∈ J als Multiplikator gew¨ ahlt werden. Mit x0 := a und y0 := 0 (auf Seite 33f) und x F (x, y) := − g(t)µ0 (t)dt + µ0 (x)y a
liefert F (x, y) = b die aus Abschnitt 2.3 schon bekannte L¨osungsformel.
2.7 Clairaut-Differentialgleichung Als ein Beispiel f¨ ur eine implizite Differentialgleichung erster Ordnung behandeln wir nur die Clairaut-DGL:
y = xy − g(y )
(1)
Eine vollst¨ andige Theorie dieser Differentialgleichung ergibt sich unter den — noch abschw¨ achbaren5 — Voraussetzungen: Es seien I ein kompaktes Intervall und g : I −→ eine zweimal stetig diffeur alle t ∈ I. Damit hat g gem¨ aß dem renzierbare Funktion mit g (t) = 0 f¨ Zwischenwertsatz auf I konstantes Vorzeichen. eine L¨ osung von 1. F¨ ur jedes γ ∈ I liefert y(x) := xγ − g(γ) f¨ ur x ∈ (1); diese (oder auch Einschr¨ ankungen davon) bezeichnen wir als lineare ” L¨ osungen“. Man vergleiche hierzu auch das Beispiel im zugeh¨ origen Worksheet (Animation auf Seite 66). 5
Man vergleiche dazu etwa [Sc/Sc] .
2.7
Clairaut-Differentialgleichung
37
2. Aus den Voraussetzungen folgt die strenge Monotonie der Funktion g ; wegen der Stetigkeit von g ist J := g (I) ein kompaktes Intervall, und es existiert die Umkehrfunktion ϕ := g −1 : J −→ I .
Bemerkung 2.7.1 Die Funktion h : J x −→ xϕ(x) − g(ϕ(x)) ∈ ist stetig differenzierbar mit h = ϕ, also eine L¨ osung der DGL (1). h wird als (nicht-lineare) singul¨ are L¨ osung“ bezeichnet; offenbar ist sie dann ” auch zweimal stetig differenzierbar mit h (x) = ϕ (x) = 0. Damit hat h konstantes Vorzeichen auf J . h ist daher streng konvex (falls h (x) > 0 f¨ ur ur x ∈ J). x ∈ J) oder streng konkav (falls h (x) < 0 f¨ ur x1 , x2 ∈ J mit x1 = x2 gilt nach dem Mittelwertsatz und der Beweis6 : F¨ Definition von ϕ : g(ϕ(x2 )) − g(ϕ(x1 )) = g (ϕ(ξ)) = ξ ϕ(x2 ) − ϕ(x1 )
mit einem ξ zwischen x1 und x2 .
$ % 1 h(x2 ) − h(x1 ) x2 ϕ(x2 ) − x1 ϕ(x1 ) − g(ϕ(x2 )) − g(ϕ(x1 )) = x2 − x1 x2 − x1 x1 − ξ ϕ(x2 ) − ϕ(x1 ) −→ ϕ(x2 ) (x1 → x2 ) = ϕ(x2 ) + ϕ stetig x2 − x1 !" # ∈ ]−1,0[
3. Im folgenden sei y eine L¨ osung der DGL (1) auf einem Intervall J0 . Insur alle x ∈ J0 . besondere gelte y (x) ∈ I f¨ Wir wollen zeigen, daß z. B.
nicht auftreten kann. (Nur bei
den linearen L¨ osungen wird die gleiche Steigung mehrfach angenommen.)
Hilfssatz 2.7.2 Es seien x1 , x2 ∈ J0 mit x1 < x2 und y (x1 ) = y (x2 ) =: γ . Dann gilt y(x) = xγ − g(γ) f¨ ur alle x ∈ [x1 , x2 ]. 6
F¨ ur innere Punkte ergibt sich h (x) = ϕ(x) einfach mit der Kettenregel.
Kapitel 2
Sie ist bijektiv, streng monoton und stetig differenzierbar.
Kapitel 2
38
Kapitel 2
Elementare Integrationsmethoden
Beweis: Mit der Differenzfunktion d : [x1 , x2 ] x −→ y(x)−xγ+g(γ) ∈ ist also d = 0 zu zeigen: Nach der Definition von γ hat man d(x1 ) = 0 = d(x2 ), da y eine L¨ osung der DGL (1) ist. Annahme: Es existiert ein ξ ∈ ]x1 , x2 [ mit d(ξ) = 0. ]α , β [ bezeichne das maximale offene Intervall um ξ , in dem d(x) = 0 gilt. Die Maximalit¨ at liefert d(α) = 0 = d(β). Nach dem Satz von Rolle existiert somit ein τ ∈ ]α , β [ mit d (τ ) = 0, also y (τ ) = γ . Mit der DGL h¨ atte man d(τ ) = 0 im Widerspruch zur Definition von ]α , β [. Hilfssatz 2.7.3 y ist monoton und stetig. Beweis: Hier ist nur die Monotonie von y zu zeigen; denn dann folgt die Stetigkeit aus dem Satz von Darboux. W¨ are y nicht monoton, so existierten — wieder mit dem Satz von Darboux — xν ∈ J0 mit x1 < x3 < x2 und y (x1 ) = y (x2 ) = y (x3 ). Nach dem vorangehenden Hilfssatz w¨are dann aber y |[x , x ] linear im Widerspruch zu y (x2 ) = y (x3 ) . 1
2
Bemerkung 2.7.4 F¨ ur x0 ∈ J0 mit x0 − g (y (x0 )) = 0 ist y in einer geeigneten Umgebung U von x0 zweimal (stetig) differenzierbar. Mit einem geeigneten γ ∈ gilt y(x) = xγ − g(γ) f¨ ur alle x ∈ U . Anmerkung: Aus x0 − g (y (x0 )) = 0 folgt y (x0 ) = ϕ(x0 ) und so h(x0 ) = y(x0 ). Beweis: Ist x0 − g (y (x0 )) = 0, so gilt auch f¨ ur x aus einer geeigneten Umgebung U1 von x0 : x − g (y (x)) = 0. Auf die stetig differenzierbare Abbildung f (x, y, t) := xt − g(t) − y (f¨ ur (x, y, t) ∈ × × I) kann wegen f (x, y(x), y (x)) = 0 (x ∈ J0 )
(2)
— speziell also f¨ ur x = x0 — und D3 f (x0 , y(x0 ), y (x0 )) = x0 −g (y (x0 )) = 0 der Satz u ¨ber implizite Funktionen angewendet werden; er liefert eine eindeutige (stetig differenzierbare) lokale Aufl¨ osung ψ mit f (x, y, ψ(x, y)) = 0. Der Vergleich mit (2) zeigt f¨ ur x aus einer geeigneten Umgebung U2 von x0 y (x) = ψ x, y(x) . Da y (nach Hilfssatz 2.7.3) stetig differenzierbar ist, ist nun auch die Ableitung y dort stetig differenzierbar. Aus (1) folgt durch Differentiation y = y + xy − g (y )y . ur x ∈ U := U1 ∩ U2 . Die angegebene Darstellung von Dies zeigt y (x) = 0 f¨ y |U folgt nach Hilfssatz 2.7.2.
2.7
Clairaut-Differentialgleichung
39
Zusammen erhalten wir nun abschließend den Satz 2.7.5
(−∞ < x ≤ a1 ) (a1 ≤ x ≤ a2 ) (a2 ≤ x < ∞)
osungen erh¨ alt man eine L¨ osung von (1) auf ganz definiert.7 Aus diesen L¨ s¨ amtliche durch Einschr¨ ankung. Beweis: Daß diese Funktionen auf den angegebenen Teil intervallen L¨osungen sind, ist bekannt. An den Nahtstellen‘ stimmen die Funktionswerte und ’ nach Bemerkung 2.7.1 die (einseitigen) Ableitungen u ¨berein. Daher sind diese osungen von (1). Funktionen ya1 ,a2 L¨ y sei eine beliebige L¨ osung mit y |J = h , d. h. y(x0 ) = h(x0 ) f¨ ur ein x0 ∈ J . Dann gilt nach obiger Anmerkung x0 − g (y (x0 )) = 0, und nach Bemerkung 2.7.4 gibt es ein γ ∈ I mit y(x) = xγ − g(γ) f¨ ur alle x aus einer geeigneten Umgebung von x0 . Im nicht-trivialen Fall (y ist links von x0 keine lineare L¨osung) ergibt sup{x < x0 : x = g (y (x)} den Punkt a2 . Entsprechend ergibt sich die andere Nahtstelle‘ a1 . ’ Der Satz besagt, daß sich alle L¨ osungen von (1) aus Einschr¨ ankungen der linearen L¨ osungen und der singul¨ aren L¨ osung zusammensetzen lassen. Die linearen L¨ osungen ergeben dabei gerade die Tangenten der singul¨ aren L¨ osung. Die singul¨ are L¨ osung ist Einh¨ ullende, auch Enveloppe oder H¨ ullkurve genannt, der Schar der linearen L¨ osungen, da sie in jedem ihrer Punkte eine solche L¨ osung ber¨ uhrt.
a2
a1 J 7
F¨ ur a1 = a2 ergibt sich gerade eine lineare L¨ osung.
Kapitel 2
F¨ ur a1 , a2 ∈ J mit a1 ≤ a2 wird durch ⎧ ⎪ ⎨ xϕ(a1 )− g(ϕ(a1 )), y(x) := ya1 ,a2 (x) := h(x) = xϕ(x) − g(ϕ(x) , ⎪ ⎩ xϕ(a2 ) − g(ϕ(a2 )),
40
Kapitel 2
Elementare Integrationsmethoden
(B9) Mit I := [0, 1] und g(t) := −t2 f¨ ur t ∈ I betrachten wir die DGL:
Kapitel 2
y = xy − g(y ) = xy + y 2 Die in diesem Abschnitt gemachten Voraussetzungen sind offenbar eine erf¨ ullt. F¨ ur γ ∈ I liefert jeweils y(x) := xγ + γ 2 f¨ ur x ∈ lineare L¨ osung y . Mit g (t) = −2t f¨ ur t ∈ I hat man J := g (I) = [−2, 0] und ϕ := g −1 : J −→ I durch ϕ(x) = −1/2x f¨ ur x ∈ J . Die durch h(x) := xϕ(x) − g(ϕ(x)) (x ∈ J) definierte singul¨are L¨osung h erf¨ ullt 2 2 2 also hier h(x) = −1/2x + 1/4x = −1/4x . F¨ ur a1 , a2 ∈ [−2, 0] mit a1 ≤ a2 wird so durch ⎧ 2 ⎪ (−∞ < x ≤ a1 ) ⎨ −1/2xa1 + 1/4a1 , 2 y(x) := (a1 ≤ x ≤ a2 ) −1/4x , ⎪ ⎩ (a2 ≤ x < ∞) −1/2xa2 + 1/4a22 , jeweils eine L¨ osung y auf ganz definiert. (Aus diesen L¨osungen erh¨alt man s¨ amtliche durch Einschr¨ ankung.)
2.7
Clairaut-Differentialgleichung
41
Historische Notizen
Jakob Bernoulli (1654–1705)
Jacopo Francesco Riccati (1676–1754) Zun¨ achst studierte dieser venezianische Graf Jura, wechselte dann aber bald zur Mathematik. Im Zusammenhang mit Fragen der Hydraulik und des Wasserbaus, so etwa bei Deichkonstruktionen in Venedig, besch¨aftigte er sich mit der L¨osung spezieller Typen gew¨ohnlicher Differentialgleichungen. Sein Ruhm beruhte weniger auf der nach ihm benannten Differentialgleichung und seinen Beitr¨agen zur Kurventheorie als darauf, daß er die Physik Newtons in Italien publik machte.
Kapitel 2
Die Familie Bernoulli ist eine Schweizer Gelehrtenfamilie niederl¨andischer Herkunft. Beispiellos in der Wissenschaftsgeschichte ist die große Anzahl bedeutender Mathematiker dieser Dynastie‘. ’ Jakob Bernoulli — gelegentlich auch Jakob I genannt, da es einen weiteren Mathematiker mit Namen Jakob in der Familie gab — studierte Theologie in Basel, besch¨ aftigte sich aber heimlich mit der Mathematik. Beginnend mit astronomischen Arbeiten, begann er ab ¨ 1684, die Uberlegungen von Leibniz zur Infinitesimalrechnung zu studieren, und erzielte fundamenta¨ le Ergebnisse. Uber die L¨osung des Brachystochronenproblems kam er zur Begr¨ undung der Variationsrechnung. Seit etwa 1685 hat er sich zus¨ atzlich mit der Wahrscheinlichkeitsrechnung besch¨ aftigt und auch dazu fundamentale Resultate, z. B. das Gesetz der großen Zahlen, gewonnen.
42
Kapitel 2
Elementare Integrationsmethoden
Kapitel 2
Alexis Claude Clairaut (1713–1765) Franz¨ osischer Mathematiker, Astronom, Physiker und Geod¨ at. Clairaut wurde bereits im Alter von 18 Jahren Mitglied der Pariser Akademie der Wissenschaften. 1752 publizierte er mathematische Studien zur Mondbewegung, wobei er Methoden zur L¨ osung von Differentialgleichungen heranzog. Er bestimmte relativ genau den Zeitpunkt der R¨ uckkehr des Halleyschen Kometen im Jahre 1759. Clairaut arbeitete u ¨ber das Dreik¨ orperproblem und schrieb B¨ ucher zur Integralrechnung, Algebra und Geometrie.
MWS zu Kapitel 2
Wichtige Maple-Befehle dieses Kapitels: DEtools-Paket: odeadvisor, odetest, Dchangevar, separablesol, genhomosol, linearsol, bernoullisol, riccatisol, exactsol, firint, intfactor, clairautsol PDEtools-Paket: dchange dsolve (implicit, [separable], [homogeneous], [dAlembert], [linear], [Bernoulli], [Riccati], [exact], [Clairaut]) VectorCalculus-Paket: SetCoordinates, VectorField, ScalarPotential linalg-Paket: potential infolevel
2.1 Differentialgleichungen mit getrennten Variablen‘ ’ Wir betrachten in diesem Abschnitt Differentialgleichungen der speziellen (x) f (x) d . oder kurz y = fg(y) y(x) = g(y(x)) Form dx > restart: with(DEtools): Dgl := diff(y(x),x) = f(x)/g(y(x)); AnfBed := y(a) = b;
Dgl := y =
f (x) , g(y)
AnfBed := y(a) = b
F¨ ur diese Anfangswertaufgabe werden nun mit Hilfe von Maple die im Text¨ teil gemachten Uberlegungen nachvollzogen: > F := x -> int(f(t),t=a..x): G := y -> int(g(s),s=b..y): G(y(x)) = F(x);
MWS 2
Elementare Integrationsmethoden
44
MWS 2
Elementare Integrationsmethoden
y
x
g(s) ds = b
f (t) dt a
Beispiel 1:
MWS 2
Speziell f¨ ur die Differentialgleichung y = − xy erhalten wir dann > f := x -> -x: g := y -> y: Dgl; G(y(x)) = F(x); y(x) = solve(%,y(x));
√ √ a2 x2 b2 x y2 b2 − x 2 + a 2 , − b 2 − x 2 + a 2 , y = = − + − y = − , 2 2 2 2 y
Wir lernen nun eine Reihe von speziellen Maple-Befehlen aus dem DEtools Paket kennen, mit denen obige Differentialgleichung gel¨ ost werden kann. Mit odeadvisor macht Maple Vorschl¨ age zur L¨ osungsmethode:
> odeadvisor(Dgl);
separable
F¨ ur diesen speziellen Typ von DGLen stellt Maple den Befehl separablesol bereit. Dieser u uft, ob eine DGL 1. Ordnung mit getrennten Variablen ¨berpr¨ vorliegt und berechnet gegebenenfalls eine L¨osung: > Loesung := separablesol(Dgl,y(x));
Loesung :=
y =
√ √ −x2 − 2 C1 , y = − −x2 − 2 C1
Maple liefert allgemeine L¨ osungen von Dgl in Form von Funktionsscharen, deren Scharparameter standardm¨ aßig mit C1 bezeichnet wird. Die Integrationskonstan’ te‘ C1 tritt hier also — im Gegensatz zu dem Befehl int — explizit auf.
ommliche Wir machen die Probe‘ mit Hilfe von odetest sowie auf mehr herk¨ ’ Art mittels subs (Substitution) beziehungsweise eval (Auswertung). > odetest(Loesung,Dgl); subs(Loesung,Dgl): simplify(%); # alternativ: eval(Dgl,Loesung):
{0} ,
x x = −√ −√ 2 2 −x − 2 C1 −x − 2 C1
uft, ob Loesung die DifferenDas Maple-Kommando odetest(Loesung, Dgl ) u ¨berpr¨ tialgleichung Dgl erf¨ ullt. Trifft dies zu, so erh¨ alt man 0 oder {0} als Ergebnis, je nachdem ob Loesung eine Gleichung oder eine Menge von Gleichungen ist.
Maple stellt noch weitere L¨ osungsm¨ oglichkeiten bereit: > dsolve(Dgl,y(x)); dsolve(Dgl,y(x),[separable]):
2.1
Differentialgleichungen mit getrennten Variablen‘ (MWS) ’ √ √ y = −x2 + C1 , y = − −x2 + C1
45
Die L¨ osung wird hier stets in expliziter Form geliefert. Auf Wunsch kann man diese auch in impliziter Form erhalten und mit odetest auf ihre Richtigkeit u ufen. ¨berpr¨
Loesung := y 2 + x2 − C1 = 0 ,
0
osen Man beachte, daß man mit separablesol keine Anfangswertaufgaben l¨ kann! Dies gelingt vielmehr z. B. mittels dsolve unter Verwendung der osungsmethode festgelegt. Option [separable] . Hierdurch wird eine andere L¨
osen zuschauen‘: Wir u ¨berzeugen uns davon, indem wir dsolve beim L¨ ’ > infolevel[dsolve] := 3: assume(b>0): dsolve({Dgl,AnfBed},y(x)); dsolve({Dgl,AnfBed},y(x),[separable]): infolevel[dsolve] := 0:
5
Methods for first order ODEs: --- Trying classification methods --trying a quadrature trying 1st order linear trying Bernoulli <- Bernoulli successful
y =
5
√
−x2 + a2 + b2
Classification methods on request Methods to be used are: [separable] ---------------------------* Tackling ODE using method: separable --- Trying classification methods --trying separable <- separable successful
Beispiel 2: ¨ Wir wollen zuerst die im Textteil angestellten Uberlegungen mit Maple nachvollziehen:
5
> restart: with(DEtools): with(plots): f := 1: g := s -> 1/sqrt(abs(s)): Dgl := diff(y(x),x) = f(x)/g(y(x)); F := x -> int(f(t),t=a..x): G := y -> int(g(s),s=b..y):
MWS 2
> Loesung := dsolve(Dgl,y(x),implicit); odetest(Loesung,Dgl);
46
MWS 2
Elementare Integrationsmethoden
Dgl := y =
|y|
MWS 2
> assume(u(x)>0,b>0): G(u(x)) = F(x); isolate(%,u(x)); RHSu := rhs(%):
2
u(x) − 2
√
b = x − a,
u(x) =
x
2
−
a √ 2 + b 2
Die weiter unten folgende Abbildung setzt sich aus drei Teilbildern zusammen. Wir beginnen mit der L¨ osung zu der Anfangsbedingung y(2) = 1 : > PlotOption := eval([RHSu),x=a-2*sqrt(b)..4],{a=2,b=1}): p1 := plot(op(PlotOption),y=-4..4,color=blue,thickness=3):
√ ur die L¨ osung, Im Falle b > 0 erh¨ alt man a − 2 b, ∞ als Existenzintervall f¨ entsprechend f¨ ur b < 0 das Existenzintervall − ∞ , a + 2 |b| . > assume(v(x)<0,b<0): G(v(x)) = F(x); isolate(%,v(x)); RHSv := rhs(%):
−2
−v(x) + 2
√
−b = x − a ,
x a √ 2 v(x) = − − + + −b 2 2
Als n¨achstes zeichnen wir die L¨osung zur Anfangsbedingung y(−2) = −1 . > PlotOption := eval([RHSv,x=-4..a+2*sqrt(-b)],{a=-2,b=-1}): p2 := plot(op(PlotOption),y=-4..4,color=cyan,thickness=3):
Etwas schwieriger sind die einzelnen L¨osungen aus dem Ergebnis von dsolve bzw. separablesol abzulesen: > dsolve(Dgl,y(x)); separablesol(Dgl,y(x)):
' & −2 −y(x) y(x) ≤ 0 + C1 = 0 x− 0 < y(x) 2 y(x)
Schauen wir uns nun an, welche L¨osung Maple f¨ ur die Anfangsbedingung y(a) = 0 liefert: > dsolve({Dgl,y(a)=0},y(x));
y(x) = 0
Nachfolgendes Bild veranschaulicht, daß die L¨ osung der Anfangswertaufgabe mit y(a) = 0 — hier speziell f¨ ur a = 0 — nicht eindeutig ist. > p3 := DEplot(Dgl,y(x),x=-4..4,y=-4..4,[[y(0)=0]],color=gray, linecolor=black,arrows=medium): display(p1,p2,p3,axes=frame,scaling=constrained,labels=["",""]);
2.1
Differentialgleichungen mit getrennten Variablen‘ (MWS) ’
47
4
2
MWS 2
0
–2
–4 –4
–2
0
2
4
Die Gesamtl¨ osung der DGL erh¨ alt man f¨ ur −∞ ≤ α ≤ β ≤ ∞ durch folgende st¨ uckweise definierte stetig differenzierbare Funktion yα, β : y := (alpha,beta) -> piecewise(x<=alpha,-((x-alpha)/2)^2,x>=beta,((x-beta)/2)^2,0):
Man best¨ atigt dies leicht durch (Einsetzen und) Differenzieren: > diff(y(alpha,beta),x):
Abschließend zeigen wir noch f¨ ur a = 1/2 in einer Animation, wie die L¨osung yα, β in dem durch ymax und ymin (maximale bzw. minimale L¨osung) gebildeten Trichter‘ verl¨ auft: ’ > alpha := readstat("Geben Sie eine Zahl zwischen -4 und a=0.5 ein: "): Geben Sie eine Zahl zwischen -4 und a=0.5 ein: -1; > beta := readstat("Geben Sie eine Zahl zwischen a=0.5 und 4 ein: "): Geben Sie eine Zahl zwischen a=0.5 und 4 ein: 1.5;
5
> a := 0.5: TICKS := tickmarks=[[alpha,beta,a],[-3,-2,-1,1,2,3]]: Trichter := plot([y(-infinity,a),y(a,infinity)],x=-4..4,color =[blue,black]),plot([y(-infinity,a),y(a,infinity)],x=-4..4, color=gray,filled=true): Text := textplot([[3.3,2.7,"y[max]"],[-2.4,-2.8,"y[min]"]]): Animation := animatecurve(y(alpha,beta),x=-4..4,color=cyan,frames=30): display(Animation,Trichter,Text,TICKS,thickness=3,scaling=constrained, axes=frame,labels=["",""],view=[-4..4,-3..3]);
48
MWS 2
Elementare Integrationsmethoden
3
ymax
2
MWS 2
1
–1 –2
y min –3
–1
0.5
1.5
Beispiel 3: > restart: with(DEtools): f := 1: g := s -> 1/(1+s^2): Dgl := diff(y(x),x) = f(x)/g(y(x)); AnfBed := y(a) = b;
Dgl := y = 1 + y 2 ,
AnfBed := y(a) = b
Wir verfahren wieder entsprechend dem Vorgehen im Textteil: > F := x -> int(f(t),t=a..x): G := y -> int(g(s),s=b..y): eq := G(y(x)) = F(x);
eq := arctan(y) − arctan(b) = x − a Mit c := a − arctan(b) erhalten wir dann die L¨ osung in folgender Gestalt: > Subst := c = a-arctan(b): subs(isolate(Subst,a),eq): isolate(%,y(x));
y = tan(x − c) Auch mit Maple kann man die L¨ osungen der DGL sowohl in impliziter wie expliziter Form erhalten: > dsolve(Dgl,y(x),implicit); dsolve(Dgl,y(x)); separablesol(Dgl,y(x)):
x − arctan(y) + C1 = 0 ,
y = tan(x + C1 )
2.2
DGLen vom Typ y = f
p1 x + q1 y +r1 p2 x + q2 y + r2
2.2 DGLen vom Typ y = f
(MWS)
49
p1 x + q1 y + r1 p2 x + q2 y + r2
> restart: with(DEtools): Dgl := diff(y(x),x) = f((p1*x+q1*y(x)+r1)/(p2*x+q2*y(x)+r2));
p1 x + q1 y + r1 Dgl := y = f p2 x + q2 y + r2
Spezialfall I: > f := t -> t^2: p1,q1,r1 := 1,2,0: p2,q2,r2 := 0,0,1: Dgl; AnfBed := y(0) = 0;
y = (x + 2y)2 ,
AnfBed := y(0) = 0
ost: Wir schauen uns an, wie dsolve diese Anfangswertaufgabe l¨ > infolevel[dsolve] := 3: dsolve({Dgl,AnfBed},y(x)): Loes := expand(%); infolevel[dsolve] := 0:
5
10
15
20
Methods for first order ODEs: --- Trying classification methods --trying a quadrature trying 1st order linear trying Bernoulli trying separable trying inverse linear trying homogeneous types: trying homogeneous C 1st order, trying the canonical coordinates of the invariance group -> Computing canonical coordinates for the symmetry, [1, -1/2] *** Sublevel 2 *** Methods for first order ODEs: --- Trying classification methods --trying a quadrature trying 1st order linear <- 1st order linear successful -> The canonical coordinates may not have unique inverse. Trying gauging the symmetry to the form [0, eta(x,y)] -> Computing canonical coordinates for the symmetry, [0,-4*y^2-4*x*y-1/2-x^2] <- 1st order, canonical coordinates successful <- homogeneous successful
Loes := y = −
√ x 1√ 2 tan 2x + 2 4
MWS 2
50
MWS 2
Elementare Integrationsmethoden
> odetest(Loes,Dgl), eval(Loes,x=0); # Probe
0 , y(0) = 0
MWS 2
Die vorgegebene DGL wollen wir mit Hilfe der Substitution u(x) = x+2y(x) in eine DGL mit getrennten Variablen u uhren: ¨berf¨ > Subst := u(x) = x+2*y(x): eq1 := isolate(Subst,y(x)); Dchangevar(eq1,Dgl,x); # Kommando ist "obsolet".
eq1 := y =
u x − , 2 2
1 u − = u2 2 2
Der Maple-Befehl Dchangevar aus dem DEtools -Paket ist ab Maple V
Release 5 durch das neue Kommando PDEtools[dchange] ersetzt worden. Im Hinblick auf die Kompatibilit¨ at mit fr¨ uheren Maple-Versionen kann dieser Befehl immer noch benutzt werden. Es wird jedoch empfohlen, den neueren Befehl zu verwenden: > PDEtools[dchange](eq1,Dgl,[u(x)]): DglTrans := isolate(%,diff(u(x),x)); AnfBedTrans := subs(AnfBed,subs(x=0,Subst));
DglTrans := u = 2u2 + 1 ,
AnfBedTrans := u(0) = 0
Wir l¨ osen die transformierte Anfangswertaufgabe: > F := x -> int(1,t=0..x): G := u -> int(1/(2*s^2+1),s=0..u): G(u(x)) = F(x); eq2 := isolate(%,u(x));
√ 1√ 2 arctan u 2 = x , 2
eq2 := u =
√ 1√ 2 tan 2x 2
R¨ ucktransformation ergibt die L¨osung der urspr¨ unglichen AWA: > PDEtools[dchange](Subst,eq2,[y(x)]): eq3 := isolate(%,y(x));
eq3 := y = −
√ x 1√ 2 tan 2x + 2 4
> odetest(eq3,Dgl), eval(eq3,x=0);
0 , y(0) = 0
2.2
DGLen vom Typ y = f
p1 x + q1 y +r1 p2 x + q2 y + r2
(MWS)
51
Spezialfall II: > f := t -> sin(t)+t: p1,q1,r1 := 0,1,0: p2,q2,r2 := 1,0,1: Dgl; AnfBed := y(1) = Pi/2;
y y , + x+1 x+1
AnfBed := y(1) =
π 2
MWS 2
y = sin > odeadvisor(Dgl);
[ homogeneous, class C ], dAlembert
> dsolve({Dgl,AnfBed},y(x)); dsolve({Dgl,AnfBed},y(x),[homogeneous]); dsolve({Dgl,AnfBed},y(x),[dAlembert]);
Sofern Maple u ¨berhaupt eine L¨osung der Anfangswertaufgabe findet (versionsabh¨ angig!), hat diese keine sonderlich u ¨berschaubare Form. Wir verzichten daher auf deren Ausgabe und modifizieren die Fragestellung: > dsolve(Dgl,y(x)); # alternativ: genhomosol(Dgl,y(x));
y = − arctan
−1 + (x + 1)2 C1 2 2 (x + 1) C1 , − 2 1 + (x + 1)2 C1 2 1 + (x + 1)2 C1
(x + 1)
dsolve liefert die allgemeine L¨osung der DGL in einer Form, die ohne Vorkenntnisse nur schwer verst¨andlich ist und der Erl¨auterung bedarf. Interessant ist ein Vergleich mit anderen Computeralgebrasystemen: MuPAD tut sich mit dem vorliegenden Problem ebenfalls schwer. Hingegen liefert Mathematica die L¨osung der AWA in der schlichten Form
y(x) = 2 (1 + x) arctan ((1 + x)/2 · tan(π/8)) und weist zudem darauf hin, daß es m¨oglicherweise noch andere L¨ osungen gibt. Da wir die Funktion arctan(u, v) nicht als bekannt voraussetzen wollen, w¨ ahlen wir einen anderen L¨ osungsweg und u uhren die vorgegebene DGL ¨berf¨ 0 in eine DGL mit getrennten mit Hilfe der Substitution u(x) = y(x)−y x−x0 Variablen: > x0:=’x0’: y0:=’y0’: solve({p1*x0+q1*y0+r1=0,p2*x0+q2*y0+r2=0},{x0,y0}); assign(%):
y0 = 0, x0 = −1
52
MWS 2
Elementare Integrationsmethoden
> Subst := u(x) = (y(x)-y0)/(x-x0): eq4 := isolate(Subst,y(x));
eq4 := y = u (x + 1)
MWS 2
> PDEtools[dchange](eq4,Dgl,[u(x)]): DglTrans := isolate(%,diff(u(x),x)); AnfBedTrans := subs(AnfBed,subs(x=1,Subst));
DglTrans := u =
sin(u) , x+1
AnfBedTrans := u(1) =
π 4
Wir bestimmen die L¨ osung der transformierten DGL in impliziter Form: > dsolve(DglTrans,u(x),implicit): eq5 := simplify(%);
eq5 := ln(x + 1) − ln
sin(u) cos(u) + 1
+ C1 = 0
Mit Hilfe der Anfangswerte berechnen wir die Integrationskonstante C1: > subs(AnfBedTrans,subs(x=1,eq5)): radnormal(isolate(%,_C1)); eq6 := eval(eq5,%);
2−1 √ sin(u) − ln(2) + ln 2 − 1 = 0 eq6 := ln(x + 1) − ln cos(u) + 1 C1 = − ln(2) + ln
√
Aufl¨ osen dieser Gleichung f¨ uhrt dann wieder auf die Funktion arctan(u, v) , der wir bereits oben begegnet sind und die wir umgehen wollten: > isolate(eq6,u(x));
u = arctan
√ √ 4 (−1 − x + 2 x + 2) √ √ √ , − −7 + 4 2 x + 2 x2 2 + 2 2 − 6 x − 3 x2 √ √ √ −6 x + 1 + 2 x2 2 + 4 2 x − 3 x2 + 2 2 √ √ √ − −7 + 4 2 x + 2 x2 2 + 2 2 − 6 x − 3 x2
Es ist verwunderlich, daß Maple nicht die doch naheliegende Substitution v(x) = tan( u(x) 2 ) verwendet:
5
> Subst2 := v(x) = tan(u(x)/2): isolate(Subst2,u(x)); PDEtools[dchange](%,DglTrans,[v(x)]): isolate(%,diff(v(x),x)): DglTrans2 := normal(expand(convert(%,tan))); AnfBedTrans2 := subs(AnfBedTrans,subs(x=1,Subst2));
2.3
Lineare Differentialgleichungen 1. Ordnung (MWS)
53
v DglTrans2 := v = x+1 π AnfBedTrans2 := v(1) = tan 8 u = 2 arctan(v) ,
Hierf¨ ur erhalten wir
v =
π 1 (x + 1) tan 8 2
R¨ ucktransformation ergibt die L¨ osung der urspr¨ unglichen AWA: > PDEtools[dchange](Subst2,eq7,[u(x)]): PDEtools[dchange](Subst,%,[y(x)]): Loes := isolate(%,y(x));
Loes := y = 2 arctan
π 1 (x + 1) (x + 1) tan 8 2
> odetest(y(x),Dgl), eval(Loes,x=1);
0, y(1) =
π 2
Mit viel M¨ uhe unsererseits liefert Maple damit endlich die L¨ osung der Anfangswertaufgabe in einer einfachen Form.
2.3 Lineare Differentialgleichungen 1. Ordnung > restart: with(DEtools): Dgl := diff(y(x),x) = f(x)*y(x)+g(x); AnfBed := y(a) = b;
Dgl := y = f (x) y + g(x) ,
AnfBed := y(a) = b
Zu Beginn untersuchen wir die DGL mit Hilfe des Befehls odeadvisor . > odeadvisor(Dgl,[separable]), odeadvisor(Dgl);
[NONE ], [ linear ]
Offensichtlich ist sie nicht vom Typ getrennte Variable‘, sondern eine lineare ’ Differentialgleichung. Entsprechend dem Vorgehen im Textteil l¨osen wir die homogene (lineare) DGL und bestimmen dann mittels Variation der Konstanten eine partikul¨are L¨osung:
MWS 2
> dsolve({DglTrans2,AnfBedTrans2},v(x)); eq7 := %:
54
MWS 2
Elementare Integrationsmethoden
> y0 := unapply(exp(int(f(t),t=a..x)),x); DglHom := subs(g(x)=0,Dgl); # zugeh¨ orige homogene DGL odetest(y(x)=y0(x),DglHom); # Probe
MWS 2
x y0 := exp@ x → f (t) dt ,
DglHom := y = f (x) y ,
0
a
> c := unapply(int(g(t)/y0(t),t=a..x),x): yP := unapply(c(x)*y0(x),x): ’yP(x)’ = int(g(t)/’y0(t)’,t=a..x)*’y0(x)’; odetest(y(x)=yP(x),Dgl); # Probe
x
yP (x) = a
g(t) dt y0(x) , y0(t)
0
Die allgemeine L¨ osung der inhomogenen DGL erhalten wir dann durch yP (x) + C y0 (x) mit beliebigem reellem C. > odetest(y(x)=yP(x)+C*y0(x),Dgl);
0 Die L¨ osung der Anfangswertaufgabe ist gleich yP (x) + b y0 (x): > eval(y(x)=yP(x)+b*y0(x),x=a);
y(a) = b Wir sehen uns nun folgendes einfache Beispiel an: Beispiel 4: > f := x -> -x: g := x -> 3*x: Dgl; a := 0: b := 5:
y = −x y + 3 x > ’y0(x)’ = y0(x), odetest(y(x)=y0(x),DglHom);
y0(x) = e
2
− x2
,0
> ’yP(x)’ = simplify(yP(x)), odetest(y(x)=yP(x),Dgl);
yP (x) = 3 − 3 e > y(x) = yP(x)+C*y0(x): simplify(%); odetest(%,Dgl);
2
− x2
,0
2.3
Lineare Differentialgleichungen 1. Ordnung (MWS)
y = 3 − 3e
2
− x2
+Ce
2
− x2
55
,
0
L¨osung der Anfangswertaufgabe: > y(x) = yP(x)+b*y0(x): simplify(%); 2
− x2
¨ Jetzt f¨ uhren wir die vorangehenden Uberlegungen nochmals durch, diesmal durch direkte Anwendung geeigneter Maple-Befehle: L¨ osung der homogenen DGL y = −x y : > dsolve({DglHom,y(a)=1},y(x)); y0 := unapply(eval(y(x),%),x):
y = e
2
− x2
Bestimmung einer partikul¨ aren L¨ osung der inhomogenen DGL mittels Variation der Konstanten: > eq := varparam([y0(x)],g(x),x);
2 x eq := C 1 e − 2 + 3 > solve(eval(eq,x=a),{_C[1]}); eval(eq,%): yP := unapply(%,x);
{ C 1 = −3} ,
2
yP := x → −3 e(−1/2 x ) + 3
Allgemeine L¨osung der linearen DGL: > y(x) = yP(x)+C*y0(x);
y = −3 e
2
− x2
+3+Ce
2
− x2
Alternativ: > linearsol(Dgl,y(x));
{y = 3 + e
2
− x2
C1 }
linearsol testet, ob die DGL eine lineare DGL 1. Ordnung ist, und liefert gegebenenfalls die allgemeine L¨ osung. Universell verwendbar ist der MapleBefehl dsolve :
MWS 2
y = 3 + 2e
56
MWS 2
Elementare Integrationsmethoden
> dsolve(Dgl,y(x)); dsolve(Dgl,y(x),[linear]):
y = 3+e
2
− x2
C1
MWS 2
L¨ osung der Anfangswertaufgabe: > solve(yP(a)+C*y0(a)=b,{C}); y(x) = eval(yP(x)+C*y0(x),%);
{C = 5} ,
y = 3 + 2e
2
− x2
ost werden: Die Anfangswertaufgabe kann mit dsolve auch so gel¨ > dsolve({Dgl,AnfBed},y(x)); dsolve({Dgl,AnfBed},y(x),[linear]):
y = 3 + 2e
2
− x2
2.4 Bernoulli-Differentialgleichung > restart: with(DEtools): Dgl := diff(y(x),x) = f(x)*y(x)+g(x)*y(x)^alpha; odeadvisor(Dgl);
Dgl := y = f (x) y + g(x) y α ,
[ Bernoulli ]
Diese DGL wollen wir mit Hilfe der Substitution u(x) = y(x)1−α in eine lineare DGL 1. Ordnung u uhren: ¨berf¨
5
> Subst := u(x) = y(x)^(1-alpha); isolate(Subst,y(x)); PDEtools[dchange](%,Dgl,[u(x)]): isolate(%,diff(u(x),x)): DglTrans := simplify(%,symbolic);
1 Subst := u = y (−α+1) , y = u −α+1 , DglTrans := u = −(−1 + α) (f (x) u + g(x)) Beispiel 5: > f := x -> x: g := x -> -3*x: alpha := 2: Dgl, DglTrans; AnfBed := y(0) = 1/4; AnfBedTrans := subs(AnfBed,subs(x=0,Subst));
2.5
Riccati-Differentialgleichung (MWS)
57
y = x y − 3 x y2 ,
u = −x u + 3x , 1 AnfBed := y(0) = , AnfBedTrans := u(0) = 4 4
Die transformierte Anfangswertaufgabe l¨ osen wir jetzt direkt mit dsolve :
u = 3+e
2
− x2
R¨ ucktransformation ergibt die L¨ osung der urspr¨ unglichen AWA: > PDEtools[dchange](Subst,%,[y(x)]): isolate(%,y(x)); odetest(%,Dgl), eval(%,x=0);
y =
1 2 , x 3+e − 2
0, y(0) =
1 4
Direkte L¨ osung der Anfangswertaufgabe mit dsolve : > dsolve({Dgl,AnfBed},y(x)): dsolve({Dgl,AnfBed},y(x),[Bernoulli]):
Zum Schluß erw¨ ahnen wir noch der Vollst¨ andigkeit halber drei (nahezu gleichwertige) Maple-Befehle, mit deren Hilfe die allgemeine L¨osung der Bernoulli-DGL berechnet werden kann: > bernoullisol(Dgl,y(x)); dsolve(Dgl,y(x),[Bernoulli]): dsolve(Dgl,y(x)):
y =
3+e
(
1 2
− x2
C1
2.5 Riccati-Differentialgleichung > restart: with(DEtools): Dgl := diff(y(x),x) = f(x)*y(x)^2+g(x)*y(x)+h(x); odeadvisor(Dgl);
Dgl := y = f (x) y 2 + g(x) y + h(x) ,
[ Riccati ]
Zusammenhang mit homogener linearer DGL 2. Ordnung Mit der folgenden Substitution reduzieren wir die DGL auf eine RiccatiDGL in Normalform:
MWS 2
> dsolve({DglTrans,AnfBedTrans},u(x));
58
MWS 2
Elementare Integrationsmethoden
> Subst1 := z(x) = -f(x)*y(x): eq1 := isolate(Subst1,y(x));
MWS 2
eq1 := y = −
z f (x)
> PDEtools[dchange](eq1,Dgl,[z(x)]): isolate(%,diff(z(x),x)): expand(%): DglTrans1 := collect(%,z(x));
f z − f (x) h(x) DglTrans1 := z = −z 2 + g(x) + f (x) Im n¨ achsten Schritt transformieren wir diese Normalform auf eine lineare homogene DGL 2. Ordnung: > Subst2 := u(x) = exp(int(z(x),x)); diff(Subst2,x); subs(exp(int(z(x),x))=u(x),%): Subst3 := isolate(%,z(x));
Subst2 := u = e
z dx
,
u = z e
z dx
,
Subst3 := z =
u u
> PDEtools[dchange](Subst3,DglTrans1,[u(x)]): isolate(%,diff(u(x),x$2)): expand(%): DglTrans2 := collect(%,diff(u(x),x));
DglTrans2 := u =
g(x) +
f f (x)
u − u f (x) h(x)
Beispiel 6: > f := -2: g := 0: h := -1: Dgl; DglTrans1; DglTrans2;
y = −2 y 2 − 1 ,
z = −z 2 − 2 ,
u = −2 u
> dsolve(DglTrans2,u(x)); subs(%,Subst3): simplify(%); subs(Subst1,%): isolate(%,y(x));
√ √ u = C1 sin( 2 x) + C2 cos( 2 x) , √ √ √ 2 − C1 cos( 2 x) + C2 sin( 2 x) √ √ , z = − C1 sin( 2 x) + C2 cos( 2 x) √ √ √ 1 2 − C1 cos( 2 x) + C2 sin( 2 x) √ √ y = − 2 C1 sin( 2 x) + C2 cos( 2 x)
Auf folgende Weisen kann man die allgemeine L¨ osung der DGL direkt erhalten:
2.5
Riccati-Differentialgleichung (MWS)
59
> riccatisol(Dgl,y(x)), dsolve(Dgl,y(x)); dsolve(Dgl,y(x),[Riccati]):
√ ( √ √ √ 1√ C1 8 √ x 8 1 2 tan 2x + 2 C1 8 , y =− + y = tan − 2 2 2 4
> unassign(’f’,’g’,’h’): Subst1 := z(x) = y(x)-y0(x): isolate(Subst1,y(x)); eq2 := PDEtools[dchange](%,Dgl,[z(x)]):
y = z + y0(x) > eq2-subs(y(x)=y0(x),Dgl): isolate(%,diff(z(x),x)): DglTrans1 := collect(expand(%),z(x)); odeadvisor(%);
DglTrans1 := z = f (x) z 2 + 2 f (x) y0(x) + g(x) z ,
[ Bernoulli ]
> Subst2 := u(x) = 1/z(x): isolate(Subst2,z(x)): PDEtools[dchange](%,DglTrans1,[u(x)]): isolate(%,diff(u(x),x)): DglTrans2 := collect(expand(%),u(x)); odeadvisor(DglTrans2);
DglTrans2 := u = − 2 f (x) y0(x) − g(x) u − f (x) ,
[ linear ]
Beispiel 7: > f := -1: g := x -> 2*x: h := x -> -x^2+5: Dgl;
y = −y 2 + 2 x y − x2 + 5 Wir veranschaulichen diese Riccati-DGL anhand eines Richtungsfeldes und einiger L¨osungen: > DEplot(Dgl,y(x),x=-4..4,y=-6..6,[seq([0,k],k=[0,4,-4,2,-2])], color=gray,linecolor=[blue$3,cyan$2],dirgrid=[30,30],stepsize=0.1, arrows=medium);
MWS 2
Elementare Integration bei bekannter spezieller L¨ osung
60
MWS 2
Elementare Integrationsmethoden
6
y
4
MWS 2
2 –4
0
–2
2
4
x
–2 –4 –6
Sie besitzt folgende spezielle L¨ osung: > y0 := x -> x-2; odetest(y(x)=y0(x),Dgl);
y0 := x → x − 2 ,
0
Wir l¨osen die transformierte DGL: > DglTrans2; eq3 := dsolve(DglTrans2,u(x));
u = −4 u + 1 ,
eq3 := u =
1 + e −4 x C1 4
> subs(Subst2,eq3); eq4 := subs(Subst1,%);
1 1 = + e −4 x C1 , 4 z
eq4 :=
1 1 = + e −4 x C1 4 y−x+2
> isolate(eq4,y(x)); odetest(%,Dgl);
y =
1 + x − 2, 1 + e −4 x C1 4
0
Anhand dieser Schar von L¨osungen l¨aßt sich Satz 2.5.3 (vgl. Seite 32) veri¨ fizieren, der einen Uberblick u ¨ber die L¨osungsgesamtheit der Riccati-DGL gab.
2.6
Exakte Differentialgleichungen (MWS)
61
2.6 Exakte Differentialgleichungen > restart: with(DEtools): Dgl := f1(x,y(x))+f2(x,y(x))*diff(y(x),x) = 0;
Beispiel 8: > f1 := (x,y) -> exp(y): f2 := (x,y) -> x*exp(y)+cos(y): Dgl;
e y + (x e y + cos(y)) y = 0 Wir u ufen, ob diese DGL exakt ist: ¨berpr¨ > diff(f2(x,y),x)-diff(f1(x,y),y);
0 Bei diesem Beispiel handelt es sich offensichtlich um eine exakte DGL. Die Berechnung der Stammfunktion ist auf drei verschiedene Arten m¨oglich. Der Weg u ¨ber ein Hakenintegral‘ ist vorne im Textteil (S. 34) beschrieben und soll ’ hier nicht aufgegriffen werden. Zwei weitere M¨ oglichkeiten bestehen darin, die Stammfunktion mit Hilfe der Maple-Befehle VectorCalculus[ScalarPotential]
(erst ab Maple 8 verf¨ ugbar!) und linalg[potential] zu berechnen: > with(VectorCalculus): SetCoordinates(’cartesian’[x,y]): v := VectorField(
): F := ScalarPotential(v);
F := x e y + sin(y) > linalg[potential]([f1(x,y),f2(x,y)],[x,y],’F’); F;
true ,
x e y + sin(y)
Es gilt F (1, 0) = 1. Wir zeichnen die H¨ ohenlinien mit den Niveaus 0.0, 0.2, 0.4, 0.6, 0.8, 1.0, 1.2, 1.4, 1.6, 1.8, 2.0:
5
> with(plots): contourplot(F,x=-5..5,y=-0.5..2,color=blue,grid=[50,50], contours=[1+k/5 $ k=-5..5]): plot([[1,0]],style=point,symbol=circle,symbolsize=16,color=blue): display(%,%%,axes=frame);
MWS 2
Dgl := f 1(x, y) + f 2(x, y) y = 0
62
MWS 2
Elementare Integrationsmethoden
2 1.5
MWS 2
1 0.5 0 –0.5 0
1
2
3
4
Setzen wir F gleich einer Konstanten C , so erhalten wir eine L¨osung der obigen DGL: > subs(y=y(x),F) = C; odetest(%,Dgl);
x e y + sin(y) = C ,
0
Die Exaktheit der vorgegebenen DGL l¨ aßt sich nat¨ urlich auch folgendermaßen u ufen: ¨berpr¨ > odeadvisor(Dgl);
[[ 1st order , with exponential symmetries], exact]
Die Befehle exactsol , firint ( first integral‘) bzw. dsolve mit der Option ’ [exact] ergeben ebenfalls die L¨osung in obiger Form: > exactsol(Dgl,y(x)): firint(Dgl); dsolve(Dgl,y(x),[exact]):
x e y + sin(y) + C1 = 0
Wenn wir den Befehl dsolve ohne Option anwenden, stellt Maple das Ergebnis etwas anders dar: > dsolve(Dgl,y(x));
x + e −y sin(y) − e −y C1 = 0
Multiplikatoren Beispiel 9: > restart: with(DEtools): f1 := (x,y) -> x*y-2: f2 := (x,y) -> x^2-x*y: Dgl := f1(x,y(x))+f2(x,y(x))*diff(y(x),x) = 0;
2.6
Exakte Differentialgleichungen (MWS)
63
Dgl := y x − 2 + x2 − y x y = 0 > odeadvisor(Dgl,[exact]);
[NONE ]
> Dgl2 := collect(mu(x,y)*Dgl,diff(y(x),x));
Dgl2 := µ(x, y) (x2 − y x) y + µ(x, y) (y x − 2) = 0 > eq1 := diff(mu(x,y)*f2(x,y),x) = diff(mu(x,y)*f1(x,y),y);
eq1 := µx (x2 − y x) + µ(x, y) (2 x − y) = µy (y x − 2) + µ(x, y) x Es ergibt sich also eine partielle Differentialgleichung f¨ ur die Funktion µ . Diese vereinfacht sich zu einer DGL, wenn wir zum Beispiel annehmen, daß sich eine nur von x abh¨ angige Funktion finden l¨aßt: > eq2 := eval(eq1,mu(x,y)=mu(x));
eq2 := µ (x2 − y x) + µ(x) (2 x − y) = µ(x) x > eq3 := isolate(eq2,diff(mu(x),x)): normal(%);
µ = −
µ(x) x
µ(x) =
C1 x
> dsolve(eq3,mu(x));
Schneller und leichter geht es nat¨ urlich so: > mu := intfactor(Dgl);
µ :=
1 x
> expand(mu*Dgl): Dgl2 := collect(%,diff(y(x),x));
Dgl2 := (x − y) y + y − > odeadvisor(Dgl2,[exact]);
2 = 0 x
[ exact]
> exactsol(Dgl2,y(x)); dsolve(Dgl2,y(x),[exact]): dsolve(Dgl2,y(x));
MWS 2
Wir multiplizieren die DGL mit einem Faktor µ(x, y), um eine exakte DGL zu erzeugen. F¨ ur diese Funktion erhalten wir dann folgende Bedingung:
64
MWS 2
Elementare Integrationsmethoden
{y = x + x2 − 4 ln(x) + 2 C1 , y = x − x2 − 4 ln(x) + 2 C1 } y = x + x2 − 4 ln(x) + 2 C1 , y = x − x2 − 4 ln(x) + 2 C1
MWS 2
¨ Zur Vertiefung der vorangehenden Uberlegungen greifen wir die lineare DGL 1. Ordnung aus Abschnitt 2.3 auf und bringen sie auf folgende Gestalt: > restart: with(DEtools): f1 := (x,y) -> -f(x)*y-g(x): f2 := 1: Dgl := f1(x,y(x))+f2(x,y(x))*diff(y(x),x) = 0;
Dgl := −f (x) y − g(x) + y = 0 Offensichtlich ist sie keine exakte DGL: > odeadvisor(Dgl,[exact]); diff(f2(x,y),x)-diff(f1(x,y),y);
[NONE ] ,
f (x)
Mit Hilfe des Maple-Befehls intfactor suchen wir deshalb nach einem integrierenden Faktor: > intfactor(Dgl); alias(mu=%): Dgl2 := collect(mu*Dgl,diff(y(x),x));
e
−f (x) dx
,
Dgl2 := µ y + µ (−f (x) y − g(x)) = 0
Wir u ¨berzeugen uns, daß die DGL nun exakt ist: > diff(mu*f2(x,y),x)-diff(mu*f1(x,y),y); odeadvisor(Dgl2,[exact,linear]);
0,
[ exact, linear ]
Mithin ist > linalg[potential]([mu*f1(x,y),mu*f2(x,y)],[x,y],’F’): ’F’ = F;
F =
µ (−f (x) y − g(x)) dx
eine zugeh¨ orige Stammfunktion, und wegen > F1 := int(mu*(-f(x))*y,x)-int(mu*g(x),x); diff(F-F1,x): expand(%), diff(F-F1,y);
F1 := µ y −
µ g(x) dx ,
0, 0
ist F 1 ebenfalls eine Stammfunktion. Aufl¨osen der Gleichung F 1 = C liefert dann die allgemeine L¨osung:
2.7
Clairaut-Differentialgleichung (MWS)
> y(x) = solve(F1=C,y); odetest(%,Dgl);
65
µ g(x) dx + C y =
µ
,
0
Im Gegensatz zu den bisher behandelten DGLen tritt in der Clairaut-DGL y meist nicht-linear auf, und es werden hierbei keine Voraussetzungen u ¨ber die (eventuell nur lokal m¨ ogliche) Aufl¨ osbarkeit nach y gemacht. > restart: with(DEtools): with(plots): Dgl := y(x) = x*diff(y(x),x)-g(diff(y(x),x));
Dgl := y = x y − g(y ) > odeadvisor(Dgl);
[ Clairaut]
> g := cosh: Dgl;
y = x y − cosh(y )
> clairautsol(Dgl,y(x)); dsolve(Dgl,y(x));
√ {y = x C1 − cosh( C1 ), y = arcsinh(x) x − x2 + 1} , √ y = arcsinh(x) x − x2 + 1, y = x C1 − cosh( C1 )
Maple verwendet f¨ ur die inverse Funktion zu sinh die eigenartige Bezeichnung arcsinh ! Normalerweise heißt sie arsinh (Area Sinus Hyperbolicus). > dsolve({Dgl,y(2)=-1/2},y(x),[Clairaut]); # klappt nicht!
Wir veranschaulichen die L¨ osungsgesamtheit dieser DGL, d. h. die singul¨ are √ origer Tangentenschar L¨ osung y(x) = arcsinh(x) x − x2 + 1 nebst zugeh¨ y(t) + D(y)(t) (x − t), mittels einer Animation. Der Scharparameter t l¨auft dabei von -3 bis 3.
5
> xrange := -3.5..3.5: y := x -> arcsinh(x)*x-sqrt(x^2+1): Kurve := plot(y(x),x=xrange,color=blue): Animation := animate(y(t)+D(y)(t)*(x-t),x=xrange,t=-3..3,color=black, frames=31): display(Animation,Kurve,thickness=3,view=[xrange,-1.1..3]);
MWS 2
2.7 Clairaut-Differentialgleichung
66
MWS 2
Elementare Integrationsmethoden
3
MWS 2
2
1
–3
–2
–1
1
x
2
3
–1
Zum Schluß veranschaulichen wir noch die Gesamtheit aller stetig differenzierbaren L¨ osungen dieser DGL, die sich st¨ uckweise aus der singul¨aren L¨osung sowie ihren Tangenten zusammensetzt: > Tangente := a -> y(a)+D(y)(a)*(x-a): z := (alpha,beta) -> piecewise(x<=alpha,Tangente(alpha), x<=beta,y(x),Tangente(beta));
z := (α, β) → piecewise(x ≤ α, Tangente(α), x ≤ β, y(x), Tangente(β))
5
> a := -2: b := 2.5: c := solve(Tangente(a)=Tangente(b),x): display(plot(z(a,b),x=xrange,color=blue,thickness=2), pointplot([[a,y(a)],[b,y(b)]],symbol=circle,symbolsize=20), plot([[a,y(a)],[c,eval(Tangente(a),x=c)],[b,y(b)]],style=line, color=black)); 3 2 1
–3
–2
–1
2
1 –1 –2
x
3
Kapitel 3
Existenz- und Eindeutigkeitssatz Kapitel 3
3.1 Einleitung 3.2 Fixpunktsatz f¨ ur verallgemeinerte Kontraktionen 3.3 Existenz- und Eindeutigkeitssatz 3.4 Fehlerabsch¨ atzungen und Abh¨ angigkeits¨ uberlegungen 3.5 L¨osungen im Großen‘ ’ Maximale Existenzintervalle 3.6 Qualitative Beschreibung autonomer Systeme 3.7 Modifikation des Hauptsatzes f¨ ur Funktionen mit Werten im
k
3.1 Einleitung Im zweiten Kapitel haben wir exemplarisch spezielle Differentialgleichungen erster Ordnung (f¨ ur reellwertige Funktionen) mit jeweils eigenen L¨ osungsmethoden untersucht. ¨ Jetzt soll — losgel¨ ost von solchen speziellen Uberlegungen — ein allgemeiner Existenz- und Eindeutigkeitssatz f¨ ur explizite Differentialgleichungen oder Differentialgleichungssysteme, kurz DGL-Systeme, bereitgestellt werden. Die Betrachtung vektorwertiger Funktionen bringt dabei eine wesentliche Bezeichnungsvereinfachung; sie erlaubt es zudem, explizite Systeme von Differentialgleichungen als eine Differentialgleichung 1. Ordnung zu schreiben. (Man vergleiche dazu die Seiten 78–80.) Auch Differentialgleichungssysteme sind daher durch den Begriff Differentialgleichung erfaßt! Die wesentliche Idee ist: Die L¨ osung einer Anfangswertaufgabe wird als Fixpunkt einer geeigneten Abbildung aufgefaßt, und dann wird daf¨ ur der Fixpunktsatz von Banach herangezogen. Dabei werden wir den speziellen Fixpunktsatz (f¨ ur Kontraktionen) auf verallgemeinerte Kontraktionen verbessern.1 1
Eine andere Methode w¨ are, die betrachtete Norm geeignet zu einer gewichteten ’ Maximumsnorm‘ abzu¨ andern.
68
Kapitel 3
Existenz- und Eindeutigkeitssatz
¨ Die Uberlegungen lassen sich durchgehend ganz einfach auf Banach-Raumwertige Funktionen ausgedehnen. Weil wir aber nicht davon ausgehen, daß alle Leser entsprechende Vorkenntnisse haben, verzichten wir darauf. Zur Idee:
F¨ ur D ⊂
2
, stetiges f : D −→
und (a, b) ∈ D kann die AWA
y = f (x, y) y(a) = b wie folgt auf eine Fixpunktaufgabe zur¨ uckgef¨ uhrt werden: F¨ ur b ∈ , ein Intervall J mit a ∈ J und stetiges y : J −→ gilt offenbar2 : ⎫ x y ist (stetig) differenzierbar mit:⎬ ⇐⇒ y(x) = b + f (t, y(t)) dt (x ∈ J) y (x) = f (x, y(x)) (x ∈ J) ⎭ y(a) = b a
Kapitel 3
F¨ ur stetiges z : J −→ mit (t, z(t)) ∈ D f¨ ur t ∈ J betrachten wir die Abbildung T z : J −→ , definiert durch:
x f (t, z(t)) dt
(T z)(x) := b +
(x ∈ J)
a
¨ I. a. wird T z verschieden von z sein. Nach der vorangehenden Uberlegung gilt: z ist genau dann L¨ osung der Anfangswertaufgabe, wenn T z = z gilt, wenn also z ein Fixpunkt von T ist. Der — weiter unten beschriebene — Fixpunktsatz gibt dann ein Iterationsverfahren zur Bestimmung der L¨ osung, das meist als Picard-Verfahren“ ” oder Picard-Lindel¨ of-Verfahren“ bezeichnet wird. ” (B1) Die folgende Aussage u ¨ber die trigonometrischen Funktionen Sinus und Cosinus ist nat¨ urlich allen l¨ angst vertraut. Wir betrachten sie hier unter einem neuen Blickwinkel: Es existieren eindeutig stetig differenzierbare Funktionen s, c : −→ mit
s = c , s(0) = 0 . c = −s , c(0) = 1
(1)
Zum Beweis gen¨ ugt es offenbar zu zeigen: F¨ ur jedes A ∈ ]0, ∞ [ und J := [−A, A] existieren eindeutig stetig differenzierbare Funktionen s, c : J −→ mit s = c, s(0) = 0 und c = −s , c(0) = 1.
2
Beim Schluß von links nach rechts wird integriert, von rechts nach links differenziert.
3.1
Einleitung
69
⎧ ⎪ ⎪ ⎨ s(x) =
x
⎫ ⎪ c(t)dt ⎪ ⎬
x s 0 0 1 s ⇐⇒ (x) = + (1) ⇐⇒ (t)dt x c 1 −1 0 c ⎪ ⎪ ⎪ ⎩ c(x) = 1 − s(t)dt ⎪ ⎭ 0 0
0
Zum Nachweis der Existenz gehen wir konstruktiv so vor, wie es das aus dem Fixpunktsatz resultierende Iterationsverfahren vorgibt: 0 s0 := , c0 1
x sn+1 0 0 1 sn (x) := + (t)dt cn+1 cn 1 −1 0 0
x3 x3 , s4 (x) = x − , ... 3! 3! x4 x2 x2 x2 + , c2 (x) = 1 − , c3 (x) = 1 − , c4 (x) = 1 − 2! 2! 2! 4! s3 (x) = x −
s1 (x) = x, s2 (x) = x, c1 (x) = 1,
...
Die Folge (sn , cn )T konvergiert gleichm¨aßig auf J gegen eine Grenzfunktion oglichen (s, c)T , die dann — aufgrund der Rekursionsformel und der hier m¨ Vertauschung von Integration und Grenzwertbildung — x s 0 0 1 s (x) = + (t)dt c 1 −1 0 c 0
erf¨ ullt, also die AWA (1) l¨ost. Zur Eindeutigkeit: Ist auch ( s, c )T eine L¨ osung dieser AWA, dann betrachten wir die Differenzfunktion: s − s d := c− c Man hat
x d(x) =
0 1 −1 0
d(t)dt .
0
Mit M := max |d(t)| (hier sei (im t∈J
2
) etwa die Maximumsnorm gew¨ ahlt)
erh¨alt man f¨ ur x ∈ J induktiv: |d(x)| ≤ M,
|d(x)| ≤ M |x| , . . . |d(x)| ≤ M
also M ≤ M
|x|n An ≤ M , n! n!
An und folglich M = 0, d. h. d = 0, also s = s und c = c. n!
Kapitel 3
Das liefert Partialsummen der trigonometrischen Funktionen:
70
Kapitel 3
F¨ ur k ∈
Existenz- und Eindeutigkeitssatz
&f ' 1 .. , ein Intervall J und stetiges f := . : J −→
k
sei definiert:
fk
β
⎛ f (t)dt := ⎝
α
β
β f1 (t)dt, . . . ,
α
⎞T fk (t)dt⎠
(α, β ∈ J)
α
Das so eingef¨ uhrte Integral f¨ ur k -wertige Funktionen ist wieder linear in f und additiv bez¨ uglich der Grenzen 3 . Mit einer beliebigen Norm | | auf dem k gilt:
Kapitel 3
β β |f (t)|dt ≤ max |f (t)| (β − α) f (t)dt ≤ t∈[α,β] α
(α ≤ β)
α
Wir betrachten oft den Vektorraum C0 (J) := C0 (J,
k
) :=
h | h : J −→
k
stetig
und darin den Unterraum C1 (J) := C1 (J,
k
) :=
h | h : J −→
k
stetig differenzierbar .
Ist das Intervall J kompakt, dann liefert |f |s := max |f (x)| x∈J
eine Norm | |s auf C0 (J). (Bei allgemeinerem Definitionsbereich ist Maximum‘
’ durch Supremum‘ — mit m¨ oglichem Wert ∞ — zu ersetzen. Das erkl¨ art den Index ’ aßige Konvergenz (auf J). s“ .) Die Norm | |s beschreibt gerade die gleichm¨ ”
Aus der Analysis d¨ urfte dazu vertraut sein: Satz von Weierstraß
C0 (J), | |s
ist vollst¨ andig.
3.2 Fixpunktsatz fu ¨r verallgemeinerte Kontraktionen Es sei M eine nicht-leere Menge. Wir sprechen von einer Abbildung T aus 4 M in M , wenn mit einer Teilmenge D := DT von M gilt: T : D −→ M 3 4
Beide Eigenschaften u ¨bertragen sich direkt von den Komponentenfunktionen. Bei einer Abbildung von‘ M (in eine beliebige Menge) ist der Definitionsbereich ’ ganz M .
3.2
Fixpunktsatz f¨ ur verallgemeinerte Kontraktionen
71
Hierbei ist die leere Menge f¨ ur D ausdr¨ ucklich zugelassen, da dies bei den Iterierten einer Abbildung naturgem¨ aß auftreten kann. Ein x ∈ DT heißt genau dann Fixpunkt von T , wenn T x = x gilt. F¨ ur zwei Abbildungen S und T aus M in M ist S T , definiert durch
f¨ ur x ∈ DS T :=
S T (x) := (S ◦ T )(x) := S(T (x)) x ∈ DT T (x) ∈ DS , eine Abbildung aus M in M .
gebildet. Wir notieren — auch f¨ ur eine beliebige Abbildung T aus M in M — oft T x statt T (x). Im folgenden seien (M, δ) ein metrischer Raum und T eine Abbildung aus M in M . Wir betrachten — und lesen dabei inf ∅ := ∞ — : T := inf α ∈ [0, ∞ [ : ∀ x, y ∈ DT δ(T x, T y) ≤ α δ(x, y) heißt Abbildungsnorm“. Offenbar gilt f¨ ur den Wertebereich WT : ” T = 0 gilt genau dann, wenn WT h¨ ochstens einpunktig ist.
(1)
T heißt genau dann beschr¨ ankt“, wenn T endlich ist. ” In diesem Fall gilt T = min α ∈ [0, ∞ [ : ∀ x, y ∈ DT δ(T x, T y) ≤ α δ(x, y) ; denn f¨ ur x, y ∈ DT hat man δ(T x, T y) ≤ T + 1 δ(x, y) , n also mit dem Grenz¨ ubergang n −→ ∞ δ(T x, T y) ≤ T δ(x, y) . Eine beschr¨ankte Abbildung T ist trivialerweise gleichm¨ aßig stetig. T heißt dann und nur dann kontrahierend“, wenn T < 1 ist. ” T heißt genau dann schwach kontrahierend“, wenn δ(T x, T y) < δ(x, y) f¨ ur ” alle x, y ∈ DT mit x = y gilt. Offenbar ist jede kontrahierende Abbildung schwach kontrahierend. Die Umkehrung gilt nat¨ urlich nicht. Unmittelbar aus der Definition liest man ab:
Kapitel 3
Mit T 0 := idM seien — wie u ¨blich — die iterierten Abbildungen T n rekursiv durch ur n ∈ 0 T n+1 := T T n f¨
72
Kapitel 3
Existenz- und Eindeutigkeitssatz
Bemerkung 3.2.0 Eine (schwach) kontrahierende Abbildung T hat h¨ ochstens einen Fixpunkt. Bemerkung 3.2.1 Mit 0 · ∞ := ∞ · 0 := 0 und a · ∞ := ∞ · a := ∞ f¨ ur a ∈ ]0, ∞ [ gilt f¨ ur zwei Abbildungen S und T aus M in M : S T ≤ S T
Kapitel 3
Beweis: S = 0 oder T = 0 impliziert S T = 0 nach (1). So kann Œ von 0 < T , S < ∞ ausgegangen werden. F¨ ur x, y ∈ DST gilt dann: δ(S T x, S T y) ≤ S δ(T x, T y) ≤ S T δ(x, y)
Bemerkung 3.2.2 F¨ ur ein m ∈
sei T m < 1 . 5
a) F¨ ur x ∈ DT m gilt: x Fixpunkt von T ⇐⇒ x Fixpunkt von T m b) T hat h¨ ochstens einen Fixpunkt. Beweis: Nach Bemerkung 3.2.0 gen¨ ugt es, a) zu zeigen. Die Implikation von links nach rechts ist trivial. Umgekehrt folgt aus T m x = x die Beziehung T m (T x) = T (T m x) = T x; mithin ist auch T x ein Fix punkt von T m und somit — wegen der Eindeutigkeit — x = T x . T < 1 impliziert T m < 1 f¨ ur jedes m ∈ , da T m ≤ T m gilt. Umgekehrt m ur ein m ∈ nat¨ urlich nicht T < 1 . folgt aus T < 1 f¨
Bemerkung 3.2.3 ∞ 0
T n < ∞ ⇐⇒ T < ∞ ∧ ∃ m ∈
T m < 1
n=0
Beweis: =⇒: trivial ⇐=: Jedes n ∈ 0 kann in der Form n = m k + r mit geeigneten k ∈ und r ∈ {0, . . . , m − 1} geschrieben werden. Damit gilt:
0
T n ≤ T m k T r F¨ ur beliebiges N ∈ N 0 n=0 5
hat man so:
T n ≤
0 ∞ k=0
T m k
m−1 max T r < ∞ r=0
Hier gen¨ ugt die schw¨ achere Voraussetzung: T m ist schwach kontrahierend.
3.2
Fixpunktsatz f¨ ur verallgemeinerte Kontraktionen
73
¨ Nach diesen vorbereitenden Uberlegungen kommen wir zu dem zentralen Hilfsmittel: Fixpunktsatz f¨ ur verallgemeinerte Kontraktionen 3.2.4 Es seien (M, δ) ein vollst¨ andiger metrischer Raum und T eine Abbildung aus M in M mit ∆T :=
∞ 1
DT n
abgeschlossen und nicht-leer
(2)
n=0 ∞ 0
T n < ∞ .
Kapitel 3
und
n=0
a) Dann existiert genau ein Fixpunkt x ˆ von T . ˆ b) F¨ ur jedes x0 ∈ ∆T gilt T n x0 −→ x
(n −→ ∞).
∆T enth¨ alt gerade die Elemente, auf die T beliebig oft angewendet werden kann.
Vielen Lesern wird der spezielle Fixpunktsatz f¨ ur Kontraktionen vertraut sein, etwa aus der mehrdimensionalen Analysis zur Gewinnung der S¨ atze u ¨ber lokale Umkehrung und u ur solche Leser kann der ¨ber implizite Funktionen. F¨ Beweis des verallgemeinerten Satzes ganz einfach gef¨ uhrt werden, indem man — unter Beachtung von (3.2.3) und (3.2.2) — den speziellen Satz anwendet ur ein m ∈ mit auf ∆T (mit der eingeschr¨ankten Metrik) und T m (f¨ T m < 1).
Der Vollst¨andigkeit halber geben wir jedoch einen eigenst¨ andigen und ausf¨ uhrlichen Beweis f¨ ur den verallgemeinerten Satz: Die Eindeutigkeit ist mit (3.2.3) und (3.2.2.b) gegeben. F¨ ur den Existenznachweis betrachtet man zu einem beliebigen x0 ∈ ∆T die durch xn := T n x0 (n ∈ )
ur n, m ∈ definierte Folge (xn ) in ∆T . F¨
mit n ≤ m sch¨ atzt man
δ(xn , xm+1 ) ≤ δ(xn , xn+1 ) + δ(xn+1 , xn+2 ) + · · · + δ(xm , xm+1 ) m m 0 0 = δ(T ν x0 , T ν x1 ) ≤ T ν δ(x0 , x1 ) ν=n
ν=n
ab und hat so (xn ) als Cauchy-Folge erkannt, die — nach Voraussetzung u ˆ aus ∆T konvergiert. ¨ber (M, δ) und ∆T — gegen ein x ˆ und — Die Folge (xn+1 ) = (T xn ) konvergiert als Teilfolge ebenso gegen x aufgrund der Stetigkeit von T — gegen T x ˆ . Somit gilt T x ˆ=x ˆ. Wir sehen uns die Voraussetzung (2) etwas genauer an:
74
Kapitel 3
Existenz- und Eindeutigkeitssatz
α) Ist DT abgeschlossen und T stetig, so ist ∆T abgeschlossen. β) Jede Teilmenge S von DT , die unter T in sich selbst abgebildet wird (T (S) ⊂ S), liegt in ∆T . γ) Gilt f¨ ur ein x0 ∈ M mit einem 0 < r < ∞ K := {x ∈ M : δ(x0 , x) ≤ r} ⊂ DT
und
δ(x0 , T x0 )
∞ 0
T n ≤ r ,
n=0
dann geh¨ ort x0 zu ∆T .
Kapitel 3
γ ) Die letzte Voraussetzung in γ) ist gegeben, falls δ(x0 , T x0 ) ≤ r (1 − q) f¨ ur ein T mit T ≤ q < 1, also eine Kontraktion, gilt. ur n ∈ Beweis: F¨ ur α) gen¨ ugt es zu zeigen, daß DT n f¨ Dies liest man induktiv aus
abgeschlossen ist:
DT n+1 = DT n ◦T = {x ∈ DT | T x ∈ DT n } = T −1 (DT n ) ur n ∈ induktiv: F¨ ur n = 1 ab. β) ist klar. F¨ ur γ) zeigt man x0 ∈ DT n f¨ ist das Voraussetzung. F¨ ur den Schluß von n auf n + 1 sch¨ atzt man ab
δ(x0 , T x0 ) ≤ δ(x0 , T x0 ) +· · ·+ δ(T n
n−1
x0 , T x0 ) ≤ δ(x0 , T x0 ) n
n−1 0
T ν ≤ r ,
ν=0
hat also T n x0 ∈ K , somit x0 ∈ DT n+1 . F¨ ur γ ) ist nur zu beachten: ∞ 0
T n ≤
n=0
∞ 0
T n ≤
n=0
∞ 0 n=0
qn =
1 1−q
Die Voraussetzungen und Bezeichnungen des nachfolgenden Hauptsatzes kann man sich leichter einpr¨ agen, wenn man sie f¨ ur k = 1 und endliches B etwa wie folgt veranschaulicht:
}B }B
R g (a, b) y
A J
a
3.3
Existenz- und Eindeutigkeitssatz
75
3.3 Existenz- und Eindeutigkeitssatz Hauptsatz 3.3.1 Unter den Voraussetzungen und mit den Bezeichnungen ① k∈
; J kompaktes Intervall in
; a ∈ J;
A := max |x − a| (> 0); b ∈ k ; g ∈ C0 (J, x∈J R := (x, y) ∈ J × k : |y − g(x)| ≤ B
k
); 0 < B ≤ ∞;
② f : R −→
k
M := sup |f (x, y)|
stetig;
6
④ a) AM + max |g(x) − b| ≤ B oder x∈J x b) max g(x) − b − f (t, g(t))dt exp(L A) ≤ B x∈J
a
existiert genau ein y ∈ C1 (J,
k
) mit
y(a) = b und (x, y(x)) ∈ R, y (x) = f (x, y(x)) f¨ ur alle x ∈ J . Einige Anmerkungen und Erl¨auterungen sind hier angebracht: Im k sei eine beliebige Norm | | fest gew¨ahlt. A gibt gerade den maximalen Abstand in J zum Anfangswert a. Der Definitionsbereich R von f ist ein Schlauch‘ um den Graphen von g , ’ speziell f¨ ur konstantes g und endliches B also ein Rechteck‘. ’ ③ heißt Lipschitz-Bedingung“ (bez¨ uglich y) und L Lipschitz-Konstante“.7 ” ” Beweis: Wir betrachten M := C0 (J, k ) mit der aus der Maximumsnorm andiger metrischer | |s resultierenden Metrik δ . Dann ist (M, δ) ein vollst¨ Raum (nach dem Satz von Weierstraß).
Wir w¨ahlen DT := {y ∈ M : δ(y, g) ≤ B} . F¨ ur ein y ∈ M bedeutet y ∈ DT gerade (x, y(x)) ∈ R f¨ ur alle x ∈ J . 6 7
Der Wert ∞ f¨ ur M ist hier zugelassen. Der deutsche Mathematiker Rudolf Otto Sigismund Lipschitz (1832–1903) arbeitete auf vielen Gebieten der Mathematik und Physik, etwa zu Differentialformen und zur Mechanik, speziell der Hamilton-Jacobi-Methode.
Kapitel 3
(x,y)∈R
③ Es existiert ein 0 ≤ L < ∞ mit: f (x, y1 ) − f (x, y2 ) ≤ L|y1 − y2 | f¨ ur alle (x, y1 ), (x, y2 ) ∈ R
76
Kapitel 3
Existenz- und Eindeutigkeitssatz
DT ist offenbar nicht-leer und abgeschlossen.
(1)
F¨ ur z ∈ DT sei x (T z)(x) := b +
(x ∈ J) .
f (t, z(t))dt a
Es gelten T z ∈ C1 (J,
k
) ⊂ C0 (J,
k
) = M
Kapitel 3
und: z ist genau dann L¨ osung der AWA, wenn es Fixpunkt von T ist. Sicherheitshalber‘ erinnern wir noch einmal an die schon in Abschnitt 3.1 aus’ gef¨ uhrte Schlußweise: Hat man eine L¨ osung z der Anfangswertaufgabe, so gewinnt man x (x ∈ J) z(x) = b + f (t, z(t)) dt a
durch Integration. Umgekehrt zeigt Differentiation dieser Beziehung, daß z die Anfangswertaufgabe l¨ ost.
Wir zeigen (induktiv) f¨ ur alle n ∈
0,
x ∈ J und z1 , z2 ∈ DT n :
n n (T z1 )(x) − (T n z2 )(x) ≤ δ(z1 , z2 ) (L|x − a|) n!
(2)
F¨ ur n = 0 ist dies klar. F¨ ur den Schluß von n auf n + 1 hat man f¨ ur x ∈ J und z1 , z2 ∈ DT n+1 : n+1 (T z1 )(x) − (T n+1 z2 )(x) = T (T n z1 )(x) − T (T n z2 )(x) x x $ % n n [. . . ] dt = f t, (T z1 )(t) − f t, (T z2 )(t) dt ≤ a
③ ≤
a
n x x n (2) L|t − a| n L (T z1 )(t) − (T z2 )(t) dt ≤ L dt δ(z1 , z2 ) n! a
≤
a
(L|x − a|) (n + 1)!
n+1
δ(z1 , z2 )
(L A)n (L A)n Aus (2) folgt δ(T n z1 , T n z2 ) ≤ δ(z1 , z2 ) , also T n ≤ und n! n! somit ∞ 0 T n ≤ exp(L A) (< ∞) . n=0
ur z ∈ DT und x ∈ J hat man Aus ④, a) folgt T (DT ) ⊂ DT ; denn f¨
3.3
Existenz- und Eindeutigkeitssatz
g(x) − b +
x
a
77
④,a) f (t, z(t)) dt ≤ |g(x) − b| + AM ≤ B , also T z ∈ DT . !" #
=(T z)(x)
So folgt mit (1) — nach α), β) (mit S = DT ) von Seite 74 — die Voraussetzung (2) des Fixpunktsatzes. Aus ④, b) folgt hier ziehen wir im nicht-trivialen Fall B < ∞ — neben α) ¨ atigung — die Uberlegung γ) von Seite 74 mit r := B und x0 := g zur Best¨ von (2) des Fixpunktsatzes heran : ∞ 0
T n
s. o.
≤
δ(g, T g) exp(L A)
④,b) ≤ B
n=0
Das aus dem Fixpunktsatz (mit diesem Beweis) resultierende Iterationsverfahren wird — wie bereits auf Seite 68 im Spezialfall erw¨ ahnt — meist als alle Picard-Verfahren“ 8 oder Picard-Iteration“ zitiert. Einfache Spezialf¨ ” ” des Existenz- und Eindeutigkeitssatzes sind oft nach Picard-Lindel¨ of‘ 9 ’ benannt, obwohl hier sicher auch Cauchy an vorderster Front zu nennen w¨ are (man vergleiche dazu die historischen Notizen zu Kapitel 1). Ein paar erg¨anzende Anmerkungen — jeweils unter Angabe der zus¨ atzlichen Voraussetzungen — sollen diesen zentralen Satz weiter ausloten: ullt. (a) F¨ ur B = ∞ sind ④, a) und ④, b) immer erf¨ (b) Die Voraussetzung (und Behauptung) bleiben bei Verkleinerung von J zu ultig. Dabei verkleinern sich einem kompakten Intervall J0 mit a ∈ J0 g¨ (neben R) gegebenenfalls A, M und L. (b’) Bei Einschr¨ ankung von J zu einem kompakten Intervall J0 mit a ∈ J0 gibt es somit keine andere L¨ osung. Man hat also lokale Eindeutigkeit“. ” (c) Ist B endlich, dann ist R kompakt und somit M = max |f (x, y)| < ∞ . (x,y)∈R
aquivalent zu AM ≤ B . Dies ist (d) Im Falle g(x) = b (x ∈ J) ist ④, a) ¨ durch Verkleinern von J immer erreichbar; denn im nicht-trivialen Fall B < ∞ ist nach (c) auch M endlich. Man hat also in diesem Falle stets lokale Existenz und Eindeutigkeit. 8
9
´ Der franz¨ osische Mathematiker Charles Emile Picard (1856–1941) hat neben seinen Beitr¨ agen zur Theorie der gew¨ ohnlichen Differentialgleichungen u. a. bedeutende Ergebnisse zur Funktionentheorie (Werteverteilung) und zu algebraischen Fl¨ achen erzielt. Der finnische Mathematiker Ernst Leonhard Lindel¨ of (1870–1946) gr¨ undete die finnische Schule der Analysis und Funktionentheorie. Daneben besch¨ aftigte ¨ von Mengen. er sich auch mit Fragen der Uberdeckung‘ ’
Kapitel 3
δ(g, T g)
78
Kapitel 3
Existenz- und Eindeutigkeitssatz
(e) Die Voraussetzungen bleiben erhalten (mit eventuell reduzierten Gr¨ oßen R , M und L), falls die linke Seite in ④, a) bzw. ④, b) als neues B gew¨ ahlt wird. (f ) Zur Lipschitz-Bedingung: Ist die Funktion f (in R) partiell nach y differenzierbar und gilt mit einer zur vorgegebenen Norm auf dem k passenden‘ Matrixnorm10 | | ’ f¨ ur ein 0 ≤ L < ∞ fy (x, y) ≤ L f¨ ur (x, y) ∈ R , !" #
Kapitel 3
k×k-Matrix
dann gilt die Voraussetzung ③ aus dem Hauptsatz mit diesem L. Hier zieht man die u atzung‘ heran, die f¨ ur vektorwertige ¨bliche Fehlerabsch¨ ’ Funktionen den schon im zweidimensionalen Fall nicht mehr g¨ ultigen Mittelwertsatz ersetzt‘ (man vergleiche dazu etwa [Heu2], 167.4). Die Beschr¨ ankt’ anktheit aller k partiellen Abheit der Matrix fy bedeutet gerade die Beschr¨ leitungen (erster Ordnung). Ist B < ∞, also R kompakt, dann ist die Existenz eines solchen L gesichert, falls fy stetig ist.
Wegen der besonderen Wichtigkeit wollen wir den Hauptsatz — f¨ ur den Fall g(x) = b (x ∈ J) unter Beschr¨ankung auf die Bedingung ④, a) — noch einmal ausf¨ uhrlich f¨ ur ein reelles Differentialgleichungssystem 1. Ordund zu gegebenen Funktionen f1 , . . . , fk nung notieren. Mit einem k ∈ sind hier differenzierbare Funktionenen y1 , . . . , yk auf einem Intervall J ur x ∈ J und κ = 1, . . . , k . Im gesucht mit yκ (x) = fκ x, y1 (x), . . . , yk (x) f¨ k w¨ahlen wir dazu beispielhaft die Maximumsnorm.
Satz 3.3.2 Unter den Voraussetzungen und mit den Bezeichnungen ① k ∈ ; J kompaktes Intervall in ; a ∈ J ; A := max |x − a| (> 0); b = (bκ ) ∈ k ; 0 < B ≤ ∞; x∈J k R := z = (z0 , . . . , zk ) ∈ k+1 : z0 ∈ J ∧ max |zκ − bκ | ≤ B
κ=1
② fκ : R −→
stetig,
Mκ := sup |fκ (z)| (κ = 1, . . . , k) z∈R
③ F¨ ur κ = 1, . . . , k existiert jeweils 0 ≤ Lκ < ∞ so, daß f¨ ur alle (x, y1 , . . . , yk ), (x, z1 , . . . , zk ) ∈ R k fκ (x, y1 , . . . , yk ) − fκ (x, z1 , . . . , zk ) ≤ Lκ max |yν − zν | gilt. ④ AMκ ≤ B 10
ν=1
(κ = 1, . . . , k)
Sie erlaubt die Absch¨ atzung |A x| ≤ |A| |x| f¨ ur alle x ∈ ist gerade die kleinste passende Matrixnorm.
k
. Die Abbildungsnorm
3.3
Existenz- und Eindeutigkeitssatz
79
existieren eindeutig differenzierbare Funktionen yκ : J −→ yκ (a) = bκ , |yκ (x) − bκ | ≤ B yκ (x) = fκ x, y1 (x), . . . , yk (x) k
k
κ=1
κ=1
Beweis: Mit L := max Lκ , M := max Mκ
mit
und (x ∈ J ; κ = 1, . . . , k) und f := (f1 , . . . , fk )T kann
dies unmittelbar aus dem Hauptsatz abgelesen werden.
Auch Explizite Differentialgleichungen k-ter Ordnung lassen sich als (explizite) Differentialgleichungen 1. Ordnung auffassen:
D⊂
k+1
, ϕ : D −→
(3)
Ist η eine L¨osung von (3) auf einem Intervall J (insbesondere ist η dann k-mal differenzierbar), so kann mit y1 := η , y2 := η , . . . , yk := η (k−1) umgeschrieben werden zu ⎛ ⎞ ⎛ ⎞ y1 y2 ⎜ y2 ⎟ ⎜ ⎟ .. ⎜ ⎟ ⎜ ⎟ . ⎜ .. ⎟ = ⎜ ⎟. ⎝.⎠ ⎝ ⎠ yk ϕ(x, y1 , . . . , yk ) yk Setzt man f¨ ur (x, y1 , . . . , yk ) ∈ D ⎛ ⎛ ⎞ ⎞ y2 f1 (x, y1 , . . . , yk ) ⎜ ⎜f2 (x, y1 , . . . , yk )⎟ ⎟ .. ⎜ ⎜ ⎟ ⎟ . ⎜ ⎟ := f (x, y1 , . . . , yk ) := ⎜ ⎟, .. ⎝ ⎝ ⎠ ⎠ . yk ϕ(x, y1 , . . . , yk ) fk (x, y1 , . . . , yk ) so kann mit
⎛ ⎞ y1 ⎜ ⎟ y := ⎝ ... ⎠
einfach notiert werden:
y = f (x, y)
(4)
yk ⎛ ⎞ y1 ⎜ .. ⎟ Ist umgekehrt y =: ⎝ . ⎠ eine L¨ osung von (4) auf einem Intervall J, dann yk osung von (3) auf J . Zun¨achst ist yk differenzierbar, dann ist η := y1 eine L¨
Kapitel 3
η (k) (x) = ϕ x, η(x), . . . , η (k−1) (x)
80
Kapitel 3
Existenz- und Eindeutigkeitssatz
zeigt yk−1 = yk , daß yk−1 zweimal differenzierbar ist. Schließlich ist y1 = η k-fach differenzierbar.
Zur Anwendung des obigen Satzes bemerken wir nur: a)
Die Funktion ϕ ist genau dann stetig, wenn f stetig ist.
b)
F¨ ur κ = 1, . . . , k − 1 sind hier Lκ = 1 und Mκ = |bκ+1 | + B w¨ ahlbar. ⎛ ⎞ b1 ⎜ .. ⎟ Die Anfangsbedingung y(a) = b = ⎝ . ⎠ bedeutet hier
c)
Kapitel 3
bk η(a) = b1 , . . . , η
(k−1)
(a) = bk .
Explizite Differentialgleichungssysteme h¨ oherer Ordnung werden analog behandelt. Wir erl¨autern dies nur an folgendem Beispiel: u = ϕ(x, u, u , v, v , v ) v = ψ(x, u, u , v, v , v ) : y1 = u, y2 = u , y3 = v, y4 = v , y5 = v y1 = y2 y2 = ϕ(x, y1 , . . . , y5 ) y3 = y4 y4 = y5 y5 = ψ(x, y1 , . . . , y5 ) Die Anfangsbedingung bedeutet hier die Vorgabe von Werten f¨ ur u(a), u (a), v(a), v (a), v (a) .
3.4 Fehlerabsch¨ atzungen und Abh¨ angigkeitsu ¨berlegungen Im folgenden seien die Voraussetzungen ①, ②, ③ und ④, b) des Hauptsatzes gegeben. Wir erinnern an die Anmerkungen auf Seite 77 f: (b) Die Voraussetzung (und Behauptung) bleiben bei Verkleinerung von J zu einem ultig. Dabei verkleinern sich (neben R) kompakten Intervall J0 mit a ∈ J0 g¨ gegebenenfalls A , M und L. (e) Die Voraussetzungen bleiben erhalten (mit eventuell reduzierten Gr¨ oßen R , M und L ), falls die linke Seite in ④, b) als neues B gew¨ ahlt wird.
F¨ ur x ∈ J betrachten wir das kleinste a und x enthaltende kompakte Intervall11 [a , x] bzw. [x , a]. Dann ist A = |x − a| . Verkleinert man B zur 11
Im folgenden wird dieses Intervall immer‘ als [ a , x ] notiert. ’
3.4
Fehlerabsch¨ atzungen und Abh¨ angigkeits¨ uberlegungen
81
linken Seite von ④, b), so gilt f¨ ur die L¨ osung y der Anfangswertaufgabe t y(x) − g(x) ≤ max g(t) − b − f τ, g(τ ) dτ t∈[a,x]
exp L|x − a| .
(1)
a
Hier ist ein kleineres L f¨ ur das Teilintervall [a, x] m¨ oglich.
Falls die vorgegebene Funktion g die zur AWA ¨ aquivalente Integralgleichung n¨ aherungsweise erf¨ ullt, gibt dies eine erste Fehlerabsch¨ atzung. Dies wird noch etwas deutlicher unter der zus¨ atzlichen Annahme
Mit den beiden Defekten‘ ’ d1 (x) := g (x) − f (x, g(x)) d2 := g(a) − b
(x ∈ J)
k
) :
Kapitel 3
g ∈ C1 (J,
12
wird u ¨ber t t t g(t) = g(a) + a g (τ )dτ = b + d2 + a f (τ, g(τ ))dτ + a d1 (τ )dτ die obige Absch¨atzung zur Defektabsch¨ atzung: t y(x) − g(x) ≤ max d2 + d1 (τ ) dτ t∈[a,x]
exp L|x − a|
(2)
a
Wir fassen nun die Funktion g als L¨ osung einer benachbarten‘ AWA auf. ’ Dazu betrachten wir G := {(x, g(x)) : x ∈ J} . Dies ist offenbar eine kompakte Teilmenge von R . Mit den zus¨atzlichen Annahmen f1 : G −→
k
stetig, a1 ∈ J , b1 ∈
k
,
g (x) = f1 (x, g(x)) (x ∈ J), g(a1 ) = b1 und den Bezeichnungen
P := max |f (z)|
13
z∈G
P1 := max |f1 (z)| z∈G
gelten dann: 12 13
Die Funktion d1 ist nat¨ urlich stetig. Trivialerweise gilt P ≤ M .
Q := max |f (z) − f1 (z)| z∈G
82
Kapitel 3
Existenz- und Eindeutigkeitssatz t max d1 (τ )dτ t∈[a,x]
d1 (x) = f1 (x, g(x)) − f (x, g(x)) :
≤ Q|x − a|
a
d2 = (b1 − b) + (g(a) − g(a1 )) : |d2 | ≤ |b1 − b| + P1 |a − a1 | ,
Kapitel 3
also: $ % y(x) − g(x) ≤ |b − b1 | + P1 |a − a1 | + Q|x − a| exp L|x − a|
(3)
Der Term |b − b1 | + P1 |a − a1 | resultiert aus der Abweichung der Anfangswer¨ te, der Ausdruck Q |x − a| aus der Anderung der Differentialgleichung. Nat¨ urlich wird insbesondere bei der Absch¨ atzung des Integrals u ¨ber die Funktion d1 durch Q |x − a| m¨ oglicherweise viel verschenkt‘. Es ist im Einzelfall abzuw¨ agen, ob mit ’ eventuell hohem Aufwand durch (2) gut abgesch¨ atzt werden soll oder die grobe — aber meist wesentlich leichter zu gewinnende — Absch¨ atzung (3) gen¨ ugt. ur Anwendungen gen¨ ugt oft die gr¨ obere Offenbar gilt P1 ≤ P + Q ≤ M + Q . F¨ Absch¨ atzung mit P + Q oder M + Q statt mit P1 . Zudem gilt M ≤ P + L B ; denn f¨ ur (x, y) ∈ R kann |f (x, y)| ≤ |f (x, g(x))| + |f (x, y) − f (x, g(x))| ≤ P + L |y − g(x)| ≤ P + L B abgesch¨ atzt werden.
3.5 Lo ¨sungen im Großen‘ ’ Das Ziel dieses Abschnittes ist die Gewinnung und Untersuchung maximaler Existenzintervalle. Wir machen dazu die Annahmen: Es seien k ∈ , G ein Gebiet im k+1 und f : G −→ k stetig; | | bezeichne eine beliebige (feste) Norm auf dem k ; f erf¨ ulle in G eine lokale Lipschitz-Bedingung‘, d. h.: ’ Zu a ∈ , b ∈ k mit (a, b) ∈ G existieren jeweils 0 < A < ∞, 0 < B < ∞ und 0 ≤ L < ∞ so, daß
(a, b)
B
A
G
3.5
L¨ osungen im Großen‘ ’
83
R := R(a, b) := {x ∈ : |x − a| ≤ A} × y ∈ k : |y − b| ≤ B in G liegt und |f (x, y1 ) − f (x, y2 )| ≤ L|y1 − y2 | f¨ ur alle (x, y1 ), (x, y2 ) ∈ R gilt.
Lokal sind jeweils die Voraussetzungen des Hauptsatzes — mit g(x) = b — erf¨ ullt. Daher existiert lokal eine eindeutige L¨ osung der‘ AWA: ’ Die einzelnen Rechtecke‘ sind kompakt und f somit dort beschr¨ ankt. Die ’ Forderung AM ≤ B ist also durch Verkleinern von A lokal immer erreichbar. Jetzt wollen wir aus dieser lokalen Lipschitz-Bedingung eine globale gewinnen:
Es seien J ein kompaktes Intervall und g : J −→ k eine stetige Abbildung mit (x, g(x)) : x ∈ J ⊂ G . Dann existieren 0 < B < ∞ und 0 ≤ L < ∞ so, daß R := (x, y) ∈ J × k : |y − g(x)| ≤ B ⊂ G
und f¨ ur (x, y1 ), (x, y2 ) ∈ R f (x, y1 ) − f (x, y2 ) ≤ L|y1 − y2 |
gelten.
Der Beweis gelingt mit einem naheliegenden Kompaktheitsschluß: F¨ ur x ∈ J existieren jeweils Ax , Bx , Lx zum Punkt (x, g(x)) gem¨ aß der lokalen Lipschitz-Bedingung mit g(t) − g(x) ≤ 1 Bx 2
f¨ ur alle t ∈ [x − Ax , x + Ax ] ∩ J
(dazu Ax notfalls‘ verkleinern). Da das Intervall J kompakt ist, existieren ’ n ∈ und x1 , . . . , xn ∈ J so, daß
J ⊂
n 4 xν − Axν , xν + Axν . ν=1
1 n n min Bx , L := max Lxν leisten dann das Verlangte; denn zu ν=1 2 ν=1 ν jedem x ∈ J existiert ein ν ∈ {1, . . . , n} mit x ∈ ]xν − Axν , x + Axν [ , ur ein y ∈ k also g(x) − g(xν ) ≤ Bxν /2. Aus |y − g(x)| ≤ B ≤ Bxν /2 f¨ folgt |y − g(xν )| ≤ Bxν , somit (x, y) ∈ G. F¨ ur (x, y1 ), (x, y2 ) ∈ R gilt |y1 − g(x)|, |y2 − g(x)| ≤ B < Bxν . Daher hat man: f (x, y1 ) − f (x, y2 ) ≤ Lx |y1 − y2 | ≤ L |y1 − y2 | ν B :=
Im folgenden Satz betrachten wir die Beziehung zwischen zwei L¨ osungen g und y einer Differentialgleichung zu unterschiedlichen Anfangsbedingungen g(a 1 ) = b1 und y(a) = b .
Kapitel 3
Bemerkung 3.5.1
84
Kapitel 3
Existenz- und Eindeutigkeitssatz
(a, b) B
y
g (a1 , b1 )
J
Satz 3.5.2 (¨ uber globale Abh¨ angigkeit von Anfangswerten) Es seien J ein kompaktes Intervall, a1 ∈ J, b1 ∈ k und g : J −→ k (stetig) ur x ∈ J und g(a1 ) = b1 . 14 differenzierbar mit g (x) = f (x, g(x)) f¨ Dazu seien B, L gem¨ aß obiger Bemerkung gew¨ ahlt und P := max f (x, g(x))
Kapitel 3
x∈J
gebildet. F¨ ur a ∈ J und b ∈ k mit |b − b1 | + P |a − a1 | exp L max |x − a| ≤ B
x∈J
existiert dann genau ein (stetig) differenzierbares y : J −→
k
mit
ur x ∈ J und y(a) = b . y (x) = f (x, y(x)) f¨ F¨ ur diese L¨ osung gilt genauer ur x ∈ J . |y(x) − g(x)| ≤ |b − b1 | + P |a − a1 | exp(L|x − a|) f¨ Zum Beweis der ersten Aussage ist nur noch ④, b) des Hauptsatzes nachzuweisen: x x x g(x) − b − f (t, g(t)) dt = b1 + f (t, g(t)) dt − b − f (t, g(t)) dt a a1 a a ≤ |b − b1 |+ f (t, g(t)) dt a1
≤ |b − b1 | + P |a − a1 | ¨ Die zweite Aussage ist Spezialfall der Uberlegungen in Abschnitt 3.4 (vgl. Seite 81 f) (mit f = f1 , also Q = 0). Maximale Existenzintervalle Mit den bereitgestellten Hilfsmitteln k¨ onnen wir nun die L¨ osung mit maximalem Existenzintervall gewinnen. Dazu betrachten wir f¨ ur feste a ∈ und
14
Speziell gilt also (x, g(x)) ∈ G f¨ ur x ∈ J . Dies werden wir k¨ unftig bei entsprechenden Gegebenheiten nicht mehr ausdr¨ ucklich erw¨ ahnen.
3.5
L¨ osungen im Großen‘ ’
85
b ∈ k mit (a, b) ∈ G die Menge L aller a enthaltenden offenen Intervalle J, auf denen eine L¨osung y der Anfangswertaufgabe
y (x) = f (x, y(x)) f¨ ur x ∈ J mit y(a) = b ¨ existiert. Nach den vorangehenden Uberlegungen (siehe Seite 83, oben) ist L nicht-leer. Sind J1 , J2 ∈ L mit zugeh¨ origen L¨osungen y1 , y2 , dann gilt y1 (x) = y2 (x) f¨ ur x ∈ J1 ∩ J2 .
(1)
J∈L
zu L geh¨ort: Als Vereinigung offener Mengen ist J0 offen. J0 ist a enthaltendes Intervall; denn f¨ ur jedes x ∈ J0 existiert ein J ∈ L mit x ∈ J. Da auch a in J liegt, gilt: [a, x] ⊂ J ⊂ J0 . Auf J0 kann — unter Beachtung von ur ein (1) — eine L¨osung y0 eindeutig definiert werden durch y0 (x) := y(x) f¨ J ∈ L mit x ∈ J und zugeh¨origem y. Wir fassen zusammen: Satz 3.5.3 Es existieren eindeutig ein a enthaltendes offenes Intervall J 0 und eine (stetig) differenzierbare Funktion y0 : J0 −→ k mit
y0 (a) = b und y0 (x) = f (x, y0 (x)) f¨ ur x ∈ J0 derart, daß f¨ ur jedes a enthaltende offene Intervall J und jedes (stetig) differenzierbare y : J −→ k mit
y(a) = b und y (x) = f (x, y(x)) f¨ ur x ∈ J gilt: J ⊂ J0 und y = y0 |J . Abschließend soll f¨ ur diese L¨osung y0 mit dem maximalen Existenzintervall J0 noch etwas u ¨ber das Randverhalten gesagt werden:
Kapitel 3
(Speziell hat man so die Eindeutigkeit der L¨osung auf jedem J ∈ L.) Sonst w¨are die Menge x ∈ J1 ∩ J2 : y1 (x) = y2 (x) nicht-leer (da sie den Punkt a enth¨alt) und eine echte in J1 ∩ J2 abgeschlossene Teilmenge onnte von J1 ∩ J2 . Auf einen dann existierenden Randpunkt in J1 ∩ J2 k¨ die lokale Eindeutigkeitsaussage angewendet werden, was einen Widerspruch lieferte. Wir zeigen nun, daß die Menge 4 J J0 :=
86
Kapitel 3
Existenz- und Eindeutigkeitssatz
Zusatz:
Es sei J0 = ]α , β [. Ist dann β < ∞ bzw. α > −∞ , und hat man xn ∈ J0 mit xn −→ β (bzw. ur ein c ∈ k , dann ist xn −→ α) sowie y0 (xn ) −→ c f¨ (β, c) bzw. (α, c) ein Randpunkt von G.
Kapitel 3
Man benutzt f¨ ur diesen Sachverhalt auch die Sprechweise: Die maximale ’ L¨ osung l¨ auft in G von Rand zu Rand‘. Beweis: xn , y0 (xn ) ∈ G =⇒ (β, c) ∈ G, also zu zeigen: (β, c) ∈ G: Sonst existierte ein kompaktes Intervall J1 mit β als innerem Punkt und onnten B, L und R gem¨ aß der eine L¨osung y1 auf J1 mit y1 (β) = c; dazu k¨ Bemerkung (3.5.1) (mit g := y1 ) gebildet werden. F¨ ur hinreichend großes n atte man — mit zu y1 passendem P — h¨ |y0 (xn ) − c| + P |xn − β| exp L max |x − xn | ≤ B , x∈J1
und so existierte nach Satz 3.5.2 durch (xn , y0 (xn )) eine L¨ osung in ganz J1 . atte Das maximale Existenzintervall bez¨ uglich (xn , y0 (xn )) ist J0 . Damit h¨ ◦
man mit (β ∈) J1 ⊂ J0 einen Widerspruch!
3.6 Qualitative Beschreibung autonomer Systeme Wir gehen nun auf die in Abschnitt 1.1 (zu Punkt 7)) vorab angesprochene Thematik ein: F¨ ur viele Differentialgleichungen gibt es keine geeigneten oder gen¨ ugend einfachen analytischen L¨ osungsverfahren. Man ist dann auf N¨ aherungsl¨ osungen durch numerische Methoden angewiesen. Diese betrachten wir aber in diesem Buch nur ganz am Rande. Oft ist man jedoch nicht unbedingt an einer genauen L¨ osung interessiert, sondern m¨ ochte wichtige charakteristische Eigenschaften geometrischer Art erhalten und das L¨ osungsverhalten nur qualitativ beschreiben k¨onnen. Dabei untersucht man u. a. das Langzeitverhalten (x −→ ∞), speziell Fragen der Stabilit¨ at. Diese Betrachtungsweise — Qualitative Theorie der Differentialgleichungen — geht im Ursprung auf den herausragenden franz¨ osischen Mathematiker ´ (1854–1912) zur¨ und Physiker Henri Poincare uck. Er ist geistiger Vater der heute meist unter dem Namen Dynamische Syteme — oft allerdings wesentlich abstrakter und mit Schwerpunktverschiebungen — bearbeiteten Themen. Es sei wieder k eine nat¨ urliche Zahl, G ein Gebiet im k+1 und h : G −→ eine stetige Abbildung. h erf¨ ulle in G eine lokale Lipschitz-Bedingung.
k
Zu festen a ∈ und b ∈ k mit (a, b) ∈ G existiert dann nach Satz 3.5.3 genau eine maximale L¨osung y der Anfangswertaufgabe
3.6
Qualitative Beschreibung autonomer Systeme y = h(x, y)
87
f¨ ur mit y(a) = b ,
also ein maximales Intervall J mit a ∈ J und eine differenzierbare Abbildung y : J −→ k mit
y (x) = h(x, y(x))
f¨ ur x ∈ J und y(a) = b .
Wir betrachten im folgenden nur den autonomem Fall, d. h. h(x, y) = f (y) f¨ ur (x, y) ∈ G mit einer geeigneten Abbildung f . Die rechte Seite der Differentialgleichung (1)
h¨angt also nicht explizit von der Variablen x ab. Es sei dabei f : D −→ mit einem Gebiet D im
k
k
.
Das hat zur Folge, daß mit einer L¨ osung y auf einem Intervall ]α , β [ f¨ ur jedes ω ∈ auch die durch y(x) := y(x + ω) f¨ ur x ∈ ]α − ω , β − ω [ definierte Funktion y die Differentialgleichung l¨ ost. Jede L¨ osung erzeugt also ¨ eine ganze Schar von L¨osungen. F¨ ur viele Uberlegungen k¨ onnen wir uns so auf a = 0 beschr¨anken.
Die durch eine maximale L¨ osung y von (1) gegebene Kurve im k heißt eine Phasenkurve, Bahnkurve oder Trajektorie. Der nat¨ urliche Durchlaufungssinn auf J liefert f¨ ur jede Phasenkurve eine Orientierung. Den Wertebereich von y , anders ausgedr¨ uckt den Tr¨ ager der Phasenkurve, bezeichnet man als Bahn.
Wir merken noch an, daß die angegebenen Bezeichnungen in der Literatur nicht immer einheitlich verwendet werden. Oft wird insbesondere nicht sorgf¨ altig zwischen L¨ osung, zugeh¨ origer Kurve und Bahn unterschieden. Meist wird (x, t) statt (y, x) notiert und der Kurvenparameter t dann als Zeit interpretiert. Dies machen wir nur bei einzelnen Beispielen zu konkreten Anwendungen.
Die Gesamtheit der Trajektorien heißt Phasenportrait oder Phasenbild zur urlich wird man sich bei einer gegebenen Differentialgleichung y = f (y). Nat¨ graphischen Darstellung mit einigen typischen Trajektorien begn¨ ugen. F¨ ur solche autonomen Differentialgleichungen wird der Definitionsbereich D von f auch als Phasenraum, speziell Phasenebene15, bezeichnet; in diesem verlaufen alle Trajektorien. 15
Der Begriff kommt aus der Physik, wo etwa eine Bewegung in Abh¨ angigkeit von Position und Geschwindikeit dargestellt wird.
Kapitel 3
y = f (y)
88
Kapitel 3
Existenz- und Eindeutigkeitssatz
Aufgrund der gemachten Annahmen k¨ onnen zwei verschiedene Trajektorien nicht durch den gleichen Punkt laufen (sonst h¨ atte man einen Widerspruch zur hier gegebenen eindeutigen L¨ osung der Anfangswertaufgabe), sie sind also disjunkt. Ein p ∈ D mit f (p) = 0 heißt Gleichgewichtspunkt, Ruhepunkt oder station¨ arer Punkt. Die zugeh¨ orige konstante Funktion, definiert durch y(x) := p osung; sie wird als Gleichgef¨ ur x ∈ , ist offenbar eine (maximale) L¨ wichtsl¨ osung oder station¨ are L¨ osung bezeichnet.
Kapitel 3
Bei graphischen Darstellungen wird man sich naturgem¨ aß auf die F¨ alle k = 1, 2, 3 beschr¨anken. F¨ ur gr¨oßere k kann man die Trajektorien nur noch verbal beschreiben. Im wichtigen Falle k = 2 wird eine L¨ osung y = (y1 , y2 )T auf recht verschiedene Weisen dargestellt: Man kann die Graphen der beiden Komponentenfunktionen wie u ¨blich (getrennt oder in einem gemeinsamen Schaubild) zeichnen, die Situation dreidimensional darstellen oder aber als Kurve in der (y1 , y2 )-Ebene. Dies sei an einem einfachen Beispiel verdeutlicht: ist die L¨osung der Anfangswertaufgabe y = (B1) F¨ ur jedes a ∈ 0 1 y mit y(a) = (0, 1)T gegeben durch y1 (x) := sin(x − a), −1 0 y2 (x) := cos(x − a) f¨ ur x ∈ . Hieran wird deutlich, daß verschiedene L¨ osungen durchaus als Parameterdarstellungen der gleichen Kurve ur auftreten k¨onnen. Das erste Bild zeigt die Graphen von y1 und y2 f¨ den Fall a = 0 und eingeschr¨ankt auf das Intervall [0, 2π] zusammen. Das zweite stellt die Abbildung [0, 4π] x −→ (sin(x), cos(x))T dreidimensional dar (Schraubenlinie, Helix). Schließlich ist die entsprechende Kurve in der (y1 , y2 )-Ebene ein (im Uhrzeigersinn durchlaufener) Kreis.
Graphen von y1 und y2 1
0
–1
π
2π
Helix
3.6
Qualitative Beschreibung autonomer Systeme
89
Phasenportrait (Kreis) 1 0.5 y2 0 –0.5 –1 –1
–0.5
0 y 0.5 1
1
¨ Andert man die Anfangswertaufgabe ab zu 0 1 0 y = y1 y mit y(0) = , −1 0 1 so sind nun offenbar genau alle Punkte auf der y2 -Achse station¨ are Punkte. Der Durchlaufungssinn der Trajektorien, die wieder auf Kreisen verlaufen, ist jedoch anders als oben, je nach Vorzeichen von y1 . Phasenportrait (der abge¨anderten AWA) 1
–1
1
–1
Ein station¨arer Punkt p0 oder auch die entsprechende station¨ are L¨ osung y0 heißen genau dann stabil“, wenn es zu jedem ε > 0 ein δ > 0 derart gibt, ” ur daß f¨ ur jede maximale L¨ osung y aus |y(0)−p0 | < δ stets |y(x)−p0 )| < ε f¨ alle x > 0 folgt, insbesondere somit die L¨ osung f¨ ur alle x > 0 existiert, sonst instabil“. (L¨osungen, die nahe‘ genug beim Gleichgewichtspunkt starten‘, ” ’ ’ bleiben auch nahe‘ bei der zugeh¨ origen konstanten L¨ osung.) Ein station¨ arer ’ are L¨ osung y0 heißen genau Punkt p0 oder auch die entsprechende station¨ dann asymptotisch stabil“, wenn sie stabil sind und zudem gilt: Es existiert ” ein δ > 0 derart, daß jede maximale L¨osung y mit |y(0) − p0 | < δ y(x) −→ p0
f¨ ur x −→ ∞
Kapitel 3
Wir sehen, daß die Kurve in der (y1 , y2 )-Ebene weniger Information enth¨ alt als die dreidimensionale Abbildung. Sie ist lediglich die Projektion auf die (y1 , y2 )-Ebene. Aber oft ist gerade eine Reduktion auf die wesentlichen Dinge hilfreich.
90
Kapitel 3
Existenz- und Eindeutigkeitssatz
erf¨ ullt. (L¨osungen, die gen¨ ugend nahe‘ beim Gleichgewichtspunkt starten‘, ’ ’ streben gegen diesen f¨ ur x −→ ∞.)
Kapitel 3
Ein asymptotisch stabiler Gleichgewichtspunkt wird auch als Attraktor bezeichnet. Ein Beispiel f¨ ur eine stabile L¨ osung, die nicht asymptotisch stabil ¨ ist, gibt Fall 3 a) aus Abschnitt 5.3. Die speziellen Uberlegungen in Abschnitt 5.3 zeigen zudem, daß station¨are Punkte h¨ ochst unterschiedlicher Natur sein k¨onnen. Ein (nicht triviales) Beispiel daf¨ ur, daß bei auf die Forderung der Stabilit¨at bei der Definition von asymptotisch stabil nicht verzichtet werden kann, findet man etwa in [Ces] oder [Bi/Ro], Seite 122. Ohne Beweis vermerken wir (man vergleiche dazu etwa [Lu al]): Nur drei Arten von Trajektorien kommen bei einem autonomen System vor: 1. Geschlossene Trajektorie als hom¨ oomorphes16 Bild eines Kreises. 2. Offene Trajektorie als stetiges Bild eines offenen Intervalls. 3. Zu einem Punkt entartete Trajektorie. Wichtig ist, daß man in manchen F¨allen Aussagen u ¨ber die Trajektorien machen kann, ohne die L¨osungen im einzelnen zu kennen. Die beiden Standardbeispiele, die man f¨ ur eine qualitative Beschreibung in sehr vielen B¨ uchern u ¨ber Differentialgleichungen dargestellt findet, sind das mathematische Pendel und das R¨ auber-Beute-Modell. Daß man sie fast u ¨ber’ all‘ findet, soll nat¨ urlich nicht bedeuten, daß wir hier deshalb darauf verzichten. Man muß diese beiden Beispiele einfach kennen: (B2) Schwingungen eines ebenen unged¨ ampften Pendels Eine punktf¨ ormige Masse m sei an einem masselos gedachten Stab (oder Faden) der L¨ange aufgeh¨ angt. Luftwiderstand und Reibung ¨ im Aufh¨angepunkt S werden bei den nachfolgenden Uberlegungen vernachl¨assigt. (Da dies nur n¨aherungsweise realisierbar ist, spricht man auch von einem mathematischen Pendel.) Der Stab sei so gelagert, daß die Masse eine Kreisbahn in der vertikalen Ebene frei beschreiben kann. Der Winkel zwischen der Senkrechten (Ruhelage) und dem Ausschlag zur Zeit t sei ϑ(t), die Ruhelage ϑ = 0. S ϑ(t) mg 16
Eine hom¨ oomorphe Abbildung ist eine stetige bijektive Abbildung, deren Inverse auch stetig ist.
3.6
Qualitative Beschreibung autonomer Systeme
91
Die Bewegungsgleichung des Massenpunkts lautet nach den NewtonGesetzen (vgl. etwa [Me]) ϑ +
g sin ϑ = 0
mit der Gravitationskonstanten g ; denn auf die Masse wirkt als tangentiale Komponente der Schwerkraft −mg sin ϑ . Zur Vereinfachung gehen wir — nach geeigneter Normierung — von g/ = 1 aus, betrachten also die Differentialgleichung ϑ + sin ϑ = 0 .
(2)
ϑ + ϑ = 0 u osung ϑ etwa f¨ ur ϑ(0) = 0, ϑ (0) = 1 wir mit ϑ(t) = sin t ¨ber, deren L¨ sofort angeben k¨onnen. Wir kommen zu der urspr¨ unglichen — ungleich schwierigeren — nicht-linearen Aufgabe zweiter Ordnung zur¨ uck. Wir schreiben sie zun¨achst als System in der Form y = f (y) durch: y1 y2 y1 := ϑ, y2 := ϑ , y := , f (y) := y2 − sin y1 f gen¨ ugt einer globalen Lipschitz-Bedingung. So ist die zugeh¨ orige Anfangswertaufgabe bei beliebigem Anfangswert eindeutig l¨ osbar. Die station¨ aren Punkte sind nπ f¨ ur n ∈ . 0
In dem einen Fall befindet sich die Masse genau unter dem Aufh¨ angepunkt (vertikal nach unten h¨angend, ϑ = 0), im anderen oberhalb (vertikal nach oben stehend, ϑ = π). Wir erwarten nat¨ urlich, daß die erste Lage stabil, die zweite instabil ist. F¨ ur eine L¨ osung y gilt y2 y2 = = −y1 sin y1 und so y22 = 2 cos y1 + C mit einem konstanten C. Man kann hier also die Trajektorien bestimmen, ohne die L¨ osungen zu kennen: Die Gr¨ oße E :=
1 (y2 (t))2 + 1 − cos y1 (t) 2
Kapitel 3
Diese ist nicht geschlossen l¨osbar. F¨ ur kleine Auslenkungen geht sie in die einfache Schwingungsgleichung
92
Kapitel 3
Existenz- und Eindeutigkeitssatz
ist somit unabh¨ angig von t . Sie beschreibt die Gesamtenergie (Summe aus kinetischer 1/2(y2 (t))2 und potentieller Energie 1 − cos y1 (t) . Diese Konstanz dr¨ uckt physikalisch gerade die Energieerhaltung aus. Man nennt allgemein eine Funktion E ein erstes Integral des Systems y = f (y), wenn E auf den Trajektorien konstant ist. In unserem Beispiel ist also die Energie ein erstes Integral. Die durch
1 2 y + 1 − cos y1 2 2 gegebene Abbildung V ist 2π-periodisch bez¨ uglich y1 und gerade ur 0 ≤ E ≤ 2 gilt y2 = 0, falls cos y1 = 1 − E . bez¨ uglich y2 . F¨ Da 1 − E zu [−1, 1] geh¨ort, existiert eindeutig ein α ∈ [0, π ] mit cos α = 1 − E . F¨ ur n ∈ 0 gibt y1 = α + 2nπ demnach y2 = 0. ur n ∈ . F¨ ur E = 0 erh¨ alt man die station¨ aren Punkte (2nπ, 0)T f¨ 0 < E < 2 liefert geschlossene Trajektorien, speziell E = 1
Kapitel 3
V (y1 , y2 ) :=
y22 = 2 cos y1 . Ihnen entsprechen Schwingungen mit einem Ausschlag kleiner als π. ur F¨ ur E > 2 ist E − (1 − cos y1 ) > 0. Somit existiert kein Punkt y1 , f¨ den y2 = 0 ist. Die Trajektorien verlaufen also stets oberhalb oder stets ankte Wellenlinien. unterhalb der y1 -Achse. Es ergeben sich unbeschr¨ ur t → ∞), falls Diese verlaufen von links nach rechts ( y1 (t) → ∞ f¨ y1 (t) = y2 (t) > 0, und von rechts nach links, falls y1 (t) = y2 (t) < 0. Die zugeh¨origen L¨ osungen beschreiben st¨ andige Drehungen um den Aufh¨angepunkt. E = 2 liefert den Grenzfall. Die entsprechende H¨ ohenlinie der Energiefunktion trennt die beiden Bereiche v¨ ollig unterschiedlichen Verhaltens und wird daher oft Separatrix genannt. Potentielle Energie (1 − cos y1 ) und Phasenportrait 2
0
−2 π
0
−2 π
0
y1
2π
3 y2 0
−3 2π
3.6
Qualitative Beschreibung autonomer Systeme
93
Die Berechnung der Schwingungsdauer f¨ uhrt auf ein elliptisches Integral. Wir f¨ uhren das nicht mehr aus. Will man die Schwingungsdauer konstant haben, muß man ein Zykloidenpendel nehmen.
(B3) R¨ auber-Beute-Modell Es soll das Wachstum von zwei biologischen oder ¨ okonomischen Populationen y1 und y2 betrachtet werden. Zum Beispiel ist an so unterschiedliche Gegebenheiten wie Hasen und F¨ uchse, kleine‘ Fische ’ und Haie oder Blattl¨ ause und Maik¨ afer zu denken. Nat¨ urlich kann man auch entsprechende ¨okonomische Situationen oder gar zwischenmenschliche Beziehungen betrachten. Wir sprechen im folgenden beispielhaft nur von Hasen und F¨ uchsen. y1 bezeichne die Anzahl der aubern (F¨ uchsen). Die unBeutetiere (Hasen), y2 die Anzahl von R¨ abh¨angige Variable t beschreibe die Zeit (etwa in Jahren).17 Obwohl der Ansatz recht einfach ist, wird doch eine große Klasse von Problemen zumindest ungef¨ahr erfaßt. Es werden die folgenden recht einfachen Annahmen gemacht: Bei Abwesenheit von F¨ uchsen vermehren sich die Hasen proportional zum Istzustand: y1 = α y1 , falls y2 = 0 Bei Abwesenheit von Hasen nehmen die F¨ uchse proportional zum Istzustand ab: y2 = −δ y2 , falls y1 = 0 Angenommen wird zudem, daß die Geburtenrate der F¨ uchse proportional zum Bestand der Hasen ist. Auf der anderen Seite ist die Sterberate der Hasen von der Anzahl der F¨ uchse abh¨ angig. (Bekannterweise sind 17
F¨ ur realistische Fragestellungen w¨ are ein diskretes Modell (t ∈ 0 ) gewiß passender, als t ∈ [ 0 , ∞ [ zu betrachten. Doch wir wollen hier ja ein Beispiel f¨ ur Differentialgleichungen und nicht eins f¨ ur Differenzengleichungen betrachten. Dazu m¨ ußten wir genauer eigentlich (differenzierbare) Funktionen heranziehen, die die diskreten Funktionen (mit nicht-negativen ganzen Zahlen als Werten) interpo’ lieren‘.
Kapitel 3
Wenn zwei isolierte Populationen (etwa auf einer Insel oder einem Kontinent) verschiedener Arten gegenseitig die zahlenm¨ aßige Entwicklung beeinflussen, dann kann die Wirkung einer Art auf die andere positiv oder negativ sein. Den neutralen Einfluß lassen wir einmal außer Betracht. Wenn beide Arten aufeinander negativ wirken, spricht man von Konkurrenz, bei wechselseitig positivem Einfluß von Kooperation oder Symbiose. Ist eine Beziehung positiv f¨ ur die eine und negativ f¨ ur die andere Population, liegt eine R¨ auber-BeuteBeziehung oder Parasitismums vor. Wir betrachten im folgenden nur die R¨ auber-Beute-Beziehung:
94
Kapitel 3
Existenz- und Eindeutigkeitssatz
viele F¨ uchse der Hasen Tod.) Die Anzahl der Begegnungen ist prouchse geportional zum Produkt der beiden Istzust¨ ande y1 y2 . Die F¨ winnen dabei jeweils, die Hasen verlieren. Das f¨ uhrt zu Termen γ y1 y2 ¨ und −β y1 y2 f¨ ur die jeweiligen Anderungsraten. Insgesamt kommt man auberso zu den bekannten Lotka-Volterra-Gleichungen 18 oder R¨ Beute-Differentialgleichungen: y1 = y1 (α − β y2 ) y2 = y2 (γ y1 − δ)
Kapitel 3
mit positiven Konstanten α, β, γ, δ . Wir diskutieren hier nicht die vielf¨altigen Grenzen dieses einfachen Modells, wie etwa Nichtbeachtung von S¨attigungseffekten ( immer nur Hasen, nie Rebh¨ uhnchen“), ” Abh¨angigkeiten von Altersklassen, Umwelteinfl¨ ussen, R¨ uckzugsgebieten, Epidemien. Der Term y1 α beschreibt das Wachstum der Anzahl der Hasen bei Abwesenheit von F¨ uchsen. (Realistisch ist das h¨ ochstens in einem gewissen Zeitintervall, da es — allein betrachtet — zu exponentiellem Wachstum f¨ uhrte.) Das negative Vorzeichen in der zweiten Gleichung beschreibt, daß die Fuchspopulation auf sich gestellt zum Aussterben verurteilt ist, w¨ ahrend das positive Vorzeichen in der ersten Gleichung Ausdruck der Tatsache ist, daß f¨ ur die Hasen stets gen¨ ugend Ressourcen (etwa Kohl) vorhanden sind. Eine typische Frage ist die nach der ¨ Existenz periodischer L¨osungen, die man aufgrund biologischer Uberlegungen erwarten w¨ urde: Eine Vermehrung der F¨ uchse bewirkt die Verringerung der Zahl der Hasen und damit die Minderung der Existenzgrundlage der F¨ uchse. Eine Abnahme der Anzahl der F¨ uchse ergibt weniger Feinde f¨ ur die Hasen und damit deren Vermehrung, was langfristig wieder eine Zunahme der F¨ uchse bewirkt. Wir betrachten nun die Lotka-Volterra-Gleichungen allein vom mathematischen Standpunkt aus. Es handelt sich um ein nicht-lineares Differentialgleichungssystem. Bei gegebenen Anfangswerten y1 (t0 ) und osbar, da eine Lipy2 (t0 ) ist die Anfangswertaufgabe stets eindeutig l¨ schitz-Bedingung erf¨ ullt ist. Im allgemeinen kann man sie aber nicht geschlossen l¨ osen. Jedoch ergeben sich auch hier typische Fragen qualitativer Natur, zum Beispiel, ob es Gleichgewichtszust¨ ande gibt, in denen die Zahl der F¨ uchse und der Hasen konstant bleibt. In diesem Fall m¨ ußte y1 (α − β y2 ) = 0 und y2 (γ y1 − δ) = 0 18
Alfred James Lotka (1880–1949) hat wichtige Resultate in der Biomathematik erzielt. Bei den obigen Gleichungen betrachtete er Haie und Sardinen im Mittelmeer. Der italienische Mathematiker Vito Volterra (1860–1940) ist auch durch seine Beitr¨ age zur Funktionalanalysis, speziell zu Integralgleichungen, bekannt.
3.6
Qualitative Beschreibung autonomer Systeme
95
gelten. Die nicht-triviale L¨osung dieses Gleichungssystems (Die L¨ osung urlich bei dieser Fragestellung nicht interessant; wir y1 = y2 = 0 ist nat¨ schließen sie im folgenden aus.) ist y1,0 := δ , γ
y2,0 :=
α . β
y2 (y1 ) =
γ y1 − δ y2 · . y1 α − β y2
Etwa als Differentialgleichung mit getrennten Variablen aufgefaßt, f¨ uhrt die Methode aus Abschnitt 2.1 zu α ln y2 − β y2 = γ y1 − δ ln y1 + C
(3)
mit einer geeigneten Konstanten C , die nat¨ urlich von der gegebenen L¨osung abh¨angt. Anwendung der Exponentialfunktion liefert y2α y1δ = exp(C) =: K . eβ y2 eγ y1
(4)
Da es sich um Anzahlen handelt, ist hier f¨ ur ein Phasenportrait nur der erste Quadrant Q := [0, ∞ [ 2 interessant: Phasenportrait und Graphen von y1 (blau) und y2 (schwarz)
y2 300
Anzahlen 300
200
200
y2,0
100
0
y1,0
200
y1
300
0
5
t
10
Kapitel 3
ur eine L¨ osung (y1 , y2 )T zu einer festen Zeit Gilt y1 (t0 ) = y2 (t0 ) = 0 f¨ ur alle t0 ∈ [0, ∞ [, so ist y1 (t) = y1 (t0 ) = y1,0 , y2 (t) = y2 (t0 ) = y2,0 f¨ osung. Im anderen Fall ist t ∈ [0, ∞ [ . (y1 , y2 )T ist also die station¨are L¨ somit f¨ ur jedes t0 ∈ [0, ∞ [ mindestens einer der beiden Werte y1 (t0 ) und y2 (t0 ) von Null verschieden. Ist Œ y1 (t0 ) = 0, so gilt y1 (t) = 0 in angigkeit einer geeigneten Umgebung von t0 . So kann y2 lokal in Abh¨ ur die von y1 dargestellt werden: Nach der Kettenregel ergibt sich f¨ Ableitung von y2 nach y1
96
Kapitel 3
Existenz- und Eindeutigkeitssatz
Grob kann man den Verlauf wie folgt beschreiben: Ausgehend von reachst die Anzahl y1 der lativ kleinen Zahlen y1 und y2 , w¨achst zun¨ Hasen st¨arker, da wenig F¨ uchse vorhanden sind. Sp¨ ater w¨ achst dann deren Anzahl, da sie reiche Beute haben. Durch die so gegebenen h¨ aufigeren Begegnungen verringert sich die Anzahl der Hasen. Zeitversetzt verringert sich dann auch die Anzahl der F¨ uchse, da der Beutevorrat reduziert ist. Das System kehrt wieder zum Ausgangszustand zur¨ uck.
Kapitel 3
Zur Pr¨azisierung dieser Plausibilit¨ ats¨ uberlegung betrachten wir nach (4) zweckm¨ aßig die durch ϕ(y1 ) :=
y1δ y2α und ψ(y ) := 2 γ y e 1 eβ y2
f¨ ur y1 , y2 > 0
gegebenen Funktionen ϕ und ψ . Nat¨ urlich kann man entsprechend auch von (3) ausgehen und die Summe der durch −γ y1 + δ ln y1 und −β y2 + α ln y2 gegebenen Funktionen betrachten. Dies findet man etwa in [Wal] ausgef¨ uhrt. Wir haben das hier beschriebene Vorgehen gew¨ ahlt, weil es schon von Volterra selbst 1931 (vgl. [Volt]) so gemacht wurde.
Differentiation zeigt: ϕ ist streng isoton in ]0, y1,0 ] und streng antiur y1 → ∞ und f¨ ur ton in [y1,0 , ∞ [. Zudem gilt ϕ(y1 ) → 0 jeweils f¨ y1 → 0. Das Maximum von ϕ wird somit allein an der Stelle y1,0 angenommen; sein Wert sei M . Ensprechend ist ψ streng isoton in ]0, y2,0 ] ur y2 → ∞ und streng antiton in [y2,0 , ∞ [ mit ψ(y2 ) → 0 jeweils f¨ und f¨ ur y2 → 0. Das Maximum von ψ wird allein an der Stelle y2,0 mit Wert N angenommen. F¨ ur jeden von (y1,0 , y2,0 )T verschiedenen T Punkt (y1 , y2 ) aus Q gilt somit ϕ(y1 ) · ψ(y2 ) < ϕ(y1,0 ) · ψ(y2,0 ) = M N . F¨ ur ein K > M N existiert also nach (4) keine L¨ osung. F¨ ur K = M N ist nur f¨ ur die station¨ are L¨ osung m¨ oglich. Im Falle K < M N existiert ein λ ∈ ]0, M [ mit K = λN . Der oben beschriebene Verlauf von ϕ zeigt die Existenz von genau zwei Werten y1, und y1,r mit 0 < y1, < y1,0 < y1,r < ∞ und ϕ(y1, ) = λ = ϕ(y1,r ). oßer F¨ ur Argumente y1 zwischen y1, und y1,r sind die Werte ϕ(y1 ) gr¨ als λ , links von y1, und rechts von y1,r jeweils kleiner. Die Beziehung (4) ϕ(y1 )ψ(y2 ) = K = λN impliziert ϕ(y1 ) ≥ λ , was genau im ur λ = ϕ(y1 ) (y1 = y1, oder y1 = y1,r ) ist Intervall [y1, , y1,r ] gilt. F¨ ullt. F¨ ur λ < ϕ(y1 ) (y1, < y1 < y1,r ) gibt (4) genau f¨ ur y2 = y2,0 erf¨ es zwei passende Werte y2,u = y2,u (y1 ) und y2,o = y2,o (y1 ) mit y2,u < y2,0 < y2,o . Die so auf [y1, , y1,r ] definierten Funktionen y2,u und ullen y2,u (y1 ) → y2,0 und y2,o (y1 ) → y2,0 f¨ ur y1 → y1, und y2,o erf¨
3.6
Qualitative Beschreibung autonomer Systeme
97
f¨ ur y1 → y1,r . Damit wissen wir nun insgesamt, daß jede nicht-triviale Trajektorie eine geschlossene Kurve in Q ist, die den station¨ aren Punkt auft. Die L¨ osungen (y1,0 , y2,0 )T (im mathematisch positiven Sinne) uml¨ sind somit periodisch. Wir zeigen erg¨ anzend noch, daß die zeitlichen Mittelwerte u ¨ber eine Periodenl¨ ange T der Anzahlen von Hasen und F¨ uchsen gerade durch y1,0 und y2,0 gegeben sind. T
T (α − β y2 (t)) dt =
Beweis: 0
1 T
0
y2 (t) dt =
α = y2,0 . β
0
In gleicher Weise argumentiert man f¨ ur dem Mittelwert von y1 .
Fluß zu einer gegebenen Differentialgleichung Wir bezeichnen f¨ ur p ∈ D mit J(p) das Existenzintervall der maximalen L¨osung y =: yp von (1), die y(0) = p erf¨ ullt. F¨ ur x ∈ J(p) notieren wir damit auch Φ(x, p) := yp (x) . Die Schar der Abbildungen Φx , definiert durch Φx (p) := Φ(x, p) , heißt Fluß der Differentialgleichung (1) oder von (1) erzeugter Fluß. Manchmal spricht man auch von dem Fluß des Vektorfeldes f . F¨ ur festes p ∈ D liefert also Φ(·, p) : J(p) −→ D gerade die (maximale) L¨ osung von (1) durch‘ p , d. h. y(0) = p . ’ Betrachtet man hingegen den Punkt p als variabel in einer Teilmenge T von D , so kann der Fluß der Differentialgleichung (1) Φx : T −→ D dazu dienen, die Bewegung‘ aller Punkte aus T zu beschreiben. Man benutzt ’ dann — von physikalischen Beispielen, speziell aus der klassischen Mechanik, herkommend — Sprechweisen wie: Befindet sich das System zur Zeit 0 im Zustand p , so liefert die L¨osung der AWA y = f (y) mit y(0) = p durch y(x) den Zustand, in dem es sich nach einer Zeit x befindet. (Meistens wird dann bei dieser Interpretation, wie schon erw¨ ahnt, t statt x geschrieben.) Es gelten f¨ ur p ∈ D und u, v ∈
die Eigenschaften:
Kapitel 3
zeigt
T
y1 (t) dt = ln y1 (T ) − ln y1 (T ) = 0 y1 (t)
98
Kapitel 3
Existenz- und Eindeutigkeitssatz
α) Φ0 (p) = p β) Φu (Φv (p)) = Φu+v (p)
Kapitel 3
Nat¨ urlich muß β) genauer wie folgt gelesen werden: F¨ ur v ∈ J(p) mit u ∈ J(Φv (p)) liegt u + v in J(p) mit Φu (Φv (p)) = Φu+v (p). Beweis: α) ist unmittelbar aus Definition von Φ abzulesen. β) sieht‘ man ’ oder rechnet wie folgt: F¨ ur yp gilt yp (u + v) = Φ(u + v, p) = Φu+v (p). F¨ ur q := Φv (p) hat man entsprechend yq (u) = Φu (q) = Φu (Φv (p)) mit osung yq (0) = q = Φv (p) = yp (v). Die durch z(x) := yp (x + v) definierte L¨ z erf¨ ullt somit z(0) = yp (v) = yq (0), stimmt also insgesamt mit yq u ¨berein. Daher gilt Φu (Φv (p)) = yq (u) = z(u) = yp (u + v) = Φu+v (p) . Die Abstraktion dieser Eigenschaften f¨ uhrt zum Begriff eines Dynamischen Systems, auf den wir aber nicht losgel¨ ost von Differentialgleichungen eingehen. Es sei dazu etwa auf die umfassende Darstellung in [Per] hingewiesen.
3.7 Modifikation des Hauptsatzes fu ¨r Funktionen mit Werten im k
Es seien k, J, a, A und B wie bisher. Statt den k , also: g ∈ C0 (J, k ), R ⊂ × k, b ∈ k, f : R −→ k , | | eine beliebige Norm auf dem
k
betrachten wir nun jeweils
k
.
Alles kann f¨ ur diese Gegebenheiten analog bewiesen werden. Das wird man nat¨ urlich nicht gesondert ausf¨ uhren, sondern vorne die Dinge dann gleichzeitig f¨ ur ∈ { , } im k machen oder aber mit k 2k in die gemachten ¨ Uberlegungen einordnen. Die Ausdehnung auf k -wertige Funktionen ist also v¨ollig unproblematisch.
Wir hatten zudem ja schon in Abschnitt 3.1 darauf hingewiesen, daß die¨ se Uberlegungen durchgehend ganz einfach auch auf Banach-Raum-wertige Funktionen ausgedehnt werden k¨ onnen.
3.7
Modifikation des Hauptsatzes f¨ ur Funktionen mit Werten im
k
99
Historische Notizen
Stefan Banach (1892–1945)
Kapitel 3
Polnischer Mathematiker, geb. 30.3.1892 in Krakau, gest. 31.8.1945 in Lw´ow, war weitgehend Autodidakt. Er wurde 1916 von Steinhaus entdeckt, war als Lehrer sehr erfolgreich und gr¨ undete die polnische Mathematikerschule, die die Entwicklung der Funktionalanalysis und auch der mengentheoretischen Topologie entscheidend gepr¨agt hat. Seine Hauptleistung war der Aufbau einer Theorie der linearen Operatoren in vollst¨ andigen normierten Vektorr¨ aumen, die sp¨ater nach ihm benannt wurden. Sein Fixpunktsatz f¨ ur Kontraktionen ist ein besonderer Gl¨ ucksfall: Einfach zu beweisen mit breitem Anwendungsspektrum, liefert er Existenz und Eindeutigkeit und ein konstruktives Verfahren zur Gewinnung der L¨ osung mit brauchbarer Fehlerabsch¨ atzung!
MWS zu Kapitel 3
Existenz- und Eindeutigkeitssatz
DEtools-Paket: convertsys, DEplot3d, Option scene“ zu DEplot und DEplot3d ” LinearAlgebra-Paket: Vector, Norm VectorCalculus[Jacobian], linalg[jacobian]
3.1 Einleitung Beispiel 1: Picard-Iteration bei einer skalaren DGL
5
> restart: with(plots): f := (x,y) -> 2*x*(1+y): Dgl := diff(y(x),x) = f(x,y(x)); a, b := 0, 0: AnfBed := y(a) = b;
Dgl := y = 2 x (1 + y) ,
Anf Bed := y(0) = 0
> dsolve({Dgl,AnfBed},y(x)); 2
y = −1 + ex
2
Die vorgegebene AWA hat also die (eindeutige) L¨ osung y(x) = −1 + ex . Diese wollen wir nun mittels Picard-Iteration approximieren: x y0 := 0, yn+1 (x) := 2 t (1 + yn (t)) dt 0
5
> T := y -> unapply(b+int(f(t,y(t)),t=a..x),x): y := proc(n) global f,a,b; option remember; if n=0 then b else T(y(n-1)) end if end proc:
MWS 3
Wichtige Maple-Befehle dieses Kapitels:
102
MWS 3
Existenz- und Eindeutigkeitssatz
Wir berechnen die vier ersten Folgenglieder: > seq(y(n)(x),n=1..4);
x2 ,
1 4 1 1 1 8 1 6 1 4 x + x2 , x6 + x4 + x2 , x + x + x + x2 2 6 2 24 6 2
Mittels vollst¨andiger Induktion l¨ aßt sich leicht zeigen: yn (x) =
n 0 x2k k!
k=1
MWS 3
Eindrucksvoller ist die Veranschaulichung der Picard-Iteration mittels einer Animation: > Animation := seq(plot([-1+exp(x^2),y(n)(x)],x=0..2, color=[black,blue],linestyle=[3,1],view=[0..2,0..8], title=cat(n,". Picard-Iteration")),n=1..6): display(Animation,xtickmarks=4,insequence=true);
2. Picard-Iteration 8 6 4 2
0
0.5
1
1.5
2
Wir erinnern hier noch einmal daran, daß die Schnelligkeit des Ablaufes bei einer Animation gesteuert werden kann und auch Einzelschritte m¨ oglich sind.
Beispiel 2: Picard-Iteration f¨ ur Systeme 1. Ordnung Wir begegnen hier den wohlbekannten trigonometrischen Funktionen cos und sin, allerdings unter einem neuen Blickwinkel:
5
> restart: with(LinearAlgebra): with(plots): with(DEtools): f := (x,s,c) -> Vector([c,-s]): a, b := 0, Vector([0,1]): Sys := diff(y[1](x),x) = f(x,y[1](x),y[2](x))[1], diff(y[2](x),x) = f(x,y[1](x),y[2](x))[2]; AnfBed := y[1](a) = b[1], y[2](a) = b[2];
3.1
Einleitung (MWS) Sys := y1 = y2 , y2 = −y1 ,
103 Anf Bed = y1 (0) = 0, y2 (0) = 1
Hierbei entsprechen y1 dem Sinus und y2 dem Cosinus. ¨ Ahnlich wie in Kapitel 2 soll das vorliegende DGL-System mit Hilfe des uckschl¨ usse auf die Befehls odeadvisor klassifiziert werden, um daraus R¨ L¨osungsstrategie ziehen zu k¨ onnen: > odeadvisor(Sys); Error, (in ODEtools/info) found wrong extra arguments: diff(y[2](x),x) = -y[1](x)
> dsolve({Sys,AnfBed},{y[1](x),y[2](x)}); odetest(%,{Sys}), eval(%,x=0);
{y2 = cos(x), y1 = sin(x)} ,
{0}, {y1 (0) = 0, y2 (0) = 1}
Maple findet also direkt die erwartete L¨ osung. Wir wollen auch diese mittels Picard-Iteration approximieren:
5
> T := y -> unapply(b+map(int,f(t,y(t)[1],y(t)[2]),t=a..x),x): y0 := unapply(b,x): y := proc(n) global f,a,b; option remember; if n=0 then y0 else T(y(n-1)) end if end proc: seq(y(n)(x),n=1..5);
⎡ ⎤ ⎤ ⎡ ⎤ ⎡ 1 3 ⎡ 1 5⎤ 1 3 1 3 5 6 x x − x x x + x − x − x ⎢ x ⎣ 6 ⎥ ⎥ ⎢ 6 6 120 ⎥ ⎥,⎢ , , x2 ⎦ , ⎢ ⎦ ⎣ ⎦ ⎣ ⎣ 1 1 1 4 1 1 4 x2 ⎦ 1− x x 1 − x2 + 1 − x2 + 1− 2 2 24 2 24 2 Eine Animation veranschaulicht wieder die Konvergenz der Picard-Iteration:
5
> Animation := seq(display( plot(y(n)(x),x=0..Pi,color=[blue,cyan],thickness=3), plot([cos(x),sin(x)],x=0..Pi,color=black,linestyle=3), view=[0..Pi,-1..1],title=cat(n,". Picard-Iteration")),n=1..10): display(Animation,tickmarks=[[1.57="p/2",3.14="p"],[-1,0,1]], axesfont=[SYMBOL,12],insequence=true); unassign(y):
MWS 3
Wir lernen daraus, daß dieser Befehl auf DGL-Systeme nicht anwendbar ist. ur Systeme verwendet Der universelle Befehl dsolve hingegen kann auch f¨ werden:
104
MWS 3
Existenz- und Eindeutigkeitssatz
4. Picard-Iteration 1
MWS 3
0
π/2
π
x
–1
Graphische L¨ osung von Beispiel 2: Bei Beispiel 2 handelt es sich um ein autonomes System, d. h. die unabh¨ angige Variable x tritt darin nicht explizit auf. DGL-Systeme dieser Art lassen sich durch ihr Richtungsfeld veranschaulichen. Bei Vorgabe von Anfangsbedingungen kann man in dieses Richtungsfeld L¨osungskurven einzeichnen. Die so entstehende Graphik, deren Realisierung wir mit dem Maple-Befehl DEplot demonstrieren, wird auch als Phasenportrait bezeichnet: > DEplot({Sys},[y[1](x),y[2](x)],x=0..2*Pi,[[AnfBed]], y[1]=-1..1,y[2]=-1..1,arrows=medium,color=black, linecolor=blue,stepsize=0.1,axes=frame, scaling=constrained,title="Phasenportrait");
Phasenportrait 1 0.5 y2 0 –0.5 –1 –1
–0.5
0
y1
0.5
1
Durch leichte Modifikation kann man auch die Komponentenfunktionen einzeln oder gemeinsam darstellen. Hierzu muß man mit der Option scene spezifizieren, wie die Graphik zu zeichnen ist. Voreingestellt ist (f¨ ur das Pha-
3.2
Fixpunktsatz f¨ ur verallgemeinerte Kontraktionen (MWS)
105
senportrait) scene = [y[1],y[2]] , d. h. es wird y1 (horizontal) gegen y2 (vertikal) gezeichnet, wobei x implizit ist. scene = [x,y[1]] zeichnet x (horizontal) explizit gegen y1 (vertikal). Analoges gilt im Falle scene = [x,y[2]] .
5
Komponentenfunktionen 1
π
0
2π
–1
F¨ ur gr¨oßere DGL-Systeme steht der zu DEplot analoge Befehl DEplot3d zur Verf¨ ugung.
3.2 Fixpunktsatz fu ¨r verallgemeinerte Kontraktionen Das Iterationsverfahren kann im eindimensionalen Fall leicht veranschaulicht werden. Hier sei T : R −→ R durch T (x) := x2 definiert. Diese Abbildung hat offensichtlich die Fixpunkte 0 und 1. > restart: with(plots): T := x -> x^2;
T := x −→ x2
> Fixpunkte = {solve(T(z)=z)};
F ixpunkte = {0, 1}
MWS 3
> DEplot({Sys},[y[1](x),y[2](x)],x=0..2*Pi,[[AnfBed]], y[1]=-1..1,y[2]=-1..1,arrows=medium,color=black, linecolor=blue,stepsize=0.1,scene=[x,y[1]]): DEplot({Sys},[y[1](x),y[2](x)],x=0..2*Pi,[[AnfBed]], y[1]=-1..1,y[2]=-1..1,arrows=medium,color=black, linecolor=cyan,stepsize=0.1,scene=[x,y[2]]): display(%,%%,tickmarks=[[3.14="p",6.28="2p"],[-1,0,1]], axesfont=[SYMBOL,12],labels=["",""],title="Komponentenfunktionen");
106
MWS 3
Existenz- und Eindeutigkeitssatz
Man erkennt an der folgenden Graphik, daß die Fixpunktiteration zu einem Startwert x0 ∈ [0, 1[ eine gegen den anziehenden Fixpunkt 0 konvergente Folge liefert. F¨ ur x0 > 1 divergiert die Folge. 1 ist ein abstoßender Fixpunkt.
MWS 3
5
10
15
20
pfeil := proc(Arg,delta,Farbe) local d,s,u,v,alpha; d := Arg[2]-Arg[1]; s := [d[2],-d[1]]; alpha := delta/linalg[norm](d,2); u := Arg[1]+(1-alpha)*d+alpha*s; v := Arg[1]+(1-alpha)*d-alpha*s; plottools[polygon]([Arg[2],u,v],color=Farbe,style=patchnogrid) end proc: makeLines := proc(f,x,Farbe) display(plot([[x,x],[x,f(x)],[f(x),f(x)]],color=Farbe), plot([[x,0],[x,min(x,f(x))]],linestyle=3,color=Farbe), pfeil([[x,f(x)],[f(x),f(x)]],0.05,Farbe)) end proc: x01 := 0.9: L1 := [seq((T@@k)(x01),k=0..5)]: x02 := 1.1: L2 := [seq((T@@k)(x02),k=0..3)]: TICKS := tickmarks=[[0,1,x01,x02],[$0..5]]: display(seq(makeLines(T,x,blue),x=L1),seq(makeLines(T,x,cyan),x=L2), plot([T(x),x],x=0..2.2,color=[black,gray],thickness=3), view=[0..2.2,0..5],TICKS); 5 4 3 2 1 0
1
3.3 Existenz- und Eindeutigkeitssatz Beispiel 3 a: ur (x, y) ∈ R2 Wir bestimmen zu der Abbildung f : (x, y) −→ x2 + y 2 f¨ und a := 0, b := 0 Konstanten A, B und L so, daß hiermit sowie mit dem Intervall J := [−A, A] und g(x) := b die Voraussetzungen des Hauptsatzes
3.3
Existenz- und Eindeutigkeitssatz (MWS)
107
erf¨ ullt sind. Dabei wollen wir A, also das Existenzintervall J der L¨ osung, m¨ oglichst groß w¨ ahlen. > restart: f := (x,y) -> x^2+y^2: a := 0: b := 0: g := x -> b: Dgl := diff(y(x),x) = f(x,y(x)); AnfBed := y(a) = b;
Dgl := y = x2 + y 2 ,
AnfBed := y(0) = 0
Es handelt sich offensichtlich um eine Riccati-DGL; sie ist nicht elementar integrierbar. 2 2 −3 −3 x x x −BesselJ , , + BesselY 4 2 4 2 y = − 2 2 −BesselJ 1 , x + BesselY 1 , x 4 2 4 2 Maple kennt“ nat¨ urlich die Bessel-Funktionen, die aber in einer einf¨ uhren” den Darstellung dieser Art nicht als bekannt vorausgesetzt werden k¨ onnen. Wir gehen erst sp¨ater (Abschnitt 6.2) darauf ein. Es reicht uns hier aus, durch folgende Abbildung eine qualitative Vorstellung vom L¨ osungsverlauf zu vermitteln: > plot(Loesung,x=-2..2,-8..8,color=blue,tickmarks=[3,3],thickness=2);
5
–2
–1
0
x
1
2
–5
Wir bestimmen das maximale Existenzintervall. Da die L¨ osung y der Anugt es, die kleinste positive fangswertaufgabe eine ungerade Funktion1 ist, gen¨ Nullstelle der Nennerfunktion zu berechnen: 1
Dies entnimmt man der obigen Darstellung, auch ohne die Bessel-Funktionen zu kennen, da x im Argument jeweils nur als Quadrat eingeht.
MWS 3
> dsolve({Dgl,AnfBed},y(x)); Loesung := rhs(%):
108
MWS 3
Existenz- und Eindeutigkeitssatz
> Nenner := denom(Loesung): fsolve(Nenner,x,x=0..3);
2.003147359 Mithin ist ]− α, α[ mit α := 2.003147359 maximales Existenzintervall. Vor diesem Hintergrund machen wir uns nun an die Untersuchung der oben formulierten Problemstellung:
MWS 3
F¨ ur |x| ≤ A und |y| ≤ B gilt |f (x, y)| ≤ A2 + B 2 . M := A2 + B 2 ist gerade das Maximum dieser Werte. Die Bedingung ④, a) bedeutet hier A M ≤ B , alanzung so A3 + AB 2 ≤ B . Nach Multiplikation mit A und quadratischer Erg¨ k¨ onnen wir dann alles direkt ablesen. Wir f¨ uhren diese Schritte mit Maple durch: > M := A^2+B^2: ungl1 := expand(A*M) <= B;
ungl 1 := A3 + A B 2 ≤ B > ungl2 := expand(A*(lhs(ungl1)-rhs(ungl1))<=0);
ungl 2 := A4 + A2 B 2 − A B ≤ 0 > subs(B=C/A,ungl2): normal(%): student[completesquare](%,C): ungl2a := subs(C=A*B,%);
2 ungl 2a := A B − 1 − 1 + A4 ≤ 0 2 4 A ist offensichtlich genau dann maximal, wenn A B = 1/2 und A4 = 1/4, √ √ also A = 1/ 2 gilt. Somit sind√B = 1/ 2 und M = 1. Die optimale Lipschitz-Konstante L = 2B = 2 ergibt sich dann aus |f (x, y1 ) − f (x, y2 )| = |y12 − y22 | = |y1 + y2 | |y1 − y2 | ≤ 2B |y1 − y2 | . Betrachtet man statt ④, a) die Bedingung ④, b), so erh¨ alt man — mit obigem L — wegen > L := 2*B: g(x)-(b+int(f(t,g(t)),t=a..x)); 3
−x 3 die Bedingung > ungl3 := A^3/3*exp(L*A) <= B;
3.3
Existenz- und Eindeutigkeitssatz (MWS)
109
ungl 3 := 1 A3 e2 A B ≤ B 3 > ungl3a := 3*A/exp(L*A)*lhs(ungl3) <= 3*A/exp(L*A)*rhs(ungl3);
ungl 3a := A4 ≤
3AB e2 A B
Man u ¨berlegt sich elementar, etwa nach Substitution von AB durch x, daß die rechte Seite dieser Ungleichung maximal wird f¨ ur A B = 12 . Folglich ist 4 ur A, B , L und A genau dann maximal, wenn A = 3/2e gilt. Dies liefert f¨ M folgende optimalen Werte:
A := 0.8618847457, B := 0.5801239696, L = 1.160247939, M = 1.079389135 Beispiel 3 b: Wir verfahren wie in Beispiel 3 a mit der Abbildung f¨ ur f : (x, y1 , y2 ) −→ x y12 + y2 , y1 + x y22
(x, y1 , y2 ) ∈ R3
und a = 0, b = [1, 1]. Dabei w¨ahlen wir im R2 die Maximumsnorm. > restart: with(LinearAlgebra): f := (x,y1,y2) -> Vector([x*y1^2+y2,y1+x*y2^2]); a := 0: b := Vector([1,1]): g := x -> b;
f := (x, y1, y2) −→ Vector x y12 + y2, y1 + x y22 ,
g := x −→ b
> Sys := diff(y[1](x),x) = f(x,y[1](x),y[2](x))[1], diff(y[2](x),x) = f(x,y[1](x),y[2](x))[2]; AnfBed := y[1](a) = b[1], y[2](a) = b[2];
Sys := y1 = x y12 + y2 , y2 = y1 + x y22 , Anf Bed := y1 (0) = 1, y2 (0) = 1 > sol := dsolve({Sys,AnfBed},{y[1](x),y[2](x)});
sol := Maple findet offensichtlich keine L¨osung. Dies verwundert, da diese Anfangswertaufgabe durch Aufbohren‘ 2 aus folgender einfachen skalaren Anfangs’ wertaufgabe hervorgegangen ist: 2
Eine L¨ osung von Sys ist mit y1 := y2 := y u osung y von Dgl gegeben. ¨ber eine L¨
MWS 3
> fsolve(A^4=3/2/exp(1),A=0..1): A := %; B := solve(A*B=1/2,B); ’L’ = L; ’M’ = M;
110
MWS 3
Existenz- und Eindeutigkeitssatz
> Dgl := diff(y(x),x) = f(x,y(x),y(x))[1]; AnfBed := y(0) = 1;
Dgl := y = x y 2 + y ,
Anf Bed := y(0) = 1
Es handelt sich um eine Bernoulli-DGL mit folgender L¨ osung: > DEtools[odeadvisor](Dgl), dsolve({Dgl,AnfBed},y(x));
MWS 3
Bernoulli , y =
1 −x + 1
Die L¨osung der Anfangswertaufgabe hat mithin das maximale Existenzintervall ] − ∞, 1[ . > f(x,y[1],y[2]);
5
x y12 + y2 y1 + x y22
6
F¨ ur |x| ≤ A, |y1 −1| ≤ B , |y2 −1| ≤ B gilt |f (x, y)| ≤ A(1 + B)2 + (1 + B). Offenbar ist M := A (1 + B)2 + (1 + B) das Maximum dieser Werte. Bei der Suche nach dem maximalen A k¨ onnte man analog zu Beispiel 3 a argumentieren. Wir gehen jedoch diesmal bewußt anders vor, auch um die Vielfalt der M¨oglichkeiten etwas zu verdeutlichen. Wir interpretieren Bedingung ④, a) des Hauptsatzes als restringiertes Extremwertproblem: A soll maximiert werden unter der Nebenbedingung AM = A(A(1 + B)2 + (1 + B)) ≤ B . Da offensichtlich nur Randextrema m¨oglich sind, betrachten wir die Nebenbedingung in Gleichungsform. Mit der Lagrange-Multiplikatorenregel erhalten wir dann: > M := A*(1+B)^2+(1+B): Nebenbed4a := A*M-B; LagrangeFunktion := A-lambda*Nebenbed4a;
N ebenbed4a := A(A(1 + B)2 + 1 + B) − B LagrangeF unktion := A − λ (A(A(1 + B)2 + 1 + B) − B) > LA := diff(LagrangeFunktion,A); LB := diff(LagrangeFunktion,B);
LA := 1 − λ (2A(1 + B)2 + 1 + B) ,
LB := −λ (A(2A(1 + B) + 1) − 1)
> sol := solve({LA,LB,Nebenbed4a,A>0,B>0},{A,B,lambda});
8 7 1 1 sol := A = , λ = , B = 2 3 9
3.3
Existenz- und Eindeutigkeitssatz (MWS)
> ’M’ = eval(M,sol);
111
M =6
> J := VectorCalculus[Jacobian](f(x,y[1],y[2]), [y[1],y[2]]);
5 J :=
2x y1 1 1 2x y2
6
> Norm(J,infinity);
max 1 + 2 |x y1 | , 1 + 2 |x y2 |
5 J0 :=
2A(1 + B) 1 1 2A(1 + B)
6
Hieraus erh¨alt man als Lipschitz-Konstante: > L := simplify(Norm(J0),assume=positive); # Lipschitz-Konstante ’L’ = eval(L,sol);
L := 2A + 2AB + 1 ,
L = 3
F¨ ur Bedingung ④, b) des Hauptsatzes folgt: > g(x)-(b+map(int,f(t,g(t)[1],g(t)[2]),t=a..x));
⎡
⎤ − 1 x2 − x ⎢ 2 ⎥ ⎣ ⎦ 1 2 − x −x 2 > Nebenbed4b := (A^2/2+A)*exp(L*A)-B; LagrangeFunktion := A-lambda*Nebenbed4b;
1 A2 + A e(2 A+2 A B+1) A − B 2 LagrangeF unktion := A − λ 1 A2 + A e(2 A+2 A B+1) A − B 2 N ebenbed4b :=
> LA := diff(LagrangeFunktion,A); LB := diff(LagrangeFunktion,B);
LA := 1 − λ (A + 1) e(2 A+2 A B+1) A + 1 A2 + A (2 + 2B)A + 2A + 2AB + 1 e(2 A+2 A B+1) A 2 LB := −λ 2 1 A2 + A A2 e(2 A+2 A B+1) A − 1 2
MWS 3
> J0 := subs({x=A,y[1]=1+B,y[2]=1+B},J);
112
MWS 3
Existenz- und Eindeutigkeitssatz
> sol := solve({LA,LB,Nebenbed4b,A>0,B>0},{A,B,lambda}); # klappt nicht
sol := > sol := fsolve({LA,LB,Nebenbed4b},{A,B,lambda});
sol :=
A = 0.4147361410, B = 2.906874215, λ = 0.03337790274
> ’M’ = eval(M,sol); ’L’ = eval(L,sol);
MWS 3
M = 10.23726820 ,
L = 4.240643870
Umwandlung von DGLen in Systeme 1. Ordnung Mit dem Befehl convertsys aus dem DEtools -Paket kann man DGLen bzw. DGL-Systeme h¨oherer Ordnung auf Systeme 1. Ordnung zur¨ uckf¨ uhren. Anfangsbedingungen m¨ ussen stets als Menge oder Liste angegeben werden, bei Nichtvorhandensein z. B. als leere Menge { }. In unseren drei Beispielen verwenden wir f¨ ur die letzten beiden Parameter die Namen y und Dy und bezeichnen damit die im DGL-System auftretende Vektorfunktion bzw. deren Ableitungen. > restart: with(DEtools):
Beispiel 4 a: > Dgl := diff(y(x),x$2)+b*diff(y(x),x)+c*y(x) = f(x); AnfBed := y(a) = b1, D(y)(a) = b2;
Dgl := y + by + cy = f (x) ,
Anf Bed := y(a) = b1, D(y)(a) = b2
> convertsys(Dgl,{},y(x),x,y,Dy);
[Dy 1 = y2 , Dy 2 = f (x) − by2 − cy1 ], [y1 = y, y2 = y ], undef ined, [ ]
> convertsys(Dgl,{AnfBed},y(x),x,y,Dy);
[Dy 1 = y2 , Dy 2 = f (x) − by2 − cy1 ], [y1 = y, y2 = y ], a, [b1, b2] Beispiel 4 b: > Dgl := diff(y(x),x$3) = f(x,y(x),D(y)(x)); AnfBed := y(a) = b1, D(y)(a) = b2, (D@@2)(y)(a) = b3;
3.4
Fehlerabsch¨ atzungen und Abh¨ angigkeits¨ uberlegungen (MWS)
113
Dgl := y = f (x, y, D(y)(x)) Anf Bed := y(a) = b1, D(y)(a) = b2, D(2) (y)(a) = b3 > convertsys(Dgl,{},y(x),x,y,Dy);
[Dy 1 = y2 , Dy 2 = y3 , Dy 3 = f (x, y1 , y2 )], [y1 = y, y2 = y , y3 = y ], undef ined, [ ] > convertsys(Dgl,{AnfBed},y(x),x,y,Dy);
Beispiel 4 c:
5
> Sys := diff(u(x),x$2) = phi(x,u(x),diff(u(x),x),v(x),diff(v(x),x),diff(v(x),x$2)), diff(v(x),x$3) = psi(x,u(x),diff(u(x),x),v(x),diff(v(x),x),diff(v(x),x$2)); AnfBed := u(a) = b1, D(u)(a) = b2, v(a) = b3, D(v)(a) = b4, (D@@2)(v)(a) = b5;
Sys := u = ϕ(x, u, u , v, v , v ), v = ψ(x, u, u , v, v , v ) Anf Bed := u(a) = b1, D(u)(a) = b2, v(a) = b3, D(v)(a) = b4, D(2) (v)(a) = b5 > convertsys([Sys],{},[u(x),v(x)],x,y,Dy);
$ Dy1 = y2 , Dy2 = ϕ(x, y1 , y2 , y3 , y4 , y5 ), Dy3 = y4 , Dy4 = y5 , Dy5 = ψ(x, y1 , y2 , y3 , y4 , y5 ) , % y1 = u, y2 = u , y3 = v, y4 = v , y5 = v , undefined , [ ] > convertsys([Sys],{AnfBed},[u(x),v(x)],x,y,Dy);
$ Dy1 = y2 , Dy2 = ϕ(x, y1 , y2 , y3 , y4 , y5 ), Dy3 = y4 , Dy4 = y5 , Dy5 = ψ(x, y1 , y2 , y3 , y4 , y5 ) , % y1 = u, y2 = u , y3 = v, y4 = v , y5 = v , a, [b1, b2, b3, b4, b5]
3.4 Fehlerabsch¨ atzungen und Abh¨ angigkeitsu ¨berlegungen ¨ Mit Hilfe der Uberlegungen aus Abschnitt 3.4 des Textes geben wir eine Absch¨atzung f¨ ur die Differenz der L¨osungen der beiden benachbarten‘ An’ fangswertaufgaben
MWS 3
[Dy 1 = y2 , Dy 2 = y3 , Dy 3 = f (x, y1 , y2 )], [y1 = y, y2 = y , y3 = y ], a, [b1, b2, b3]
114
MWS 3
Existenz- und Eindeutigkeitssatz
y = sin(x y), y(0) = 1 und
y = x y, y(1/10) = 201/200
im Intervall [0, 2/3]. Hier sind also die Anfangswerte (0, 1) zu (1/10, 201/200) und die rechte Seite der Differentialgleichung von sin(x y) zu x y ver¨ andert.
MWS 3
5
> restart: f := (x,y) -> sin(x*y); a := 0; b := 1; Dgl := diff(y(x),x) = f(x,y(x)); AnfBed := y(a) = b;
f := (x, y) −→ sin(x y) , a := 0 , b := 1 , Dgl := y = sin(x y) , Anf Bed := y(0) = 1 > DEtools[odeadvisor](Dgl); Loesung := dsolve(Dgl,y(x));
y =
G(x, y ) ,
Loesung :=
Maple kann f¨ ur diese DGL keine L¨osung finden. Die benachbarte‘ hingegen ’ sollte f¨ ur Maple l¨ osbar sein; denn das rechnen die meisten unserer Leser inzwischen wohl im Kopf: > f1 := (x,y) -> x*y; a1 := 1/10; b1 := 201/200; Dgl1 := diff(y(x),x) = f1(x,y(x)); AnfBed1 := y(a1) = b1;
a1 := 1 , b1 := 201 , 10 200 Anf Bed1 := y 1 = 201 10 200
f 1 := (x, y) −→ x y , Dgl1 := y = x y ,
> dsolve({Dgl1,AnfBed1},y(x)): g := unapply(combine(rhs(%)),x); 2 g := x −→ 201 e(x /2 − 1/200) 200
Mit Hilfe von odeplot verschaffen wir uns vorweg einen Eindruck von der Differenz der L¨osungen dieser beiden Anfangswertaufgaben: > with(plots): A := 2/3: p := dsolve({Dgl,AnfBed},y(x),type=numeric): odeplot(p,[x,g(x)-y(x)],a..A,color=blue,thickness=3, axes=frame,title="Differenz g(x)-y(x)");
3.4
Fehlerabsch¨ atzungen und Abh¨ angigkeits¨ uberlegungen (MWS)
115
Differenz g(x) − y(x)
0.01
0.005
0
0.2
0.4
0.6
¨ Wir beginnen mit der Uberpr¨ ufung der Voraussetzungen des Hauptsatzes und w¨ahlen dazu B := ∞ und J := [0, A] mit A := 2/3 . Als Funktion g verwenden wir die obige L¨ osung der benachbarten AWA. Es gilt R = J × R. Hieraus ergibt sich M = 1, und als Lipschitz-Konstante kann man L = A w¨ahlen. Die Voraussetzungen ④,a) und ④,b) sind trivialerweise erf¨ ullt, da B = ∞ ist. F¨ ur die Fehlerabsch¨atzung m¨ ussen wir noch die Betragsmaxima ur x ∈ J bestimmen Q von f (x, g(x)) − f1 (x, g(x)) und P1 von f1 (x, g(x)) f¨ bzw. absch¨atzen. Man sieht leicht, daß f1 (x, g(x)) streng isoton ist. Mithin gilt: > L := A: # Lipschitz-Konstante P1 := f1(A,g(A)): evalf(%);
0.8325555400 Die Tatsache, daß die Taylor-Reihe der Sinusfunktion alternierend ist, ergibt dann |f (x, g(x)) − f1 (x, g(x))| ≤ (x g(x))3 /3! , d. h.: > Q := P1^3/3!: evalf(%);}
0.09618080218 Wir erhalten damit die Fehlerabsch¨ atzung y(x) − g(x) ≤ |b − b1 | + P1 |a − a1 | + Q|x − a| eL |x−a| , deren rechte Seite folgenden Verlauf hat: > plot((abs(b-b1)+P1*abs(a-a1)+Q*abs(x-a))*exp(L*abs(x-a)), x=a..A,0.05..0.25,color=blue,thickness=2);
MWS 3
0
116
MWS 3
Existenz- und Eindeutigkeitssatz
0.25 0.2 0.15 0.1
MWS 3
0.05 0
0.2
0.4
0.6
Auf dem betrachteten Intervall hat man also nach dieser — erwartungsgem¨ aß recht groben Absch¨atzung — eine maximale Abweichung von etwa 1/4. Eine bessere Absch¨atzung ergibt sich, wenn man die obige Funktion g als L¨osung der folgenden benachbarten‘ AWA ’ 1
(− 200 ) y = x y, y(0) = 201e 200
= g(0)
auffaßt. Hier wird also die gleiche Funktion als L¨ osung der DGL nicht durch ihren Anfangswert an der Stelle 0.1, sondern bei 0 festgelegt‘. ’ > a2 := 0: b2 := g(0): AnfBed2 := y(a2) = b2: AWA := {Dgl1,AnfBed2};
7 8 201 ( −1 ) e 200 AW A := y = x y, y(0) = 200 > dsolve(AWA,y(x)): combine(%);
y =
201 (x2 /2 − 1/200) e 200
Jetzt lautet die entsprechende Fehlerabsch¨atzung y(x) − g(x) ≤ |b − b2 | + Q|x − a| eL |x−a| , deren rechte Seite folgenden Verlauf nimmt: > plot((abs(b-b2)+Q*abs(x-a))*exp(L*abs(x-a)),x=a..A,color=blue, thickness=2);
3.4
Fehlerabsch¨ atzungen und Abh¨ angigkeits¨ uberlegungen (MWS)
117
0.1
0.05
0
0.2
0.4
0.6
Eine wesentlich bessere Absch¨ atzung ergibt sich, wenn man die Fehlerabsch¨ atzung (2) des Textes statt — wie hier ausgef¨ uhrt — (3) heranzieht und dabei das auftretende Integral scharf‘ absch¨ atzt. Darauf gehen wir aber nicht mehr ein. ’
Analog zum vorangehenden Beispiel untersuchen wir die folgenden beiden benachbarten Anfangswertaufgaben:
5
> restart: with(plots): f := (x,y) -> y^2+y+1+x^2: f1 := (x,y) -> y+1: a := 0: b :=0: AnfBed := y(a) = b: Dgl := diff(y(x),x) = f(x,y(x)): Dgl, AnfBed; Dgl1 := diff(y(x),x) = f1(x,y(x)): Dgl1, AnfBed;
y = y 2 + y + 1 + x2 , y(0) = 0 ,
y = y + 1, y(0) = 0
Hier wird also nur die rechte Seite der DGL von f zu der einfacheren Funkahrend die Anfangswerte beibehalten werden. Wegen tion f1 ver¨andert, w¨ ur Bereiche nahe dem Nullpunkt, des Differenzterms y 2 + x2 k¨onnen nur f¨ ¨ also kleine |x| und |y|, kleine Anderungen der L¨ osung erwartet werden. F¨ ur osung, die die Anfangswertaufgabe mit f1 erhalten wir mit Maple folgende L¨ man nat¨ urlich auch wieder ohne Hilfsmittel sieht‘: ’ > dsolve({Dgl1,AnfBed},y(x)): g := unapply(rhs(%),x);
g := x −→ −1 + ex Die Differenz der L¨osungen dieser beiden Anfangswertaufgaben hat folgenden Verlauf: > sol := dsolve({Dgl,AnfBed},y(x),numeric): odeplot(sol,[x,y(x)-g(x)],-0.4..0.4,color=blue,thickness=3);
MWS 3
Der maximale Fehler ist allerdings immer noch etwa siebenmal so groß wie die oben beobachtete Maximalabweichung.
118
MWS 3
Existenz- und Eindeutigkeitssatz
Differenz der L¨ osungen 0.05
–0.4
0
–0.2
0.2
0.4
MWS 3
–0.03
Wir w¨ahlen B := 1/4 und bestimmen das maximale A ∈ [0, 1/2] derart, daß f¨ ur die kompakte Menge R := (x, y) : |x| ≤ A, |y − g(x)| ≤ B mit J := [−A, A] neben ① und ② die Voraussetzungen ③ und ④,b) des ∂ Hauptsatzes erf¨ ullt sind. Wegen ∂y f (x, y) = 2y + 1 und |2y + 1| ≤ 2(|y − g(x)| + |g(x)|) + 1 ≤ 2(B + eA − 1) + 1 ≤ 2.8 f¨ ur (x, y) ∈ R erh¨ alt man mit L := 2.8 eine passende Lipschitz-Konstante. Wir kommen ucksichtigen dabei die Beziehung x zur Bedingung ④,b) und ber¨ g(x) = 0 f1 (t, g(t)) dt : > B := 1/4: L := 2.8: assume(x,real): Delta := x -> int(f(t,g(t))-f1(t,g(t)),t=a..x);
x ∆ := x −→
f (t, g(t)) − f 1(t, g(t)) dt a
Wegen > Delta(x)+Delta(-x): series(%,x=0,10);
1 x4 + 1 x6 + 1 x8 + Ox10 2 12 160 gilt −∆(−x) ≤ ∆(x) f¨ ur x ≥ 0 . Das unter diesen Bedingungen maximale Existenzintervall l¨ aßt sich folgendermaßen ermitteln: > A := fsolve(Delta(A)*exp(L*A)-B,A=0..1);
A := 0.4463360016
3.4
Fehlerabsch¨ atzungen und Abh¨ angigkeits¨ uberlegungen (MWS)
119
Damit ist Bedingung ④,b) des Hauptsatzes erf¨ ullt. Ferner erhalten wir mittels ¨ der Uberlegungen in Abschnitt 3.4 des Textes f¨ ur x mit |x − a| = |x| ≤ A die Defektabsch¨ atzung |y(x) − g(x)| ≤ |∆(x)| eL |x−a| . Mithin verl¨auft die L¨osung der Anfangswertaufgabe in folgendem Schlauch um den Graphen der Funktion g :
10
Schlauch um g
0.5
–0.4
–0.2
0
0.2
0.4
–0.5
Speziell f¨ ur x = 1/10 gilt > abs(y(0.1)-’g’(0.1))<=Delta(0.1)*exp(L*0.1);
|y(0.1) − g(0.1)| ≤ 0.0009167652384 , was recht gut mit der numerisch berechneten Abweichung u ¨bereinstimmt: > eval(y(x),sol(0.1))-g(0.1); # wahre Abweichung an der Stelle x=1/10
0.0007133731
MWS 3
5
> oben := x -> g(x)+abs(Delta(x))*exp(L*abs(x-a)): unten:= x -> g(x)-abs(Delta(x))*exp(L*abs(x-a)): FilledPlot := proc(f,g,r::range) plot([min(max(f(x),g(x)),0),max(min(f(x),g(x)),0),f(x),g(x)], x=r,filled=true,color=[white$2,gray$2]): end proc: display(odeplot(sol,-A..A,color=black,thickness=2), plot(g(x),x=-A..A,color=blue,thickness=3), FilledPlot(oben,unten,-A..A), title="Schlauch um g");
120
MWS 3
Existenz- und Eindeutigkeitssatz
3.6 Qualitative Beschreibung autonomer Systeme Mathematisches Pendel
MWS 3
¨ Wir greifen die Uberlegungen zum (unged¨ ampften) mathematischen Pendel (siehe S. 90ff im Textteil) auf. In diesem Falle verlaufen die Trajektorien auf den H¨ohenlinien der Energiefunktion V (y1 , y2 ) = 12 y22 + 1−cos(y1 ) . Mithin handelt es sich um ein konservatives System. Wir f¨ uhren nun einen linearen D¨ampfungsterm ein und interessieren uns f¨ ur dessen Auswirkung auf das System. Die Bewegungsgleichung nimmt dann die Gestalt ϑ +r ϑ +sin(ϑ) = 0 mit r > 0 an. Wie u ¨blich schreiben wir sie als DGL-System: y1 = y2 , y2 = ur gilt − sin(y1 ) − r y2 . Hierf¨ d y2 (t)2 − cos y1 (t) = −r y2 (t)2 ≤ 0 . dt 2 Mithin handelt es sich jetzt um ein nicht-konservatives dynamisches System; denn offensichtlich ist die Energie auf den Trajektorien — abgesehen von den Gleichgewichtslagen — streng antiton (streng monoton fallend). Das Phasenportrait erhalten wir in diesem Falle mittels des Maple-Befehls DEplot durch n¨aherungsweise L¨osung einer Schar von Anfangswertaufgaben. Die Zentren der geschlossenen Trajektorien der Abbildung auf Seite 92 gehen dabei u ¨ber in asymptotisch stabile Gleichgewichtspunkte, und jede Trajektorie — mit Ausnahme der (schwarz gezeichneten) Separatrizen — windet sich f¨ ur t −→ ∞ spiralf¨ormig um eine dieser Gleichgewichtslagen. Diese Separatrizen laufen f¨ ur t −→ ∞ in die Sattelpunkte‘ genannten (instabilen) Gleichgewichtsla’ gen (nπ, 0) mit ungeradem n ∈ Z und teilen die Phasenebene in disjunkte Gebiete. Jedes dieser Gebiete enth¨ alt genau einen asymptotisch stabilen Spiralpunkt‘. Man beachte, daß die Berechnung der Separatrizen mittels ’ R¨ uckw¨artsintegration‘ gelingt. In nachfolgender Animation veranschaulichen ’ wir das Verhalten des Systems. Anwachsen des D¨ ampfungsparameters r f¨ uhrt dazu, daß das Pendel nach k¨ urzerem Hin- und Herschwingen in die Ruhelage gelangt.
5
10
> restart: with(DEtools): with(plots): Sys1 := {diff(y[1](x),x)=y[2](x), diff(y[2](x),x)=-sin(y[1](x))-r*y[2](x)}: Sys2 := subs(r=-r,Sys1): {seq([-3*Pi,k],k=[2,3,4,5])}: % union map(z->-z,%): Punkte := convert(%,list): AnfBed := seq([y[1](0)=z[1],y[2](0)=z[2]],z=Punkte): AnfBed2 := seq(seq([y[1](0)=a*Pi,y[2](0)=b],a=[-3,-1,1,3]), b=[-0.01,0.01]): T := plottools[transform]((x,y)->[-x,y]): bilder := NULL:
3.6
15
20
121
for r in [1/16,1/8,1/4,3/8,1/2,1,2] do p1 := DEplot(Sys1,[y[1](x),y[2](x)],x=0..20, [AnfBed,AnfBed2],y[1]=-3*Pi..3*Pi,y[2]=-5..5, arrows=medium,stepsize=0.05,color=gray,linecolor=blue): p2 := DEplot(Sys2,[y[1](x),y[2](x)],x=0..20,[AnfBed2], y[1]=-3*Pi..3*Pi,y[2]=-5..5,arrows=none,stepsize=0.05, color=gray,linecolor=black): p3 := seq(plottools[disk]([k*Pi,0],0.1,color=black),k=[-3,-1,1,3]): bilder := bilder,display(p1,T(p2),p3,axes=frame,scaling=constrained, tickmarks=[[-6.28="-2p",0="0",6.28="2p"],[-4,0,4]], view=[-9.5..9.5,-5..5],axesfont=[SYMBOL,12], title=cat("r = ",convert(r,string))); end do: display(bilder,insequence=true);
r = 3/8 4
y2 0
−4 −2 π
0
y1
2π
Eine saubere‘ Untersuchung des Stabilit¨ atsverhaltens ist beispielsweise mit ’ der Ljapunow-Methode m¨oglich. Auf diese gehen wir jedoch im Rahmen dieser einf¨ uhrenden Darstellung nicht ein.
MWS 3
25
Qualitative Beschreibung autonomer Systeme (MWS)
Kapitel 4
Lineare Differentialgleichungen und DGL-Systeme I Existenz- und Eindeutigkeitssatz Linear-algebraische Folgerungen Homogene lineare Differentialgleichungssysteme Homogene lineare Differentialgleichungen h¨oherer Ordnung Transformation von Differentialgleichungssystemen Inhomogene lineare Differentialgleichungen Reduktion der Ordnung
In diesem ersten Kapitel u ¨ber lineare Differentialgleichungen und Differen¨ tialgleichungssysteme werden Uberlegungen zusammengestellt, die f¨ ur beliebige stetige Koeffizientenfunktionen gemacht werden k¨onnen. Kapitel 5 bringt dann Erg¨ anzungen f¨ ur wichtige Spezialf¨ alle — konstante Koeffizienten und periodische Koeffizientenfunktionen — und spezielle Methoden.
4.1 Existenz- und Eindeutigkeitssatz Annahmen: Auf einem beliebigen Intervall J seien zu einer nat¨ urlichen ur κ, λ ∈ {1, . . . , k} gegeben. Zahl k stetige Funktionen fκλ , gκ : J −→ f¨ Gesucht sind differenzierbare1 Funktionen yκ : J −→
mit
y1 (x) = f11 (x)y1 (x) + · · · + f1k (x)yk (x) + g1 (x) .. .. .. .. . . . . yk (x) = fk1 (x)y1 (x) + · · · + fkk (x)yk (x) + gk (x) f¨ ur alle x ∈ J . 1
Nat¨ urlich sind solche Funktionen dann auch stetig differenzierbar.
Kapitel 4
4.1 4.2 4.3 4.4 4.5 4.6 4.7
124
Kapitel 4
Mit F (x) :=
Lineare Differentialgleichungen und DGL-Systeme I
f11 (x) . . . f1k (x) .. .. . . fk1 (x) . . . fkk (x)
und g(x) :=
g1 (x) .. .
f¨ ur x ∈ J
gk (x)
bedeutet dies gerade: Gesucht ist (y1 , . . . , yk )T = y : J −→
k
(stetig) differenzierbar mit
y = F (x)y + g(x) , d. h.
(I)
y (x) = F (x)y(x) + g(x) f¨ ur alle x ∈ J .
Mit der Menge k der -wertigen k × k-Matrizen, die — wie u ¨blich — mit der Abbildungsnorm (zu einer beliebigen Norm auf dem k ) versehen wird, sind die beiden Abbildungen
Kapitel 4
F : J −→
k
und g : J −→
k
stetig. Umgekehrt liefert die Vorgabe solcher Abbildungen F und g (durch die Komponentenfunktionen) -wertige stetige Funktionen fκλ und gκ auf dem Intervall J f¨ ur κ, λ ∈ {1, . . . , k}. Satz 4.1.1
Mit einer nat¨ urlichen Zahl k und einem beliebigen Intervall J seien ein Punkt a ∈ J, ein Vektor b ∈ k und stetige Funktionen F : J −→ k und g : J −→ k gegeben. Dazu existiert eindeutig eine stetig differenzierbare Funktion y : J −→ k mit
y (x) = F (x)y(x) + g(x)
f¨ ur alle x ∈ J und y(a) = b .
Beweis: F¨ ur ein kompaktes Intervall J liest man dies direkt aus dem Hauptsatz aus Abschnitt 3.3 ab: Man setzt dazu f (x, y) := F (x)y + g(x) f¨ ur x ∈ J urlich die und y ∈ k , B := ∞ und L := maxx∈ |F (x)|, wobei hier | | nat¨ Abbildungsnorm bezeichnet. Ein beliebiges Intervall J kann als Vereinigung den Punkt a enthaltender kompakter Teilintervalle geschrieben werden ( aussch¨ opfen‘) . Die Existenz ’ und Eindeutigkeit auf diesen Teilintervallen liefert unmittelbar die Behauptung f¨ ur das gegebene Intervall J .
4.2 Linear-algebraische Folgerungen Unter den Voraussetzungen aus dem vorangehenden Abschnitt 4.1 betrachten wir den Vektorraum
4.3
Homogene lineare Differentialgleichungssysteme
C0 (J,
k
) := C0 :=
h | h : J −→
k
stetig
125
und darin den Unterraum C1 (J,
k
) := C1 := {h | h : J −→
k
stetig differenzierbar .
ur y ∈ C1 und x ∈ J ist 1. Durch (H y)(x) := y (x) − F (x)y(x) f¨ H : C1 −→ C0
-linear
gegeben. Kern H ist gerade die Menge der L¨ osungen des zugeh¨ origen homogenen Differentialgleichungssystems
y = F (x)y und Unterraum von C1 .
: C1 −→
k
y := y(a), H y f¨ ur y ∈ C1 eine
× C0 , also ein Isomorphismus, definiert.
Beweis: 1. ist trivial. F¨ ur 2. liest man die Linearit¨at der Abbildung aus der der beiden Komponentenabbildungen (Auswertung an der Stelle a und H ) ab. ist injektiv und surjektiv nach dem Existenz- und Eindeutigkeitssatz; denn f¨ ur y ∈ C1 gilt y = (b, g) ⇐⇒ y = F (x)y+g ∧ y(a) = b .
Ebenso‘ erh¨alt man mit g = 0: ’ 3. F¨ ur festes a ∈ J ist durch Kern H y −→ y(a) ∈ k ein Isomorphismus gegeben. Damit ist die Dimension von Kern H gleich k .
4.3 Homogene lineare Differentialgleichungssysteme Unter den Annahmen von Abschnitt 4.1 und mit den Bezeichnungen der vorangehenden beiden Abschnitte betrachten wir, wie bei linearen Problemen u ¨blich, zun¨achst das homogene lineare Differentialgleichungssystem (H), also den Fall g = 0: Satz 4.3.1 Es seien a ∈ J, ∈ und y1 , . . . , y Differentialgleichungssystems.
: J −→
k
L¨ osungen des homogenen
Kapitel 4
2. F¨ ur festes a ∈ J ist durch a (y) := bijektive, -lineare Abbildung
(H)
126
Kapitel 4
Lineare Differentialgleichungen und DGL-Systeme I
α) F¨ ur beliebige α1 , . . . , α ∈
ist dann
9
αλ yλ eine L¨ osung des homo-
λ=1
genen Differentialgleichungssystems. β) Die C1 -Funktionen y1 , . . . , y sind genau dann linear unabh¨ angig, wenn die Vektoren y1 (a), . . . , y (a) in k dies sind. ¨ Beweis: Beide Aussagen liest man unmittelbar aus den Uberlegungen von Abschnitt 4.2 ab: α) aus 1. , β) aus 3. Bezeichnung: Je k linear unabh¨ angige L¨ osungen des homogenen Differentialgleichungssystems heißen ein Fundamentalsystem“, kurz FS“. Ein Fun” ” damentalsystem ist also gerade eine Basis von Kern H. Folgerung 4.3.2
Kapitel 4
Unter den Voraussetzungen des vorangehenden Satzes gilt speziell f¨ ur k = : Die Funktionen y1 , . . . , yk bilden genau dann ein Fundamentalsystem, wenn die Vektoren y1 (a), . . . , yk (a) eine Basis von k sind. Ein erstes kleines Beispiel dazu: (B1) Wir betrachten mit k = 2 das homogene lineare Differentialglei 0 −1 chungssystem erster Ordnung y = y auf dem Intervall 1 0 J := mit a := 0. Zu b1 := 10 ist cos =: y1 eine L¨ osung der zugeh¨origen AWA; sin − sin 0 osung der zugeh¨origen AWA. zu b2 = 1 ist cos =: y2 eine L¨
Da die Vektoren b1 , b2 linear unabh¨ angig sind, bilden die Funktionen y1 , y2 ein Fundamentalsystem. cos(x+u) Offenbar wird f¨ ur u ∈ auch durch sin(x+u) eine L¨osung des Differentialgleichungssystems definiert. Die Darstellung als Linearkombination von y1 , y2 ist gerade durch die Additionstheoreme gegeben.
ur κ = 1, . . . , k) betrachten Zu vektorwertigen Funktionen zκ : J −→ k (f¨ wir die matrixwertige Funktion Z : J x −→ z1 (x), . . . , zk (x) ∈ k .
Aus der mehrdimensionalen Analysis ist wohl vertraut: Z ist genau dann stetig (differenzierbar, stetig differenzierbar,. . . ), wenn κ stetig (differenzierbar, stetig differenzierbar,. . . ) f¨ ur alle κ ∈ {1, . . . , } ist. Ist Z differenzierbar, so gilt
4.3
Homogene lineare Differentialgleichungssysteme Z (x) =
1 (x), . . . , k (x)
127
f¨ ur x ∈ J .
Ist Z differenzierbar, so hat man f¨ ur x ∈ J: Z (x) = F (x)Z(x) ⇐⇒
κ ∈ {1, . . . , k} zκ (x) = F (x)zκ (x)
(1)
Links werden die beiden Matrizen F (x) und Z(x) multipliziert, rechts wird die Matrix F (x) auf den Vektor κ (x) angewandt.
Beweis von (1): F¨ ur κ = 1, . . . , k ist die κ-te Spalte einer Matrix A ∈ k gerade durch Aeκ mit dem κ-ten Einheitsvektor eκ im k gegeben. Daraus liest man alles ab.
Deshalb betrachten wir neben dem urspr¨ unglichen (homogenen) Differentialgleichungssystem (H) y = F (x)y f¨ ur Vektorfunktionen y : J −→
k
nun auch die DGL
f¨ ur matrixwertige Funktionen Y : J −→
(M)
k.
Bemerkung 4.3.3 Ist Z eine L¨ osung von (M), so bilden die Spaltenfunktionen z1 , . . . , zk genau dann ein Fundamentalsystem, wenn Z(a) f¨ ur ein a ∈ J invertierbar ist. In diesem Fall ist Z(a) f¨ ur jedes a ∈ J invertierbar. Eine solche L¨ osung Z heißt Fundamentalmatrix“, kurz FM“. ” ” Der Beweis ist unmittelbar durch die Folgerung 4.3.2 gegeben, da die Matrix Z(a) genau dann invertierbar ist, wenn ihre Spalten z1 (a), . . . , zk (a) linear unabh¨ angig sind. Bemerkung 4.3.4
Es seien Z eine Fundamentalmatrix und z : J −→ k eine differenzierbare Funktion. Dann l¨ ost z genau dann das homogene Differentialgleichungssystem (H), wenn mit einem c ∈ k die Darstellung z(x) = Z(x)c f¨ ur alle x ∈ J gilt. Beweis: z ist genau dann eine L¨ osung von (H), wenn z eine Linearkombiur nation der z1 , . . . , zk ist, wenn also mit einem c = (c1 , . . . , ck )T ∈ k f¨ x ∈ J gilt: z(x) =
k 9 κ=1
cκ zκ (x) =
k 9 κ=1
cκ Z(x)eκ = Z(x)
k 9
cκ eκ = Z(x)c.
κ=1
Mit einer Fundamentalmatrix kennt man also alle L¨ osungen von (H).
Kapitel 4
Y = F (x)Y
128
Kapitel 4
Lineare Differentialgleichungen und DGL-Systeme I
Bemerkung 4.3.5 Ist Y eine Fundamentalmatrix, dann ist eine weitere Abbildung Z : J −→ genau dann eine L¨ osung von (M), wenn Z(x) = Y (x)C
k
f¨ ur alle x ∈ J
mit C = Y (a)−1 Z(a) f¨ ur ein beliebiges a ∈ J gilt. Dabei hat man: Z ist genau dann eine Fundamentalmatrix, wenn die Matrix C invertierbar ist. Beweis: Hat Z die angegebene Gestalt, so l¨ ost mit Y auch Z offenbar die Matrix-DGL (M). F¨ ur die nicht-triviale Richtung sei U (x) := Y (x)C f¨ ur x ∈ J. Dadurch wird eine L¨ osung U von (M) mit U (a) = Z(a) definiert; nach dem Existenz- und Eindeutigkeitssatz aus Abschnitt 4.1 gilt somit U = Z. Dabei ist Z genau dann eine FM, wenn Z(a) invertierbar ist, und dies ist ¨aquivalent zur Invertierbarkeit von C.
Kapitel 4
Mit einer Fundamentalmatrix kennt man also alle Fundamentalmatrizen. F¨ ur ein differenzierbares Z mit Z = F (x)Z , also einer L¨osung von (M), 2 bezeichnet man Z(x) auch als ”Wronski-Matrix“ und w(x) := det Z(x) = det z1 (x), . . . , zk (x) als zugeh¨ orige Wronski-Determinante“. ” Wir zeigen damit die Formel von Liouville: w ist differenzierbar mit
w (x) =
spur F (x) w(x)
f¨ ur alle x ∈ J .
(2)
Beweis: Œ w = 0: Nach der Bemerkung 4.3.3 ist dann Z(x) f¨ ur alle x ∈ J ¨ invertierbar. Mit der Ahnlichkeitstransformation bλκ (x) = B(x) := Z(x)−1 F (x)Z(x) hat man Z (x) = F (x)Z(x) = Z(x)B(x), also f¨ ur κ = 1, . . . , k k b1κ (x) = bλκ (x)zλ (x) und damit nach zκ (x) = z1 (x), . . . , zk (x) .. λ=1 . bkκ (x)
der Regel zur Differentiation von Determinanten (man vgl. hierzu etwa [Ba/Fl], Seite 114) 2
¨ ne ´-Wronski Der aus Polen stammende Offizier und Graf Josef-Maria Hoe (2 . . 1 . . 1 5 ) besch¨ aftigte sich als Privatgelehrter — neben philosophischen Problemen der Mathematik — mit Analysis und Differentialgleichungen.
4.4
Homogene lineare Differentialgleichungen h¨ oherer Ordnung
129
det z1 (x), . . . , zκ (x), . . . , zk (x)
k
w (x) = k
κ=1 k
=
κ-te Spalte bλκ (x) det z1 (x), . . . , zλ (x), . . . , zk (x)
κ=1 λ=1 k
=
bκκ (x)w(x) =
κ-te Spalte spur B(x) w(x) = spur F (x) w(x) .
κ=1
4.4 Homogene lineare DGLen hoherer Ordnung und fκ : J −→ f¨ ur κ = 1, . . . , k stetige Funktionen. Wir Es seien k ∈ betrachten damit die homogene lineare Differentialgleichung k -ter Ordnung:
(1)
Die Transformation (siehe Seite 79) & y =
'
η
.. . η (k−1)
liefert hier die ¨aquivalente Differentialgleichung y = F (x)y mit
F (x) :=
0 1 0 ... 0 0 0 1 0 .. . .. .. . . .. . 0 ... 0 1 −f1 (x) −fk (x) . . .
f¨ ur x ∈ J .
Sind die Funktionen η1 , . . . , ηk L¨ osungen von (1), dann heißt
Y := (y1 , . . . , yk ) :=
η1 .. . (k−1)
η1
...
ηk .. . (k−1)
. . . ηk
zugeh¨orige Wronski-Matrix“. ” Mit w(x) := det Y (x) lautet hier die Formel von Liouville:
w (x) = −f1 (x)w(x)
(2)
Kapitel 4
η (k) + f1 (x)η (k−1) + · · · + fk (x)η = 0
130
Kapitel 4
Lineare Differentialgleichungen und DGL-Systeme I
Die Folgerung 4.3.2 oder auch die Bemerkung 4.3.3 liefern hier: η1 , . . . , ηk linear unabh¨ angig in C0 (J, ) ⇐⇒ : η1 , . . . , ηk Fundamentalsystem“ FS“ ” ” angig in C0 (J, k ) ⇐⇒ y1 , . . . , yk linear unabh¨ ⇐⇒ a ∈ J y1 (a), . . . , yk (a) linear unabh¨ angig in ⇐⇒ a ∈ J y1 (a), . . . , yk (a) linear unabh¨ angig in ⇐⇒ w = 0 ⇐⇒ Y Fundamentalmatrix
k
k
(B2) Im Falle k = 2 gelingt mit (2) eine Reduktion auf den Fall k = 1, falls schon eine L¨ osung η1 von (1) mit η1 (x) = 0 f¨ ur alle x ∈ J bekannt ist: x Hier ist w(x) = exp − f1 (t) dt eine L¨osung von (2) mit w(a) = 1.
Kapitel 4
a
F¨ ur eine weitere L¨ osung η2 von (1) muß gelten: w(x) = η1 η2 − η2 η1 Damit verbleibt f¨ ur η2 eine lineare Differentialgleichung 1. Ordnung.
4.5 Transformation von Differentialgleichungssystemen ¨ Das Ziel der folgenden einfachen Uberlegungen ist die Gewinnung einer L¨ osung der inhomogenen Differentialgleichung, falls alle‘ L¨osungen der ho’ mogenen Differentialgleichung bekannt sind, und eine Reduktion der Ordnung der Differentialgleichung, falls schon einzelne L¨osungen bestimmt wurden. Die erste dieser Anwendungen f¨ uhren wir in Abschnitt 4.6 aus, die zweite dann in Abschnitt 4.7. Wir betrachten wieder (unter den Voraussetzungen aus Abschnitt 4.1) die inhomogene lineare Differentialgleichung 1. Ordnung y = F (x)y + g(x) .
(I)
ur jedes Es sei : J −→ k stetig differenzierbar und (x) invertierbar f¨ x ∈ J. Dann ist auch die Abbildung J x −→ (x)−1 ∈ k stetig differenzierbar, wie man etwa aus der Cramer-Regel abliest oder — eleganter — mit der Kettenregel und der Neumann-Reihe begr¨ undet (man vgl. hierzu etwa [Dieu], Seite 154 f).
Damit betrachten wir die Transformation
4.6
Inhomogene lineare Differentialgleichungen
y(x) =
(x)z(x)
131
f¨ ur x ∈ J
und erhalten die Bemerkung 4.5.1 y ist genau dann eine L¨ osung von (I), wenn z die Differentialgleichung z = F(x)z + g(x) mit den Funktionen F(x) := (x)−1 F (x) (x) − ur x ∈ J l¨ ost. und g(x) := (x)−1 g(x) f¨
(x)
Beweis: Ausgehend von einer L¨ osung y von (I) rechnet man F z + g = F y + g = y = z + z , also z = −1 (F − )z + −1 g , und entsprechend zur¨ uck.
Unter den Voraussetzungen aus Abschnitt 4.1 sei Y eine Fundamentalmatrix des zu (I) geh¨ origen homogenen Differentialgleichungssystems y = F (x)y . Wir betrachten also die homogene Differentialgleichung als gel¨ost. (Man ver¨ gleiche dazu auch die Uberlegungen aus Abschnitt 4.7.) Wir k¨onnen dann die Bemerkung 4.5.1 speziell mit := Y anwenden. Wegen Y = F Y ist hier F = 0. Man hat also mit y(x) = Y (x)z(x) die folgende Variation der Konstanten“ : ” y ist genau dann eine L¨ osung von (I), wenn z (x) = Y (x)−1 g(x) f¨ ur x ∈ J gilt. Dies ist ¨ aquivalent zur Existenz eines c ∈ k mit x z(x) = a Y (t)−1 g(t) dt + c , also x y(x) = Y (x)
Y (t)−1 g(t) dt + c f¨ ur x ∈ J .
(1)
a
Dabei gilt: y(a) = b ⇐⇒ c = Y (a)−1 b Mit dieser Formel f¨ ur y hat man eine explizite Darstellung von Isomorphismus = a aus Abschnitt 4.2.
−1
f¨ ur den
F¨ ur eine nat¨ urliche Zahl k wird die inhomogene lineare Differentialgleichung k-ter Ordnung
Kapitel 4
4.6 Inhomogene lineare Differentialgleichungen
132
Kapitel 4
Lineare Differentialgleichungen und DGL-Systeme I
η (k) + f1 (x)η (k−1) + · · · + fk (x)η = γ(x) mit stetigen Funktionen γ, fκ : J −→
y =
η .. .
,
f¨ ur alle x ∈ J
f¨ ur κ = 1, . . . , k durch
0 1 0 ... 0 0 0 1 0 .. . .. .. . . .. . 0 ... 0 1 −f1 (x) −fk (x) . . .
F (x) :=
η (k−1)
(2)
,
g(x) :=
0 .. . 0 γ(x)
f¨ ur x ∈ J umgeschrieben zu (I) y = F (x)y + g(x)
Kapitel 4
¨ und damit in die obigen Uberlegungen einbezogen. Bilden dann η1 , . . . , ηk ein Fundamentalsystem der zugeh¨origen homogenen Differentialgleichung (1) aus Abschnitt 4.4 η (k) + f1 (x)η (k−1) + · · · + fk (x)η = 0
(x ∈ J)
und folglich η1 .. .
Y =
...
(k−1)
η1
ηk .. . (k−1)
. . . ηk
eine Fundamentalmatrix zu (H) y = F (x)y , dann ergibt sich mit der zugeh¨ origen Wronski-Determinante w(x) aus der obigen L¨ osungsformel (1) (Variation der Konstanten) f¨ ur die L¨osung η mit η(a) = · · · = η (k−1) (a) = 0 u ¨ber die Cramer-Regel:
x
k
η(x) =
ηκ (x) κ=1
wκ (t) γ(t) dt , w(t) (k−1)
wobei wκ (t) das algebraische Komplement 3 von ηκ net; denn f¨ ur 3
(3)
a
(t) in Y (t) bezeich-
Zur Erinnerung: In Y ( ) werden die Zeile und die Spalte gestrichen, in der (k−1) ( ) steht. Die Determinante dieser Restmatrix‘ wird noch mit (−1)κ+k κ ’ multipliziert.
4.7
Reduktion der Ordnung
133
v(t) := Y (t)
−1
g(t) = Y (t)
−1
0 .. . 0 γ(t)
gilt nach der Cramer-Regel f¨ ur κ = 1, . . . , k η1 (t) . . . 0 . . . ηk (t) wκ (t) 1 .. .. .. γ(t) . vκ (t) = = . . . w(t) w(t) (k−1) (k−1) η (t) . . . γ(t) . . . ηk (t) 1
(Die κ-te Spalte von Y (t) ist hier durch g(t) ersetzt.) Wegen η(a) = · · · = η (k−1) (a) = 0 ist in der obigen L¨ osungsformel (1) der Vektor c gleich Null zu setzen, also
y(x) = Y (x)
v(t) dt =
...
(k−1) η1 (x)
a
...
ηk (x) .. . (k−1) ηk (x)
x
v1 (t) dt .. x . vk (t) dt a
.
a
Die erste Komponente von y(x) liefert f¨ ur η die notierte Formel (3). Eine alternative Darstellung der L¨ osungsformel (3) ergibt sich mit η1 (t) . . . ηk (t) .. .. 1 . . f¨ ur x, t ∈ J G(x, t) := w(t) η (k−2) (t) . . . η (k−2) (t) k 1 η1 (x) . . . ηk (x)
durch
x η(x) =
G(x, t)γ(t) dt .
(4)
a
Beweis: Die Entwicklung der Determinante nach der letzten Zeile ergibt: x
x G(x, t)γ(t) dt =
a
a
k
γ(t) ηκ (x)·wκ (t) dt = η(x) w(t) κ=1 (3)
4.7 Reduktion der Ordnung Unter den Voraussetzungen aus Abschnitt 4.1 betrachten wir die zugeh¨orige homogene lineare Differentialgleichung (H)
Kapitel 4
η1 (x) .. .
x
134
Kapitel 4
Lineare Differentialgleichungen und DGL-Systeme I
y = F (x)y mit dem Ziel, r (< k) linear unabh¨ angige L¨ osungen y1 , . . . , yr einfach‘ zu ’ einem Fundamentalsystem zu erg¨ anzen. Dazu transformieren wir mit = y1 , . . . , yr , tr+1 , . . . , tk , wobei f¨ ur σ = r + 1, . . . , k stetig differenzierbare Funktionen tσ : J −→ so gew¨ ahlt seien, daß (x) f¨ ur alle x ∈ J invertierbar ist:
k
(x)z(x) (x ∈ J)
y(x) =
Kapitel 4
Eventuell wird man dies zun¨ achst nur lokal machen. ¨ Mit F(x) := (x)−1 F (x) (x) − (x) zeigten die Uberlegungen aus Abschnitt 4.5: y ist genau dann L¨ osung von (H), wenn z die DGL z = F(x)z
(1) l¨ost. F¨ ur = 1, . . . , r ist F (x) (x) − (x) e = F (x)y (x) − y (x) = 0 . F (x) hat daher die folgende Blockstruktur:
F12 (x)
F(x) =
F22 (x)
r k−r
!"# !" # r k−r
ur Eine Funktion z : J −→ k werde entsprechend der Struktur von F(x) f¨ x ∈ J dargestellt in der Form r z1 (x) . z(x) = k−r z2 (x)
Das reduzierte DGL-System (1) ist dann ¨aquivalent zu: z1 = F12 (x) z2
(2)
= F22 (x) z2
(3)
z2
Ist nun Z22 eine Fundamentalmatrix zu (3), dann ergibt sich aus (2) durch Integration (komponentenweise!) x Z12 (x) := a
F12 (t)Z22 (t) dt + C
4.7
Reduktion der Ordnung
135
mit einer konstanten r × (k − r)-Matrix C die Matrixfunktion Z12 . Setzt man
r
Z12 (x)
,
Z(x) :=
so erh¨alt man durch Y (x) :=
Z22 (x)
(x)Z(x) eine Fundamentalmatrix zu (H).
Speziell f¨ ur die homogene lineare Differentialgleichung k-ter Ordnung
η (k) + f1 (x)η (k−1) + · · · + fk (x)η = 0
sei eine L¨ osung η1 mit η1 (x) = 0 f¨ ur x ∈ J bekannt. man ur x ∈ J η(x) = η1 (x)ζ(x) f¨
(4) Hier transformiert
also eine homogene lineare Differentialgleichung (k − 1)-ter Ordnung f¨ ur ζ . Zu einem FS v2 , . . . , vk der DGL v (k−1) + f1 (x)v (k−2) + · · · + fk−1 (x)v = 0 bestimmt man ζ2 , . . . , ζk mit ζκ = vκ (κ = 2, . . . , k) und erh¨alt durch η1 , η1 ζ2 , . . . , η1 ζk ein FS zu (4) . ¨ Die einfache Einordnung in die obigen allgemeinen Uberlegungen (mit r = 1) f¨ uhren wir nicht mehr aus. F¨ ur Beispiele verweisen wir auf die ausf¨ uhrliche Behandlung dieser Themen in MWS 4. Die Methode der Reduktion der Ordnung geht auf d’Alembert zur¨ uck. Dieser hat jedoch wesentlich bedeutendere Dinge geleistet. Deshalb w¨ urdigen wir ihn mit separaten historischen Notizen:
Kapitel 4
und erh¨alt u ¨ber die Produktregel von Leibniz und Sortieren nach Ableitungen von ζ ζ (k) + f1 (x)ζ (k−1) + · · · + fk−1 (x)ζ = 0 ,
136
Kapitel 4
Lineare Differentialgleichungen und DGL-Systeme I
Historische Notizen
Kapitel 4
Jean Baptiste le Rond d’Alembert (1717–1783) erhielt einen Teil seines Namens nach der kleinen Kapelle Saint-Jean-le-Rond nahe bei Notre-Dame, wo er von seiner Mutter als illegitimer Sohn eines Chevaliers ausgesetzt wurde. Sein leiblicher Vater erm¨oglichte ihm jedoch ein Studium in Paris. Er wurde schon 1741 Mitglied der Academie Royale des Sciences und 1754 der Academie fran¸caise. Er gab mit Diderot die ersten sieben B¨ande der Encyclopedie, eine der einflußreichsten Schriften der Wissenschaftsgeschichte, heraus. Neben physikalischen und mathematischen Arbeiten hat er philosophische, literarische, musikalische und historische Abhandlungen verfaßt und wurde einer der einflußreichsten Gelehrten Frankreichs seiner Zeit. Als Mathematiker stellte er neben seinen Beitr¨ agen zu gew¨ohnlichen Differentialgleichungen 1743 das nach ihm benannte Prinzip der Mechanik auf, l¨ oste 1747 die partielle Differentialgleichung der schwingenden Saite und besch¨ aftigte sich, von physikalischen Fragestellungen ausgehend, mit analytischen Funktionen komplexer Ver¨ anderlicher.
MWS zu Kapitel 4
Lineare Differentialgleichungen und DGL-Systeme I Wichtige Maple-Befehle dieses Kapitels:
4.3 Homogene lineare Differentialgleichungssysteme Beispiel 1 Wir greifen Beispiel (B1) aus Abschnitt 4.3 des Textteils auf: 0 −1 y1 y1 = y2 y2 1 0 F¨ ur die Behandlung des DGL-Systems mit Maple ist es zweckm¨aßig, dieses in homogener Matrixform‘ zu notieren, um aus dieser m¨ uhelos in die Men’ ’ genschreibweise‘ gelangen zu k¨ onnen, welche von dsolve erwartet wird:
5
> restart: with(LinearAlgebra): vy := Vector([y[1](x),y[2](x)]): # Vektorfunktion y F := Matrix([[0,-1],[1,0]]): Sys := map(diff,vy,x)-F.vy: ’Sys’ = Sys, ’Sys’ = convert(Sys,set);
Sys =
y1 + y2 , Sys = {y2 − y1 , y1 + y2 } y2 − y1
Entsprechendes geschieht mit den beiden Anfangsbedingungen, die hier betrachtet werden:
MWS 4
DEtools-Paket: polysols, ratsols, expsols, varparam, reduceOrder, reduceOrder(..., basis) linalg[wronskian], VectorCalculus[Wronskian] (ab Maple ) convert(..., set), dsolve(..., output=basis) map, zip
138
MWS 4
Lineare Differentialgleichungen und DGL-Systeme I
> a, b1, b2 := 0, Vector([1,0]), Vector([0,1]): AnfBed1 := eval(vy,x=a)-b1: AnfBed2 := eval(vy,x=a)-b2: ’AnfBed1’ = AnfBed1, ’AnfBed2’ = AnfBed2;
y1 (0) − 1 , AnfBed2 = y2 (0)
AnfBed1 =
y1 (0) y2 (0) − 1
Wir benutzen den Maple-Befehl dsolve als Black-Box‘, um diese beiden ’ AWAn zu l¨ osen: > sol1 := dsolve(convert(Sys,set) union convert(AnfBed1,set)); sol2 := dsolve(convert(Sys,set) union convert(AnfBed2,set));
s 1 := {y2 = sin(x), y1 = cos(x)} ,
s 2 := {y1 = − sin(x), y2 = cos(x)}
MWS 4
Auf folgende Weise gelangen wir von der Mengen- zur Vektorschreibweise zur¨ uck: > y1 := eval(vy,sol1): y2 := eval(vy,sol2): ’y1’ = y1, ’y2’ = y2;
y1 =
cos(x) , y2 = sin(x)
− sin(x) cos(x)
Aufgrund der speziellen Wahl der Anfangsbedingungen — die beiden Vektoren b1 und b2 sind ja linear unabh¨ angig gew¨ ahlt — k¨ onnen wir mit den beiden Vektorfunktionen y1 und y2 eine Fundamentalmatrix bilden: > Y := unapply(Matrix([y1,y2]),x): ’Y(x)’ = Y(x);
Y (x) =
cos(x) − sin(x) sin(x) cos(x)
Wir machen die Probe: > map(diff,Y(x),x)-F.Y(x), simplify(Determinant(Y(x)));
0 0 , 1 0 0 Die Determinante h¨ atten wir nat¨ urlich nicht berechnen brauchen, da sie f¨ ur x = 0 und damit u osung kann man ¨berall ungleich Null ist. Zur allgemeinen L¨ z. B. auf folgende beiden Arten gelangen: > Vector([y[1],y[2]]) = Y(x).Vector([c[1],c[2]]), dsolve(convert(Sys,set));
y1 y2
=
cos(x) c1 − sin(x) c2 , sin(x) c1 + cos(x) c2
y1 = C1 sin(x) + C2 cos(x), y2 = − C1 cos(x) + C2 sin(x)
4.3
Homogene lineare Differentialgleichungssysteme (MWS)
139
Beispiel 2 Weniger elementar ist das DGL-System y1 y2
=
1 1 − x2
−x 1 1 −x
y1 y2
> restart: with(LinearAlgebra): vy := Vector([y[1](x),y[2](x)]): # Vektorfunktion F := x -> Multiply(1/(1-x^2),Matrix([[-x,1],[1,-x]])): Sys := map(diff,vy,x)-(F(x).vy);
y2 ⎤ xy1 − 1 − x2 ⎥ 1 − x2 ⎢ Sys := ⎣ xy2 ⎦ y 1 + y2 − 1 − x2 1 − x2 ⎡
y1 +
Uns interessiert dessen allgemeine L¨ osung. Wir schauen zu, wie sie von dsolve berechnet wird:
5
-> Solving each unknown as a function of the next ones using the order: [y[1](x), y[2](x)] Methods for second order ODEs: --- Trying classification methods ---> Tackling the linear ODE "as given": trying a quadrature <- quadrature successful <- successful solving of the linear ODE "as given"
s
:= {y2 = C1 x + C2, y1 = C1 + x C2}
Offensichtlich macht Maple einen Umweg u ¨ber eine lineare DGL 2. Ordnung. Einfacher geht es mit Addition bzw. Subtraktion der beiden DGLen. Die uhren u Substitutionen u := y1 + y2 bzw. v := y1 − y2 f¨ ¨ber die allgemeinen L¨ osungen dieser beiden dann entstehenden einfachen DGLen in u und v atigt die Korrektheit des uck. Die Probe mit odetest best¨ zu y1 und y2 zur¨ Maple-Ergebnisses: > odetest(sol,convert(Sys,set)); # Probe
{0} Mittels geeigneter Spezialisierung erhalten wir ein Fundamentalsystem > eval(sol,{_C1=1,_C2=0}): y1 := eval(vy,%): eval(sol,{_C1=0,_C2=1}): y2 := eval(vy,%): ’y1(x)’ = y1, ’y2(x)’ = y2;
MWS 4
> infolevel[dsolve] := 3: sol := dsolve(convert(Sys,set)); infolevel[dsolve] := 0:
140
MWS 4
Lineare Differentialgleichungen und DGL-Systeme I
y1(x) =
1 , y2(x) = x
x 1
und hiermit eine Fundamentalmatrix: > Y := unapply(Matrix([y1,y2]),x): # Fundamentalmatrix ’Y(x)’ = Y(x), ’Det(Y(x))’ = Determinant(Y(x));
Y (x) =
1x , Det(Y (x)) = 1 − x2 x1
Zum Schluß verifizieren wir noch die Formel von Liouville: > w(x) = Determinant(Y(x)); # Wronski-Determinante diff(w(x),x) = Trace(F(x))*w(x); # Formel von Liouville odetest(%%,%);
MWS 4
w(x) = 1 − x2 ,
w = −
2 x w(x) , 1 − x2
0
4.4 Homogene lineare DGLen hoherer Ordnung Lineare DGLen k-ter Ordnung lassen sich bekanntlich ¨aquivalent umformen in ein DGL-System von k DGLen 1. Ordnung. Statt des Umweges u ¨ber Systeme ist es f¨ ur das praktische Vorgehen h¨ aufig vorteilhafter, DGLen h¨oherer Ordnung direkt zu l¨ osen. Maple stellt f¨ ur diesen wichtigen Fall eine Reihe spezieller Tools und Optionen zur Verf¨ ugung, die es f¨ ur Systeme nicht gibt. Beispiel 3 An diesem Beispiel zeigen wir, wie man mit Maple spezielle Typen von (linear unabh¨angigen) L¨ osungen oder sogar ein Fundamentalsystem erhalten kann: > restart: with(LinearAlgebra): f1 := x -> -(x+5)/x: f2 := x -> 3/x: Dgl := diff(y(x),x$2)+f1(x)*diff(y(x),x)+f2(x)*y(x) = 0;
Dg := y −
3y (x + 5) y = 0 + x x
Das DEtools-Paket stellt die Befehle polysols, ratsols und expsols bereit, mit deren Hilfe untersucht werden kann, ob eine vorliegende DGL polynomiale oder rationale Funktionen bzw. Exponentialpolynome als L¨osungen besitzt. Gegebenenfalls werden diese in einer Liste ausgegeben:
4.6
Inhomogene lineare Differentialgleichungen (MWS)
141
> with(DEtools): Pol := polysols(Dgl,y(x)); # liefert polynomiale L¨ osungen Rat := ratsols(Dgl,y(x)); # liefert rationale L¨ osungen Exp := expsols(Dgl,y(x)); # liefert Exponential-L¨ osungen
P
:= 60 + 36x + 9x2 + x3 , Rat := 60 + 36x + 9x2 + x3 , xp := 60 + 36x + 9x2 + x3 , ex (20 − 8x + x2 )
Die Kenntnis spezieller L¨ osungen kann man dazu verwenden, die Ordnung der DGL zu reduzieren (vgl. Abschnitt 4.7). Im Falle k = 2 gelingt mit der Formel von Liouville eine Reduktion auf den Fall k = 1: > Y := VectorCalculus[Wronskian]([Pol[1],y[2](x)],x); # alternativ: linalg[wronskian]([Pol[1],y[2](x)],x): F1 := simplify(exp(-int(f1(x),x)),exp): w := Determinant(Y): Dgl2 := collect(w,[diff(y[2](x),x),y[2](x)]) = F1;
Y :=
,
Dg 2 := (60 + 36 x + 9x2 + x3 ) y2 + (−36 − 18x − 3x2 ) y2 = ex x5 Die L¨ osungen dieser DGL erg¨ anzen die polynomiale L¨ osung y1 (x) = 60 + 36x + 9x2 + x3 zu einem Fundamentalsystem der oben vorgelegten DGL: > dsolve(Dgl2,y[2](x));
y2 = (60 + 36x + 9x2 + x3 ) C1 + ex (20 − 8x + x2 )
Fundamentalsysteme homogener linearer DGLen lassen sich aber auch mit dsolve unter Verwendung der Option output=basis berechnen: > dsolve(Dgl,y(x),output=basis);
60 + 36x + 9x2 + x3 , ex (20 − 8x + x2 )
4.6 Inhomogene lineare Differentialgleichungen Beispiel 4 Wir greifen Beispiel 2 auf und erweitern es um eine Inhomogenit¨ at. Gesucht ist eine L¨ osung folgender AWA: > restart: with(LinearAlgebra): vy := Vector([y[1](x),y[2](x)]): # Vektorfunktion y Sys := map(diff,vy,x)-(F(x).vy+g(x)): # inhomogenes System
MWS 4
60 + 36x + 9x2 + x3 y2 36 + 18x + 3x2 y2
142
5
MWS 4
F := g := a, b ’Sys’
Lineare Differentialgleichungen und DGL-Systeme I
x -> Multiply(1/(1-x^2),Matrix([[-x,1],[1,-x]])): x -> Vector([x^2,x^3]): # Inhomogenit¨ at := 0, Vector([2,1]): AnfBed := eval(vy,x=a)-b: = Sys, ’AnfBed’ = AnfBed;
⎤ y2 xy1 2 − x + y − 1 1 − x2 ⎥ ⎢ 1 − x2 Sys = ⎣ ⎦, xy2 y1 3 − x + y + − 2 1 − x2 1 − x2 ⎡
: AnfBed =
y1 (0) − 2
;
y2 (0) − 1
F¨ ur das zugeh¨orige homogene DGL-System ist folgende Fundamentalmatrix bekannt (vgl. Beispiel 2): > Y := x -> Matrix([[1,x],[x,1]]): ’Y(x)’ = Y(x);
1x x1
Y (x) =
MWS 4
Mittels Variation der Konstanten berechnen wir eine partikul¨ are L¨ osung des inhomogenen DGL-Systems: > Y(x)^(-1).g(x): map(int,%,x): c := unapply(%,x): y_P := x -> eval(Y(x).c(x)): # partikul¨ are L¨ osung ’c(x)’ = c(x), ’y_P(x)’ = y_P(x);
⎤ x3 ⎥ ⎢ y P (x) = ⎣ 34 ⎦ x 3 ⎡
⎤ x3 c(x) = ⎣ 3 ⎦ , 0 ⎡
Wir machen die Probe entweder mit Hilfe des Maple-Befehls odetest > {seq(y[k](x)=y_P(x)[k],k=1..2)}: odetest(%,convert(Sys,set));
{0}
oder alternativ so: > map(diff,y_P(x),x)-(F(x).y_P(x)+g(x)): map(simplify,%);
0 0 Damit kennen wir die L¨osungsgesamtheit des inhomogenen DGL-Systems osung der Anfangswertaufgabe in der Form y(x) = y P (x) + Y (x)c. Die L¨ reduziert sich somit auf ein lineares Gleichungssystem f¨ ur den unbekannten Vektor c: > LinearSolve(Y(a),b-y_P(a)): ’c’ = %, ’y(x)’ = y_P(x)+Y(x).%;
4.6
Inhomogene lineare Differentialgleichungen (MWS)
⎤ 1 x3 + x + 2 ⎥ ⎢ 3 , y = ⎣ ⎦ 1 4 2 x + 1 + 2x 3 ⎡
: ; 1 c =
143
osen: Im Normalfall‘ werden wir die AWA nat¨ urlich mit dsolve l¨ ’ > dsolve(convert(Sys,set) union convert(AnfBed,set));
y2 = 1 x4 + 1 + 2x, y1 = 1 x3 + x + 2 3 3 Beispiel 5 Wir demonstrieren an folgender AWA einige der verschiedenen L¨ osungsm¨ oglichkeiten, die Maple bietet: > restart: with(LinearAlgebra): Dgl := diff(y(x),x$2)-3*diff(y(x),x)+2*y(x) = sin(x); AnfBed := y(0) = 0, D(y)(0) = 1;
AnfBed := y(0) = 0, D(y)(0) = 1
Am einfachsten geht es mit dsolve: > dsolve({Dgl,AnfBed},y(x));
3 y = 3 cos(x) + 1 sin(x) + 6 e2 x − ex 2 5 10 10
Will man jedoch etwas hinter die Kulissen schauen, so bestimmt man die ¨ gesuchte L¨ osung am besten schrittweise, indem man den Uberlegungen im Textteil folgt. Der Maple-Befehl dsolve mit der Option output=basis liefert ein Fundamentalsystem der zugeh¨origen homogenen DGL sowie eine partikul¨are L¨osung der inhomogenen DGL: > sols := dsolve(Dgl,y(x),output=basis);
sols :=
% $ ex , e2 x , 3 cos(x) + 1 sin(x) 10 10
Die Probe best¨atigt dies: > Dgl_hom := subs(sin(x)=0,Dgl): seq(odetest(y(x)=z,Dgl_hom),z=sols[1]), odetest(y(x)=sols[2],Dgl);
0, 0, 0 Ausgehend von einem Fundamentalsystem der homogenen DGL kann man mit Variation der Konstanten eine partikul¨are L¨ osung berechnen. Maple stellt ugung: hierzu den Befehl varparam zur Verf¨
MWS 4
Dg := y − 3y + 2y = sin(x) ,
144
MWS 4
Lineare Differentialgleichungen und DGL-Systeme I
> DEtools[varparam](sols[1],sin(x),x);
C 1 ex + C 2 e2 x + 3 cos(x) + 1 sin(x) 10 10
Zieht man die L¨osungsformel (4) aus Abschnitt 4.6 des Textteils heran, so geht dies mit Hilfe der Wronski-Matrix in Einzelschritten so: > Y := VectorCalculus[Wronskian](sols[1],x): # Wronski-Matrix ’Y(x)’ = Y;
Y (x) =
ex e2 x ex 2e2 x
> simplify(Determinant(Y),exp): w := unapply(%,x): # Wronski-Determinante ’w(x)’ = w(x);
MWS 4
w(x) = e3 x > Y_mod := subs(x=t,Y): # modifizierte Wronski-Matrix Y_mod[2..2,1..2] := Y[1..1,1..2]: ’Y_mod’ = Y_mod;
Y
d =
e e2 ex e2 x
> Int(Determinant(Y_mod)/w(t)*sin(t),t=0..x): ’y_P(x)’ = %; y_P := (combine@value)(%%): ’y_P(x)’ = y_P; # partikul¨ are L¨ osung
x y P (x) =
(e e2 x − e2 ex ) sin(t) dt = 3 cos(x) + 1 sin(x) + 1 e2 x − 1 ex 2 5 10 10 e3
0
Damit kennen wir die allgemeine L¨osung der inhomogenen DGL: > y := unapply(y_P+c[1]*sols[1,1]+c[2]*sols[1,2],x): ’y(x)’ = y(x);
y = 3 cos(x) + 1 sin(x) + 1 e2 x − 1 ex + c1 ex + c2 e2 x 2 5 10 10
Es bleiben noch die freien Parameter c1 , c2 mittels der Anfangsbedingungen zu bestimmen: > AnfBed; solve({AnfBed}); assign(%): ’y(x)’ = y(x);
c1 + c2 = 0, c1 + 2c2 = 1 , {c1 = −1, c2 = 1} , y = 3 cos(x) + 1 sin(x) + 6 e2 x − 3 ex 2 5 10 10
4.7
Reduktion der Ordnung (MWS)
145
4.7 Reduktion der Ordnung Beispiel 6 Vorgegeben sei das homogene DGL-System y1 y2
=
cos(2 x)y1 + (sin(2x) − 1)y2 (sin(2x) + 1)y1 − cos(2 x)y2
.
Es ist erstaunlich, daß dieses doch relativ einfache DGL-System Maple Probleme bereitet, wovon man sich mit den weiter unten definierten Gr¨oßen Sys und vy durch > dsolve(convert(Sys,set),convert(vy,set)):
> restart: with(LinearAlgebra): vy := Vector([y[1](x),y[2](x)]): # Vektorfunktion F := x -> Matrix([[cos(2*x),sin(2*x)-1],[sin(2*x)+1,-cos(2*x)]]): Sys := map(diff,vy,x)-(F(x).vy);
Sys :=
y1 − cos(2 x)y1 − (sin(2x) − 1)y2 y2 − (sin(2x) + 1)y1 + cos(2 x)y2
Vorsichtshalber u ufen wir, daß y1 tats¨ achlich eine L¨osung ist: ¨berpr¨ > y1 := x -> Vector([exp(x)*cos(x),exp(x)*sin(x)]): # spezielle L¨ osung map(diff,y1(x),x)-F(x).y1(x): # Probe ’y1(x)’ = y1(x), map(simplify@expand,%);
y1(x) =
ex cos(x) , ex sin(x)
0 0
In naheliegender Weise erh¨ alt man folgende invertierbare Transformationsmatrix: > T := x -> Matrix([y1(x),<0,1>]): ’T(x)’ = T(x), ’Det(T(x))’ = Determinant(T(x));
(x) =
ex cos(x) 0 , Det( (x)) = ex cos(x) ex sin(x) 1
Hiermit ergibt sich die neue Koeffizientenmatrix
MWS 4
sofort u ¨berzeugt. Wenn Maple u ¨berhaupt eine L¨osung liefert (versionsabh¨ angig!), so ist diese sehr un¨ ubersichtlich. Deshalb gehen wir den Weg u ¨ber Reduktion der Ordnung: Wir versuchen, die schon als bekannt angesehene ex cos(x) zu einem Fundamentalsystem zu erg¨anzen. L¨ osung y1(x) = ex sin(x)
146
MWS 4
Lineare Differentialgleichungen und DGL-Systeme I
> F1 := x->map(simplify@expand,T(x)^(-1).(F(x).T(x)-map(diff,T(x),x))): ’F1(x)’ = F1(x);
⎡ ⎢0 F 1(x) = ⎢ ⎣ 0
⎤ (2 sin(x) cos(x) − 1)e−x ⎥ cos(x) ⎥ − sin(x) + cos(x) ⎦ − cos(x)
sowie das reduzierte DGL-System: > vz := Vector([z[1](x),z[2](x)]): Sys1 := map(diff,vz,x)-F1(x).vz;
⎡
⎢ z1
MWS 4
Sys1 := ⎢ ⎣
⎤ (2 sin(x) cos(x) − 1)e−x z2 − ⎥ cos(x) ⎥ (− sin(x) + cos(x))z2 ⎦ z2 + cos(x)
Die zweite Gleichung ist eine einfach zu l¨ osende DGL 1. Ordnung; die L¨ osung der ersten Gleichung ergibt sich dann nach Einsetzen von z2 durch Berechnen der Stammfunktion. Da Maple bei dem int-Befehl die Integrationskonstante vergißt‘, berechnen wir die Stammfunktion ebenfalls mit dsolve. ’ > sol1 := dsolve({Sys1[2]});
sol1 :=
z2 =
C1 e−x cos(x)
> subs(sol1,{Sys1[1]}); dsolve(%): sol2 := collect(%,{_C1,_C2});
( 2 sin(x) cos(x) − 1 (e−x )2 C1 − cos(x)2 ⎧ x ⎨ C1 2e−2 x tan 2 sol2 := z1 = x 2 + C2 ⎩ −1 + tan 2
z1
> sol := sol1 union sol2:
Wir kommen zur R¨ ucktransformation > zip((u,v)->u=v,vy,T(x).vz): eval(%,sol): map(simplify,%): map(collect,%,{_C1,_C2}): map(simplify,%,exp);
4.7
Reduktion der Ordnung (MWS)
147
y1 = − sin(x) C1 e−x + ex cos(x) C2 y2 = C1 e−x cos(x) + ex sin(x) C2
und kontrollieren dieses Resultat: > subs(convert(%,set),convert(Sys,set)): map(combine,%);
{0} ¨ Als Ubungsaufgabe u ¨berlassen wir dem interessierten Leser die L¨osung des homogenen DGL-Systems ⎤ ⎡ ⎡ ⎤ y1 (1 + 1 − xex )y1 − ex y2 + xex y3 x ⎥ ⎢ ⎢ ⎥ ⎥ ⎣ y2 ⎦ = ⎢ −y1 + (x − 1 )y2 + (1 − e−x )y3 ⎦ ⎣ x y3 −xex y1 + (x + x2 )ex y2 + x(ex − 1)y3
Beispiel 7 Wir kommen auf Beispiel 3 zur¨ uck > restart: with(DEtools): Dgl := diff(y(x),x$2)-(x+5)/x*diff(y(x),x)+3/x*y(x);
Dgl := y −
3y (x + 5) y + x x
und erinnern uns daran, daß die DGL eine Polynoml¨osung hatte: > polysols(Dgl,y(x)): y1 := op(%); # spezielle L¨ osung
y1 := 60 + 36x + 9x2 + x3 Schrittweises L¨ osen mittels Reduktion der Ordnung soll uns zeigen, was im einzelnen passiert: > subs(y(x)=y1*z(x),Dgl): expand(%): Dgl1 := collect(%,{diff(z(x),x),diff(z(x),x$2)});
Dgl1 :=
− 168 − 45x − 8x2 − x3 − 300 z + (60 + 36x + 9x2 + x3 )z x
MWS 4
auf zwei Arten mit dsolve, und zwar einerseits durch direkte Anwendung auf das vorgegebene System, andererseits mittels Reduktion unter Verwendung der speziellen L¨ osung ⎡ x⎤ e ⎢1⎥ y1(x) = ⎣ x ⎦ . ex
148
MWS 4
Lineare Differentialgleichungen und DGL-Systeme I
> Dgl_red := subs({diff(z(x),x)=u(x),diff(z(x),x$2)=diff(u(x),x)},Dgl1);
Dgl red :=
− 168 − 45x − 8x2 − x3 − 300 u + (60 + 36x + 9x2 + x3 )u x
> dsolve(Dgl_red,u(x),output=basis): diff(z(x),x) = op(%); z(x) = int(rhs(%),x); y(x) = simplify(y1*rhs(%));
z =
ex (20 − 8x + x2 ) ex x5 , , z = 2 3 2 60 + 36x + 9x2 + x3 (60 + 36x + 9x + x ) y = ex (20 − 8x + x2 )
Jetzt setzen wir den Maple-Befehl reduceOrder (aus dem DEtools-Paket) ein. Offensichtlich erhalten wir dieselbe spezielle L¨ osung: > reduceOrder(Dgl,y(x),y1): (simplify@value)(%): %%, %;
MWS 4
(60 + 36x + 9x2 + x3 )
5
e (1+ x ) dx dx, ex (20 − 8x + x2 ) (60 + 36x + 9x2 + x3 )2
alt man ein Fundamentalsystem in Form einer Mittels der Option basis erh¨ Liste: > reduceOrder(Dgl,y(x),y1,basis): L := map(simplify,%);
L := 60 + 36x + 9x2 + x3 , ex (20 − 8x + x2 )
Die Probe best¨ atigt dies: > seq(odetest(y(x)=z,Dgl),z=L); # Probe VectorCalculus[Wronskian](L,x): WronskiDet = LinearAlgebra[Determinant](%);
0, 0 ,
WronskiDet = ex x5
Beispiel 8 (vgl. [Ka], Seite 179) Anhand einer DGL 3. Ordnung lernen wir weitere Facetten von reduceOrder kennen: > restart: with(DEtools): Dgl:=x^3*diff(y(x),x$3)+3*x^2*diff(y(x),x$2)-2*x*diff(y(x),x)+2*y(x); dsolve(Dgl);
Dgl := x3 y + 3x2 y − 2xy + 2y ,
+ C2 x + C3 x ln(x) y = C1 x2
angige L¨osungen der homoMittels ratsols kann man also zwei linear unabh¨ genen DGL bestimmen:
4.7
Reduktion der Ordnung (MWS)
149
> sols := ratsols(Dgl,y(x));
$ sols :=
1, x x2
%
> y1 := sols[1]: y2 := sols[2]:
achst eine reduzierte Im Gegensatz zu Beispiel 7 liefert reduceOrder jetzt zun¨ DGL 2. Ordnung: > Dgl_red := reduceOrder(Dgl,y(x),y1);
Dgl red := x2 y − 3xy + 4y
Die Berechnung eines Fundamentalsystem der urspr¨ unglichen DGL bereitet Maple so keine Schwierigkeiten: > reduceOrder(Dgl,y(x),y1,basis);
Kennt man — wie in diesem Fall — mehrere linear unabh¨angige L¨osungen der homogenen DGL, so kann reduceOrder die Reduktionsschritte simultan durchf¨ uhren. Die Ordnung reduziert sich dann um die Anzahl der speziellen L¨ osungen, hier also um 2. > reduceOrder(Dgl,y(x),[y1,y2]): value(%); odetest(y(x)=%,Dgl_red);
1 x2 ln(x) , 3
0
Die Ordnung der reduzierten DGL ist gleich 1; man erh¨alt hier leicht eine L¨osung von Dgl red .
Die Berechnung eines Fundamentalsystems gelingt auch auf diesem Wege problemlos: > reduceOrder(Dgl,y(x),[y1,y2],basis): map(normal,%); map(z->y(x)=z,%): map(odetest,%,Dgl);
$
% 1 , x, 1 x 3 ln(x) − 1 , 2 27 x
[0, 0, 0]
MWS 4
⎤ 1 x3 ln(x) − x3 9 ⎦ ⎣ 1 , x, 3 x2 x2 3 ⎡
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II 5.1 5.2 5.3 5.4 5.5 5.6
Exponentialfunktion von Matrizen Homogene lineare DGL-Systeme mit konstanten Koeffizienten Zweidimensionale Systeme, Stabilit¨ at Lineare DGL-Systeme mit konstanten Koeffizienten und speziellen Inhomogenit¨ aten Lineare DGLen h¨ oherer Ordnung mit konstanten Koeffizienten Homogene lineare DGLen mit periodischen Koeffizientenfunktionen
¨ Wir erl¨ autern vorbereitend einige der folgenden Uberlegungen am einfachen Spezialfall k = 2: Mit einer (2, 2)-Matrix A sei das DGL-System y = Ay
(∗)
betrachtet. Ist A diagonalisierbar, d. h. µ 0 mit µ, ∈ D := S −1 AS = 0 f¨ ur eine geeignete invertierbare (2, 2)-Matrix S, dann f¨ uhrt die Transformation z := S −1 y auf das entkoppelte‘ DGL-System z = D z . Dieses ’ zerf¨ allt f¨ ur die beiden Komponentenfunktionen z1 und z2 in die skalaren DGLen z1 = µz1 und z2 = z2 , wovon nicht-triviale L¨osungen sofort durch
Kapitel 5
Wie schon im vorangehenden Kapitel vermerkt, bringt dieses Kapitel nun f¨ ur wichtige Spezialf¨ alle — konstante Koeffizienten und periodische Koeffi¨ zientenfunktionen — Erg¨ anzungen zu den allgemeinen Uberlegungen sowie spezielle Gesichtspunkte und Methoden. Ein entscheidendes Hilfsmittel dazu ist die Exponentialfunktion von Matrizen. F¨ ur die durchsichtige Herleitung einiger Ergebnisse setzen wir die Jordan-Normalform ein. Eine leistungsf¨ahige Alternative dazu — insbesondere auch f¨ ur Leser, denen diese linearalgebraischen Dinge nicht vertraut sind — bringt der Anhang u ¨ber Matrixfunktionen.
152
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
z1 (x) = exp (µx) und z2 (x) = exp ( x) gegeben sind. Die R¨ ucktransformation y = Sz liefert die Komponentenfunktionen y1 und y2 als Linearkombinationen von z1 und z2 . Die erste Spalte s1 von S ist ein Eigenvektor zum Eigenwert µ von A: As1 = ASe1 = SDe1 = Sµe1 = µs1 . Entsprechend ist die zweite Spalte s2 von S ein Eigenvektor zum Eigenwert von A. Ist A nicht diagonalisierbar, dann existiert nach dem Satz u ¨ber die JordanNormalform eine invertierbare (2, 2)-Matrix S so, daß µ 1 −1 mit einem µ ∈ . J := S AS = 0 µ Die erste Spalte s1 von S ist wieder ein Eigenvektor zum Eigenwert µ von origer Hauptvektor der Stufe 2: A. Die zweite Spalte s2 ist ein zugeh¨
Kapitel 5
(A − µ )s2 = ASe2 − µs2 = SJe2 − µs2 = S(e1 + µe2 ) − µs2 = s1 . Die Transformation z := S −1 y f¨ uhrt hier auf das DGL-System z = J z und mit den beiden Komponentenfunktionen z1 und z2 zu den einfachen skalaren DGLen z2 = µz2 und z1 = µz1 + z2 . Mit komplexen Zahlen c und d ist die L¨ osung z2 der ersten DGL durch z2 (x) = d exp(µx) und dann die uhrt der zweiten durch z1 (x) = (c + dx) exp(µx) gegeben. Damit f¨ y1 (x) z1 (x) y(x) = = S z(x) = S y2 (x) z2 (x) zur L¨ osung von (∗). Man sieht schon hier, daß f¨ ur den allgemeinen Fall Normalformen eine Rolle spielen werden und f¨ ur die Transformation dorthin Eigenwerte, Eigenvektoren und gegebenenfalls Hauptvektoren.
5.1 Exponentialfunktion von Matrizen Zu k ∈
betrachten wir und
mit einer beliebigen Norm | | origen Abbildungsnorm | | . k mit der zugeh¨
k
Bemerkung 5.1.1 | | ist eine Norm auf dem Vektorraum |AB| ≤ |A||B|
f¨ ur A, B ∈
k
und
| | = 1
f¨ ur
k
mit :=
k
.
5.1
Exponentialfunktion von Matrizen
153 2
kann als normierter Vektorraum mit dem k identifiziert werden. Die Konvergenz in k bedeutet daher gerade die komponentenweise Konvergenz.
k
Wir erinnern kurz an einigeaus dermehrdimensionalen Analysis vertrauten ∈ 0 gilt: Dinge. F¨ ur , ν∈ k ⎧ n 9 ⎪ ⎪ konvergent ∞ ⎨ ν konvergent ν=0 : ⇐⇒ ν n 9 ⎪ = ⎪ (n −→ ∞) ν=0 ⎩ ν −→
ν=0
∞
∞
|
Gilt
ν|
< ∞ , so sagen wir:
ν=0
∞ 9
konvergenz von
ν ν=0
ν
ist normkonvergent“. Die Norm”
impliziert die Konvergenz und
ν=0
∈
F¨ ur
k
ν=0
ν ≤
exp(
) :=
∞
∞
|
ν|
.
ν=0
ist ∞
und exp(
normkonvergent mit exp(0) =
Der Beweis folgt unmittelbar aus |
ν
|≤|
ν
) ≤ exp | |ν f¨ ur
∈
| . 0
.
Durch Betrachtung der jeweiligen Partialsummen und anschließenden Grenzu alt man sofort die folgenden Aussagen: ¨bergang erh¨ Bemerkung 5.1.2 λ1 exp 0
exp(λ1 )
0 ..
=
. λk
0 ..
0
f¨ ur λ1 , . . . , λk ∈
. exp(λk )
speziell exp(z ) = exp(z) Ferner gelten und exp S −1
f¨ ur z ∈
.
exp( ) = exp( ) f¨ ur , ∈ k mit S = S −1 exp( )S f¨ ur invertierbares S ∈
=
k
.
,
Kapitel 5
ν=0
1 !
154
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
Wie im Fall der skalaren Exponentialfunktion in der eindimensionalen Analysis ergibt sich der Beweis der nachfolgenden Bemerkung. Das Resultat erh¨alt man aber auch als einfache Folgerung aus Satz 5.1.4, was wir weiter unten noch ausf¨ uhren werden. Bemerkung 5.1.3 F¨ ur
,
∈
k
mit
=
∈ k: ) ist invertierbar mit exp(
Speziell hat man so f¨ ur exp(
gilt:
Beweis:
exp(
+
) = exp(
) exp( )
= exp(0) = exp(
)
+ (−
−1
= exp(−
)) = exp(
Mit diesen Hilfsmitteln erhalten wir nun f¨ ur
∈
). ) exp(−
)
k:
Satz 5.1.4
Durch Y (x) := exp(x ) f¨ ur x ∈ ist die eindeutig bestimmte L¨ osung gegeben. von Y = Y mit Y (0) =
Kapitel 5
9∞ xν ν Beweis: Y (0) = haben wir oben schon vermerkt. Y (x) = ν=0 ν! betrachten wir komponentenweise und k¨ onnen so wie gewohnt schließen: Y ist differenzierbar, und die Ableitung ergibt sich durch gliedweises Differenzieren:
Y (x) =
∞
∞
xν−1 ( − 1)! ν=1
ν
=
xν−1 ( − 1)! ν=1
ν−1
=
Y (x)
Die Eindeutigkeit ist nach dem Existenz- und Eindeutigkeitssatz gegeben. Folgerung 5.1.5
speziell gilt also:
det exp( ) = exp spur( ) det exp( ) > 0, falls spur( ) ∈ .
f¨ ur
∈
k,
Beweis: Mit der Wronski-Determinante w(x) := det Y (x) (x ∈ ) zu Y gem¨aß (5.1.4) hat man w(0) = 1 und gem¨ aß der Formel von Liouville (siehe ur x = 1 liefert Seite 128) w = spur( )w , also w(x) = exp x spur( ) . F¨ dies: det exp( ) = w(1) = exp spur( )
Wir notieren noch den angek¨ undigten alternativen Beweis von (5.1.3): Y , Y (0) = und entsprechend F¨ ur Y (x) := exp(x ) hat man Y = f¨ ur Z(x) := exp(x ) : Z = Z , Z(0) = Y (x), Z(x), und sind offenbar miteinander vertauschbar.
5.2
Homogene lineare DGL-Systeme mit konstanten Koeffizienten
155
(Y Z) = Y Z + Y Z = Y Z + Y Z = ( + )Y Z und (Y Z)(0) = zeigen nach Satz 5.1.4 Y (x)Z(x) = exp(x( + )) und liefern so f¨ ur x = 1 die Behauptung. F¨ ur eine Diagonalmatrix D ∈ D = D hat man so: exp(D +
k
und eine nilpotente1 Matrix
∈
k
mit
) = exp(D) exp( )
Der erste Faktor der rechten Seite kann einfach nach Bemerkung 5.1.2 berechnet werden, der zweite Faktor ist eine endliche Summe. Nach dem Satz u aus ¨ber die Jordan-Normalform existiert zu beliebigem −1 eine invertierbare Matrix S derart, daß S S = D + gilt mit D k und wie oben. Mit der Bemerkung 5.1.2 gewinnt man so
exp(
) = S exp(D) exp( )S −1 .
Hierauf kommen wir in Abschnitt 5.2 noch ausf¨ uhrlich zur¨ uck. Ohne Beweis2 vermerken wir hier abschließend noch: ∈
Ist
k
invertierbar, so existiert ein L ∈
k
mit exp(L) =
.
5.2 Homogene lineare DGL-Systeme mit konstanten Koeffizienten Es seien eine nat¨ urliche Zahl k und eine Matrix A ∈ k fest gew¨ahlt. Eine beliebige L¨ osung y der homogenen linearen Differentialgleichung mit konstanten Koeffizienten y = Ay (1)
ist nach Satz 5.1.4 und Bemerkung 4.3.4 gegeben durch
(2)
y(x) = exp(xA) c
mit einem c ∈ Sind ∈ 1
, λ∈
k
. Dabei ist y(0) = c. und b ∈
k
mit
Es existiert ein n ∈ mit N n = 0 . Man vergleiche hierzu die Ausf¨ uhrungen im Anhang u ¨ber
2
atrixfunktionen.
Kapitel 5
Dies gilt speziell f¨ ur eine reelle Matrix . Dabei ist dann aber L nicht notwendig reell, wie ja schon der Fall k = 1 zeigt.
156
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
(A − λ ) b = 0 und (A − λ )
−1
b = 0,
also
λ ein Eigenwert zu A und b ein Hauptvektor zu λ der Ordnung (Stufe) , ν
dann ist b−ν := (A − λ ) b f¨ ur = 0, . . . , − 1 ein Hauptvektor der osung y von (1) mit y(0) = b Ordnung − , b1 also ein Eigenvektor. Die L¨ ist hier gegeben durch −1
xν b−ν . ! ν=0
y(x) = exp(λx)
(2) y(x) = exp(xA)b = exp x λ
Beweis: Da λ E und
(3)
+ (A − λ ) b
−λE vertauschbar sind, kann nach (5.1. ) weiter umgeformt werden:
y(x) = exp(xλ ) exp x(A − λ ) b
= exp(λx)
−1 9 ν=0
xν ν!
(5.1.2)
ν
(A − λ ) b
=
=
∞ 9
exp(λx)
exp(λx)
ν=0 −1 9
ν=0
xν ν!
(A − λ ) b
xν ν!
b−ν
ν
Kapitel 5
Die wesentliche Verbesserung gegen¨ uber der allgemeinen Darstellung ist, daß neben der skalaren‘ Exponentialfunktion exp(λx) hier vektorwertig nur ein ’ Polynom‘ auftritt. ’ Diese Rechnung mit einem beliebigen c ∈ solche einfache Darstellung liefern.
k
zeigt, daß nur Hauptvektoren eine
Der Satz u ¨ber die Jordan-Normalform besagt: Es existiert eine Basis c1 , . . . , ck des k aus Hauptvektoren zu A. Bildet man dazu jeweils die aß (3), so liefern y1 , . . . , yk ein Fundamentalsystem zu Funktionen yκ gem¨ (1). Wir f¨ uhren dies noch etwas aus:3 Zu r ∈
und λ ∈
bezeichnen wir die (r, r)-Matrix
J(λ) := Jr (λ) :=
λ 1 0 .. .. . . .. 1 . λ 0
als Jordan-Elementarmatrix“ oder Jordan-K¨ astchen“. Der Satz u ¨ber ” ” die Jordan-Normalform l¨ aßt sich damit wie folgt formulieren: Zu A ∈ 3
k
existiert eine invertierbare Matrix S ∈
k
derart, daß
Dies ist eine Wiederholung von Dingen, die eigentlich aus der Linearen Algebra vertraut sein sollten.
5.2
Homogene lineare DGL-Systeme mit konstanten Koeffizienten
J(λ1 )
157
..
. J(λ1 ) ..
S −1 AS =
.
..
. J(λ ) ..
. J(λ )
mit Jordan-K¨ astchen J(λσ ) geeigneter L¨ ange‘ zu den paarweise verschie’ denen Eigenwerten λ1 , . . . , λ . Diese spezielle Gestalt einer Matrix heißt Jordan-Normalform. ¨ Um nicht durch zu viele Indizes die Ubersicht zu verlieren, sehen wir uns ein solches Jordan-K¨ a stchen zum Eigenwert λ der L¨ange r, beginnend an der (n + 1)-ten Stelle an: ..
. n+1
n+1
..
.
n+r
F¨ ur = 1, . . . , r bezeichne b die (n + )-te Spalte von S , also b = S en+ . Dann gilt f¨ ur die entsprechende Spalte von S −1 AS λen+ ( = 1) −1 S ASen+ = ( = 2, . . . , r) en+−1 + λen+ und damit: λb 0 ( = 1) ( = 1) bzw. (A−λ )b = Ab = b−1 ( = 2, . . . , r) b−1 + λb ( = 2, . . . , r) So hat man f¨ ur = 1, . . . , r u ¨ber (3) mit
y (x) = exp(λx) b +
x−1 x b1 b−1 + · · · + ( − 1)! 1
die L¨ osung y von (1) mit y (0) = b . Indem man dies f¨ ur alle Jordan-K¨ astchen macht, gewinnt man also ein Fundamentalsystem zu (1).
Kapitel 5
n+r
λ 1 .. .. . . .. .1 λ
158
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
Zum besseren Verst¨ andnis rechnen wir ganz ausf¨ uhrlich ein nicht-triviales ¨ Beispiel, das als Ubungsaufgabe in [Sc/Sc] gestellt ist: (B1) y1 = y2 y2 = 4y1 + 3y2 − 4y3 y3 = y1 + 2y2 − y3 y1 0 1 0 y2 und A := 4 3 −4 y3 1 2 −1 tialgleichungssystem y = Ay . Mit y :=
lautet dieses homogene Differen-
1. Zun¨ achst sind die Eigenwerte von A zu bestimmen: λ −1 0 4 det(λ − A) = −4 λ − 3 4 = − 4(−2λ − 1) + (λ + 1)(λ2 − 3λ − 4) −1 −2 λ + 1 = λ3 − 2λ2 + λ = λ (λ2 − 2λ + 1) = λ (λ − 1)2
Kapitel 5
Die Eigenwerte sind 0 mit ord(0) = 1 und 1 mit ord(1) = 2. 2. Jetzt sind zu diesen beiden Eigenwerten Eigenvektoren und Hauptvektor’ ketten‘ zu bestimmen: 1 1 (0) Ohne Rechnung erkennt man A 0 = 0. Somit ist b 1 := 0 ein 1 1 Eigenvektor zu 0. & −1 1 0 ' 4 2 −4 hat offenbar den Rang 2. 1 2 −2 Folglich ist ihr Kern, also der Eigenraum zum Eigenwert 1, eindimensional. Es gibt also keine zwei linear unabh¨ angigen Eigenvektoren zu 1. Damit kennen wir schon die Gestalt der zugeh¨ origen Jordan-Normalform
Die Matrix A − 1
= A−
=
0
0 0
0 0
1 1 0 1
bis auf m¨ ogliche Vertauschung der beiden K¨ astchen. Es ist (A − 1 )2 =
5 1 −4 0 0 0 5 1 −4
vektor zum Eigenwert 1 ist b 4
(1) 2
mit rg(A − 1 )2 = 1 . Ein Haupt-
:=
0 4 1
mit zugeh¨ origem Eigenvektor
Hier entwickelt man z. B. nach der dritten Spalte.
5.3
Zweidimensionale Systeme, Stabilit¨ at
159
4 4 . Die L¨ osungsgesamtheit von (1) ist folglich 6 gegeben durch mit α1 , α2 , α3 ∈ b
(1) 1
:= (A − 1 )b
(1) 2
y(x) = α1 b
=
(0) 1
+ α2 exp(x)b
(1) 1
(1) (1) + α3 exp(x) b 2 + xb 1
Reelle L¨ osungen reeller Systeme Ist die Matrix A reell, so gilt die L¨ osungsformel (3) unver¨andert. Jedoch k¨onnen hier komplexe Eigenwerte λ und somit komplexe L¨osungen y auftreten. Man ist aber in diesem Fall meist nur an reellen L¨ osungen interessiert. Mit y sind hier offenbar auch Rey und Im y L¨osungen. Ein komplexer Eigenwertλ = α+ β mit α , β ∈ und β = 0 liefert so zwei reelle L¨osungen. Mit λ ist auch λ ein Eigenwert von A, der wie oben zu den beiden gleichen reellen L¨osungen f¨ uhrt.
Aus der bekannten Euler-Formel exp(λx) = exp(α + β x) = exp(α x) cos(β x) + sin(β x) gewinnt man
1 exp( β x) + exp(− β x) 2 1 exp( β x) − exp(− β x) sin(β x) = 2
cos(β x) =
Zur Behandlung von Inhomogenit¨ aten stellen wir im u ¨bern¨achsten Abschnitt ¨ weitere allgemeine Uberlegungen bereit.
5.3 Zweidimensionale Systeme, Stabilit¨ at Im Sinne von Abschnitt 3.6 wollen wir speziell das qualitative Verhalten von L¨ osungen homogener linearer Differentialgleichungen mit konstanten Koeffizienten beschreiben. Wir betrachten also f¨ ur eine nat¨ urliche Zahl k zu einer gegebenen reellen (k, k)-Matrix A das Differentialgleichungssystem y = Ay
(1)
und beschr¨anken uns dabei weitgehend auf den anschaulichen und wichtigen in k , ihr Spezialfall k = 2. Eine L¨ osung von (1) ist eine Abbildung aus k+1 . Bei (1) handelt sich um ein spezielles autonomes Graph liegt also im System, da die rechte Seite nicht explizit von der Variablen x abh¨angt. Daher
Kapitel 5
und so aus (3) L¨ osungen, in denen noch trigonometrische Faktoren auftreten.
160
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
k¨ onnen die maximalen L¨ osungen auch als Parameterdarstellung von Kurven‘ ’ im k , sogenannte Phasenkurven, Bahnkurven oder Trajektorien, aufgefaßt werden, die somit eine Orientierung tragen. Den Wertebereich einer solchen Bahnkurve bezeichnen wir als Bahn. Das ist einfach die Menge der Punkte — ohne Orientierung — , die von der Bahnkurve durchlaufen‘ werden. Die ’ Gesamtheit aller Trajektorien liefert das sogenannte Phasenportrait.
Wir setzen zun¨ achst voraus, daß die Determinante von A nicht Null ist. Damit ist 0 kein Eigenwert von A und 00 der einzige Gleichgewichtspunkt, also y = 0 die einzige station¨ are L¨ osung. Es ist hilfreich, sich vorweg den trivialen‘ Fall k = 1 in Erinnerung zu rufen: ’ Mit einem reellen µ ist dann also die skalare Differentialgleichung
y = µy zu betrachten, deren L¨ osungsgesamtheit mit (x ∈ )
y0 (x) := exp(µx)
durch cy0 | c ∈ positives µ gilt
gegeben ist. F¨ ur µ = 0 ist die Funktion y0 konstant, f¨ ur y0 (x) −→ ∞
f¨ ur
x −→ ∞ ,
f¨ ur
x −→ ∞ .
Kapitel 5
entsprechend f¨ ur negatives µ y0 (x) −→ 0
Das Vorzeichen von µ spielt also schon hier die entscheidende Rolle f¨ ur das Langzeitverhalten‘ (x −→ ∞). ’ In Anlehnung an die schon in den einleitenden Bemerkungen zu diesem Kapi¨ tel gemachten Uberlegungen kann man die Behandlung von (1) durch affine Transformationen y = Sz mit einer geeigneten invertierbaren Matrix S auf ¨ gewisse reelle Normalformen zur¨ uckf¨ uhren. Dies bewirkt den Ubergang zum DGL-System (2) z = B z mit B := S −1 AS . Die Eigenwerte von A sind gerade die Nullstellen des durch χ (λ) := det(λ − A) f¨ ur λ ∈ ¨ definierten charakteristischen Polynoms χ . Bei manchen Uberlegungen kann man die Arbeit etwas reduzieren, wenn man die folgende kleine Bemerkung ber¨ ucksichtigt. Ist y eine L¨ osung von (1), so ist die durch y(x) := y(−x) f¨ ur x ∈ Funktion y eine L¨ osung von y = −A y .
definierte
5.3
Zweidimensionale Systeme, Stabilit¨ at
161
Eine komplexe Zahl µ ist genau dann ein Eigenwert von A, wenn −µ ein Eigenwert von −A ist. Die zugeh¨ origen Bahnen sind gleich, doch ¨ andert sich der Durchlaufungssinn der Trajektorien. Im Falle k = 2 hat χ als Polynom zweiten Grades zwei verschiedene reelle Nullstellen oder eine reelle (doppelte) Nullstelle oder zwei konjugiert komplexe Nullstellen. Dies f¨ uhrt in nat¨ urlicher Weise zur Unterscheidung der folgenden F¨alle:
Fall 1: Die Matrix A habe zwei verschiedene reelle Eigenwerte µ und . In diesem Fall ist A diagonalisierbar, kann also wie oben beschrieben auf die Normalform µ 0 B = S −1 AS = 0 transformiert werden. Die L¨ osungsgesamtheit des transformierten Differentialgleichungssystems (2) ist hier gegeben durch µx ce z(x) = (x ∈ ) mit c, d ∈ . d eν x Der triviale‘ Fall c = d = 0 liefert z(x) = 00 (Koordinatenursprung). F¨ ur 0 ’ c = 0, d = 0 ist z(x) = d eν x . Es wird also eine Halbgerade in z2 -Richtung (z1 = 0; z2 > 0 oder z2 < 0) durchlaufen, je nach Vorzeichen von d oberhalb oder unterhalb vom Ursprung. F¨ ur c = 0 zeigt
ν
ν
ν
alfte‘ von mit einem geeigneten γ ∈ : Die Bahn ist linke oder rechte H¨ ’ z1 ν 2 : z2 = γ |z1 | µ , z2 ∈
ν
ur d = 0 ist γ = 0; man erh¨ alt meist lax nur als z2 = γ |z1 | µ notiert. F¨ speziell Halbgeraden in z1 -Richtung. Fall 1 a): Im Falle det A > 0 haben beide Eigenwerte gleiches Vorzeichen denn det A liefert ja gerade den konstanten Term χ (0) des charakteristischen Polynoms. Es sei Œ |µ| ≤ | |. Man spricht von einem Knoten, da die Bahnen — bis auf die beiden Halbgeraden in z2 -Richtung — alle mit gleiunden. (F¨ ur eine nicht-triviale cher Steigung in einem Punkt, hier 00 , m¨ L¨osung liegt der Punkt selbst jedoch nicht auf der Bahn.) F¨ ur µ, < 0 gilt z(x) −→ 0 f¨ ur x −→ ∞, man hat also asymptotische Stabilit¨ at. Man spricht von einem stabilen oder anziehenden Knoten oder einer Senke. Da sich alle L¨osungen asymptotisch dem Koordinatenursprung n¨ ahern, und zwar entweder auf der z2 -Achse oder tangential zur z1 -Achse, nennt man den Knoten noch zweitangentig. Dazu hier ein ausf¨ uhrliches Beispiel. Bei den anderen F¨ allen k¨ onnen wir uns dann deutlich k¨ urzer fassen und f¨ ur Erg¨ anzungen und Beispiele auf die zugeh¨ origen Worksheets verweisen.
Kapitel 5
z2 (x) = d eν x = d (eµ x ) µ = γ (|c| eµ x ) µ = γ |z1 (x)| µ
162
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
&
(B2) Es sei
A :=
−4/3 1/3
'
2/3 −5/3
.
Das charakteristische Polynom ist gegeben durch χ (λ) = (λ + 2) (λ + 1) . Somit hat A die Eigenwerte µ = −1 und = −2. s1 := 11 ist ein ein Eigenvektor zu = −2. Eigenvektor zu µ = −1, s2 := −1/2 1 Die Richtungsvektoren e1 (z1 -Achse) und e2 (z2 -Achse) gehen bei der R¨ ucktransformation y = S z gerade u ¨ber in diese Eigenvektoren s1 = S e1 und s2 = S e2 . Damit liefert 1 −1/2 S := 1 1 −1 0 u ¨ber −1 B := S AS = 0 −2 das einfache entkoppelte System z1 = −z1 die mit c, d ∈
z2 = −2z2 ,
und
z2 (x) = d e−2 x
durch z1 (x) = c e−x
Kapitel 5
und
gegebenen L¨ osungen und u ¨ber y = S z y1 = z1 − 1/2 z2
und
y 2 = z1 + z2
die L¨ osungen des urspr¨ unglichen Systems. Die folgenden beiden Graphiken veranschaulichen dieses Beispiel: Zweitangentiger Knoten (stabiler Fall) y-Ebene
z-Ebene
s2
6
4
s1
4 2
2 0
0
–2
–2
–4 –4
–6 –4
–2
0
2
4
–6
–4
–2
0
2
4
6
5.3
Zweidimensionale Systeme, Stabilit¨ at
163
ur F¨ ur µ, > 0 ist 00 instabil, da im nicht-trivialen Fall |z(x)| −→ ∞ f¨ x −→ ∞ gilt. Man spricht hier von einem instabilen oder abstoßenden Knoten oder einer uelle. Ein Phasenportrait ergibt sich nach der Bemerkung auf Seite 160, indem man in den beiden vorangehenden Graphiken die Pfeilrichtungen umkehrt. Fall 1 b): Im Falle det A < 0 haben die Eigenwerte entgegengesetztes Vorzeichen. Ist µ negativ und positiv, so wird das Verhalten f¨ ur x → −∞ ur x → ∞ durch deν x gepr¨agt. Der Gleichgewichtsdurch den Term ceµ x , f¨ punkt ist daher instabil. Man bezeichnet ihn als instabilen Sattelpunkt. Man spricht allgemein von einem Sattelpunkt, wenn endlich viele Bahnen in einem Punkt m¨ unden oder dort starten, w¨ ahrend die u ¨brigen an diesem Punkt vor’ beilaufen‘. Die beiden folgenden Graphiken zeigen eine typische Situation: Sattelpunkt y-Ebene
z-Ebene 6
4
4 2
2 0
0
–2
–2
–6 –4
–2
2
0
4
–6
–4
–2
0
2
4
6
Fall 2: Die Matrix A habe einen (doppelten) reellen Eigenwert µ. a) Ist A diagonalisierbar (Existenz von zwei linear unabh¨ angigen Eigenvektoren), dann kann hier auf die Normalform µ 0 B = 0 µ transformiert werden. Wegen B = µ 2 ist hier A = B . Das System (1) hat in diesem Fall die mit c, d ∈ durch
y(x) = eµ x ( dc ) ¨ gegebenen L¨ osungen. Hier sind (man vergleiche die allgemeinen Uberlegungen zu Fall 1) die nicht-trivialen Bahnen Halbgeraden in y2 -Richtung alfte‘ von y2 = γ |y1 | (y1 = 0; y2 > 0 oder y2 < 0) oder linke oder rechte H¨ ’ at, mit einem geeigneten γ ∈ . Im Fall µ < 0 hat man asymptotische Stabilit¨ man spricht von einem stabilen Stern. F¨ ur µ > 0 ist der Gleichgewichtspunkt instabil, man spricht von einem instabilen Stern.
Kapitel 5
–4 –4
164
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
Stabiler Stern 4 2 0 –2 –4 –4
–2
0
2
4
b) Ist A nicht diagonalisierbar, dann existiert eine invertierbare Matrix S 1 , welche A auf Jordan-Normalform transformiert: µ 1 S1−1 AS1 = 0 µ
Mittels
Kapitel 5
S2 :=
0 1/µ 1 0
alt man folgende modifizierte Jordan-Normalform: und S := S1 · S2 erh¨ µ 0 S −1 AS = µ µ Das zugeh¨orige transformierte System hat die allgemeine L¨osung z, gegeben durch c z(x) = eµ x f¨ ur x ∈ µcx + d
mit reellen Zahlen c und d, wie man direkt best¨ atigt oder aus den allgemeinen Ergebnissen von Abschnitt 2.3 abliest. Neben dem Koordinatenursprung (f¨ ur c = d = 0) erh¨alt man als Bahnen f¨ ur ur c = 0, d = 0 wieder Halbgeraden in z2 -Richtung (z2 > 0 oder z2 < 0). F¨ achst µx = log |z1 (x)| − log |c| und so c = 0 gibt |z1 (x)| = |c|eµ x zun¨ z2 (x) = µxc eµ x + d eµ x = µxz1 (x) + d z1 (x) = z1 (x) log |z1 (x)| + γ z1 (x) c
mit einem reellen γ . Die Bahn ist also durch z2 = z1 log |z1 | + γ z1 gegeben. Man hat einen eintangentigen Knoten. F¨ ur positives µ ist er instabil, f¨ ur negatives µ asymptotisch stabil.
5.3
Zweidimensionale Systeme, Stabilit¨ at
165
Eintangentiger Knoten (stabiler Fall) y-Ebene
z-Ebene 4
4
2
2
0
0
–2
–2
–4
–4 –4
–2
0
2
–4
4
–2
0
2
4
Fall 3: Die Matrix A habe die konjugiert komplexen Eigenwerte µ = α + β und µ = α − β mit α, β ∈ und Œ β > 0. Ein Eigenvektor (in 2 ) zu µ kann in der Form s1 − s2 mit s1 , s2 ∈ 2 geschrieben werden.
A(s1 − s2 ) = (α + β)(s1 − s2 ) zerf¨allt in die beiden Gleichung As1 = α s1 + β s2 , As2 = −β s1 + α s2 .
(3)
orenden Eigenvektoren Die zu den verschiedenen Eigenwerten µ und µ geh¨ angig. Die s1 − s2 und s1 + s2 sind bekanntlich (komplex) linear unabh¨ Matrix 1 1 s1 − s2 , s1 + s2 = S − ist daher invertierbar, also auch die Matrix S . Nach (3) ist A folglich auf die Form α −β B := S −1 AS = β α transformierbar. Wir untersuchen das so erhaltene transformierte DGLSystem z = B z . Dieses ist mit w := z1 + z2 und a := α + β ¨ aquivalent zu der komplexen Differentialgleichung 1. Ordnung w = a w ,
Kapitel 5
F¨ ur die reelle (2,2)-Matrix S := (s1 , s2 ) gilt somit α −β AS = S . β α
166
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
deren L¨ osungsgesamtheit beschrieben wird durch w(x) = c exp(ax)
f¨ ur x ∈
mit einer komplexen Zahl c, die im nicht-trivialen Fall (c = 0) in der Form c = r exp( ϕ) mit einer positiven Zahl r und reellem ϕ geschrieben werden kann. Es ist also w(x) = r eα x exp( (β x + ϕ)) bzw., reell notiert (Aufspaltung in Real- und Imagin¨arteil), z1 (x) = r eα x cos(β x + ϕ) , z2 (x) = r eα x sin(β x + ϕ) . Aus der Beziehung
z1 (x)2 + z2 (x)2 = r eα x
Kapitel 5
kann die Gestalt der Bahnen abgelesenwerden. In allen F¨allen umrundet jede Trajektorie den Gleichgewichtspunkt 00 ; er ist stabil, aber nicht asymptotisch stabil. a) Im Falle α = 0, d. h. µ ist rein imagin¨ ar, erhalten wir Kreise, die in der z-Ebene im positiven Sinn durchlaufen werden, da β positiv ist. Der Gleichgewichtspunkt heißt Zentrum oder Wirbelpunkt. (Man spricht von einem Wirbelpunkt, wenn sich die Trajektorien zu geschlossenen Kurven zusammensetzen, die s¨ amtlich einen Punkt im Innern einschließen.) Zentrum y-Ebene
z-Ebene 6
4
4 2
2 0
0
–2
–2
–4 –4
–6 –4
–2
0
2
4
–6
–4
–2
0
2
4
6
b) Im verbleibenden Fall α = 0 erh¨ alt man einen Strudelpunkt oder auch Brennpunkt, d. h. die Trajektorien lassen sich so zu Kurven zusammensetzen, daß sie einen Punkt beliebig oft umlaufen und dem Punkt dabei beliebig nahekommen, ohne mit einer bestimmten Tangentenrichtung in ihn einzum¨ unden.
5.3
Zweidimensionale Systeme, Stabilit¨ at
167
Die Trajektorien verlaufen auf Spiralen, die sich im Falle α < 0 f¨ ur x → ∞ auf den Koordinatenursprung zusammenziehen; dieser ist also asymptotisch ur x → ∞ unbeschr¨ankt, stabil. achst der Radius r eα x f¨ 0 Im Falle α > 0 w¨ ist instabil. Man spricht genauer von einem abstoßenden bzw. anziehen0 den Strudelpunkt. Strudelpunkt (stabiler Fall) y-Ebene
z-Ebene 6 4
4 2
2
0
0
–2
–2 –4
–4 –4
–2
0
2
–6
4
–4
–2
0
2
4
6
a) Hat A zudem einen von 0 verschiedenen reellen Eigenwert µ, dann ist A diagonalisierbar, kann also wie oben beschrieben auf die Normalform 0 0 B = S −1 AS = 0 µ transformiert werden. Die L¨ osungsgesamtheit des transformierten DGL-Systems (2) ist hier gegeben durch c z(x) = (x ∈ ) mit c, d ∈ . d eµ x
¨ Da wir nun gen¨ ugend Ubung in der geometrischen Ausdeutung haben, zeigen wir hier und im folgenden Fall b) nur noch die zugeh¨ origen Graphiken:
Kapitel 5
Fall 4: Wir gehen noch kurz auf den zur¨ uckgestellten Fall det A = 0 ein und k¨ onnen dabei Œ von A = 0 ausgehen; denn in diesem trivialen Fall sind genau alle Konstanten‘ L¨ osungen. Da A singul¨ar ist, existiert ein v ∈ 2 \{0} ’ mit Av = 0. 0 ist also ein Eigenwert mit Eigenvektor v : Alle Punkte auf der zugeh¨ origen Geraden durch 0 sind Gleichgewichtspunkte.
168
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
Gerade von Gleichgewichtspunkten (Fall µ < 0) y-Ebene
z-Ebene 5
5 3
3
1
1
–1
–1 –3
–3
–5 –5
–5
–3
–1
1
3
–5
5
–3
–1
1
5
3
Kapitel 5
b) Im verbleibenden Fall ist 0 doppelter Eigenwert. Da A nicht-trivial vorausgesetzt wurde, ist die zugeh¨ orige Normalform 0 1 B = . 0 0 Die Differentialgleichungen f¨ ur das transformierten System sind z1 = z2 und osungsgesamtheit ist gegeben durch z2 = 0. Die L¨ cx + d z(x) = (x ∈ ) mit c, d ∈ . c
Gerade von instabilen Gleichgewichtspunkten y-Ebene
z-Ebene 5
5
3
3
1
1
–1
–1
–3
–3
–5
–5 –5
–3
–1
1
3
5
–5
–3
–1
1
3
5
5.4
Lineare DGL-Systeme mit . . . und speziellen Inhomogenit¨ aten
169
5.4 Lineare DGL-Systeme mit konstanten Koeffizienten und speziellen Inhomogenit¨ aten Zu k ∈ , s ∈ 0 , A ∈ k , α ∈ spezielle inhomogene DGL-System
y = Ay +
und c ∈
k
\ {0} betrachten wir das
x exp(α x)c s!
(1)
mit dem Ziel, eine explizite L¨ osung zu finden. Mit dieser nur scheinbar recht speziellen Inhomogenit¨ at sind, wie wir weiter unten erl¨ autern, doch viele Typen von Inhomogenit¨ aten erfaßt. Der Faktor 1/s! macht einige der folgenden Umformungen etwas einfacher; er kann nat¨ urlich auch in den Vektor c einbezogen werden.
Wir beginnen mit zwei Spezialf¨ allen, die den allgemeinen Fall schon voll erfassen, wie wir noch ausf¨ uhren werden: (I) Voraussetzung: Es existiert ein d ∈
Hier liefert
yI (x) := exp(α x)
k
mit (A − α )
xσ (A − α )σ d σ! σ=0
+1
d = −c . 5
eine L¨ osung von (1).
yI (x) = α yI (x) + exp(α x)
9 σ=1
xσ−1 (σ−1)! (A
− α )σ d
Andererseits gilt:
9 xσ−1 x σ (A − α )yI (x) = exp(α x) (A − α ) +1 d + exp(α x) (σ−1)! (A − α ) d # !" s! σ=1 = −c Die Gleichheit der beiden hinteren Terme zeigt: x exp(α x)c yI (x) = AyI (x) + s!
(II) Voraussetzung: Es existiert ein r ∈
mit (A − α )r c = 0 . Hier ergibt
r−1
yII (x) := exp(α x) 5 6
x+ +1 osung von (1). (A − α ) c eine L¨ ( + s + 1)! =0
Ist α nicht Eigenwert, dann ist diese Voraussetzung immer erf¨ ullt; denn die Matrix − α E ist in diesem Fall ja regul¨ ar. Diese Formel ergibt sich auch aus der ariation der Konstanten.
Kapitel 5
Beweis: 6 Differentiation der Funktion yI ergibt (mit der Produktregel):
170
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
Beweis: Wie beim Beweis zu (I) erh¨ alt man hier: r−1
yII (x) = α yII (x) + exp(α x)
x+ (A − α ) c ( + s)! =0
r−1
(A − α )yII (x) = exp(α x)
x+ +1 (A − α )+1 c ( + s + 1)! =0 r−1
r−2 Vor.
· · · = exp(α x)
= exp(α x) =0
x x+ (A − α ) c − exp(α x) c s! ( + s)! =0
Die Gleichheit der beiden grau unterlegten Terme zeigt: x yII (x) = AyII (x) + exp(α x) c s!
Nach der obigen Fußnote zu (I) verbleibt nur der Fall, daß α ein Eigenwert ist. In diesem Fall kann (siehe Lineare Algebra) k dargestellt werden als direkte Summe A-invarianter Unterr¨ aume Hα und Uα = Uα ⊕ Hα mit dem Hauptraum Hα zu α = Hauptvektoren zu α und Uα derart, daß (A − α )|U invertierbar ist. Jeder Vektor c ∈ k kann daher wie folgt α eindeutig zerlegt werden: k
Kapitel 5
c = cI + cII
mit
cI ∈ Uα und cII ∈ Hα
Mit den L¨osungen yI gem¨ aß (I) zu cI und yII gem¨ aß (II) zu cII erh¨ alt man osung von (1). y := yI + yII als eine spezielle L¨ Durch Aufspaltung der Inhomogenit¨ at und Summation zugeh¨ origer L¨ osungen k¨onnen so Inhomogenit¨ aten der Gestalt exp(ασ x)pσ (x) endlich
mit ( k –wertigen) Polynomen‘ pσ behandelt werden. Unter Beachtung der ’ Euler-Formeln cos(wx) = 1 exp( wx)+exp(− wx) , sin(wx) = 1 exp( wx)−exp(− wx) 2 2
k¨onnen bei den einzelnen Summanden noch Faktoren der Form cos(wσ x) ucksichtigt werden! und sin(wσ x) ber¨ Wir kommen auf (B1) von Seite 158 zur¨ uck, jetzt mit Inhomogenit¨aten: y1 = y2 y2 = 4y1 + 3y2 − 4y3 y3 = y1 + 2y2 − y3
+ ex + x2 ex + 8ex + 4xex + 4ex + xex + x2 ex
5.4
Lineare DGL-Systeme mit . . . und speziellen Inhomogenit¨ aten
171
Wir erinnern noch einmal an die beiden Eigenwerte 0 und 1 der Ordnungen 1 bzw. 2 mit einer Basis aus Hauptvektoren b
(0) 1
:=
1 0 1
, b
(1) 2
:=
0 4 1
und b
(1) 1
:= (A − 1 )b
(1) 2
=
4 4 6
.
¨ Um die gerade bereitgestellten Uberlegungen anwenden zu k¨onnen, notieren wir die Inhomogenit¨ at in der Form 1 8 e 4 x
=b
(1) 2
(
2 0 2 !" #
0 x2 +x 4 + 2! 1 !" #
= 2b
.
(0) 1
Die Darstellung des ersten Vektors bez¨ uglich dieser Basis ist: 1 8 4
= b
(1) 2
(0)
(1)
−3b +b !" 1# !" 1# ∈ U1 ∈ H1
(1) (1) Auf den ersten Summanden ex b 2 + b 1 = ex
kann — wegen
(1) (1) (1) (1) (A − 1 )2 b 2 + b 1 = 0 — der Fall (II) mit α = 1, s = 0, c = b 2 + b 1 und r = 2 angewendet werden: ⎡ ⎤ 4 2 2 x (1) (1) (1) b = ex ⎣x 8 + x2 2 ⎦ y1 (x) := ex x b 2 + b 1 + 2 1 7 3
(0) (0) F¨ ur den zweiten Summanden ex − 3b 1 kann mit α = 1, c = −3b 1 und (0) s = 0 im Spezialfall (I) d := −3b 1 gew¨ahlt werden; denn (A − 1 ) +1 d = (0) (0) (0) osungsanteil = 3b 1 = − − 3b 1 . Der entsprechende L¨ −3(A − )b 1 b
ist somit:
(0) 1
=0
$ % (0) y2 (x) := ex −3b 1 = ex
F¨ ur den dritten Anteil xex b r = 2 anwendbar; denn b
(1) 2
(1) 2
= xex
0 4 1
−3 0 −3
ist (II) mit α = 1, s = 1 und
ist Hauptvektor der Stufe 2 zum Eigenwert 1:
Kapitel 5
4 8 7
172
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
:
x2 (1) x3 (1) b b + 3! 1 2! 2
y3 (x) := ex
= ex
x2 2
Schließlich ziehen wir f¨ ur den letzten Term x2 ex b
x3 + 3
2 ; 2 3
2 = x ex 2!
2 0 2
0 4 1 (0) 1
(0)
(0)
(I) mit (0)
α = 1 und s = 2 heran: Wegen Ab 1 = 0 gilt (A − 1 )b 1 = −b 1 , also (0) (0) (0) (A − 1 )3 b 1 = −b 1 . Somit kann hier d := 2b 1 gew¨ahlt werden. Der L¨ osungsanteil ist daher: y4 (x) := ex 2b
(0) 1
x2 (0) (0) + x − 2b 1 + 2b 1 2!
= ex 1 − x +
x2 2
2 0 2
Insgesamt ist eine spezielle L¨ osung gegeben durch : y(x) := y1 (x) + · · · + y4 (x) = e
x
−1 0 −1
2 8 5
+x
x2 + 2
6 8 9
x3 + 3
2 ; 2 . 3
Kapitel 5
Mit dem Ergebnis aus Abschnitt 5.2 f¨ ur die L¨ osungsgesamtheit der zugeh¨origen homogenen Differentialgleichung erh¨ alt man so die allgemeine L¨ osung.
5.5 Lineare DGLen h¨ oherer Ordnung mit konstanten Koeffizienten Mit einer nat¨ urlichen Zahl k und komplexen Zahlen α1 , . . . , αk betrachten wir die homogene lineare Differentialgleichung k-ter Ordnung mit konstanten Koeffizienten
η (k) + α1 η (k−1) + · · · + αk η = 0 .
(1)
Mit der vertrauten Transformation 0
η .. .
y = η
und
(k−1)
A :=
1 .. .. . . .. .. . . 0 1 −αk . . . . . . . . . −α1
achst ist (1) ¨aquivalent zu y = Ay . Wir zeigen zun¨ det(λ
− A) = λk + α1 λk−1 + · · · + αk =: ϕ(λ) .
(2)
5.5
Lineare DGLen h¨ oherer Ordnung mit konstanten Koeffizienten
Hier ist also das charakteristische Polynom, oft mit χ durch die Differentialgleichung gegeben!
173
notiert, unmittelbar
Die Beziehung (2) erkennt man induktiv, indem man die linke Seite nach der ¨ ersten Spalte entwickelt oder auch zusammen mit folgenden Uberlegungen: sei c(t) := (1, t, . . . , tk−1 )T . Ist λ ∈ eine Nullstelle F¨ ur t ∈ alt man durch der (genauen) Ordnung r ∈ von ϕ , so erh¨
(3)
b :=
1 c(−1) (λ) ( − 1)!
( = 1, . . . , r)
ein System von r Hauptvektoren zum Eigenwert λ von A mit 0 , =1 (A − λ )b = (Hauptvektorkette) . b−1 , = 2, . . . , r T = tc(t) − ϕ(t)ek Beweis: Ac(t) = t, . . . , tk−1 , tk − ϕ(t) Wiederholte Differentiation nach t liefert f¨ ur = 0, . . . , r − 1 : Ac() (t) = tc() (t) + c(−1) (t) − ϕ() (t)ek Daher hat man (λ) =
0 c(−1) (λ)
, =0 , = 1, . . . , r − 1
und somit (3).
Zu λ und r erh¨ alt man (gem¨ aß Abschnitt 5.2, Seite 157) die linear unabh¨angigen L¨osungen y1 , . . . , yr von y = Ay durch y1 (x) = exp(λx)b1 y2 (x) = exp(λx)[b2 + xb1 ] .. . % $ xr−1 b1 . yr (x) = exp(λx) br + xbr−1 + · · · + (r − 1)!
Die ersten Komponenten liefern r linear unabh¨ angige L¨ osungen von (1): η1 (x) = exp(λx) η2 (x) = exp(λx)x .. . ηr (x) = exp(λx)
xr−1 (r − 1)!
Kapitel 5
(A−λ )c
()
174
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
Indem man dies f¨ ur alle Nullstellen heranzieht, erh¨alt man insgesamt ein Fundamentalsystem. Wir stellen noch einen von Abschnitt 5.2 unabh¨angigen Zugang zu diesem Resultat vor: ur k-mal differenzierbares u : Λ(u) := u(k) +α1 u(k−1) +· · ·+αk u (f¨
−→
)
ur differenzierbares u)) (also Λ = D k +α1 Dk−1 +· · ·+αk D0 mit D u := u (f¨ Offenbar gilt:
Λ exp( t) = ϕ(t) exp( t)
f¨ ur t ∈
;
(4)
-malige Differentiation nach t liefert:
Λ
exp( t) =
ϕ(ν) (t)
−ν
(5)
exp( t)
ν=0
F¨ ur t = λ und = 0, . . . , r − 1 ist die rechte Seite Null, falls λ Nullstelle der Ordnung r ist; also sind die obigen Funktionen L¨ osungen.7
Kapitel 5
¨ Diese Uberlegungen f¨ uhren auch zur elementaren Gewinnung einer L¨ osung der speziellen inhomogenen linearen DGL k-ter Ordnung
η (k) + α1 η (k−1) + · · · + αk η = x exp(xλ)
f¨ ur s ∈
0
und λ ∈
(6)
:
Wir zerlegen ϕ(t) = (t − λ)r ψ(t) mit r ∈ 0 und einem Polynom ψ so, daß ψ(λ) = 0 ist. F¨ ur t ∈ mit ψ(t) = 0 folgt aus (4) 1 exp( t) = (t − λ)r exp( t) . (7) Λ ψ(t)
Wir differenzieren (r+s)-mal nach t (lokal um λ) und setzen dann t = λ . Mit 0 , = r ∂ (t − λ)r = der Produktregel (f¨ ur die rechte Seite) und ∂t =λ r! , = r erh¨ alt man ∂ r+ 1 (r + s)! exp( λ) = t) exp( Λ r+ s! ψ(t) ∂t =λ
und somit als spezielle L¨ osung von (6):
η(x) = 7
∂ r+ 1 s! exp(xt) (r + s)! ∂tr+ ψ(t)
(8) =λ
Hier ist die lineare Unabh¨ angigkeit noch (elementar) zu zeigen.
5.6
Lineare DGLen mit periodischen Koeffizientenfunktionen
175
(B3) Wir bestimmen die L¨ osungsgesamtheit von
y (4) (x) − 2y (x) + y(x) = 24x sin x .
Hier gilt: ϕ(t) = t4 − 2t2 + 1 = (t2 − 1)2 = (t − 1)2 (t + 1)2 Die Nullstellen von ϕ sind λ1 := 1 und λ2 := −1, beide mit der Ordnung 2. Ein Fundamentalsystem der zugeh¨ origen homogenen Differentialgleichung ist somit gegeben durch (vergleiche dazu Seite 173): ex , xex , e−x , xe−x . Wir betrachten zun¨ achst die Inhomogenit¨ at x exp( x): In (6) ist demnach s = 1 und λ = zu setzen. Damit hat man hier r = 0 und ϕ = ψ . Nach (8) erhalten wir mit x exp(xt)ϕ(t) − exp(xt)ϕ (t) exp(xt) = η(x) := ∂ 2 ∂t ϕ(t) ϕ(t) =i =i x + 2 4x + 8 = exp( x) = exp( x) 4 16 (Hier haben wir ϕ(i) = (i2 − 1)2 = 4 und ϕ (i) = 2 (i2 − 1) 2 i = −8i gerechnet.)
osung 24 η f¨ ur die Inhomogenit¨ at die zugeh¨orige spezielle ( -wertige) L¨ 24x exp( x): 24 η(x) = (cos x + sin x)(6x + 12 ) = (6x cos x − 12 sin x) + (12 cos x + 6x sin x)
Die allgemeine L¨ osung ist somit durch α1 ex + α2 xex + α3 e−x + α4 xe−x + 12 cos x + 6x sin x mit komplexen Zahlen α1 , . . . , α4 gegeben.
5.6 Homogene lineare Differentialgleichungen mit periodischen Koeffizientenfunktionen ¨ Die Uberlegungen dieses Abschnitts f¨ ur lineare Systeme mit periodischen Kouck. Wir werden seeffizientenfunktionen gehen auf Gaston Floquet8 zur¨ hen, daß solche Systeme mit linearen Systemen mit konstanten Koeffizienten verkn¨ upft sind. 8
Der franz¨ osische Mathematiker Achille Marie Gaston Floquet (1 1 20) war ab 1 0 Professor f¨ ur Analysis an der Universit¨ at Nancy. Er besch¨ aftigte sich mit Astronomie, Differentialgleichungen und periodischen Funktionen.
Kapitel 5
Der Imagin¨ arteil ergibt die spezielle L¨ osung der urspr¨ unglichen Aufgabe durch η(x) = 12 cos x + 6x sin x .
176
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
Mit einer nat¨ urlichen Zahl k , einer positiven reellen Zahl ω und einer stetigen ur x ∈ , −→ k , also F (x + ω) = F (x) f¨ ω-periodischen Funktion F : betrachten wir das Differentialgleichungssystem
y = F (x)y .
(1)
Man k¨ onnte zwar Œ annehmen, daß die Koeffizientenfunktion F die Periode 1 hat, da sonst das Argument entsprechend transformiert werden kann; doch dies bringt keine entscheidenden Vorteile.
Wir sehen uns vorweg zu Fuß‘ den skalaren Fall (k = 1) an, um einen ersten ’ Eindruck von der Art der Ergebnisse zu erhalten, die wir allgemein erwarten k¨onnen. Wir betrachten also die Differentialgleichung y = f (x)y mit einer stetigen Funktion f :
−→
, die ω-periodisch ist.
¨ Nach den Uberlegungen aus Abschnitt 2.3 ist die allgemeine L¨ osung mit x y(x) := exp f (t) dt (x ∈ )
Kapitel 5
0
von der Form cy mit komplexem c. Da f ω-periodisch ist, gilt f¨ ur x ∈ ω x+ω f (t) dt = f (t) dt = λω x
0
mit einem geeigneten λ ∈ . Man hat so x y(x + ω) = exp f (t) dt · exp 0
und damit f¨ ur n ∈
x+ω
f (t) dt
= exp(λω)y(x)
x
y(x + nω) = exp(nλω)y(x) . λ ist daher entscheidend f¨ ur das Verhalten von y f¨ ur (betraglich) große Argumente. Es wird als charakteristischer Exponent“ und exp(λω) als cha” ” rakteristischer Multiplikator“ bezeichnet. y ist genau dann ω-periodisch, wenn exp(λω) = 1 ist, also λω = 2π mit gilt. Es ist also im allgemeinen nicht zu erwarten, daß eine einem ∈ nicht-triviale ω-periodische L¨ osung existiert!
Die Transformation p(x) := y(x) exp(−λx) f¨ ur x ∈ periodische Funktion p , mit der dann y(x) = p(x) exp(λx)
(x ∈ )
liefert eine ω-
5.6
Lineare DGLen mit periodischen Koeffizientenfunktionen
177
gilt. Jede L¨ osung l¨ aßt sich also darstellen als Produkt einer ω-periodischen Funktion mit einer Exponentialfunktion. Wir kommen nun zum allgemeinen Fall: Parallel zu (1) sehen wir uns wieder die entsprechende Matrix-Differentialgleichung (M) Y = F (x)Y
an. Hier ist also eine (stetig) differenzierbare Funktion Y :
−→
k
gesucht.
definierte Funktion z sei z(x) := z(x + ω) f¨ ur F¨ ur eine beliebige auf x ∈ . Damit gilt offenbar:
a) Ist y eine L¨ osung von (1), dann l¨ ost auch y dieses System. b) Ist Y eine L¨ osung von (
), so l¨ ost auch Y diese Differentialgleichung.
c) Ist Y eine Fundamentalmatrix zu (1) , dann ist auch Y eine Fundamentalmatrix. Folgerung 5.6.1 Ist Y eine Fundamentalmatrix zu (1), dann existiert eindeutig eine invertierbare Matrix BY ∈ k mit
¨ amlich BY = Y (0)−1 Y (ω). Dieses BY heißt Ubergangsf¨ ur alle x ∈ , n¨ ” matrix“ oder Monodromiematrix“. ” ¨ Die Eigenwerte der Ubergangsmatrix werden charakteristische Multiplika” toren“ oder Floquet-Multiplikatoren“ genannt. ” Mit Z := Y und a := 0 ergibt sich der Beweis direkt nach Bemerkung 4.3.5 unter Beachtung der obigen Aussage c).
Bemerkung 5.6.2 Sind Y und Z Fundamentalmatrizen zu (1), dann existiert bekanntlich einur x ∈ . deutig eine invertierbare Matrix S ∈ k mit Z(x) = Y (x)S f¨ Damit gilt BZ = S −1 BY S .
¨ BZ ergibt sich also aus BY durch eine Ahnlichkeitstransformation. Beweis: Z(x)BZ = Z(x + ω) = Y (x + ω)S = Y (x)BY S = Z(x)S −1 BY S
Kapitel 5
Y (x + ω) = Y (x)BY
178
Kapitel 5
Satz 5.6.3
Lineare Differentialgleichungen und DGL-Systeme II
(Satz von Floquet)
Es seien Y eine Fundamentalmatrix mit Y (0) = und dazu L ∈ k mit BY = exp(ω L) . Dann existiert eine stetig differenzierbare Funktion P : −→ k derart, daß P (0) = , P (x) invertierbar, P (x + ω) = P (x) und
Y (x) = P (x) exp(xL) f¨ ur alle x ∈
( Floquet-Darstellung)
gilt.
definierte FunkBeweis: Die durch P (x) := Y (x) exp(−xL) f¨ ur x ∈ −→ k ist stetig differenzierbar, und f¨ ur x ∈ gelten: P(x) tion P : ist invertierbar, P (0) = , P (x + ω) = Y (x + ω) exp − (x + ω)L = Y (x) BY exp(−ω L) exp(−xL) = P (x) und Y (x) = P (x) exp(xL) . # !" =
Nach der Anmerkung auf Seite 155 existiert zu der invertierbaren Matrix := Y nat¨ urlich nicht ein mit = exp(ω ) ; wegen exp(2πi n E) = E f¨ ur n ∈ ist eindeutig!
Kapitel 5
Eine solche Matrix kann aber nicht immer reell gew¨ ahlt werden. Dies zeigt (f¨ ur ω = 1) schon der Fall = 1 mit = (−1) . F¨ u r = 2 existiert beispielsweise zu −1 1 der invertierbaren Matrix := keine reelle Matrix mit = exp( ) ; 0 1 denn sonst h¨ atte man u ¨ber (5.1.5) −1 = det ) = det exp( ) = exp spur >0. Man kann zeigen (man vergleiche dazu etwa [Culv]), daß eine solche reelle Matrix jedenfalls dann existiert, wenn die Matrix keine negativen Eigenwerte besitzt. (Diese Bedingung ist jedoch nicht notwendig daf¨ ur.) Damit existiert zu 2 stets 2 = exp(2 ω ) ; denn die Eigenwerte von 2 sind ja eine reelle Matrix mit gerade die uadrate der Eigenwerte von . Da die Koeffizientenfunktion F insorige Monodromiematrix besondere auch 2 ω-periodisch ist und dann 2 die zugeh¨ ist, hat man: Ist F (x) zudem f¨ ur jedes x ∈ reell, so existiert zu der reellen Fundamentalmatrix und eine reelle Y eine 2 ω-periodische Funktion mit (x) reell f¨ ur alle x ∈ Matrix mit Y (x) = (x) exp(x ) (x ∈ ) .
Folgerung 5.6.4 uhrt das DGL-System (1) Die Transformation y(x) = P (x)z(x) f¨ ur x ∈ f¨ in ein System mit konstanten Koeffizienten u ¨ber:
z = Lz
5.6
Lineare DGLen mit periodischen Koeffizientenfunktionen
179
Beweis: F¨ ur eine L¨ osung y von (1) hat man F P z = F y = y = P z + P z −1 und so z = P (F P − P )z = Lz ; denn P (x) = Y (x) exp(−xL) liefert P = Y exp(−xL) + Y (−L) exp(−xL) = F Y exp(−xL) − Y L exp(−xL) = F P − P L . Umgekehrt rechnet man ausgehend von einer L¨osung z entsprechend zur¨ uck. ¨ Die Transformation ist hilfreich f¨ ur theoretische Uberlegungen, speziell f¨ ur Strukturaussagen. F¨ ur die praktische Rechnung bringt das Ergebnis nichts; denn es wird ja zur Definition von P ein Fundamentalsystem herangezogen, und damit kennt man schon alle L¨ osungen! Mit Y, L und der Periodizit¨ atsmatrix“ P wie im vorangehenden Satz gelten: ” ur Ist y eine L¨ osung von (1) mit y(0) = b ∈ k , dann ist y(x) = Y (x)b f¨ ur beliebige λ ∈ und b ∈ k hat man: x ∈ (vgl. Bemerkung 4.3.4). F¨ y(x) = Y (x)b = P (x) exp(xL)b = P (x) exp x λ + (L − λ ) b
= P (x) exp(xλ) exp x(L − λ ) b = exp(xλ)
∞
xν P (x)(L − λ )ν b ! ν=0
Diese Reihe bricht ab‘, falls λ ein Eigenwert von L mit zugeh¨origem Haupt’ vektor b ist. Die Eigenwerte von L heißen charakteristische Exponenten“ ” oder auch Floquet-Exponenten“. ”
bj := (L − λ )−j b pj (x) := P (x)bj Dann ist pj :
−→
k
(Hauptvektor der Stufe j) (x ∈ )
stetig differenzierbar und ω-periodisch mit pj (0) = bj . j−1
xν P (x) (L − λ )ν bj ! # !" ν=0 = bj−ν j−1 ν x pj−ν (x) = exp(xλ) ! ν=0 (s. o.)
yj (x) := Y (x)bj = exp(xλ)
So ergeben sich zur Hauptvektorkette‘ b1 , . . . , b linear unabh¨ angige L¨ osun’ gen y1 , . . . , y mit yj (0) = bj (j = 1, . . . , ) durch: y1 (x) = exp(xλ) p1 (x) y2 (x) = exp(xλ)[p2 (x) + xp1 (x)] .. . x−1 p1 (x) y (x) = exp(xλ) p (x) + xp−1 (x) + · · · + ( − 1)!
Kapitel 5
Es seien nun λ ein Eigenwert von L mit zugeh¨origem Hauptvektor b der ur j = 1, . . . , bezeichnen wir: Ordnung ∈ : F¨
180
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
Indem man dies f¨ ur alle Jordan-K¨ astchen‘ heranzieht, erh¨alt man ein spe’ zielles Fundamentalsystem. In diesem sind die L¨ osungen aus der skalaren Exponentialfunktion, Potenzen und ω-periodischen k -wertigen Funktionen p aufgebaut. Speziell gilt: (5.6.5)
y1 (x+ω) = exp(ω λ) y1 (x) (x ∈ )
( Floquet-L¨ osung)
Beweis: y1 (x + ω) = exp((x + ω)λ)p1 (x + ω) = exp((x + ω)λ)p1 (x) = exp(ω λ)y1 (x)
Ist b1 ein Eigenvektor zum Eigenwert λ von L, so ist b1 ein Eigenvektor zum Eigenwert exp(ω λ) von BY . Beweis:
∞
BY b1 = exp(ω L) b1 = ν=0
1 ν ν ω L b1 = !
∞ ν=0
1 ν ν ω λ b1 = exp(ω λ) b1 !
Bemerkung 5.6.6 Es sei c ein Eigenvektor zum Eigenwert µ von BY und damit z(x) := Y (x)c gebildet. Dann gilt
z(x + ω) = µz(x)
f¨ ur x ∈
.
Kapitel 5
Beweis: z(x + ω) = Y (x + ω)c = Y (x)BY c = Y (x)µc = µz(x) Wir sehen uns ein abschließendes Beispiel an: ur x ∈ Es sei g ∈ C0 ( , ) mit g(x + 1) = g(x) und g(x) = g(−x) f¨
.
9
Wir betrachten die damit gebildete gerade Hill -Differentialgleichung:
η (x) − g(x)η(x) = 0
(Hi)
Es bezeichne η1 , η2 ∈ C1 ( , ) das Fundamentalsystem von (Hi) mit η1 (0) η2 (0) 1 0 = . 0 1 η1 (0) η2 (0)
Wir setzen Y (x) :=
η1 (x) η2 (x) η1 (x) η2 (x)
und
F (x) :=
0 1 . g(x) 0
Mit w(x) := det Y (x) folgt nach Formel von Liouville (siehe Seite 128) 9
Der amerikanische Astronom und Mathematiker George William Hill (1 1 1 ) stieß bei seiner Theorie der Mondbewegung auf diese nach ihm benannte Differentialgleichung.
5.6
Lineare DGLen mit periodischen Koeffizientenfunktionen
w(x) = 1 f¨ ur x ∈
181
,
da hier spur F (x) = 0 und w(0) = 1 gelten. Mit B := BY gilt Y (x + 1) = Y (x)B , speziell also Y (1) = B . Damit folgt det B = w(1) = 1. F¨ ur das charakteristische Polynom ϕ zu B ergibt sich nun: ϕ(µ) = µ2 − η1 (1) + η2 (1) µ + 1 Hieraus liest man ab: Ist eine komplexe Zahl µ ein Eigenwert von B , so auch 1/µ. mit µ = exp(λ) (chaIst µ ein Eigenwert von B , so gilt mit einem λ ∈ rakteristischer Exponent) 1 1 1 η1 (1) + η2 (1) . µ+ 1 = exp(λ) + exp(−λ) = cosh λ = µ 2 2 2
Ist die Funktion η eine L¨ osung von (Hi), so wird diese Differentialgleichung ost. auch durch die Funktion x −→ η(−x) ∈ gel¨
Daraus erh¨ alt man: η1 ist gerade, η2 ungerade. Beweis: Es existieren komplexe Zahlen α und β mit η1 (−x) = α η1 (x) + β η2 (x) .
Setzt man x = −1/2 in die Beziehung Y (x + 1) = Y (x)B = Y (x)Y (1) ein, so ergibt sich nun η1 (1) η2 (1) 1 −1 Y 1 = Y (1) = Y − 2 2 η1 (1) η2 (1) ' '−1 & & η1 ( 12 ) η2 ( 12 ) η1 ( 12 ) −η2 ( 12 ) = η1 ( 12 ) η2 ( 12 ) −η1 ( 12 ) η2 ( 12 ) ' '& & 1 1 η1 ( 12 ) η2 ( 12 ) η2 ( 2 ) η2 ( 2 ) . = η1 ( 12 ) η2 ( 12 ) η1 ( 12 ) η1 ( 12 )
Daraus liest man — mit det Y ( 12 ) = 1 — ab: 1 1 + 2η1 12 η2 12 = η2 (1) = η1 (1) = (η2 η1 + η2 η1 ) 2 −1 + 2η1 1 η2 1 2
1 , η1 (1) = 2(η1 η1 ) 2
1 η2 (1) = 2(η2 η2 ) 2
2
(2)
Kapitel 5
x = 0 liefert α = 1. Nach Differentiation zeigt x = 0 dann β = 0. Damit ist ur η2 argumentiert man analog. η1 gerade. F¨
182
Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II
(2) zeigt nun: osung. Ist η1 12 η2 12 = 0, dann existiert eine nicht-triviale 1-periodische L¨ 1 1 osung η mit Aus η1 2 η2 2 = 0 folgt die Existenz einer nicht-trivialen L¨ η(x + 1) = −η(x).
Historische Notizen
Kapitel 5
Marie Ennemond Camille Jordan (1838–1922) war sehr vielseitig in seinem wissenschaftlichen Schaffen. Er arbeitete anfangs auf dem Gebiet der algebraischen Gleichungen. Angeregt durch die bahnbrechenden Ergebnisse von Galois, zu deren Verst¨andnis und W¨ urdigung er entscheidend beitrug, forschte er sp¨ater u tionsgruppen. Ab etwa ¨ber Substitu1867 stand bei ihm die reelle Analysis im Vordergrund. Er f¨ uhrte den Begriff Funktionen von beschr¨ankter Schwan” kung“ ein und zeigte dessen Beziehung zu monotonen Funktionen. Neben maßtheo¨ retischen Uberlegungen besch¨aftigte er sich in der Topologie mit den heute nach ihm benannten Kurven, bewies seinen ber¨ uhmten Kurvensatz und f¨ uhrte den Begriff der Homotopie ein. Zudem besch¨aftigte er sich mit Kristallographie, Wahrscheinlichkeitsrechnung und Anwendungen der Mathematik in der Technik. Viele Studenten der Mathematik leiden‘ zu Beginn ihres Stu’ diums beim Bem¨ uhen, seine Normalform von Matrizen richtig zu verstehen.
MWS zu Kapitel 5
Lineare Differentialgleichungen und DGL-Systeme II Wichtige Maple-Befehle dieses Kapitels: DEtools-Paket: constcoeffsols, DEplot, DEplot d linalg[exponential], ‘linalg/matfunc‘ LinearAlgebra-Paket: MatrixExponential, MatrixFunction (ab Maple ) convert(..., Matrix), evalc plottools[transform]
Es folgen zwei Beispiele, in denen wir zu einer Matrix A die Exponentialmatrix exp(A) berechnen. Wie im Textteil beschrieben, ist dies trivial‘ f¨ ur ’ eine diagonalisierbare Matrix. Im allgemeinen Fall kann dazu mit Vorteil die zugeh¨ orige Jordan-Normalform herangezogen werden. Ab Maple 9 steht ugung, hierf¨ ur im LinearAlgebra-Paket der Befehl MatrixExponential zur Verf¨ der dem Maple-Befehl exponential im veralteten‘ linalg-Paket entspricht. ’ alle des allgemeineren BeMatrixExponential und MatrixPower sind Spezialf¨ uhrfehls MatrixFunction, auf den wir im Anhang u ¨ber Matrixfunktionen ausf¨ lich eingehen werden.
Beispiel 1 > restart: with(LinearAlgebra): A := Matrix([[0,1,0],[4,3,-4],[1,2,-1]]); n := RowDimension(A): E := IdentityMatrix(n):
⎡
⎤ 0 1 0 A := ⎣ 4 3 −4 ⎦ 1 2 −1
MWS 5
5.1 Exponentialfunktion von Matrizen
184
MWS 5
Lineare DGLen und DGL-Systeme II
> CharacteristicPolynomial(A,lambda): ’chi[A]’(lambda) := factor(%);
χ (λ) := λ (λ − 1)2 Die Matrix A hat somit den einfachen Eigenwert λ1 = 0 sowie den doppelten ufen, ob A diagonalisierbar ist: Eigenwert λ2 = 1. Wir u ¨berpr¨ > ’Rang(E-A)’ = Rank(E-A);
Rang(
− A) = 2
Die geometrische Vielfachheit 1 des Eigenwertes λ2 = 1 ist daher gleich 1, also kleiner als die algebraische Vielfachheit. A ist demnach nicht diagonalisierbar. Wir berechnen die zugeh¨ orige Jordan-Normalform J sowie eine Transformationsmatrix S : > S := JordanForm(A,output=’Q’); J := JordanForm(A); # (Theoretische) Alternative: J := S^(-1).A.S;
⎤ 5 4 −4 S := ⎣ 0 4 0 ⎦ , 5 6 −5 ⎡
⎡
⎤ 0 0 0 J := ⎣ 0 1 1 ⎦ 0 0 1
MWS 5
Die Berechnung der Exponentialfunktion von J basiert auf der Zerlegung J = D+ in Diagonalanteil D und nilpotenten Rest mit D = D , aus der sich e = eD e ergibt.2 eD kann als Diagonalmatrix einfach nach Bemerkung 5.1.2 berechnet werden, und wegen 2 = 0 gilt hier e = + .
5
> unprotect(D): # D ist gesch¨ utzt (Differentialoperator)! D := DiagonalMatrix([seq(J[k,k],k=1..n)]): N := J - D: # nilpotente Matrix Exp_D := DiagonalMatrix(map(exp,[seq(D[k,k],k=1..n)])): Exp_N := E + N: # N^2 = 0 Exp_J := Exp_D.Exp_N: ’D’ = D, ’N’ = N, ’e^J’ = Exp_J;
⎡
⎤ 0 0 0 D = ⎣0 1 0⎦ , 0 0 1
⎡
⎤ 0 0 0 = ⎣0 0 1⎦ , 0 0 0
alt man bekanntlich e Aus A = S J S −1 erh¨
⎡
e
⎤ 1 0 0 = ⎣0 e e⎦ 0 0 e
= S e S −1 :
> Exp_A := S.Exp_J.S^(-1): ’e^A’ = Exp_A; 1
2
Sicherheitshalber‘ erinnern wir noch einmal daran, daß dies die Dimension des ’ Eigenraumes ist, w¨ ahrend die algebraische ielfachheit die Ordnung als Nullstelle des charakteristischen Polynoms angibt. Wir notieren — wie allgemein u ur eine ¨blich — oft auch eM statt exp( ) f¨ quadratische Matrix .
5.1
Exponentialfunktion von Matrizen (MWS)
185
⎡
e
⎤ 5 1+e −4 3e −4e ⎦ = ⎣ 4e 5 + e 1 + 2e −4 − e
Wir machen die Kontrolle mit dem Maple-Befehl MatrixExponential bzw. linalg[exponential]: > #linalg[exponential](A); # zur Kontrolle MatrixExponential(A): map(simplify,%); # ab Maple 9
⎡
⎤ 5 1+e −4 ⎣ 4e 3e −4e ⎦ 5 + e 1 + 2e −4 − e Ferner verifizieren wir f¨ ur diese Matrix A die Beziehung det(e ) = espur(
)
:
> Determinant(Exp_A), exp(Trace(A));
(e)2 , e2 Beispiel 2 Es sei auch noch ein einfaches Beispiel durchgerechnet, bei dem komplexe Eigenwerte auftreten.
Durch die Anweisung interface(imaginaryunit=i) √ wird das standardm¨aßig vordefinierte Symbol I f¨ ur die imagin¨ are Einheit −1 deaktiviert und durch ersetzt. Die Neudefinition von I durch den Befehl macro(I=i) bewirkt dann, daß ein eingegebenes I als imagin¨ are Einheit interpretiert und stets als ausgegeben wird. > A := Matrix([[4,5,8],[-1,-5,-7],[-2,1,0]]); n := RowDimension(A):
⎡
⎤ 4 5 8 A := ⎣ −1 −5 −7 ⎦ −2 1 0
> CharacteristicPolynomial(A,lambda): ’chi[A]’(lambda) = factor(%,I);
χ = (λ + 1 + 3 ) (λ + 1 − 3 )(λ − 1) Die Matrix A hat einfache (reelle bzw. konjugiert komplexe) Eigenwerte, ist also diagonalisierbar. Mit den Eigenwerten und -vektoren bilden wir die zugeh¨orige Diagonalmatrix D sowie eine Transformationsmatrix S :
MWS 5
> restart: with(LinearAlgebra): interface(imaginaryunit=i): macro(I=i):
186
MWS 5
Lineare DGLen und DGL-Systeme II
> (EWe,EVen) := Eigenvectors(A): S := EVen; unprotect(D): D := DiagonalMatrix(EWe);
⎡
−1 − ⎢ S := ⎣ −1 −1 + 1 1
⎤ ⎥ −1 − ⎦ , 1
⎡
1 0 ⎢ D := ⎣ 0 −1 + 3 0 0
⎤ 0 ⎥ 0 ⎦ −1 − 3
Der Maple-Befehl Eigenvectors liefert die Eigenwerte EWe von A in Gestalt eines Vektors sowie die Eigenvektoren EVen als Matrix. Die j-te Spalte von EVen ist ein zu EWe[j] geh¨ origer Eigenvektor. Will man die Ausgabe der Eigenvektoren in normaler‘ Form haben, so gelingt dies leicht z. B. mit: ’ > Column(S,[1..n]);
⎡
⎤ ⎡ ⎤ ⎤ ⎡ −1 − ⎣ −1 ⎦ , ⎣ −1 + ⎦ , ⎣ −1 − ⎦ 1 1 1
Wegen A = S D S −1 gilt bekanntlich e
= S eD S −1 :
> Exp_D := DiagonalMatrix([seq(exp(D[k,k]),k=1..n)]): Exp_A := map(evalc,S.Exp_D.S^(-1)): Exp_A;
⎤ e + e−1 sin(3), e − e−1 cos(3) + e−1 sin(3), e − e−1 cos(3) + 2 e−1 sin(3) ⎥ ⎢ ⎣ e − e−1 cos(3) − e−1 sin(3), e − 2e−1 sin(3), e − e−1 cos(3) − 3e−1 sin(3) ⎦ −e + e−1 cos(3), −e + e−1 cos(3) + e−1 sin(3), −e + 2e−1 cos(3) + e−1 sin(3)
MWS 5
⎡
Schneller geht es direkt mit dem passenden Maple-Befehl: > MatrixExponential(A): #linalg[exponential](A):
Wir verzichten hier und auch bei den folgenden Beispielen auf die erneute Wiedergabe des Resultats. Wir verifizieren wieder die Beziehung det(e ) = espur( ) : > Determinant(Exp_A): simplify(%), exp(Trace(A));
e−1 , e−1
5.2 Homogene lineare DGL-Systeme mit konstanten Koeffizienten Beispiel 3 Wir w¨ahlen die Matrix A aus Beispiel 1 als Koeffizientenmatrix:
5.2
Homogene lineare Systeme mit konstanten Koeffizienten (MWS) 187
> restart: with(LinearAlgebra): A := Matrix([[0,1,0],[4,3,-4],[1,2,-1]]); n := RowDimension(A): E := IdentityMatrix(n):
⎡
⎤ 0 1 0 A := ⎣ 4 3 −4 ⎦ 1 2 −1 Das charakteristische Polynom zu A liefert die Eigenwerte (und deren algebraische Vielfachheiten): > CharacteristicPolynomial(A,lambda): ’chi[A]’(lambda) = factor(%);
χ (λ) = λ (λ − 1)2 > lambda[1] := 0: lambda[2] := 1:
Hierzu werden — analog zum Vorgehen im Textteil — Eigenvektoren und Hauptvektorketten bestimmt. Im Textteil erfolgte deren Numerierung nach den Eigenwerten; hier wird jetzt nach einer f¨ ur die Eigenwerte festgelegten Reihenfolge indiziert. (F¨ ur beide Notierungsweisen kann man gute Gr¨ unde anf¨ uhren.) > NullSpace(A-lambda[1]*E): b11 := op(%): ’b11’ = evalm(b11);
MWS 5
b11 = [1, 0, 1] > ’A-lambda[2]*E’ = A-lambda[2]*E, ’Rang(A-lambda[2]*E)’ = Rank(A-lambda[2]*E);
⎡
A − λ2
⎤ −1 1 0 = ⎣ 4 2 −4 ⎦ , Rang(A − λ2 1 2 −2
) = 2
Somit ist der Kern von A − λ2 , also der Eigenraum zum Eigenwert λ2 , eindimensional. Damit kennen wir schon — bis auf m¨ ogliche Vertauschung der beiden K¨ astchen‘ — die Jordan-Normalform. Aus ’ > B := (A-lambda[2]*E)^2: ’(A-lambda[2]*E)^2’ = B, ’Kern((A-lambda[2]*E)^2)’ = NullSpace(B);
⎤ 5 1 −4 )2 = ⎣ 0 0 0 ⎦ , Kern (A − λ2 5 1 −4 ⎡
(A − λ2
⎧⎡ ⎤ ⎡ ⎤ 1 ⎨ 0 )2 = ⎣ 4 ⎦ , ⎣ −5 ⎦ ⎩ 0 1
erh¨alt man in naheliegender Weise z. B. den Hauptvektor b22 (der Ordnung 2) und hierzu den Eigenvektor b21:
188
MWS 5
Lineare DGLen und DGL-Systeme II
> b22 := Vector([0,4,1]): b21 := (A-lambda[2]*E).b22: ’b22’ = evalm(b22), ’b21’ = evalm(b21);
b22 = [0, 4, 1], b21 = [4, 4, 6] Zusammenfassend erhalten wir daraus eine Transformationsmatrix S und die resultierende Jordan-Normalform: > S := Matrix([b11,b21,b22]); # Transformationsmatrix J := S^(-1).A.S; # Jordan-Normalform
⎤ ⎡ ⎤ 1 4 0 0 0 0 S := ⎣ 0 4 4 ⎦ , J := ⎣ 0 1 1 ⎦ 1 6 1 0 0 1 ⎡
Die L¨ osungsgesamtheit des homogenen DGL-Systems ist nun — nach den ¨ Uberlegungen in Abschnitt 5.2 des Textteils — gegeben durch die Linearkombinationen: > alpha[1]*b11+alpha[2]*exp(x)*b21+alpha[3]*exp(x)*(b22+x*b21): y := unapply(%,x): ’y(x)’ = y(x);
⎤ α1 + 4α2 ex + 4α3 ex x ⎥ ⎢ y = ⎣ 4α2 ex + α3 ex (4 + 4x) ⎦ α1 + 6α2 ex + α3 ex (1 + 6x)
MWS 5
⎡
Das LinearAlgebra-Paket kann ab Maple 9 offensichtlich symbolische‘ Line’ arkombinationen von Vektoren oder Matrizen direkt auswerten. In fr¨ uheren Versionen gelang dies nur auf etwas umst¨ andliche Weise mit dem Mapleachst das Ergebnis in der Form: Befehl Multiply. Man erhielt zun¨
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 4 4 0 y = α1 ⎣ 0 ⎦ + α2 ex ⎣ 4 ⎦ + α3 ex x ⎣ 4 ⎦ + ⎣ 4 ⎦ 1 6 6 1 Zum Schluß machen wir noch die Probe: > map(diff,y(x),x)-A.y(x): map(expand,evalm(%));
[0, 0, 0] F¨ ur die Jordan-Normalform J k¨ onnen wir leicht exp(xJ) angeben und damit dann exp(xA) gewinnen. Auf diese Weise erhalten wir eine Fundamentalmatrix (vgl. Satz 5.1.4): > unprotect(D): D := DiagonalMatrix([0,1,1]); N
⎡
⎤
0 0 0 D := ⎣ 0 1 0 ⎦ , 0 0 1
:= J - D;
⎤ 0 0 0 := ⎣ 0 0 1 ⎦ 0 0 0 ⎡
5.3
Zweidimensionale Systeme, Stabilit¨ at (MWS)
189
> Exp_xD := DiagonalMatrix([1,exp(x),exp(x)]): Exp_xN := E+x*N; Exp_xJ := Exp_xD.Exp_xN;
⎤ 1 0 0 Exp xJ := ⎣ 0 ex ex x ⎦ 0 0 ex ⎡
⎤ 1 0 0 Exp xN := ⎣ 0 1 x ⎦ , 0 0 1 ⎡
> Exp_xA := S.Exp_xJ.S^(-1);
⎤ 5 − 4ex + 4ex x 1 − ex + 2ex x −4 + 4ex − 4ex x ⎥ ⎢ 4ex x ex + 2ex x −4ex x Exp xA := ⎣ ⎦ x x x x x x 5 − 5e + 6e x 1 − e + 3e x −4 + 5e − 6e x ⎡
Sicherheitshalber machen wir auch hier die Probe: > map(diff,Exp_xA,x)-A.Exp_xA; subs(x=0,Exp_xA); # Y’-A*Y = 0,Y(0) = E
⎡
⎤ 0 0 0 ⎣0 0 0⎦ , 0 0 0
⎡
⎤ 1 0 0 ⎣0 1 0⎦ 0 0 1
Mit exp(xA) gewinnen wir dann die Darstellung der L¨ osungsgesamtheit, der wir bereits weiter oben begegnet sind:
⎤ 4ex x 1 4ex ⎥ ⎢ Y := ⎣ 0 4ex 4ex x + 4ex ⎦ , 1 6ex 6ex x + ex ⎡
⎤ α1 + 4α2 ex + 4α3 ex x ⎥ ⎢ y = ⎣ 4α2 ex + (4ex x + 4ex )α3 ⎦ α1 + 6α2 ex + (6ex x + ex )α3 ⎡
Direkter und einfacher l¨ aßt sich die Berechnung mit den Maple-Befehlen uhren: MatrixExponential bzw. linalg[exponential] durchf¨ > MatrixExponential(A,x): Exp_xA := map(simplify,%): # Exp_xA := linalg[exponential](A,x);
# ab Maple 9
Wir verzichten wieder auf eine Wiedergabe der Ergebnisse.
5.3 Zweidimensionale Systeme, Stabilitat In diesem Abschnitt soll u. a. gezeigt werden, wie die graphischen Darstellungen des entsprechenden Textabschnittes und Varianten davon relativ einfach
MWS 5
> Y := Exp_xA.S; # Weitere Fundamentalmatrix ’y(x)’ = Y.Vector([alpha[j] $ j=1..n]);
190
MWS 5
Lineare DGLen und DGL-Systeme II
mit Maple erhalten werden k¨ onnen. Dabei m¨ ochten wir uns aber nicht nur auf die Standardangebote von Maple dazu wie phaseportrait und DEplot beschr¨ anken, sondern auch hier wieder eigene Ideen einbringen und so auch einen Blick in die Trickkiste‘ erm¨ oglichen. Wir gehen, um Mengen im 2 ’ (hier speziell Pfeilspitzen und Kurven) darzustellen, mit Vorteil den Um’ weg‘ u ¨bers Komplexe, so etwa in den Prozeduren pfeil und bild. Dabei treten der Befehl complexplot auf und die kleine Hilfsfunktion c2p, die aus einer komplexen Zahl den entprechenden Vektor im 2 macht.
5
> restart: with(LinearAlgebra): with(DEtools): with(plots): with(plottools): interface(imaginaryunit=i): macro(I=i): c2p := z -> [Re(z),Im(z)]: # "complex to pair" vz := Vector([z[1](x),z[2](x)]): Sys := map(diff,vz,x)-B.vz:
Wir greifen zun¨achst das schon im Text ausf¨ uhrlich gerechnete Beispiel (B2) mit Maple auf: Beispiel 4 (Fall 1 a) 3 > A := Matrix([[-4/3,1/3],[2/3,-5/3]]); CharacteristicPolynomial(A,lambda): ’chi[A]’(lambda) = factor(%); (EWe,EVen) := Eigenvectors(A);
⎤ −4 1 A := ⎣ 3 3 ⎦ 2 −5 3 3 (λ) = (λ + 2) (λ + 1) , EWe, EVen :=
MWS 5
⎡
χ
−2 , −1
1 1 −2 1
¨ Die Uberlegungen im Textteil gingen davon aus, daß der erste Eigenwert Œ betraglich kleiner als der zweite ist; im anderen Fall, der hier gegeben ist, vertauschen wir die Spalten von EVen: > if abs(EWe[1])
B = > Sys;
−1 0 , S = 0 −2
:
z1 + z1
1 1 1 −2
;
2z2 + z2 Zu 16 auf dem Kreis um den Nullpunkt mit Radius r ¨ aquidistant verteilten Punkten betrachten wir die L¨osungen, die dort starten‘: ’ 3
Die gegebene Matrix Vorzeichen.
hat zwei verschiedene reelle Eigenwerte mit gleichen
5.3
5
Zweidimensionale Systeme, Stabilit¨ at (MWS)
191
> r := 8: [seq(r*exp(2*Pi*I/16*k),k=0..15)]: Punkte := map(c2p,%): n := nops(Punkte): AnfBed := seq({z[1](0)=a[1],z[2](0)=a[2]},a=Punkte): for j to n do dsolve(convert(Sys,set) union AnfBed[j]); w[j] := unapply(subs(%,z[1](x)+I*z[2](x)),x) end do:
Die Dynamik‘ wollen wir durch sch¨ one‘ Pfeile verdeutlichen. Dazu dient die ’ ’ folgende Prozedur:
5
> pfeil := proc(g,tau,delta,Farbe) local t,u,v,w1,w2,Dg; u := g(tau): Dg := D(g)(tau): v := evalc(g(tau+delta/abs(Dg))); w1 := u+I*0.3*(v-u): w2 := u-I*0.3*(v-u): polygon([c2p(v),c2p(w1),c2p(w2)],color=Farbe,style=patchnogrid) end proc:
Das Ganze soll nun als Animation ablaufen. Deshalb beschreiben wir vorweg mit der Prozedur bild, wie eine solche L¨ osung dargestellt wird:
10
proc(a) p1,p2,p3: seq(complexplot(w[j](x),x=0..a,color=blue),j=1..n): seq(pfeil(w[j],a/2,0.6,blue),j=1..n): plot([[0,0]],style=point,symbol=circle,symbolsize=20, color=blue): display(p1,p2,p3,scaling=constrained,thickness=2) end proc: TICKS := tickmarks=[[-8,-4,0,4,8]$2]: display(seq(bild(a),a=[k*0.1 $ k=1..20]),TICKS,axes=frame, title="Knoten (z-Ebene)",insequence=true);
Knoten (z-Ebene) 8
4
0
–4
–8 –8
–4
0
4
8
MWS 5
5
> bild := local p1 := p2 := p3 :=
192
MWS 5
Lineare DGLen und DGL-Systeme II
Beispiel 5 (Fall 1 b) 4 Wir k¨ onnen hier etwas sparsamer kommentieren, da viele Dinge ¨ahnlich wie im vorangehenden Beispiel gemacht werden. > A := Matrix([[1,1],[2,0]]); CharacteristicPolynomial(A,lambda): ’chi[A]’(lambda) = factor(%); (EWe,EVen) := Eigenvectors(A);
A :=
1 1 2 0
, χ (λ) = (λ + 1)(λ − 2) , EWe, EVen :=
2 , −1
1 1 1 −2
¨ Die Uberlegungen im Textteil gingen davon aus, daß der erste Eigenwert negativ ist; im anderen Fall vertauschen wir die Spalten von EVen: > if EWe[1])<EWe[2] then S := EVen else S := ColumnOperation(EVen,[1,2]) end if: B := S^(-1).A.S: ’B’ = B, ’S’ = S;
B =
MWS 5
> Sys;
−1 0 , S = 0 2
1 1 −2 1
z1 + z1 −2z2 + z2
Zu 11 symmetrisch um (r, 0) verteilten Punkten, die wir noch an der z2 Achse spiegeln und durch zwei Punkte auf ihr erg¨anzen, betrachten wir die L¨osungen mit den dadurch gegebenen Anfangsbedingungen:
5
> r := 8: {seq([r,k/10],k={$-5..5})}: % union map(z->[-z[1],z[2]],%): % union {[0,0.2],[0,-0.2]}: Punkte := convert(%,list): AnfBed := seq([z[1](0)=a[1],z[2](0)=a[2]],a=Punkte): Ber := -r..r:
Das Bild eines Sattelpunktes in der y-Ebene wird mit Hilfe der (einfacheren) Graphik in der z-Ebene erzeugt. Dazu ziehen wir den transform -Befehl aus dem Plottools-Paket heran, dessen Leistungsf¨ ahigkeit in der Maple-Literatur meist nicht gen¨ ugend erkannt wird. Dies wurde auch schon in [Fo/Ho] an vielen Stellen mit Vorteil gemacht und hervorgehoben. Das Ganze soll wieder als Animation ablaufen. Deshalb beschreiben wir auch hier vorweg mit einer Prozedur bild, wie eine solche L¨ osung dargestellt wird: 4
Die Matrix
hat zwei reelle Eigenwerte mit unterschiedlichen Vorzeichen.
5.3
Zweidimensionale Systeme, Stabilit¨ at (MWS)
193
ST := transform((z1,z2)->convert(S.Vector([z1,z2]),list)): bild := proc(a) local p1,p2: p1 := DEplot(convert(Sys,set),convert(vz,list),x=0..a,[AnfBed], z[1]=Ber,z[2]=Ber,arrows=medium,stepsize=0.1,color=gray, linecolor=blue): p2 := plot([[0,0]],style=point,symbol=circle,symbolsize=20, color=blue): display(ST(display(p1,p2)),tickmarks=[3,3],scaling=constrained, axes=frame,view=[-7..7,-7..7]) end proc: display(seq(bild((2*k-1)/10),k=1..12),title="Sattelpunkt (y-Ebene)", insequence=true);
5
10
Sattelpunkt (y-Ebene) 5
0
–5 0
5
Nach den beiden vorangehenden Beispielen k¨ onnen wir jetzt wohl auf Kommentare verzichten. Wir empfehlen dem Leser jedoch, sich die entsprechenden Ausf¨ uhrungen im Textteil zu Fall 3 in Erinnerung zu rufen. > A := Matrix([[-5/3,8/3],[-5/3,-1/3]]); CharacteristicPolynomial(A,lambda): ’chi[A]’(lambda) = factor(%); (EWe,EVen) := Eigenvectors(A);
⎤ 8 3 ⎦ , χ (λ) = λ2 + 2λ + 5 , −1 3 ⎤ ⎡ 1 1 −1 + 2 , ⎣1 3 1 3 ⎦ EWe, EVen := −1 − 2 − + 4 4 4 4 ⎡
−5 A := ⎣ 3 −5 3
> if Im(EWe[1])>0 then S := EVen else S := ColumnOperation(EVen,[1,2]) 5
Die Matrix
hat zwei konjugiert komplexe Eigenwerte mit negativem Realteil.
MWS 5
–5
Beispiel 6 (Fall 3 b) 5
194
5
MWS 5
end if: beta := Im(EWe[1]): S := Matrix(<map(Re,S[1..2,1..1]) | map(Im,-S[1..2,1..1])>): B := S^(-1).A.S: ’B’ = B, ’S’ = S;
B =
−1 −2 , S = 2 −1
> Sys;
5
MWS 5
10
Lineare DGLen und DGL-Systeme II
:
1 0 1 −3 4 4
;
z1 + 2z2 + z1 −2z1 + z2 + z2
> r := 9: [seq(r*exp(2*Pi*I/16*k),k=0..15)]: Punkte := map(c2p,%): AnfBed := seq([z[1](0)=a[1],z[2](0)=a[2]],a=Punkte): Ber := -r..r: TICKS := [-8,-4,0,4,8]$2: bild := proc(a) DEplot3d(convert(Sys,set),convert(vz,list),x=0..a,[AnfBed], stepsize=0.05,linecolor=blue) end proc: display(seq(bild(a),a=[k*3*Pi/(20*beta) $ k=1..20]), tickmarks=[[$ 1..4],TICKS],orientation=[-153,80], insequence=true);
Anziehender Strudelpunkt — oder Harry Potters Zauberhut
8 4 z2 (x) 0 –4 –8 8
4
0 z1 (x)
–4
–8
2 1 x
3
Die weiteren F¨alle k¨ onnen in gleicher Weise nach einer der vorgestellten Vorgehensweisen behandelt werden. Wir empfehlen dazu dem interessierten Leser ¨ die folgenden Matrizen A als Ubungsaufgaben: ⎤ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ : ; ⎡ −4 1 2 2 −2 −2 8 1 −2 0 3⎦ 3⎦, ⎣ 3 3⎦, ⎣ 3 3⎦, ⎣ 3 , ⎣ 3 −4 −2 4 −4 −5 2 −4 −8 0 −2 3 3 3 3 3 3 3 3
5.4
Lineare Systeme mit . . . und speziellen Inhomogenit¨ aten (MWS) 195
Damit sind nacheinander die noch ausstehenden F¨alle erfaßt: 2 a): Die Matrix A hat einen (doppelten) reellen Eigenwert und ist diagonalisierbar. Man erh¨ alt einen Stern. 2 b): A hat einen (doppelten) reellen Eigenwert und ist nicht diagonalisierbar. Es ergibt sich ein eintangentiger Knoten. 3 a): A hat konjugiert komplexe rein imagin¨ are Eigenwerte. Hier ergibt sich ein Wirbelpunkt. 4 (det A = 0): a) A hat — neben 0 — einen von 0 verschiedenen reellen Eigenwert, ist also diagonalisierbar. Man hat eine Gerade von Gleichgewichtspunkten. b) Im verbleibenden Fall ist 0 doppelter Eigenwert. Da A als nicht-trivial vorausgesetzt wurde, ist die zugeh¨orige Normalform 0 1 . 0 0 Es ergibt sich eine Gerade von instabilen Gleichgewichtspunkten. Wir erinnern dabei noch einmal an die M¨ oglichkeit, mit scene-Optionen verschiedene Darstellungen zu erhalten (vgl. die Anmerkungen dazu am Ende von Abschnitt 3.1 von MWS 3).
5.4 Lineare DGL-Systeme mit konstanten Koeffizienten und speziellen Inhomogenitaten
Wir greifen Beispiel 3 auf, jetzt erweitert um eine Inhomogenit¨at g , was wir auch schon in Abschnitt 5.4 des Textteils von Hand ausf¨ uhrlich gerechnet haben:
5
> restart: with(LinearAlgebra): A := Matrix([[0,1,0],[4,3,-4],[1,2,-1]]); n := RowDimension(A): E := IdentityMatrix(n): c0 := Vector([1,8,4]): c1 := Vector([0,4,1]): c2 := Vector([2,0,2]): g0 := exp(x)*c0: g1 := x*exp(x)*c1: g2 := x^2/2*exp(x)*c2: g := g0+g1+g2: ’g(x)’ = exp(x)*(c0+x*c1+x^2/2*c2);
⎡
⎤ 0 1 0 A := ⎣ 4 3 −4 ⎦ , 1 2 −1
⎤ ex (1 + x2 ) g(x) = ⎣ ex (8 + 4x) ⎦ ex (4 + x + x2 ) ⎡
Wir u ¨bernehmen die dort berechneten Eigenwerte sowie Eigen- und Hauptvektoren: > lambda[1] := 0; lambda[2] := 1; b11 := Vector([1,0,1]): b22 := Vector([0,4,1]):
MWS 5
Beispiel 7
196
5
MWS 5
Lineare DGLen und DGL-Systeme II
B := A-lambda[2]*E: b21 := B.b22: ’b11’ = evalm(b11), ’b21’ = evalm(b21), ’b22’ = evalm(b22); S := Matrix([b11,b21,b22]); # Transformationsmatrix J := S^(-1).A.S; # Jordan-Normalform
λ1 := 0 ,
λ2 := 1 ,
b11 = ⎡ 1 4 S := ⎣ 0 4 1 6
[1, 0, 1] , b21 = [4, 4, 6] , b22 = [0, 4, 1] ⎤ ⎡ ⎤ 0 0 0 0 4 ⎦ , J := ⎣ 0 1 1 ⎦ 1 0 0 1
Die L¨osungsformeln der beiden Spezialf¨ alle (I) und (II) werden als einfache Prozeduren bereitgestellt:
5
MWS 5
10
> yI := proc(alpha,s,d) global A,E,n: local sigma: add(x^sigma/sigma!*((A-alpha*E)^sigma).d,sigma=0..s): return map(simplify,exp(alpha*x)*%,exp) end proc: yII := proc(alpha,r,s,c) global A,E,n: local rho: add(x^(rho+s+1)/(rho+s+1)!*((A-alpha*E)^rho).c,rho=0..r-1): return map(simplify,exp(alpha*x)*%,exp) end proc:
Wir beginnen mit dem Vektor c0 = [1, 8, 4] und ermitteln mit > a := LinearSolve(S,c0): ’a’ = evalm(a);
a = [−3, 1, 1] die Koeffizienten seiner Darstellung bez¨ uglich der Basis b11, b21, b22 (Spalten allt in die Summe der beiden Vektoren u (aus dem von S). c0 = Sa zerf¨ Eigenraum zu λ1 = 0) und v (aus dem Hauptraum zu λ2 = 1): > u := S.Vector([a[1],0,0]): v := S.Vector([0,a[2],a[3]]):
Wegen > ’(B^2).v’ = evalm((B^2).v);
(B 2 ).v = [0, 0, 0] kann Spezialfall (II) auf den durch v bestimmten Term mit α = λ2 (= 1), s = 0, c = v und r = 2 angewendet werden: > y[1] := yII(1,2,0,v): ’y[1]’ = evalm(y[1]);
5.4
Lineare Systeme mit . . . und speziellen Inhomogenit¨ aten (MWS) 197
y1 = ex (4x + 2x2 ), ex (8x + 2x2 ), ex (7x + 3x2 ) Auf den Summanden mit u ist Fall (I) mit α = λ2 (= 1), c = u und s = 0 anwendbar: > LinearSolve(B,-u): d := subs(indets(%)[1]=0,%): ’d’ = evalm(d);
d = [−3, 0, −3] Man erh¨alt den entsprechenden L¨ osungsanteil: > y[2] := yI(1,0,u): ’y[2]’ = evalm(y[2]);
y2 = [−3ex , 0, −3ex ] c1 = [0, 4, 1] ist ein Hauptvektor der Stufe 2 zum Eigenwert λ2 = 1: > evalm(B.c1), evalm((B^2).c1);
[4, 4, 6] , [0, 0, 0] Es liegt also f¨ ur den zugeh¨ origen Anteil der Inhomogenit¨at Fall (II) vor mit α = λ2 , s = 1 und r = 2: > y[3] := yII(1,2,1,c1): ’y[3]’ = evalm(y[3]);
F¨ ur den Term mit Vektor c2 = [2, 0, 2] kann wieder der Spezialfall (I) mit α = λ2 und s = 2 herangezogen werden: > LinearSolve(B,-c2): d := subs(indets(%)[1]=0,%): y[4] := yI(1,2,d): ’d’ = evalm(d), ’y[4]’ = evalm(y[4]);
d = [2, 0, 2] , y4 = ex (2 − 2x + x2 ), 0, ex (2 − 2x + x2 ) Insgesamt ergibt sich folgende partikul¨are L¨osung: > y_P := map(collect,y[1]+y[2]+y[3]+y[4],exp): # partikul¨ are L¨ osung map(diff,y_P,x)-(A.y_P+g): # Probe evalm(y_P), evalm(map(simplify,%));
$
% 2x + 3x2 − 1 + 2 x3 ex , 8x + 4x2 + 2 x3 ex , 5x + 9 x2 − 1 + x3 ex 2 3 3 [0, 0, 0]
Die hier und schon im Textteil gemachten recht aufwendigen Rechnungen helfen zwar, die theoretischen Ergebnisse zu verstehen und einzu¨ uben, zeigen aber auch deutlich, daß diesem Vorgehen in der Praxis vom Aufwand
MWS 5
% $ y3 = 2 ex x3 , ex 2x2 + 2 x3 , ex 1 x2 + x3 2 3 3
198
MWS 5
Lineare DGLen und DGL-Systeme II
¨ her Grenzen gesetzt sind. Man wird deshalb oft aus der theoretischen Uberlegung die Struktur einer L¨ osung ablesen und dann mit einem entsprechenden Ansatz in die DGL hineingehen‘. Im vorliegenden Fall liegt es nahe, einen ’ L¨ osungsansatz mit Exponentialpolynomen zu machen. Vorweg notieren wir dazu das DGL-System in folgender Form: > y := ’y’: a := ’a’: vy := Vector([y[1](x),y[2](x),y[3](x)]): Sys := convert(map(diff,vy,x)-(A.vy+g),list);
Sys := [ y1 − y2 − ex − x2 ex , y2 − 4y1 − 3y2 + 4y3 − 8ex − 4xex , y3 − y1 − 2y2 + y3 − 4ex − xex − x2 ex ] Einsetzen des folgenden L¨ osungsansatzes in das DGL-System f¨ uhrt auf ein lineares Gleichungssystem:
MWS 5
> Ansatz := [seq(y[mu](x)=exp(x)*sum(a[mu,nu]*x^nu,nu=0..3),mu=1..3)]: Insert := subs(Ansatz,Sys): map(z->z*exp(-x),Insert): map(simplify,%): map(collect,%,x): map(coeffs,%,x): eqs := map(z->z=0,%);
eqs := a1,0 − a2,0 + a1,1 − 1 = 0 , a1,1 + 2a1,2 − a2,1 = 0 , a1,2 + 3a1,3 − a2,2 − 1 = 0 , −a2,3 + a1,3 = 0 , −2a2,0 − 8 − 4a1,0 + a2,1 + 4a3,0 = 0 , −2a2,1 + 2a2,2 − 4a1,1 − 4 + 4a3,1 = 0 , 3a2,3 − 4a1,2 + 4a3,2 − 2a2,2 = 0 , −4a1,3 + 4a3,3 − 2a2,3 = 0 , 2a3,0 − 4 − a1,0 + a3,1 − 2a2,0 = 0 , 2a3,1 + 2a3,2 − a1,1 − 1 − 2a2,1 = 0 , 3a3,3 − a1,2 − 2a2,2 + 2a3,2 − 1 = 0 , −a1,3 − 2a2,3 + 2a3,3 = 0 Wir erhalten eine Schar von Exponentialpolynomen mit zwei frei w¨ ahlbaren Parametern: > solve(convert(eqs,set)): assign(%): vy := eval(vy,Ansatz);
⎡ x ⎢e ⎢ ⎢ vy := ⎢ ⎢ ⎢ ⎣
⎤ 2x3 4a − 1 − 1a + 6 + 6a − 4a 2 x + 3x + ⎥ 5 5 2,0 5 3,0 5 3,0 5 5 2,0 ⎥ 3 ⎥ 3 ⎥ ex a2,0 + 6 a2,0 + 36 − 4 a3,0 x + 4x2 + 2x ⎥ 3 5 5 5 ⎥ 2 ⎦ ex a3,0 + 9 a2,0 + 19 − 6 a3,0 x + 9x + x3 2 5 5 5
Offensichtlich sind dies L¨ osungen des inhomogenen DGL-Systems: > map(diff,vy,x)-(A.vy+g): map(simplify,evalm(%));
[0, 0, 0]
5.5 Lineare DGLen h¨ oherer Ordnung mit konst. Koeffizienten (MWS) 199
5.5 Lineare DGLen hoherer Ordnung mit konstanten Koeffizienten > restart: interface(imaginaryunit=i): macro(I=i):
Bestimmung eines Fundamentalsystems Beispiel 8 Es sei folgende homogene DGL mit konstanten Koeffizienten gegeben: > Dgl := diff(y(x),x$4)-2*diff(y(x),x$2)+y(x);
Dgl := y − 2y + y ¨ Uber den Ansatz y(x) = exp(λx) erh¨ alt man das charakteristische Polynom: > eval(Dgl,y(x)=exp(lambda*x)): collect(%,exp(lambda*x)): chi := %/exp(lambda*x): ’chi’(lambda) = chi;
χ (λ) = λ4 − 2λ2 + 1 Wir wissen aus dem Textteil, daß man χ auch unmittelbar aus der DGL ablesen kann. Es folgt die Bestimmung der Nullstellen von χ :
−1, −1, 1, 1
1 und -1 sind jeweils doppelte Nullstellen; mithin ergeben sich u ¨ber (2) aus Abschnitt 5.5 des Textteils folgende Basisl¨ osungen: > y[1](x) = exp(x), y[2](x) = x*exp(x), y[3](x) = exp(-x), y[4](x) = x*exp(-x);
y1 = ex , y2 = xex , y3 = e−x , y4 = xe−x Diese Einzelschritte lassen sich auch mittels der folgenden Maple-Befehle — auf jede der drei Weisen — kompakter ausf¨ uhren: > with(DEtools): constcoeffsols(Dgl,y(x)); # Eingabe der DGL u ¨ber Liste der Koeffizienten: constcoeffsols([1,0,-2,0,1],x): dsolve(Dgl,y(x),output=basis):
x e , xex , e−x , x e−x Partikul¨ are L¨ osungen f¨ ur spezielle rechte Seiten Wir erg¨anzen das vorangehende Beispiel durch eine Inhomogenit¨at:
MWS 5
> solve(chi = 0);
200
MWS 5
Lineare DGLen und DGL-Systeme II
Beispiel 9 > Dgl_inh := Dgl = 24*x*sin(x);
Dgl inh := y − 2y + y = 24x sin(x)
¨ Wir berechnen eine spezielle L¨ osung, indem wir die Uberlegungen zu Beispiel (B3) aus Abschnitt 5.5 des Textteils mit Maple nachvollziehen: > phi := unapply(chi,lambda); ’phi(I)’ = phi(I), ’phi(-I)’ = phi(-I);
ϕ := λ → λ4 − 2λ2 + 1 , ϕ( ) = 4 , ϕ(− ) = 4 Die Inhomogenit¨ at l¨ aßt sich wie folgt schreiben: > 24*x*sin(x): % = convert(%,exp);
24x sin(x) = −12 x ex i − 1x i e
MWS 5
Wir betrachten daher zun¨ achst die Inhomogenit¨aten xex i und xe−x i . In (8) aus Abschnitt 5.5 des Textteils ist jeweils s = 1, r = 0 und ψ = ϕ zu setzen: > r := 0: s := 1: sol := y(x) = -12*I/(r+s)!*(subs(t=I,diff(exp(x*t)/phi(t),t$(r+s)))subs(t=-I,diff(exp(x*t)/phi(t),t$(r+s))));
sol := y = −12
1 xex i + 1 ex i − 1 xe−i x + 1 e−i x 2 4 2 4
alt man die reelle Darstellung der Mit Hilfe des Maple-Befehls evalc erh¨ L¨ osung: > evalc(sol); odetest(%,Dgl_inh); # Probe
y = 6x sin(x) + 12 cos(x) , 0 Beispiel 10 > Dgl := diff(y(x),x$4)+2*diff(y(x),x$2)+y(x) = 24*x*sin(x);
Dgl := y + 2y + y = 24x sin(x) Die scheinbar geringf¨ ugige Modifikation (Vorzeichenwechsel beim zweiten Term) von Beispiel 9 ¨ andert die Situation grundlegend. Das charakteristische Polynom hat nun konjugiert komplexe rein imagin¨ are Nullstellen der Vielfachheit 2: > phi := unapply(factor(t^4+2*t^2+1,I),t); phi(I), D(phi)(I), phi(-I), D(phi)(-I);
5.6
Lineare DGLen mit periodischen Koeffizientenfunktionen (MWS) 201
ϕ := t → (−t + )2 (t + )2 ,
0, 0, 0, 0
Man erh¨ alt analog wie oben folgendes Resultat: > r := psi1 psi2 y(x) 5
2: s := 1: := unapply(normal(phi(t)/(t-I)^2),t): := unapply(normal(phi(t)/(t+I)^2),t): = -12*I/(r+s)!*(subs(t=I,diff(exp(x*t)/psi1(t),t$(r+s)))subs(t=-I,diff(exp(x*t)/psi2(t),t$(r+s)))): evalc(%); odetest(%,Dgl);
y = −x3 sin(x) − 3x2 cos(x) + 9 x sin(x) + 3 cos(x) , 2
0
5.6 Homogene lineare Differentialgleichungen mit periodischen Koeffizientenfunktionen Beispiel 11
(vgl. Beispiel 6 aus MWS 4)
> restart: with(LinearAlgebra): vy := Vector([y[1](x),y[2](x)]): # Vektorfunktion F := x -> Matrix([[cos(2*x),sin(2*x)-1],[sin(2*x)+1,-cos(2*x)]]): Sys := map(diff,vy,x)-(F(x).vy);
:
;
y2 − (sin(2x) + 1)y1 + cos(2 x)y2
¨ Mit Hilfe der Uberlegungen zu Beispiel 6 in MWS 4 ergibt sich hierf¨ ur folgende Fundamentalmatrix: > Y := x -> Matrix([<exp(x)*cos(x),exp(x)*sin(x)>, <-exp(-x)*sin(x),exp(-x)*cos(x)>]): ’Y(x)’ = Y(x), ’Y(0)’ = Y(0);
:
Y (x) =
ex cos(x) −e−x sin(x) ex sin(x) e−x cos(x)
;
:
, Y (0) =
1 0
;
0 1
Die minimale Periode der Koeffizientenmatrix F ist offenbar ω = π . Mit ¨ Y (0) = liefert so Y (π) die Ubergangsmatrix: > B[Y] := Y(Pi);
BY :=
−eπ 0 0 −e−π
> interface(imaginaryunit=i): MatrixFunction(B[Y],log(x),x): map(evalc,1/Pi*%): L := map(radnormal,%); ’exp(Pi*L)’ = MatrixExponential(Pi*L);
MWS 5
Sys :=
y1 − cos(2 x)y1 − (sin(2x) − 1)y2
202
MWS 5
Lineare DGLen und DGL-Systeme II
Bei ¨ alteren Maple-Versionen ist der Befehl MatrixFunction in geeigneter Weise durch ‘linalg/matfunc‘ zu ersetzen.
L :=
1+ 0 0 −1 +
,
eπ
=
−eπ 0 0 −e−π
Im Anschluß an Satz 5.6.3 (Satz von Floquet) hatten wir bemerkt, daß ein solches L — wie hier gegeben — nicht notwendig reell gew¨ahlt werden kann. Deshalb geht man allgemein zur Periode 2ω u ¨ber und betrachtet die ¨ Ubergangsmatrix B2 : > MatrixFunction(B[Y]^2,log(x),x): L := map(radnormal,1/(2*Pi)*%); ’exp(2*Pi*L)’ = MatrixExponential(2*Pi*L);
L :=
1 0 0 −1
,
e2 π
=
e2 π 0 0 e−2 π
Die 2π -periodische Funktion P aus der Floquet-Darstellung Y (x) = P (x) exp(xL) ergibt sich nun durch: > Y(x).MatrixExponential(-L,x): P(x) = map(simplify,%);
MWS 5
P (x) = Beispiel 12
cos(x) − sin(x) sin(x) cos(x)
(vgl. Beispiel IV-4-8 von [Hs/Si])
> restart: with(LinearAlgebra): vy := Vector([y[1](x),y[2](x)]): # Vektorfunktion F := x -> Matrix([[cos(x),1],[0,cos(x)]]): Sys := map(diff,vy,x)-(F(x).vy);
Sys :=
y1 − cos(x)y1 − y2 y2 − cos(x)y2
Man zeigt leicht (vgl. etwa (3.7.9) aus [Sc/Sc]): Sind die Werte einer Koeffizientenmatrix F alle vertauschbar, so ist durch x Y (x) := exp F (t) dt 0
eine Fundamentalmatrix Y des DGL-Systems y = F (x)y mit Y (0) = gegeben. Im hier vorliegenden Fall erkennt man die Vertauschbarkeit unmittelbar. Wir lassen uns das noch einmal durch Maple best¨ atigen: > F(x1).F(x2) - F(x2).F(x1);
0 0 0 0
5.6
Lineare DGLen mit periodischen Koeffizientenfunktionen (MWS) 203
> F1 := map(int,F(t),t=0..x);
sin(x) x 0 sin(x)
F1 := Offenbar gilt F 1 = sin(x)
+x
mit
> E := IdentityMatrix(2); N := Matrix([[0,1],[0,0]]);
1 0 0 1
0 1 0 0
,
So ist exp(F 1) gegeben durch: > Y := x -> exp(sin(x))*(E+x*N): ’Y(x)’ = Y(x), ’Y(0)’ = Y(0);
: Y (x) = Wegen Y (0) =
esin(x) esin(x) x
;
esin(x)
0
, Y (0) =
1 0 0 1
¨ ist hier die Ubergangsmatrix gleich Y (2π):
> B[Y] := Y(2*Pi);
BY :=
1 2π 0 1 gegeben:
> L := N: MatrixExponential(2*Pi*L): ’exp(2*Pi*L)’ = map(simplify,%);
e2 π
1 2π 0 1
=
¨ Da L hier reell ist, ist der Ubergang zur doppelten Periode nicht erforderlich. Wir haben 0 (doppelt) als charakteristischen Exponenten (Eigenwerte von L) und 1 (doppelt) als charakteristischen Multiplikator (Eigenwerte von B). Die 2π -periodische Funktion P aus der Floquet-Darstellung ergibt sich nun wieder durch: > Y(x).MatrixExponential(-L,x): P(x) = map(simplify,%);
: P (x) =
esin(x)
0
0
esin(x)
;
MWS 5
Eine zugeh¨ orige Matrix L ist hier gerade durch
Kapitel 6
Nu ¨ tzliches — nicht nur fu ¨r den Praktiker 6.1 6.2 6.3
L¨ osungen u ¨ber Potenzreihenansatz Schwach singul¨ are Punkte Laplace-Transformation
Potenzreihenentwicklungen zur L¨ osung von Differentialgleichungen wurden schon von Newton vielfach eingesetzt. Cauchy pr¨azisierte diese Methode, indem er den zugeh¨ origen Existenzsatz bewies. Wir behandeln zun¨achst lineare Differentialgleichungen mit Koeffizientenfunktionen, die sich in Potenzreihen entwickeln lassen. Bei der erg¨ anzenden Betrachtung schwach singul¨arer ¨ Stellen in Abschnitt 6.2 beschr¨ anken wir uns auf einige reelle Uberlegungen. Der angemessene Funktionenbereich dazu w¨aren holomorphe Funktionen. Doch darauf gehen wir in dieser Darstellung nicht ein, da wir die entsprechenden funktionentheoretischen Kenntnisse nicht voraussetzen wollen. Wir verweisen dazu beispielhaft auf die weitergehenden B¨ ucher von [Sc/Sc] und [Wal].
6.1 Losungen uber Potenzreihenansatz In den Abschnitten 5.2, 5.4 und 5.5 haben wir gesehen, daß lineare Differentialgleichungssysteme (1) y = Ay + g(x) , speziell lineare Differentialgleichungen k-ter Ordnung η (k) + α1 η (k−1) + · · · + αk η = γ(x) ,
(2)
L¨osungen spezieller Struktur haben. So gilt etwa nach (3) aus Abschnitt 5.2 f¨ ur die zu (1) geh¨ orende homogene DGL, daß eine L¨osung von der Form ska’ lare‘ Exponentialfunktion mal vektorwertiges Polynom existiert. Abschnitt
Kapitel 6
Die Laplace-Transformation, eine spezielle Integraltransformation, erweist sich als n¨ utzliches und von vielen Anwendern gesch¨atztes Hilfsmittel zur L¨osung von Anfangswertaufgaben bei linearen Differentialgleichungen und Systemen mit konstanten Koeffizienten.
206
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
5.4 zeigt, daß L¨ osungen dieser Gestalt auch f¨ ur (1) mit speziellen Inhomogenit¨ aten g existieren. F¨ ur den Spezialfall (2) sind die Ergebnisse in Abschnitt 5.5 dargestellt. In Abschnitt 5.6 wurden solche Resultate auch f¨ ur lineare Differentialgleichungen mit periodischen Koeffizientenfunktionen hergeleitet. Dabei konnten jeweils noch Aussagen u ¨ber den maximalen Grad der Polynome gemacht werden. ¨ Die praktische Durchf¨ uhrung der in Kapitel 5 ausgef¨ uhrten Uberlegungen war selbst bei relativ einfachen konkreten Beispielen (¨ uber Eigenwerte und Hauptvektoren) durchaus aufwendig. Man vergleiche etwa das ausf¨ uhrliche Beispiel am Ende von Abschnitt 5.4. Oft ist es einfacher, mit einem entsprechenden Ansatz mit unbestimmten Koeffizienten in die Differentialgleichung hineinzugehen‘ und dann die Koeffizienten zu bestimmen (Methode ’ der unbestimmten Koeffizienten). Dies wurde schon in MWS 5 zu Beispiel 7 ausgef¨ uhrt. Wir rechnen vorweg noch ein — bewußt ganz einfach gehaltenes — Beispiel von Hand‘: ’ (B1) η − 4η + 4η = x2
Mit noch zu bestimmenden Koeffizienten a0 , a1 , a2 machen wir den achst η (x) = Ansatz η(x) = a0 + a1 x + a2 x2 . Dann hat man zun¨ a1 + 2a2 x und η (x) = 2a2 . !
x2 = η (x)−4η (x)+4η(x) = 2a2 −4(a1 +2a2 x)+4(a0 +a1 x+a2 x2 ) liefert nach Koeffizientenvergleich (f¨ ur die Potenzen x2 , x, x0 ):
Kapitel 6
1 = 4a2 ,
0 = 4a1 − 8a2 ,
0 = 4a0 − 4a1 + 2a2
Daraus liest man — von links nach rechts — ab: a2 = 1/4, a1 = 1/2, a0 = 3/8, also η(x) = 3 + 4 x + 2x2 /8 Hier ist diese Rechnung mit der Methode der unbestimmten Koeffizienten einfach. Dies ist aber — f¨ ur gr¨ oßere‘ Beispiele — durchaus nicht ’ typisch. Wenn man f¨ ur den allgemeineren Fall y = F (x)y + g(x)
(3)
(vgl. (I) aus Abschnitt 4.1), speziell die lineare DGL k-ter Ordnung (vgl. (2) aus Abschnitt 4.6) η (k) + f1 (x)η (k−1) + · · · + fk (x)η = γ(x) ,
(4)
vorweg nichts u osungen weiß, hilft oft ein ¨ber die spezielle Struktur von L¨ Potenzreihenansatz oder ein geeignet modifizierter Ansatz. Wir f¨ uhren die
6.1
L¨ osungen u ¨ber Potenzreihenansatz
207
¨ Uberlegungen ganz allgemein (f¨ ur lineare Differentialgleichungen) durch, beschr¨ anken uns dann aber in den Beispielen weitgehend auf den wichtigen Spezialfall einer linearen Differentialgleichung zweiter Ordnung
f0 (x)η + f1 (x)η + f2 (x)η = γ(x) . Dabei gehen wir davon aus, daß sich die Inhomogenit¨at γ und die Koeffizientenfunktionen f0 , f1 , f2 auf einem gemeinsamen Intervall I in Potenzreihen ur x ∈ I gilt. Die Klasse dieser Differenentwickeln lassen, und f0 (x) = 0 f¨ tialgleichungen umfaßt eine große Zahl in den Anwendungen vorkommender ¨ Beispiele. Vor den allgemeinen theoretischen Uberlegungen, die den Potenzreihenansatz dann begr¨ unden, betrachten wir schon zwei f¨ ur die Anwendungen besonders wichtige Differentialgleichungen. Sie sind aus der mathematischen Behandlung physikalischer Fragestellungen entstanden. Dabei sei stets λ eine vorgegebene reelle Zahl. Wir machen jeweils den Ansatz ∞
aν xν ,
η(x) = ν=0
haben also — nach Indexverschiebung — η (x) =
∞
( + 1)aν+1 xν
und
η (x) =
ν=0
∞
( + 1)( + 2)aν+2 xν . ν=0
Hermite-Differentialgleichung1
η − 2xη + λη = 0
aν+2 =
2 −λ aν . ( + 1)( + 2)
Wir schreiben η in der Form ∞ ν=0 1
∞
a2 ν x2 ν + x ·
η(x) =
a2 ν+1 x2 ν , ν=0
Der franz¨ osische Mathematiker Charles Hermite (1 22 1 01) war einer der bedeutendsten Algebraiker und Analytiker seiner Zeit. Seine Beitr¨ age in sehr verschiedenen Bereichen der Mathematik gaben Anstoß zu vielen neuen Theorien. Eine seiner herausragenden Leistungen war der Nachweis der ´ ´, E. Transzendenz von e . Bedeutende Sch¨ uler von ihm waren u. a. Poincare Picard und Borel.
Kapitel 6
Durch Koeffizientenvergleich erh¨ alt man hier die folgende Rekursionsformel: ( + 1)( + 2)aν+2 + (−2 + λ)aν = 0 f¨ ur ∈ 0 , und so
208
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
also aufgeteilt nach geraden und ungeraden Potenzen von x. Ist a0 = 0, so zeigt a2 ν+2 4 −λ ur −→ ∞ , a2 ν = (2 + 2)(2 + 1) −→ 0 f¨ daß der Konvergenzradius der ersten Teilreihe ∞ ist. F¨ ur a1 = 0 schließt man analog. Somit ist die gesamte Reihe f¨ ur jedes x konvergent.
alt man Im Falle a0 = 1, a1 = 0 erh¨ ∞
a2 ν x2 ν .
η1,λ (x) = ν=0
Ist λ = 4n f¨ ur ein n ∈ 0 , so ergibt sich ein Polynom vom Grade 2 n. Dieses wird mit H2 n bezeichnet. alt man Im Falle a0 = 0, a1 = 1 erh¨ ∞
a2 ν+1 x2 ν+1 .
η2,λ (x) = ν=0
Hier ergibt sich ein Polynom vom Grade 2n + 1, falls λ = 4n + 2 f¨ ur ein n ∈ 0 gilt. Dieses wird mit H2 n+1 notiert. Die Polynome H0 , H1 , H2 , . . . heißen Hermite-Polynome. Man erh¨ alt: 4 2 H0 (x) = 1, H1 (x) = x, H2 (x) = 1−2x2 , H3 (x) = x− x3 , H4 (x) = 1−4x2 + x4 3 3 Die Hermite-Polynome H1 bis H4
Kapitel 6
2
–2
0
–1
1
2
–2
Oft werden diese Polynome noch so normiert‘, daß das Polynom vom Grade ’ n gerade den f¨ uhrenden Koeffizienten 2n hat. Legendre-Differentialgleichung2
(1 − x2 )η − 2xη + λ (λ + 1)η = 0 2
Der franz¨ osische Mathematiker Adrien-Marie Legendre (1 52 1 ) arbeitete auf recht unterschiedlichen Gebieten der reinen und angewandten
6.1
L¨ osungen u ¨ber Potenzreihenansatz
209
∈
Hier erh¨ alt man entsprechend die Rekursionsformel f¨ ur aν+2 =
0:
( − λ)( + λ + 1) ( + 1) − λ (λ + 1) aν aν = ( + 2)( + 1) ( + 2)( + 1)
F¨ ur a0 = 1, a1 = 0 ergibt sich η1,λ (x) = 1 −
λ (λ + 1) 2 λ (λ − 2)(λ + 1)(λ + 3) 4 x − +··· x + 4! 2!
Das sind Polynome in den F¨ allen λ = 2n und λ = −(2n + 1) f¨ ur n ∈
0.
F¨ ur a0 = 0, a1 = 1 ergibt sich η2,λ (x) = x −
(λ − 1)(λ + 2) 3 (λ − 1)(λ − 3)(λ + 2)(λ + 4) 5 x − +··· x + 5! 3!
Das sind Polynome in den F¨ allen λ = 2n + 1 f¨ ur n ∈ 0 und λ = −2n ur → ∞ haben sonst beide Reihen den f¨ ur n ∈ . Wegen |aν+2 /aν | → 1 f¨ Konvergenzradius 1. Man normiert‘ die obigen Polynome so, daß sie alle ’ an der Stelle 1 den Wert 1 haben. Die ersten der so erhaltenen LegendrePolynome Pn sind gegeben durch P0 (x) = 1, P1 (x) = x, P2 (x) = (3x2 − 1)/2, P3 (x) = (5x3 − 3x)/2, . . . . Die Legendre-Polynome P1 bis P4 1
–1
0
1
Kapitel 6
–1
Hilfreich ist oft die Beschreibung durch die Rodrigues-Formel Pn (x) =
dn 2 1 (x − 1)n 2n n! dxn
f¨ ur n ∈
0
.
(5)
Mathematik. Er hat zu vielen Fragestellungen der Mathematik seiner Zeit wichtige Beitr¨ age geliefert, so etwa zu Zahlentheorie, elliptischen Integralen, Geometrie und Variationstheorie. Manche davon wurden jedoch von j¨ ungeren Mathematikern wie Abel, Jacobi und insbesondere Gauß schnell wesentlich verbessert. Die nach ihm benannten Funktionen f¨ uhrte er zur L¨ osung von Gravitationsproblemen ein. Die Legendre-Differentialgleichung tritt allgemein bei der L¨ osung der Potentialgleichung in Kugelkoordinaten auf.
210
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
¨ Beweis: Wir setzen bei den folgenden Uberlegungen dreimal die bekannte Leibniz-Regel f¨ ur die mehrfache Differentiation eines Produktes zweier Funktionen ein. Das durch die rechte Seite von (5) gegebene Polynom n-ten Grades bezeichnen wir mit ϕn . Dann gilt 2n n! ϕn (1) =
dn dn , (x − 1)n (x + 1)n (x − 1)n = (x + 1)n n n dx x=1 x=1 dx x=1 # !" # !" = 2n
= n!
also ϕn (1) = 1. Mit ψ(x) := (x2 − 1)n gelten 2n n! ϕn (x) = ψ (n) und (1 − x2 )ψ = −2xnψ . So zeigen (n+1) 1 (1−x2 )ψ = (1−x2 )ψ (n+2) +(n+1)(−2x)ψ (n+1) +n(n+1) (−2)ψ (n) 2 (n+1) (n+1) (n) und − 2xnψ = −2xnψ − 2(n + 1)nψ
(1 − x2 )ψ (n+2) − 2xψ (n+1) + (n + 1)nψ (n) = 0 , daß ψ (n) und damit ϕn die Legendre-DGL mit λ = n erf¨ ullen.
Wir zeigen nun, daß ein solcher Potenzreihenansatz zu dem DGL-System (3) immer zum Ziele f¨ uhrt, falls sich die Funktionen F und g in einem gemeinsamen Intervall als Potenzreihen darstellen lassen. F¨ ur k ∈ bezeichnen wir mit gleichem Symbol | | eine passende‘ Matrixnorm, speziell etwa die Ab’ bildungsnorm, zu einer vorgegebenen Norm | | auf dem k . Eine auf einer definierte k - oder k ( )-wertige Funktion h heißt in Teilmenge D von einem Punkt x0 aus D genau dann analytisch, wenn ein offenes Intervall aßt. I ⊂ D mit x0 ∈ I existiert, auf dem sich h als Potenzreihe darstellen l¨ Sie heißt genau dann in einer Teilmenge von D analytisch, wenn sie in jedem Punkt von analytisch ist.
Kapitel 6
Wir erinnern an die folgenden — zumindest im Spezialfall -wertiger Funktionen — aus der Analysis vertrauten Aussagen:
Ist R ∈ ]0, ∞ ] der Konvergenzradius einer Potenzreihe ∞
an (x − x0 )n , n=0
so ist diese f¨ ur 0 ≤ r < R absolut gleichm¨ aßig konvergent auf der Menge {x ∈ : |x − x0 | ≤ r} . Die durch ∞ 9 an (x − x0 )n h(x) :=
n=0
gegebene Grenzfunktion h ist in {x ∈
: |x − x0 | < R} differenzierbar mit
∞
nan (x − x0 )n−1 .
h (x) = n=1
6.1
L¨ osungen u ¨ber Potenzreihenansatz
211
Potenzreihen k¨ onnen also dort gliedweise differenziert‘ werden. Die zugeh¨ori’ ge Funktion ist daher beliebig oft differenzierbar. So sind die Koeffizienten in einer Potenzreihenentwicklung eindeutig bestimmt: Eine Potenzreihe ist gerade die Taylor-Reihe der durch sie dargestellten Funktion. Das heißt, f¨ ur x ∈ mit |x − x0 | < R gilt
∞
h(x) =
h(n) (x0 ) (x − x0 )n . n! n=0
Satz 6.1.1
Es seien die beiden auf einem gemeinsamen Intervall J gegebenen Funktionen F und g aus (3) in J analytisch. Dann existiert zu jedem Punkt osung y von (3), die sich mit geeigneten an ∈ k in einem x0 ∈ J eine L¨ alt, darstellen l¨ aßt als offenen Teilintervall I von J, das x0 enth¨
∞
an (x − x0 )n
y(x) =
f¨ ur alle x ∈ I .
n=0
Die eweisidee ist naheliegend: Wir u achst, wie die Koeffizienten an ¨berlegen zun¨ aussehen m¨ ussen, falls es eine solche Darstellung gibt. Dann zeigen wir durch Koeffizientenabsch¨ atzung, daß die damit gebildete Reihe (absolut) konvergent ist und die dadurch definierte Funktion die Differentialgleichung l¨ ost. Die Durchf¨ uhrung ist jedoch nicht trivial. Wer damit, vor allem durch den allgemeinen Rahmen (Matrixund vektorwertige Potenzreihen), Schwierigkeiten hat, kann den Beweis getrost beiseite lassen.
Die zus¨ atzliche Beachtung einer Inhomogenit¨ at bedeutet nur zus¨ atzliche ¨ Schreibarbeit; sie beeintr¨ achtigt aber etwas die Ubersichtlichkeit des Beweises. Wir gehen aus von der Entwicklung ∞
Fn (x − x0 )n
F (x) =
f¨ ur x ∈ I1
n=0
alt. mit geeigneten Fn ∈ k und einem offenen Intervall I1 ⊂ J , das x0 enth¨ Falls ein y der behaupteten Form existiert, sei R ∈ ]0, ∞ ] so gew¨ ahlt, daß ur x ∈ I0 liefert y (x) = F (x)y(x) I0 := {x ∈ : |x − x0 | < R} ⊂ I ∩ I1 . F¨ zun¨ achst '& ∞ ' & ∞ ∞
(n + 1)an+1 (x − x0 )n = n=0
Fν (x − x0 )ν ν=0
aµ (x − x0 )µ µ=0
Kapitel 6
Zur Vereinfachung der Notierung f¨ uhren wir den Beweis nur f¨ ur den homogenen Fall, betrachten also (6) y = F (x)y .
212
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
und damit (Cauchy-Produkt!) die Rekursion & n ' 1 Fν an−ν a0 = y(x0 ) beliebig, an+1 = n + 1 ν=0
f¨ ur n ∈
0
.
(7)
9∞ n ur x ∈ I0 Es seien nun r ∈ ]0, R [. Die Konvergenz von n=0 Fn (x − x0 ) f¨ n liefert Fn (x − x0 ) → 0 f¨ ur n → ∞ , also speziell f¨ ur x mit |x − x0 | = r und n∈ 0 |Fn |rn = |Fn ||x − x0 |n = |Fn (x − x0 )n | ≤ C mit einer geeigneten Konstanten C > 0. Damit k¨onnen wir absch¨atzen 1 n+1
|an+1 | ≤
n
n
n
|Fν | |an−ν | ≤ ν=0
C 1 C r−ν |an−ν | = n + 1 rn n + 1 ν=0
rµ |aµ | µ=0
und erhalten so nacheinander |a1 | ≤ C |a0 |,
|a2 | ≤
und weiter |an+1 | ≤
C 1 C 1 1 + r C |a0 | |a0 | + r |a1 | = 2 r 2 r
C (1 + r C) · · · (n + r C) |a0 | . (n + 1)! r n # !" =: Cn+1
Kapitel 6
Man hat
1 n + rC 1 |Cn+1 | −→ = r n+1 r |Cn |
f¨ ur n −→ ∞ .
F¨ ur 0 < s < r folgt9so aus |an (x − x0 )n | ≤ Cn · sn |a0 | die absolute Kon∞ n f¨ ur x mit |x − x0 | ≤ s nach dem vergenz der Reihe n=0 aν (x − x0 ) Quotientenkriterium f¨ ur Reihen. Daß y die Differentialgleichung l¨ost, ist nun klar. Die matrixwertige Funktion F und die vektorwertige Funktion g sind genau dann analytisch in x0 , wenn alle Koeffizientenfunktionen dies sind. x0 heißt dann regul¨ arer Punkt der Differentialgleichung (3), sonst — wenn also mindestens eine der Koeffizientenfunktionen in x0 nicht analytisch ist — singul¨ arer Punkt. Zum Ein¨ uben dieser Dinge sehen wir uns ein einfaches Beispiel an:
1 y mit y(0) = (B2) y = 0 x 1 Hier gilt also F (x) := = F0 + F1 x + F2 x2 + · · · 1 x
x 1 1 x
6.1
L¨ osungen u ¨ber Potenzreihenansatz
213
0 1 1 0 0 0 , F1 := und Fn := f¨ ur n ≥ 2 . 1 0 0 1 0 0 Mit x0 := 0 und a0 = y(0) = (1, 0)T = e1 vereinfacht sich hier die Rekursionsvorschrift (7) zu a1 = F0 a0 = (0, 1)T = e2 und
mit F0 :=
an+1 =
a4 =
1 2 (F0 a1 + a0 ) 1 3 (F0 a2 + a1 ) 1 4 (F0 a3 + a2 )
a5 =
1 5
a2 =
a3 =
=
=
=
(F0 a4 + a3 ) =
1 (F0 an + an−1 ) f¨ ur n ∈ n+1 1 2 (e1 + e1 ) = e1 , 2 1 3 (e2 + e2 ) = 3 e2 , 5 1 2 e , 4 ( 3 e1 + e1 ) = 12 1 2 1 5 e ) = 13 60 e2 , 5 ( 12 e2 + 3 2
.
...
Damit hat man y(x) = e1 + e2 x + e1 x2 + 23 e2 x3 + ' & 5 4 x + ··· 1 + x2 + 12 . = 5 x + 23 x3 + 13 60 x + · · ·
5 4 12 e1 x
+
13 5 60 e2 x
+ ···
Dieses Beispiel ermutigt nicht gerade, gr¨oßere Probleme von Hand auf diese Weise zu rechnen. Aber dazu haben wir ja zum Gl¨ uck Maple! Da wir nach Satz 6.1.1 wissen, daß eine L¨osung y der Form ∞
an xn
y(x) = n=0
existiert, k¨onnen wir auch mit an = y (n) (0)/n! unter Beachtung von y (x) = F (x)y(x) wie folgt schließen:
=
1 6 (2F1 e2
+ F0 2a2 ) =
2 3 e2
, ...
Die Einordnung von (4) in (3) (man vergleiche hierzu Abschnitt 4.6) setzt voraus, daß alle Funktionen f1 , . . . , fk und γ in x0 analytisch sind. Obwohl es eigentlich u ussig ist, notieren wir Satz 6.1.1 f¨ ur diese Situation als ¨berfl¨ Folgerung 6.1.2
Es seien die Funktionen f1 , . . . , fk und γ auf einem gemeinsamen Intervall J gegeben und dort analytisch. Dann existiert zu jedem Punkt x 0 ∈ J in einem offenen eine L¨ osung η von (4), die sich mit geeigneten αn ∈ alt, darstellen l¨ aßt in der Form Teilintervall I von J, das x0 enth¨
Kapitel 6
a1 = y (0) = F (0)y(0) = F0 e1 = e2 a2 = 12 y (0) = 12 F (0)y(0) + F (0)y (0) = 12 (F1 e1 + F0 e2 ) = e1 a3 = 16 y (0) = 16 F (0)y(0) + 2F (0)y (0) + F (0)y (0)
214
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
∞
αn (x − x0 )n
η(x) =
f¨ ur x ∈ I .
n=0
ur n ∈ Dabei gilt αn = η (n) (x0 )/n! f¨
0
.
6.2 Schwach singulare Punkte Wir gehen im folgenden davon aus, daß sich die Koeffizientenfunktion F auf einem Intervall J mit einem x0 ∈ J in der Form F (x) =
1 H(x) x − x0
f¨ ur x ∈ J \ {x0 }
schreiben l¨aßt, wobei H eine in x0 analytische Abbildung mit H(x0 ) = 0 ist. Damit betrachten wir die Differentialgleichung y = F (x)y .
(1)
x0 heißt schwach singul¨ arer Punkt oder Stelle der Bestimmtheit 3 der Differentialgleichung (1). Auch f¨ ur solche Systeme erhalten wir noch befriedigende Ergebnisse. Der Hauptgrund f¨ ur unsere Besch¨aftigung damit ist jedoch die Tatsache, daß sie in sehr vielen praktischen F¨allen vorkommen, etwa bei Randwertaufgaben f¨ ur partielle DGLen und damit bei wichtigen gew¨ohnlichen Differentialgleichungen der mathematischen Physik, die durch Separa’ ¨ tion‘ entstehen. F¨ ur viele Uberlegungen k¨ onnen wir Œ von x0 = 0 ausgehen; denn sonst macht man einfach eine Argumentverschiebung. F l¨aßt sich also lokal um 0 in der Form
Kapitel 6
∞
F (x) =
1 Hn xn x n=0
f¨ ur x = 0
mit geeigneten Hn ∈ k schreiben, wobei H0 nicht Null ist. Schon die einfaur x > 0 bei vorgegebenem reellen che skalare Differentialgleichung y = xc y f¨ ur ein reelles d zeigt, daß hier im allgemeinen keic mit L¨osung y(x) = dxc f¨ ne Potenzreihen als L¨ osungen erwartet werden k¨onnen. Auch das folgende kleine Beispiel zeigt deutlich, daß man sich nicht auf Potenzreihenans¨atze beschr¨anken darf:
(B3) x2 η + 4xη + 2η = 0
Ein Ansatz
∞
an xn
η(x) = n=0 3
In englischsprachigen Darstellungen liest man meist regular singular point.
6.2
Schwach singul¨ are Punkte
215
f¨ uhrt zu der Rekursionsvorschrift (n(n − 1) + 4n + 2)an = (n2 + 3n + 2)an = 0 f¨ ur n ∈
0.
Da n2 + 3n + 2 stets ungleich 0 ist, muß an = 0 f¨ ur n ∈ 0 gelten. Man erh¨ alt also u ¨ber Potenzreihen nur die triviale L¨osung η = 0! Die erforderliche Modifikation des Potenzreihenansatzes wird meist nach Frobenius4 benannt, obwohl sie schon von Euler eingesetzt wurde. Man spricht von Frobenius-Methode und Frobenius-Reihen. Wir werden sehen, daß die L¨ osungen von (1) in diesem Fall wesentlich von angen. Um einen ersten Eindruck davon zu den Eigenwerten von H0 abh¨ gewinnen, sehen wir uns vorweg den Spezialfall H(x) = H0 , also konstantes H, an: F¨ ur x > 0 transformieren wir x = exp(t) und damit z(t) := y(x). Dies f¨ uhrt zu dem System mit konstanten Koeffizienten z = H0 z .
(2)
Dessen L¨ osungen kennen wir schon nach den Ergebnissen aus Abschnitt 5.2. Wir beschr¨ anken uns bei diesen motivierenden Vorbetrachtungen, aber dann ¨ auch bei den allgemeinen Uberlegungen, auf den Fall k = 2. Existiert zu H0 eine Basis b1 , b2 aus Eigenvektoren zu Eigenwerten λ1 und λ2 , so ist die allgemeine L¨ osung mit Konstanten β1 , β2 von der Form z(t) = β1 exp(λ1 t)b1 + β2 exp(λ2 t)b2 . Zur¨ ucktransformiert liefert das y(x) = β1 xλ1 b1 + β2 xλ2 b2 .
Zur¨ ucktransformiert ergibt sich in diesem Fall die allgemeine L¨osung y von (1) durch y(x) = xλ β1 b1 + β2 (b2 + log(x)b1 ) . Wir werden also auch im allgemeinen Fall L¨ osungen erwarten, in denen Terme xλ und log(x) vorkommen. Die Differentialgleichung zweiter Ordnung 4
Der deutsche Mathematiker Georg Ferdinand Frobenius (1 allem wegen seiner Beitr¨ age zur Gruppentheorie bekannt.
1 1 ) ist vor
Kapitel 6
Ist λ ein doppelter Eigenwert mit einem Hauptvektor b2 der Stufe 2 und dem zugeh¨ origen Eigenvektor b1 := (H0 − λ )b2 , so ist die allgemeine L¨osung von (2) mit Konstanten β1 , β2 gegeben durch z(t) = β1 exp(λt)b1 + β2 exp(λt) b2 + tb1 .
216
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
x2 η + xg1 (x)η + g2 (x)η = 0
(3)
mit im Intervall [0, β [ f¨ ur ein 0 < β ≤ ∞ analytischen Funktionen g1 und g2 wird hier — anders als in Abschnitt 3.3 beziehungsweise 4.4 ! — auf ein System transformiert durch y1 (x) := η(x) und y2 (x) := xη (x)
f¨ ur x ∈ ]0, β [ .
Dann gelten y1 (x) = η (x) = 1 y2 (x) und u ¨ber y2 (x) = η (x) + xη (x) x
y2 (x) = (1 − g1 (x))η (x) −
Mit H(x) :=
g (x) 1 − g1 (x) g2 (x) y1 (x) . y2 (x) − 2 η(x) = x x x
0 1 −g2 (x) 1 − g1 (x)
und y =
y1 y2
kann (3) also geschrieben werden in der Form y = 1 H(x) y . x
Der Spezialfall g1 (x) = α1 , g2 (x) = α2 mit reellen α1 und α2 , also
x2 η + xα1 η + α2 η = 0
(4)
Kapitel 6
wird als Euler-Differentialgleichung bezeichnet. Die Eigenwerte der konstanten Matrix 0 1 H(x) = −α2 1 − α1 sind hier durch die Nullstellen der Indexgleichung oder charakteristischen Gleichung λ (λ − 1) + α1 λ + α2 = 0 gegeben. Es seien nun wieder 0 < β ≤ ∞ und H eine auf dem Intervall [0, β [ analytische Abbildung. Mit geeigneten Hn ∈ 2 kann also H geschrieben werden in der Form
∞
Hn xn
H(x) =
f¨ ur x ∈ [0, β [ .
n=0
Entsprechend zu Satz 6.1.1 erh¨ alt man damit im schwach singul¨ aren Fall als erstes Resultat:
6.2
Schwach singul¨ are Punkte
217
Satz 6.2.1
Ist die Differenz λ1 − λ2 der Eigenwerte λ1 und λ2 von H0 = H(0) nicht ganzzahlig, dann existieren linear unabh¨ angige L¨ osungen v und w der Differentialgleichung y = 1 H(x)y x der Form ∞
∞
v(x) = xλ1
an xn
w(x) = xλ2
und
n=0
bn xn n=0
2
mit geeigneten Koeffizienten an und bn aus
.
Beweis: 5 Falls eine L¨ osung v der notierten Art existiert, liefert die Transur u formation v(x) = xλ1 u(x) f¨ ∞
xu = H(x)u − λ1 u = (H0 − λ1 )u +
∞ n
n nx u
Hn x u = n=1
n=0
nun, wie mit 0 := H0 − λ1 und n 9 := Hn f¨ ur n ∈ . Wir 9zeigen ∞ ∞ eine L¨ osung u der Form u(x) = n=0 an xn zu xu = ( n=0 n xn )u zu bestimmen ist: Der Koeffizientenvergleich (Cauchy-Produkt!) von '& ∞ ' &∞ ∞ ν νx
aµ xµ
ν=0
liefert 0 =
0 a0
= xu (x) =
µ=0
nan xn n=1
= (H0 − λ1 )a0
(∗)
n
und nan =
n ν an−ν
=
0 an
+
ν an−ν
f¨ ur n ∈
.
ν=1
Eine L¨ osung a0 von (∗) ist dann ein Eigenvektor zum Eigenwert λ1 von H0 . Die Rekursionsformel kann als n
(
0
− n )an = −
ν an−ν ν=1
geschrieben werden. Da 0 − n = H0 − (λ1 + n) gilt und nach Voraussetzung λ1 + n kein Eigenwert von H0 ist, ist die Matrix 0 − n invertierbar, und die rekursive Berechnung der an kann u ¨ber n
an = −(
0
− n )−1
ν an−ν ν=1
5
F¨ ur eine sch¨ one Beweisalternative — mit deutlich mehr funktionalanalytischen und funktionentheoretischen Hilfsmitteln — sei auf [Wal] verwiesen.
Kapitel 6
ν=0
218
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
erfolgen. Damit ergibt sich eine m¨ ogliche erste L¨osung v durch: ∞
v(x) = xλ1 u(x) = xλ1
an xn n=0
Da die Voraussetzungen bez¨ uglich λ1 und λ2 symmetrisch sind, k¨onnen sie vertauscht werden. So ergibt sich w durch ∞
w(x) = x
λ2
bn xn n=0
mit einem Eigenvektor b0 zum Eigenwert λ2 von H0 als m¨ ogliche zweite L¨ osung. Der Beweis kann nun ¨ ahnlich wie der zu Satz 6.1.1 mit Koeffizientenabsch¨ atzung und darauf basierendem Konvergenznachweis zu Ende gef¨ uhrt werden. Dabei ist noch zu beachten, daß die Inverse einer invertierbaren (2,2)-Matrix sofort notiert werden kann. Wir f¨ uhren den Konvergenznachweis und damit, daß v und w wirklich L¨ osungen sind, nicht mehr aus. Die lineare Unabh¨ angigkeit der beiden L¨ osungen v und w ergibt sich wie folgt: Man hat v(x) = xλ1 ϕ(x) und w(x) = xλ2 ψ(x), wobei ϕ und ψ analytische Funktionen sind in einem Intervall [0, [, > 0, mit ϕ(0) = a0 = 0, ur γ1 , γ2 ∈ , so ψ(0) = b0 = 0. Œ sei Re(λ1 ) ≥ Re(λ2 ). Gilt γ1 v+γ2 w = 0 f¨ ur λ := λ1 −λ2 und x ∈ ]0, [. Nach Voraussetfolgt γ1 xλ ϕ(x)+γ2 ψ(x) = 0 f¨ zung ist λ nicht Null und Re(λ) ≥ 0. Ist Re(λ) > 0, so gilt |xλ | = xRe(λ) → 0 f¨ ur x → 0 und so γ2 b0 = γ2 ψ(0) = 0 . Das zeigt γ2 = 0 und dann auch γ1 = 0. Im verbleibenden Fall ist Re(λ) = 0, also σ := Im(λ) = 0.
Kapitel 6
xλ = xi σ = exp( σ log(x)) = cos(σ log(x)) + sin(σ log(x)) konvergiert nicht f¨ ur x → 0, da cos(σ log(x)) und sin(σ log(x)) zwischen den Werten 1 und −1 oszillieren‘. Das zeigt nacheinander γ1 = 0 und γ2 = 0. ’ Wir weisen noch auf einen entscheidenden Unterschied — neben der Struktur der L¨ osungen — zwischen den Ergebnissen der S¨atze 6.1.1 und 6.2.1 hin: Bei Satz 6.1.1 hatten wir eine Entwicklung um einen beliebigen Punkt x0 aus dem Intervall J . Satz 6.2.1 hingegen macht nur eine Aussage u ¨ber die Entwicklung bei der schwach singul¨ aren Stelle (hier Œ 0). Auch hier notieren wir noch die Spezialisierung auf (3). F¨ ur ein 0 < β ≤ ∞ hatten wir mit zwei analytischen Funktionen g1 und g2 auf dem Intervall [0, β [ die Differentialgleichung x2 η + xg1 (x)η + g2 (x)η = 0 betrachtet. Folgerung 6.2.2
Ist die Differenz λ1 − λ2 der beiden L¨ osungen λ1 und λ2 der charakteristischen Gleichung
6.2
Schwach singul¨ are Punkte
219
λ (λ − 1) + g1 (0)λ + g2 (0) = 0 nicht ganzzahlig, dann existieren linear unabh¨ angige L¨ osungen η1 und η2 von (3) der Form ∞
∞
η1 (x) = xλ1
an xn
η2 (x) = xλ2
und
n=0
bn xn n=0
mit geeigneten Koeffizienten an und bn aus
.
Mit a ur den noch aus¨hnlicher Methodik, jedoch aufwendiger, erh¨alt man f¨ stehenden Fall: Satz 6.2.3
Die Differenz λ1 − λ2 der Eigenwerte λ1 und λ2 von H0 = H(0) sei nun ganzzahlig, also λ1 = λ2 oder Œ λ1 − λ2 ∈ . Dann existiert zu dem System y = 1 H(x)y x neben einer L¨ osung v der Form ∞
v(x) = xλ1
an xn n=0
(mit Koeffizienten an aus
2
) auch eine von der Gestalt ∞
w(x) = xλ2
bn xn + c log(x)v(x) n=0
2
und c ∈
.
Unter den Voraussetzungen des Satzes sind die Eigenwerte λ1 und λ1 reell, da onnen auch die zugeh¨ origen neben λ1 − λ2 auch λ1 + λ2 = spur H0 reell ist. So k¨ ahlt werden. Eigenvektoren und damit die obigen Koeffizienten aus 2 gew¨
Die L¨ osung v erh¨ alt man wie zu Satz 6.2.1. Dabei war a0 ein Eigenvektor ur w macht man damit die Transformation zum Eigenwert λ1 von H0 . F¨ y(x) = xλ2 z(x) + c log(x)v(x) , zeigt f¨ ur z die Existenz einer Potenzreihendarstellung und unterscheidet dazu uhren diese naturgem¨ aß die beiden F¨ alle λ1 = λ2 und λ1 − λ2 ∈ . Wir f¨ ¨ Uberlegungen jedoch nicht mehr aus. Auf die Spezialisierung zu (3) k¨ onnen wir nun wohl verzichten, nachdem wir das in Folgerung 6.2.2 (zu Satz 6.2.1) ausgef¨ uhrt haben.
Kapitel 6
mit geeigneten bn ∈
220
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
Bessel-Differentialgleichung6 Bei vielen Fragestellungen der Physik und Technik tritt die Differentialgleichung x(xη ) + (x2 − 2 )η = 0
beziehungsweise x2 η + xη + (x2 − 2 )η = 0 auf, die zuerst von Bessel uhrlich untersucht wurde. Allerdings wurde sie auch schon (f¨ ur ∈ 0 ) ausf¨ von Jakob Bernoulli (1654–1705) bei der Untersuchung von Schwingungen einer h¨angenden Kette eingesetzt. Wir lassen allgemeiner ∈ [0, ∞ [ zu. Der Punkt 0 ist Stelle der Bestimmtheit. Die Indexgleichung lautet 0 = λ (λ − 1) + λ − 2 = λ2 − 2 mit L¨osungen λ1 = und λ2 = −. Der Ansatz ∞
η(x) = x
an xn n=0
f¨ uhrt zu (1 + 2)a1 = 0, mithin a1 = 0, und zu der Rekursionsvorschrift ur n ∈ 0 . Induktiv ergibt sich (n + 2)(n + 2 + 2)an+2 + an = 0 f¨ a2 n =
4n n!(
(−1)n a0 + 1) · · · ( + n)
und
a2 n+1 = 0 .
Es treten also im Potenzreihenanteil nur die geraden Potenzen auf. Man hat somit — nach den S¨ atzen 6.2.1 und 6.2.3 — immer eine L¨ osung η1 durch ∞
Kapitel 6
η1 (x) = a0 n=0
(−1)n x2 n+ . + 1) · · · ( + n)
22 n n!(
Nach dem Quotientenkriterium konvergiert diese Reihe f¨ ur alle positiven x. Ist nun eine nat¨ urliche Zahl, dann kann diese L¨osung notiert werden als ∞
η1 (x) = a0 2 ! n=0
(−1)n x 2 n+ . n! ( + n)! 2
Allgemein kann dies ¨ ahnlich einfach geschrieben werden, wenn man die Γ Funktion (man vergleiche etwa [Fo/Ho]) heranzieht und neben Γ (1) = 1 insbesondere Γ (x + 1) = xΓ (x) f¨ ur x > 0 beachtet: 6
Der K¨ onigsberger Astronom und Mathematiker Friedrich Wilhelm Bessel (1 1 6) benutzte die nach ihm benannten Funktionen systematisch zur Untersuchung von St¨ orungen der Planetenbahnen. Neben bedeutenden Arbeiten zur Astronomie hat er Wichtiges zur Potentialtheorie beigetragen.
6.2
Schwach singul¨ are Punkte
221 ∞
η1 (x) = a0 2 Γ ( + 1) n=0
x 2 n+ (−1)n n! Γ ( + n + 1) 2
Speziell f¨ ur a0 := (2 Γ ( + 1))−1 ergibt sich die Bessel-Funktion erster Art ohnlich mit J notiert wird: zur Ordnung 7 , die gew¨ J (x) =
x
2
x 2 n (−1)n n! Γ ( + n + 1) 2 n=0 ∞
Will man den Einsatz der Γ -Funktion vermeiden und dennoch die Formeln kompakt und n ∈ 0 schreiben, so gelingt das mit dem Pochhammer- mbol: F¨ ur α ∈ seien (α)0 := 1 und (α)n+1 := (α)n (α + n) . Dann gelten offenbar (1)n = n! und
(α)n = α (α + 1) · · · (α + n − 1) . n Faktoren
Damit gilt etwa f¨ ur
1 1 (x)
= a0
∞ (−1)n x2 n+ . 22 n n! ( + 1)n n=0
Ist nicht halbzahlig (2 ∈ / 0 ), dann liegt wegen λ1 −λ2 = 2 die Situation von Satz 6.2.1 bzw. Folgerung 6.2.2 vor. Hier gelten dann 1 − 2 = 0 und ¨ durch − n + 2 − 2 = 0 f¨ ur n ∈ 0 . So kann in den obigen Uberlegungen ersetzt werden. Das liefert durch J− (x) =
x −
2
x 2 n (−1)n n! Γ (− + n + 1) 2 n=0 ∞
(5)
η = c1 J + c2 J− mit Konstanten c1 und c2 geschrieben werden. 7
Diese Bezeichnung ist in diesem Zusammenhang Standard. Der Begriff Ordnung hat hier nichts mit der Ordnung der Differentialgleichung zu tun!
Kapitel 6
J− als weitere L¨ osung. J und J− stimmen mit den L¨osungen η1 und η2 gem¨aß Folgerung 6.2.2 jeweils bis auf einen Faktor u ¨berein, sind also auch linear unabh¨angig. So bilden sie in diesem Fall ein Fundamentalsytem. Die allgemeine L¨osung η kann folglich hier in der Form
222
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
Die Bessel-Funktionen erster Art J0 , J1 , J2 und J3 1
0
5
10
Ist halbzahlig (2 ∈ 0 ), dann ist Satz 6.2.3 heranzuziehen: Es existiert eine L¨osung η2 der Form η2 (x) = x
−
∞
bn xn + cJ (x) log(x)
(6)
n=0
Kapitel 6
mit geeigneten reellen Koeffizienten bn und c. Ist dabei ungeradzahliges Vielfaches von 1/2, also 2 = 2 + 1 mit einem ∈ 0 , so ergibt sich leicht c = 0 und dann η2 = J− bis auf ein (additives) Vielfaches von J . Daher hat man als allgemeine L¨ osung auch hier und somit insgesamt f¨ ur ∈ [0, ∞ [ \ 0 η = c1 J + c2 J− mit geeigneten Konstanten c1 und c2 . In diesem Fall ben¨ otigt man also, anders als von Satz 6.2. her eigentlich zu erwarten w¨ are, nicht den logarithmusbehafteten Term. Denn man erh¨ alt mit der Festlegung osung (f¨ ur λ2 = − ) , da die Rekursionsur n ∈ 0 auch die zweite L¨ a2 n+1 = 0 f¨ ur gerade Indizes n angewendet werden formel (n + 2) (n + 2 − 2 ) an+2 + an = 0 f¨ kann und nach der Festlegung f¨ ur ungerade Indizes trivial erf¨ ullt ist.
F¨ ur ∈ 0 kann (5) nicht direkt zur Definition von J herangezogen werden, da die Γ -Funktion f¨ ur ∈ 0 in − einen Pol hat. Liest man aber in (5) formal 1/Γ (− ) = 0 f¨ ur solche , so ergibt sich J− (x) =
x −
2
x 2 n (−1)n n! Γ (− + n + 1) 2 n= ∞
und damit — nach Indexverschiebung und unter Beachtung von Γ (k+1) = k! f¨ ur k ∈ 0 —
6.2
Schwach singul¨ are Punkte
223
J− (x) = (−1) J (x)
f¨ ur ∈
0
.
Das zeigt, daß auch J− hier eine L¨ osung ist. Jedoch sind f¨ ur solche die angig. Es verbleibt also dieser Fall beiden Funktionen J und J− linear abh¨ ∈ 0: Setzt man (6) in die Bessel-Differentialgleichung ein, so erh¨alt man — bis auf ein (additives) Vielfaches von J — nach etwas l¨anglicher Rechnung, die wir aber unseren Lesern nicht mehr zumuten wollen, mit h0 := 0 und ur n ∈ : hn := 1 + 1/2 + · · · + 1/n f¨
( − n − 1)! x 2 n− 1 2 n! 2 n=0 −1
η2 (x) = J (x) log(x) −
(−1)n (hn + hn+ ) x 2 n+ 1 2 n! (n + )! 2 n=0 ∞
−
Dabei liest man hier f¨ ur = 0 die auftretende leere Summe (von 0 bis −1) wie u ¨blich als 0. Meist ersetzt man diese Funktion η2 durch die BesselFunktion zweiter Art Y , definiert durch $ % Y (x) := 2 η2 (x) + C − log 2 J (x) , π
wobei
C := lim hn − log n = 0.5772 . . . n→∞
Damit hat man dann als allgemeine L¨ osung η der Bessel-Differentialgleichung f¨ ur beliebige ∈ [0, ∞ [ und positive x
η(x) = c1 J (x) + c2 Y (x) mit geeigneten Konstanten c1 und c2 .
Kapitel 6
die Euler-Konstante bezeichnet. Diese logarithmusbehaftete Bessel-Funktion wird gelegentlich auch als Neumann- oder Weber-Funktion bezeichnet. Ihre Definition kann in nat¨ urlicher Weise auf alle reellen Zahlen ausgedehnt werden (man vergleiche dazu auch den entsprechenden Abschnitt in MWS 6) durch % 1 $ ur ∈ [0, ∞ [ \ 0 . J (x) cos(π) − J− (x) f¨ Y (x) := sin(π)
224
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
Die Bessel-Funktionen zweiter Art Y0 , Y1 , Y2 und Y3 0.5
0
5
10
–1
Kapitel 6
6.3 Laplace-Transformation Die Laplace-Transformation wird gerne von Ingenieuren, Physikern und anderen Anwendern von Mathematik auch zur L¨ osung von Differentialgleichungen herangezogen. Sie sch¨ atzen die darauf basierende Methode als leicht und effizient. Eine lineare Differentialgleichung mit konstanten Koeffizienten oder ein entsprechendes System wird in eine algebraische Gleichung transformiert, man spricht von Algebraisierung‘. Die resultierende algebraische Gleichung ’ ist gew¨ ohnlich einfach l¨ osbar. Dann f¨ uhrt inverse Laplace-Transformation auf eine L¨ osung der Differentialgleichung. Der Vorteil gegen¨ uber den Methoden, die wir schon kennengelernt haben, ist, daß sich hier die L¨osung einer ¨ entsprechenden Anfangswertaufgabe sofort ergibt. Bei den Uberlegungen in Kapitel 5 war zun¨ achst die homogene DGL allgemein zu l¨osen, dann eine spezielle L¨ osung der inhomogenen DGL zu finden (etwa mit der Variation der Konstanten) und schließlich die freien Konstanten gem¨aß der Vorgabe der Anfangswerte zu bestimmen. Zudem k¨ onnen mittels Laplace-Transformation auch unstetige Inhomogenit¨ aten, wie sie etwa bei Einschaltvorg¨angen vorkommen, betrachtet werden. Auf Anwendungen der Laplace-Transformation bei partiellen Differentialgleichungen, Integral- und Differenzengleichungen oder auch konkret bei elektrischen Netzwerken und in der Regelungstechnik gehen wir nicht ein. Zu f : [0, ∞ [−→
betrachtet man f¨ ur komplexe Werte s mit
∞ L (f )(s) := (L (f ))(s) := 0
die Laplace-Transformierte zu f .
e− x f (x) dx
6.3
225
Laplace-Transformation
Ein paar Anmerkungen zu dieser Definition: Da hier komplexe Werte s zugelassen sind, m¨ ußte man eigentlich genauer exp(−s x) statt e−s x schreiben. Dies ist aber in diesem Zusammenhang nicht u ¨blich; deshalb verzichten auch wir auf diese Pr¨ azisierung und verstehen e−s x einfach als Schreibweise f¨ ur exp(−s x) . Wir denken, daß komplexwertige Integranden unseren Lesern keine Schwierigkeiten bereiten. Ab Abschnitt .1 haben wir ja sogar k -wertige Integranden betrachtet. Wenn Ihnen diese Dinge dennoch nicht ganz geheuer sind, k¨ onnen Sie sich getrost auf reelle Werte s beschr¨ anken. Hier kann man nat¨ urlich s = + i σ mit reellen und σ schreiben und u ¨ber exp(−s x) = exp(− x) exp(−i σ x) = exp(− x) cos(σ x) − i sin(σ x)
das obige Integral auf reelle Integrale zur¨ uckf¨ uhren: ∞
−s x
e
∞ f (x) x =
− x
e
0
∞ cos(σ x) f (x) x − i
0
e− x sin(σ x) f (x) x
0
Wir sagen genau dann L (f )(s) existiert, wenn das angegebene Integral kon’ vergiert‘, d. h. als uneigentliches Integral ∞
− x
e
T f (x) dx := lim
T →∞
0
e− x f (x) dx
0
Die Forderung der absoluten Konvergenz, d. h. das Integral existiert auch, wenn man den Integranden durch seinen Betrag ersetzt, vermeidet die sonst erforderliche Betrachtung von Sonderf¨ allen. F¨ ur die bei Differentialgleichungen auftretenden Funktionen gen¨ ugt zur Existenz des Integrals die Bemerkung 6.3.1 Eine Funktion f sei f¨ ur jedes positive auf dem Intervall [0, bar. Zudem gelte mit nicht-negativen Konstanten , L und a |f (x)| ≤
ea x
] integrier-
Kapitel 6
existiert. F¨ ur die meisten Anwendungen gen¨ ugt dazu das absolut-konvergente uneigentliche Riemann-Integral. Der Kenner wird jedoch das LebesgueIntegral heranziehen, das mehr Funktionen f erm¨oglicht und f¨ ur viele Schlußweisen die geeigneten Hilfsmittel (z. B. den Satz von Fubini) bereith¨alt. Wir gehen allerdings nicht davon aus, daß diese Dinge allen Lesern vertraut sind, und begn¨ ugen uns so mit dem Riemann-Integral, das — zumindest in Ans¨ atzen — schon von der Schule her bekannt ist. Im folgenden lassen wir den Zusatz Riemann“ weg, weil wir uns in diesem Abschnitt nur noch ” mit diesem Integraltyp befassen. Außerdem verzichten wir auf den Einsatz ¨ funktionentheoretischer Uberlegungen.
226
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
f¨ ur x ≥ L. Man sagt daf¨ ur auch f ist exponentiell beschr¨ ankt“.8 Dann ” existiert L (f )(s) f¨ ur jedes s ∈ mit Re(s) > a.
Beweis: Wegen
− x e = e− x
f¨ ur := Re(s), was wir noch oft benutzen, aber nicht mehr besonders erw¨ ahnen, kann f¨ ur x ≥ L wie folgt abgesch¨ atzt werden: − x e f (x) = e− x |f (x)| ≤ e− x ea x = e(a−) x ∞ Da a − negativ ist, existiert 0 e(a−) x dx als uneigentliches Integral. So hat man die Existenz von L (f )(s) nach dem Majorantenkriterium f¨ ur (absolut-konvergente) uneigentliche Integrale. Die in der Bemerkung geforderte Integrierbarkeit (auf jedem Intervall [0, ]) uckist z. B. f¨ ur st¨ uckweise stetige Funktionen f : [0, ∞ [−→ gegeben. St¨ weise stetig bedeutet hier, daß in jedem kompakten Teilintervall von [0, ∞ [ h¨ ochstens endlich viele Unstetigkeitsstellen vorkommen, und an allen Unstetigkeitsstellen die einseitigen Grenzwerte existieren.
Beispiel einer st¨ uckweise stetigen Funktion
1
Kapitel 6
0
0
1
2
2.5
St¨ uckweise stetige Funktionen f : [0, ∞ [−→ sind, heißen zul¨ assig.
4
, die exponentiell beschr¨ ankt
Bemerkung 6.3.2 ur ein s0 ∈ Existiert L (f )(s0 ) f¨ mit Re(s) ≥ Re(s0 ).
, so existiert L (f )(s) f¨ ur alle Werte s ∈
Denn hier kann e− x f (x) als e−( − 0 ) x e− 0 x f (x) geschrieben werden, wobei ochstens 1 ist. der Faktor e−( − 0 ) x betraglich h¨ 8
Nat¨ urlich kann immer Œ
= 0 gew¨ ahlt werden.
6.3
227
Laplace-Transformation
Ein Standardbeispiel f¨ ur eine Funktion f , bei der L (f )(s) f¨ ur kein s ∈ existiert, ist gegeben durch 2
f¨ ur x ≥ 0 :
f (x) := ex Es seien s ∈
beliebig und := Re(s). F¨ ur x ≥ max(−, 2) zeigt x2 − x = ex2 e− x = ex (x−) ≥ e2 2 e e
die Divergenz von
∞
2
ex e−
x
dx .
0
Das Infimum aller reellen Werte s, f¨ ur die L (f )(s) existiert, wird als Konverur alle s ∈ mit Re(s) > σf genzabszisse bezeichnet und mit σf notiert. F¨ existiert L (f )(s) nach 6.3.2.
F¨ ur s ∈
betrachten wir noch: Λ := f | f : [0, ∞ [−→
, L (f )(s) existiert
Wir notieren die urspr¨ ungliche Funktion meist mit kleinen Buchstaben und die zugeh¨ orige Laplace-Transformierte mit dem entsprechenden Großbuchstaben9 , hier also F := L (f )
oder gelegentlich auch
F (s) = L {f (x)} .
Dabei werden oft f als Urbild- oder Originalfunktion und F als Bildfunktion angesprochen. Die Zuordnung f −→ F = L (f ) wird als Laplace-Transformation bezeichnet. Zwei erste Beispiele
∞ L (f )(s) =
− x
e 0
mit Re(s) > 0
∞ 1 1 − x dx = − e = s s 0
Die Konvergenzabszisse σf ist hier offenbar 0. Die Zwischenschritte f¨ ur 0 T 0
e−s x x =
−
∞
T 1 1 1 −s T
1 −s x −→ e − = e s s s s 0
(
−→ ∞)
haben wir hier schon weggelassen und werden das auch k¨ unftig meistens tun. 9
Manche Autoren machen es allerdings genau umgekehrt!
Kapitel 6
(B4) Es sei f (x) := 1 f¨ ur x ≥ 0. Dann gilt f¨ ur s ∈
228
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
(B5) Es sei f (x) := ea x f¨ ur x ≥ 0 mit einem a ∈ . Dann gilt f¨ ur s ∈ mit Re(s) > Re(a) 1 ; L (f )(s) = s−a ∞ ∞ − x ∞ denn e f (x)dx = e(− +a) x dx = 1 e(− +a) x = 1 . s−a a − s 0 0 0 Die Konvergenzabszisse σf ist hier offenbar Re(a).
Nun soll zur Berechnung einer Laplace-Transformierten nicht jedesmal auf die Definition zur¨ uckgegriffen werden; das w¨ are zu m¨ uhsam. Deshalb notieren wir als triviale‘ Eigenschaft schon einmal die Linearit¨ at ’
L (af + bg) = aL (f ) + b L (g) , genauer: F¨ ur s ∈ gilt:
, Funktionen f und g aus Λ und komplexe Konstanten a und b
af + bg ∈ Λ
mit L (af + bg)(s) = aL (f )(s) + b L (g)(s) .
Beweis: Dies liest man unmittelbar aus der entsprechenden Linearit¨ atsaussage f¨ ur das Integral ab. Damit erh¨ alt man dann das n¨ achste Beispiel fast ohne Rechnung: (B6) Es sei f (x) := cosh(ax) f¨ ur x ≥ 0 mit einem a ∈ . Wir schreiben hier und in ¨ ahnlichen Situationen auch kurz cosh(a ). Mit (B 5) liefert ur s ∈ mit Re(s) > |Re(a)| cosh(ax) = (ea x + e−a x )/2 f¨ s 1 1 1 . = 2 + L (f )(s) = s − a2 2 s−a s+a
Kapitel 6
Ebenso ergibt sich: 1 L (sinh(a ))(s) = 2
1 1 − s−a s+a
=
s2
a . − a2
Entsprechend erh¨alt man f¨ ur die trigonometrischen Funktionen f¨ ur komplexes mit Re(s) > |Im(a)| u a und s ∈ ¨ber cos(ax) = (ei a x + e−i a x )/2 und sin(ax) = (ei a x − e−i a x )/(2 ):
(B7)
L (cos(a ))(s) =
s2
s + a2
und
L (sin(a ))(s) =
s2
a ; + a2
denn zur Anwendung von (B5) muß hier Re(s) > Re( a) = −Im(a) und Re(s) > Re(− a) = Im(a), zusammen also Re(s) > |Im(a)|, gelten.
6.3
229
Laplace-Transformation
Es k¨ onnen nicht beliebige Funktionen F als Laplace-Transformierte auftreten: Bemerkung 6.3.3 Ist F die Laplace-Transformierte einer gegebenen Funktion f , so gilt: F (s) −→ 0 d. h.
f¨ ur Re(s) −→ ∞ gleichm¨ aßig bez¨ uglich Im(s) , ∈
>0
Beweis: F¨ ur s, s0 ∈ 0 < < ∞ hat man: ∞ |F (s)| ≤
− x
e
s ∈
: Re(s) ≥
=⇒ |F (s)| ≤ .
mit := Re(s) ≥ Re(s0 ) =: 0 > σf ,
−0 x
|f (x)| dx ≤
0
e
|f (x)| dx + e
−(−0 )
∞
> 0 und
e−0 x |f (x)| dx
0
Der erste Summand wird kleiner als /2, wenn hinreichend klein ist. Bei ur → ∞ . Das Integral festem strebt e−(−0 ) gegen 0 f¨ ∞ − derartigen 0x e |f (x)| dx kann durch den endlichen Wert L (|f |)(s0 ) abgesch¨atzt werden. Wir stellen — neben der schon notierten Linearit¨at — weitere Hilfsmittel bereit, die zusammen helfen werden, die Berechnung von vielen LaplaceTransformierten zu automatisieren‘: ’ Bemerkung 6.3.4 (D¨ ampfungssatz, Exponential-Shift) F¨ ur s, a ∈
sei f aus Λ
+a .
Dann geh¨ ort die Funktion e−a f zu Λ mit
L (e−a f )(s) = F (s + a) .
0
0
Mit dieser Bemerkung folgt aus Beispiel (B7) f¨ ur a, b ∈ s−b (s − b)2 + a2 a sin(a ))(s) = (s − b)2 + a2
L (eb cos(a ))(s) =
(B8)
L (eb
f¨ ur s ∈
mit Re(s) > |Im(a)| + Re(b) .
unmittelbar:
und
Kapitel 6
Der D¨ampfungsfaktor e−a x im Urbildbereich bewirkt also gerade eine Argumenttranslation im Bildbereich. ∞ ∞ Beweis: F (s + a) = e−( +a) x f (x) dx = e− x e−a x f (x) dx
230
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
¨ Bemerkung 6.3.5 (Streckung, Ahnlichkeitssatz) F¨ ur c > 0 und f ∈ Λ
/c
ist f (c ) in Λ mit
L (f (c ))(s) =
Beweis: F¨ ur positives T
gilt
−
e
s 1 . L (f ) c c
1 f (ct) dt = c
c T
e−(
/c) x
f (x) dx .
0
0
→ ∞ liefert so die Behauptung.
Der Grenz¨ ubergang
Satz 6.3.6 (Laplace-Transformierte der Ableitung) assiEs seien s ∈ und f eine stetige Funktion, deren Ableitung f als zul¨ ge Funktion existiert.10 Ist Re(s) hinreichend groß, so existiert — neben L (f )(s) — auch L (f )(s), und es gilt
L (f )(s) = s L (f )(s) − f (0) .
Kapitel 6
Differentiation im Urbildbereich entspricht also im Bildbereich einer Multiplikation mit s (bis auf den Anfangswert f (0)). Beweis: Es sei zun¨ achst f stetig differenzierbar. Nach Voraussetzung exiexp(ax) f¨ ur x ≥ 0. stieren positive Konstanten und a mit |f (x)| ≤ x f (x) = f (0) + 0 f (t) dt liefert u ¨ber x exp(ax) − 1 |f (x)| ≤ |f (0)| + exp(at) dt = |f (0)| + a 0 exp(ax) ≤ |f (0)| + a
die Zul¨assigkeit von f . F¨ ur positive T
− x
e 0
f (x) dx = e
− x
hat man durch partielle Integration T T f (x) + s e− x f (x) dx . 0
0
F¨ ur Re(s) > a und → ∞ strebt e− T f ( ) gegen 0. So ergibt sich die behauptete Formel. Im allgemeinen Fall teilt man ein Intervall [0, ] in at endlich viele Intervalle auf, in denen f stetig ist, und benutzt die Additivit¨ des Integrals bez¨ uglich der Intervallgrenzen. 10
f ist also in jedem kompakten Teilintervall von [ 0 , ∞ [ nur‘ bis auf h¨ ochstens ’ endlich viele Stellen differenzierbar.
6.3
231
Laplace-Transformation
Aus diesem Satz erh¨ alt man induktiv: Folgerung 6.3.7 (Laplace-Transformierte der h¨ oheren Ableitungen) sei f eine (n−1)-mal stetig differenzierbare Funktion. f (n) F¨ ur ein n ∈ existiere als zul¨ assige Funktion. Dann existieren f¨ ur hinreichend große Re(s) — neben L (f (n) )(s) — die Laplace-Transformierten L (f )(s), L (f )(s) bis L (f (n−1) )(s), und es gilt
L (f (n) )(s) = sn L (f )(s) − sn−1 f (0) − sn−2 f (0) − · · · − f (n−1) (0) , speziell also f¨ ur n = 2
L (f )(s) = s2 L (f )(s) − sf (0) − f (0) .
Anwendung auf Anfangswertaufgaben Wir sehen uns nun an, wie die Laplace-Transformation zur L¨ osung von Anfangswertaufgaben bei linearen Differentialgleichungen mit konstanten Koeffizienten herangezogen werden kann. Dazu betrachten wir gleich ein System dieser Art, also mit einer nat¨ urlichen Zahl k und einer festen Matrix A ∈ k das homogene Differentialgleichungssystem
y = Ay
(H)
und mit einer Abbildung g : [0, ∞ [−→ k das entsprechende inhomogene System y = Ay + g(x) . (I)
Wir zeigen zun¨ achst: Satz 6.3.8 Jede L¨ osung y von (I) ist zul¨ assig, besitzt also eine Laplace-Transformierte. Beweis: Da g zul¨assig ist, existieren nicht-negative Konstanten und a mit ur x ≥ 0. Œ kann dabei a > |A| gew¨ ahlt werden. Jede |g(x)| ≤ ea x f¨ L¨ osung y von (I) kann nach den Ergebnissen aus den Abschnitten 4.6 und 5.1 mit b := y(0) geschrieben werden in der Form
Kapitel 6
Wir setzen voraus, daß die Inhomogenit¨ at g zul¨ assig ist, d. h. ihre k Komponentenfunktionen zul¨ assig sind. Die Existenzaussage von Satz 4.1.1 gilt hier f¨ ur (I) unver¨ andert, wenn wir als L¨ osungen stetige Funktionen y zulassen, die die Differentialgleichung erf¨ ullen, bis auf die eventuellen Unstetigkeitsstellen von g .
232
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
x y(x) = exp(xA) b + exp(−tA)g(t) dt . 0
In Abschnitt 5.1 haben wir die einfache Absch¨atzung | exp( )| ≤ exp(| |) f¨ ur jede Matrix aus k vermerkt. Damit kann grob abgesch¨atzt werden:
x
|y(x)| ≤ exp(x|A|) |b| +
exp(t |A|) exp(at) dt
0
x
≤ exp(ax) |b| +
exp(2at) dt
0
= exp(ax) |b| +
1 (exp(2ax) − 1) ≤ exp(3ax) |b| + 2a 2a
F¨ ur eine Abbildung f : [0, ∞ [−→ k kann L (f )(s) komponentenweise erkl¨art werden oder einfach das entsprechende Integral — gem¨ aß Abschnitt 3.1 — komponentenweise gelesen werden. Satz 6.3.6 u agt sich von den ¨bertr¨ Komponentenfunktionen auf f :
L (f )(s) = s L (f )(s) − f (0) Aus (I) folgt mit Y := L (y) und G := L (g) aus der Linearit¨at von L sY (s) − y(0) = AY (s) + G(s) beziehungsweise mit b := y(0)
Kapitel 6
(A − s )Y (s) = − b + G(s) . Ist s kein Eigenwert von A, dann kann dies geschrieben werden in der Form Y (s) = −(A − s )−1 b + G(s) . ¨ F¨ ur theoretische Uberlegungen, praktisch jedoch nur in ganz einfachen F¨ allen ratsam, kann die Inverse von A − s mit dem charakteristischen Polynom χ von A durch 1 C(s) (A − s )−1 = χ (s)
bestimmt werden, wobei C(s) die Matrix aus den Cofaktoren (Adjunkte) von A − s ist (vgl. etwa [Koec]). F¨ ur den Term 1/χ (s) zieht man dann meist 11 Partialbruchzerlegung heran, um auf einfache Bausteine zu reduzieren. 11
Berechnet man die Partialbruchzerlegung numerisch, so muß man h¨ ochst vorsichtig sein; denn auch bei kleinen St¨ orungen‘ der Polynomkoeffizienten k¨ onnen ’ ¨ erhebliche Anderungen schon bei den Nullstellen auftreten.
6.3
233
Laplace-Transformation
Ein erstes einfaches Beispiel soll die dadurch vorgegebene Rechnung verdeutlichen:
(B9) y =
6 1 4 3
1 y mit y(0) = 2
Es liegt also der homogene Fall (g = 0, somit G = 0) mit k = 2 vor. 1 6−s 1 1 (A−s )Y (s) = − bedeutet Y (s) = − . 2 4 3−s 2 Das f¨ uhrt mit der bekannten Formel f¨ ur die Inverse einer (2, 2)-Matrix zu 1 3 − s −1 −1 Y (s) = −4 6 − s −2 (6 − s)(3 − s) − 4 1 1 s−1 s−1 = = 2 (s − 7)(s − 2) 2s − 8 s − 9s + 14 2s − 8
Die beiden Komponenten k¨ onnen leicht umgeformt werden zu: 4 1 6 2s − 8 1 1 6 s−1 + = , − = 5 s−7 s−2 (s − 7)(s − 2) 5 s−7 s−2 (s − 7)(s − 2)
Nach (B5) kann nun eine Funktion y , die dieses Y als LaplaceTransformierte hat, sofort angegeben werden: 1 6e7 x − e2 x y(x) = 5 6e7 x + 4e2 x
Dieses y l¨ost offenbar die Anfangswertaufgabe.
η (k) + α1 η (k−1) + · · · + αk η = γ(x)
(1)
mit gegebenen komplexen Zahlen α1 , . . . , αk und einer zul¨assigen Funktion γ wird mit der schon vertrauten Transformation 0
η .. .
y =
η (k−1)
subsumiert.
,
A :=
1 .. .. . . .. .. . . 0 1 −αk . . . . . . . . . −α1
,
g(x) :=
0 .. . 0 γ(x)
Kapitel 6
Die allgemeine lineare DGL h¨ oherer Ordnung mit konstanten Koeffizienten
234
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
(B1 ) η − 6η + 10η = 0 , η(0) = 0 , η (0) = 1 0 1 0 η Mit A := , b := und der Transformation y = −10 6 1 η lautet diese Aufgabe y = Ay , y(0) = b . F¨ ur Y := L (y) wird die −s 1 Y (s) = −b zu Bedingung (A − s )Y (s) = −b u ber ¨ −10 6 − s 1 1 1 6 − s −1 0 . = Y (s) = 10 −s −1 (s − 3)2 + 1 s s(s − 6) + 10
Zu der hier nur ben¨ otigten ersten Komponente 1/((s − 3)2 + 1) entnimmt man dem Beispiel (B8) η(x) = e3 x sin(x) als Urbild. Man best¨ atigt sofort, daß η die (eindeutig bestimmte) L¨ osung der Anfangswertaufgabe ist. Manche Anwender sehen die hier durchgef¨ uhrte Zur¨ uckf¨ uhrung auf ein Sy¨ stem eher als l¨ astigen Umweg. Daher stellen wir noch die folgenden Uberlegungen bereit, die wir mit einem einfachen Beispiel beginnen: (B11) η − η = 0
F¨ ur H := L (η)(s) erh¨ alt man nach 6.3.7 mit der Linearit¨ at von L s2 H(s)−sη(0)−η (0)−H(s) = 0 bzw. (s2 −1)H(s) = sη(0)+η (0). F¨ ur s ∈
mit Re(s) > 1 ergibt sich
Kapitel 6
H(s) =
1 s η (0) η(0) + 2 s −1 s2 − 1
und so nach (B6) ein Urbild η = η(0) cosh + η (0) sinh . Diese Form der L¨osung ist der Anfangswertaufgabe an der Stelle 0 mit Vorgabe von η(0) und η (0) angepaßt, da die beiden Werte hierbei explizit auftreten! Wendet man L — unter geeigneten Glattheitsvoraussetzungen an γ — auf (1) an, so erh¨ alt man mit H := L (η) und G := L (γ) u ¨ber L (η (k) )(s) + α1 L (η (k−1) )(s) + · · · + αk L (η)(s) = L (γ)(s) nach 6.3.7 mit β1 := η(0), . . . , βk := η (k−1) (0) sk H(s) − sk−1 β1 − sk−2 β2 − · · · − βk $ % + α1 sk−1 H(s) − sk−2 β1 − · · · − βk−1 + · · · + αk H(s) = G(s) .
6.3
235
Laplace-Transformation
Mit dem charakteristischen Polynom p = χ
von A, gegeben durch
p(s) = sk + α1 sk−1 + · · · + αk
f¨ ur s ∈
,
formt man um zu H(s)p(s) = sk−1 β1 +sk−2 β2 +α1 β1 +· · ·+ βk +α1 βk−1 +· · ·+αk−1 β1 +G(s). Erg¨ anzt man noch α0 := 1, so kann dies notiert werden in der Form ' & −1 k H(s)p(s) =
ασ β−σ =1
Zerlegt man mit µ = 1, . . . ,
∈
sk− + G(s) .
σ=0
, paarweise verschiedenen sµ ∈
und rµ ∈
f¨ ur
p(s) = (s − s1 )r1 · · · (s − s )rm , so ergibt sich f¨ ur die zugeh¨ orige homogene Differentialgleichung (also G = 0) eine Partialbruchzerlegung H(s) =
a ,rm a ,1 a1,r1 a1,1 + ··· + + ··· + + ··· + r 1 (s − s )rm s−s (s − s1 ) s − s1
mit Koeffizienten aµ,ν ∈ . Hat man diese bestimmt, so liefern (B5) und die noch zu zeigende Bemerkung 6.3.11 (vgl. auch die Tabelle am Schluß dieses Abschnitts) η(x) = a1,1 + · · · +a1,r1 xr1 −1 e 1 x + · · · + a ,1 + · · · +a ,rm xrm −1 e m x ,
also die schon aus Abschnitt 5.5 von der Struktur her vertrauten L¨ osungen. Hier hat man jedoch, das sei noch einmal betont, die Anfangswerte η(0), η (0), . . . ,η (k−1) (0) gleich mit eingearbeitet!
In vielen Anwendungen treten periodische Funktionen als Inhomogenit¨ aten auf. Die zugeh¨ orige Laplace-Transformierte berechnet sich leicht nach dem folgenden Satz 6.3.9 (Laplace-Transformierte periodischer Funktionen) F¨ ur eine st¨ uckweise stetige Funktion f mit Periode p ∈ ]0, ∞ [ und s ∈ mit Re(s) > 0 existiert die Laplace-Transformierte L (f )(s). Dabei gilt
1 L (f )(s) = 1 − e−
p p 0
e−
x
f (x) dx .
Kapitel 6
Wir haben zu diesem Thema bewußt viele Beispiele gebracht (man ziehe insbesondere auch das zugeh¨ orige MWS 6 heran!), weil sich gerade bei der Laplace-Transformation erst dann ein entscheidender Vorteil ergibt, wenn man die Hilfsmittel souver¨ an beherrscht.
236
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
Beweis: Da eine solche Funktion f offenbar stets beschr¨ankt ist, ist die Existenzaussage trivial‘. F¨ ur n ∈ rechnet man ’ (n+1) p
n
− x
e
(ν+1) p
f (x) dx =
e ν=0
0
n
− x
f (x) dx =
e−
(x+ν p)
f (x + p) dx
ν=0 0
νp
n − νp
=
p
p
e ν=0
n − x
e
− p ν
f (x) dx =
(e
)
ν=0
0
p
e−
x
f (x) dx
0
F¨ ur n → ∞ strebt die linke Seite gegen L (f )(s), die rechte Seite unter Beachtung von |e− p | = e−Re( ) p < 1 gem¨aß der Summenformel f¨ ur die geometrische Reihe gegen die rechte Seite der behaupteten Formel. (B12) Es sei f (x) := | sin(x)| f¨ ur x ≥ 0. F¨ ur s ∈ 1 L (f )(s) = 1 − e−
π π
e−
x
sin(x) dx =
0
mit Re(s) > 0 gilt
1 1 − e−
π
1 + e− π . s2 + 1
Das Integral wurde mit zweimaliger partieller Integration ausgewertet.
| sin( )|
1
Kapitel 6
0 0
2
3
4
Unstetige Inhomogenit¨ aten Beispielsweise bei der mathematischen Behandlung von Schaltvorg¨ angen in elektrischen Netzwerken oder auch der Injektionen von Medikamenten treten in nat¨ urlicher Weise unstetige Funktionen als Inhomogenit¨ aten auf. Als einfachstes Beispiel einer Funktion mit einer Sprungstelle betrachten wir die Heaviside12 -Funktion H , gegeben durch: 12
¨ Die Uberlegungen des britischen Physikers und Elektroingenieurs Oliver Heaviside (1 50 1 25) zur Operatorenrechnung, Laplace-Transformation und zu verallgemeinerten Funktionen erlangten erst nach seinem Tode allgemeine Anerkennung.
6.3
237
Laplace-Transformation
0, x<0 1, x≥0
H(x) :=
und damit f¨ ur positives c die um c nach rechts verschobenen HeavisideFunktion Hc , definiert durch 0, x
Hc (x) := H(x − c) = H2 1
0 2
0 − (B13) L (Hc )(s) = e s
c
4
f¨ ur Re(s) > 0
Hier rechnet man einfach: ∞ ∞ L (Hc )(s) = 0 e− x Hc (x)dx = c e−
x
∞ − dx = − 1 e− x = e s c
c
.
Auch f¨ ur eine beliebige Funktion f betrachten wir mit einem positiven c die um c nach rechts verschobene Funktion fc , definiert durch fc (x) :=
0 , x
Bemerkung 6.3.1
(Verschiebungssatz, Time-Shift)
Existiert f¨ ur eine Funktion f und eine komplexe Zahl s die LaplaceTransformierte L (f )(s), so existiert f¨ ur jedes positive c auch L (fc )(s), und es gilt L (fc )(s) = e− c L (f )(s) .
∞ Beweis: L (fc )(s) =
− x
e
∞ fc (x)dx = c
0
= e
− c
e− x f (x − c)dx
∞
− (x−c)
e c
f (x − c)dx = e
− c
∞ 0
e− f (t)dt
Kapitel 6
Oft wird x als Zeit interpretiert (und dann nat¨ urlich meist stattdessen mit t notiert). Deshalb wird die folgende Bemerkung auch als Aussage u ¨ber Zeitverz¨ ogerung interpretiert.
238
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
Als vorletztes theoretisches Resultat stellen wir noch eine Aussage u ¨ber die Differentiation einer Laplace-Transformierten im Bildraum beziehungsweise Multiplikation mit im Urbildraum bereit. Bei funktionentheoretischen Kenntnissen, die wir aber, wie schon mehrfach betont, in dieser Darstellung nicht voraussetzen wollen, ließe sich diese Aussage eleganter und glatter behandeln.
Bemerkung 6.3.11 (Differentiation von L (f ), Multiplikation mit )
assige Funktion. Mit der Laplace-TransforEs seien n ∈ und f eine zul¨ ur s ∈ mit Re(s) > σf und mierten F := L (f ) gilt n f ∈ Λ f¨
L( ∞ Beweis:
n
f )(s) = (−1)n F (n) (s) . ∞ ∂n (−1)n n e− x f (x) dx ∂s
e− x xn f (x) dx =
0
0
dn = (−1) dsn
∞
n
e− x f (x) dx = (−1)n F (n) (s)
0
Wenn Ihnen der entsprechende Satz u ¨ber die hier gemachte Vertauschung von Integration und Differentiation nicht gel¨ aufig ist, ist das nicht weiter schlimm. Wir ¨ setzen die obige Uberlegung 6. .11 nicht entscheidend ein.
(B14) Ist speziell f (x) = 1 f¨ ur x ≥ 0, so liefert 6.3.11 zusammen mit dem Beispiel (B4) f¨ ur s ∈ mit Re(s) > 0
Kapitel 6
L(
denn: L (
n
)(s) = (−1)n
n
)(s) =
n! ; sn+1
n! dn 1 = n+1 s dsn s
Zur inversen Laplace-Transformation Bei Vorgabe einer Funktion F ist eine Funktion f mit L (f )(s) = F sicher nicht eindeutig; denn jede solche Funktion kann ja zumindest an endlich vielen Stellen abge¨ andert werden, ohne den Wert des Integrals zu ¨ andern. Statt L (f )(s) = F schreibt man dennoch meist f = L −1 (F ) . Eine pr¨ azisere, jedoch un¨ ubliche, Notierungsweise w¨ are stattdessen f ∈ L −1 (F )
6.3
239
Laplace-Transformation
und die Lesart: f ist eine Funktion, die F als Laplace-Transformierte hat. Bei der Zuordnung F −→ L −1 (F ) spricht man von inverser LaplaceTransformation. Die Herleitung von allgemeinen Formeln f¨ ur die inverse Laplace-Transformation ist ausgesprochen anspruchsvoll. Wir gehen darauf nicht ein. Wir begn¨ ugen uns zur Eindeutigkeitsfrage mit der folgenden — f¨ ur die L¨osung von Differentialgleichungen weitgehend ausreichenden — Teilaussage: Satz 6.3.12 (Satz von Lerch13 , Eindeutigkeit) Sind f und g stetige Funktionen mit L (f )(s) = L (g)(s) f¨ ur ein reelles σ und alle s ∈
mit Re(s) > σ , so gilt f = g .
Beweis: Wir betrachten die Differenzfunktion h := f − g , haben f¨ ur H := L (h) also H(s) = 0 f¨ ur alle s ∈ mit Re(s) > σ . Speziell gilt H(σ +n) = 0 f¨ ur n ∈ , also ∞ e−(σ+n) x h(x) dx = 0 .
0
Wir substituieren e
−x
= t und ϕ(t) := e−σ x h(x) und erhalten 1 tn−1 ϕ(t) dt = 0 f¨ ur n ∈
.
0
Folglich gilt
1 P (t) ϕ(t) dt = 0
1
1 |ϕ(t)| dt = 2
0
ϕ(t) ϕ(t) dt = 0 . 0
Das zeigt ϕ(t) = 0 f¨ ur t ∈ [0, 1] und damit h = 0. 13
Der tschechische Mathematiker Mathias Lerch (1 60 1 22) war ein Sch¨ uler von Weierstraß, Kronecker und Fuchs.
Kapitel 6
0
f¨ ur jedes Polynom P . Nach dem Satz von Weierstraß kann die stetige aßig auf dem Intervall [0, 1] durch Polynome approxiFunktion ϕ gleichm¨ miert werden. Damit gilt
240
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
Mit einem abschließenden kleinen Beispiel zeigen wir, daß Laplace-Transformation in speziellen F¨ allen auch noch herangezogen werden kann, wenn keine konstanten Koeffizienten vorliegen: (B15) xη − xη − η = 0 mit η(0) = 0, η (0) = 1
Mit H := L (η) hat man nach 6.3.7 und 6.3.11 L ( η )(s) = − L (η ) (s) = − 2sH(s) + s2 H (s) und L ( η )(s) = − L (η ) (s) = − H(s) + sH (s) .
Eingesetzt in die Differentialgleichung ergibt dies −2sH −s2 H +H +sH −H = 0 und so H =
−2 H f¨ ur s = 1 . s−1
Diese einfache DGL mit getrennten Variablen wird durch H mit gel¨ost. 6.3.11 liefert in Verbinur ein c ∈ H(s) = c/(s − 1)2 f¨ dung mit Beispiel (B5) durch η(x) = cxex eine Urbildfunktion η . Die Bedingung η (0) = 1 zeigt c = 1. η(x) = xex liefert also die L¨osung der Anfangswertaufgabe.
Kleine Tabelle von Laplace-Transformierten
Kapitel 6
In der folgenden relativ kleinen Tabelle kann und soll keine Vollst¨andigkeit angestrebt werden. Wir notieren nur die schon gerechneten Beispiele. Im Bedarfsfall wird man erg¨ anzend etwa [Doet], [Kapl] oder [Ma/Ob] oder — heute wohl eher — direkt ein Computeralgebrasystem heranziehen. Zur Handhabung der Tabelle sei erinnert an die bereitgestellten Regeln: ¨ Linearit¨ at, D¨ ampfungssatz, Ahnlichkeitssatz, Verschiebungssatz, LaplaceTransformierte f¨ ur periodische Funktionen, Laplace-Transformierte der Ableitungen und Ableitung der Laplace-Transformierten. a und b seien komplexe Zahlen, c eine positive Zahl und n ∈ 0 .
6.3
241
Laplace-Transformation
f (x) f¨ ur x ≥ 0
F (s) f¨ ur s > σf
σf
1
1 s 1 s−a s s2 − a2 a s2 − a2 s s2 + a2 a s2 + a2 s−b (s − b)2 + a2 a (s − b)2 + a2 n! sn+1 n! (s − a)n+1
0
ea x
cosh(ax)
sinh(ax)
cos(ax)
sin(ax)
eb x cos(ax)
eb x sin(ax)
xn
xn ea x
Hc (x) =
1,
x≥c
0,
x
e− s
Re(a)
|Re(a)|
|Re(a)|
|Im(a)|
|Im(a)|
|Im(a)| + Re(b)
|Im(a)| + Re(b)
0
Re(a)
c
0
Kapitel 6
¨ F¨ ur eine F¨ ulle von weiteren Uberlegungen und weitergehenden Aussagen zur Laplace-Transformation verweisen wir auf die Spezialliteratur, z. B. [Doet], [Kapl] und [Widd]. So gehen wir beispielsweise nicht mehr auf die Faltung und ihre vielseitigen Anwendungen ein.
242
Kapitel 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
Historische Notizen
Pierre Simon Marquis de Laplace (1749–1827)
Kapitel 6
wurde oft als der Newton Frankreichs bezeichnet. Gef¨ ordert von d’Alembert, wurde er schon 1785 Mitglied der Pariser Akademie der Wissenschaften. Seine Theorie analytique des probabi” lites“ stellte die erste systematische Behandlung der Wahrscheinlichkeitstheorie dar. In seiner f¨ unfb¨ andigen Mecanique ” celeste“ beschrieb er die Gesetzm¨aßigkeiten der Bewegungen der Himmelsk¨ orper und behandelte dabei partielle Differentialgleichungen und Potentialtheorie. Politisch war er — h¨ oflich gesagt — gewandt. Er soll nur deshalb der Guillotine entgangen sein, weil er Tabellen f¨ ur die Artillerie berechnen und die Herstellung von Salpeter zur Schießpulvererzeugung leiten sollte. Unter Napoleon I war er kurze Zeit Innenminister, jedoch in diesem Amt deutlich weniger erfolgreich als in der Mathematik.
MWS zu Kapitel 6
Nu ¨ tzliches — nicht nur fu ¨r den Praktiker Wichtige Maple-Befehle dieses Kapitels: dsolve(..., type=series), dsolve(..., method=laplace), rsolve DEtools-Paket: polysols, expsols, eulersols, regularsp, indicialeq powseries-Paket: powsolve, tpsform Slode-Paket: FPseries, FTseries orthopoly-Paket: H, P (Hermite- bzw. Legendre-Polynome) inttrans-Paket: laplace, invlaplace convert(expr, StandardFunctions)
6.1 L¨ osungen u ¨ ber Potenzreihenansatz Beispiel 1:
Dgl := y − 4y + 4y − x2 Wir erinnern zun¨achst an Wohlbekanntes. Neben dem vielseitigen Befehl dsolve verf¨ ugt Maple u osungen spezieller Ge¨ber Befehle, mit deren Hilfe L¨ stalt gewonnen werden k¨onnen (vgl. auch Beispiel 3 in MWS 4): > with(DEtools): polysols(Dgl,y(x)); expsols(Dgl,y(x));
$ % [ ], 3 + 1 x + 1 x2 , 8 2 4
$
% e2 x , e2 x x , 3 + 1 x + 1 x2 8 2 4
Die Methode der unbestimmten Koeffizienten kann mit Maple wie folgt umgesetzt werden. Wir gehen in diesem Beispiel davon aus, daß ein Polynom h¨ochstens zweiten Grades als L¨osung existiert:
MWS 6
> restart: Dgl := diff(y(x),x$2)-4*diff(y(x),x)+4*y(x)-x^2;
244
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
> subs(y(x)=a[0]+a[1]*x+a[2]*x^2,Dgl): collect(%,x): Sys := {seq(coeff(%,x,k)=0,k=0..degree(%,x))}; solve(Sys);
Sys :=
− 8a2 + 4a1 = 0, 4a2 − 1 = 0, 2a2 − 4a1 + 4a0 = 0 a2 = 1 , a1 = 1 , a0 = 3 4 2 8
Allgemeiner ist nat¨ urlich der Potenzreihenansatz:
5
> with(powseries): sol := powsolve(Dgl): # l¨ ost LINEARE DGLen u ¨ber Potenzreihenansatz tpsform(sol,x); # truncated power series form alias(k=_k): # Maple verwendet (f¨ ur sol) per Default _k statt k a(k) = sol(k); # gibt Rekursion f¨ ur die Koeffizienten der Reihe
C0 + C1 x + (2C1 − 2C0 )x2 + 2C1 − 8C0 x3 + 4C1 − 2C0 + 1 x4 3 3 12 16C0 1 2C1 5 6 x + O(x ) + − + 3 15 15 4 a(k − 1)k − a(k − 1) − a(k − 2) a(k) = k (k − 1) Man beachte, daß die Rekursion f¨ ur k = 4 wegen der Inhomogenit¨ at der Differentialgleichung a4 = (12a3 − 4a2 + 1)/12 heißen muß! Beispiel 2: Zu l¨osen ist die Anfangswertaufgabe y = x2 + y 2 mit y(0) = 1 . Man vergleiche dazu das Beispiel 3 a aus MWS 3. Wir erinnern noch einmal daran, daß es sich um eine Riccati-DGL handelt, die nicht elementar integrierbar ist.
MWS 6
> restart: Dgl := diff(y(x),x) = x^2+y(x)^2; AnfBed := y(0) = 1;
Dgl := y = x2 + y 2 ,
AnfBed := y(0) = 1
Wir l¨osen diese AWA zun¨ achst symbolisch: > dsolve({Dgl,AnfBed});
⎞ 2 3 + π BesselJ −3 , x2 − Γ ⎜ 4 4 2 + BesselY −3 , x2 ⎟ x⎝ 2 4 2 ⎠ Γ 3 4 y = − 2 2 3 −Γ + π BesselJ 1 , x 4 4 2 + BesselY 1 , x2 2 4 2 Γ 3 4 ⎛
6.1
L¨ osungen u ¨ber Potenzreihenansatz (MWS)
245
Wenn wir auch die hier auftretenden Bessel-Funktionen im n¨ achsten Abschnitt kennenlernen werden, so erschließt sich dennoch diese Formel nur dem, der im Umgang mit ihnen wirklich ge¨ ubt ist. Die Gammafunktion Γ und die Bessel-Funktionen geh¨ oren, wie auch die sp¨ ater auftretenden Airy- und hypergeometrischen Funktionen, zu dem reichhaltigen Reper¨ toire an Standardfunktionen von Maple. Einen Uberblick u ¨ber all diese Funktionen kann man sich mit ?inifcns (initially known mathematical functions) verschaffen.
Bei der L¨osung mittels Potenzreihenansatz haben wir mehrere M¨ oglichkeiten, die Koeffizienten der Taylor-Reihe zu y zu bestimmen: a) durch fortgesetztes Differenzieren der Differentialgleichung: Wir beginnen mit einigen Gehversuchen in Einzelschritten: > Dy[0] := AnfBed;
Dy 0 := y(0) = 1
> DGL[0] := convert(Dgl,D); Dy[1]
:= subs(x=0,Dy[0],%);
DGL0 := D(y)(x) = x2 + y 2 ,
Dy 1 := D(y)(0) = 1
> DGL[1] := convert(diff(DGL[0],x),D); Dy[2] := subs(x=0,seq(Dy[k],k=0..1),%);
DGL1 := D2 (y)(x) = 2 x + 2 y D(y)(x) ,
Dy 2 := D2 (y)(0) = 2
. . . und jetzt etwas kompakter:
y(0) = 1, D(y)(0) = 1, D2 (y)(0) = 2, D3 (y)(0) = 8, D4 (y)(0) = 28 > series(y(x),x=0,N+1): convert(%,polynom): subs(seq(Dy[k],k=0..N),%);
1 + x + x2 + 4 x3 + 7 x4 + 6 x5 + 37 x6 + 404 x7 + 369 x8 3 6 5 30 315 280 b) durch Koeffizientenvergleich:
Aus y(x) =
∞ 9
aν xν folgen
ν=0
y (x) =
∞ 0 ν=0
ν
(ν + 1)aν+1 x
2
und y(x) =
∞ 0 ν 0 ν=0
k=0
ak aν−k xν .
MWS 6
5
> DGL[0] := convert(Dgl,D): Dy[0] := AnfBed: N := 8: for n to N do convert(DGL[n-1],D): Dy[n] := subs(x=0,seq(Dy[k],k=0..n-1),%); DGL[n] := convert(diff(DGL[n-1],x),D) end do: seq(Dy[k],k=0..4);
246
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
Es ist somit f¨ ur ν ∈ N \ {2} die Rekursion (ν + 1)aν+1 =
ν 0
ak aν−k mit a0 = y(0) = 1 und 3a3 = 1 +
k=0
2 0
ak a2−k
k=0
zu l¨osen. Dazu stellen wir eine kleine Prozedur bereit:
5
> a := proc(nu) option remember: local k: if nu=0 then return 1 else return (‘if‘(nu=3,1,0)+add(a(k)*a(nu-1-k),k=0..nu-1))/nu end if end proc: add(a(nu)*x^nu,nu=0..N);
1 + x + x2 + 4 x3 + 7 x4 + 6 x5 + 37 x6 + 404 x7 + 369 x8 3 6 5 30 315 280 c) direkt mit dem Maple-Befehl dsolve und der Option type=series : > Order := N+1: dsolve({Dgl,AnfBed},y(x),type=series);
y = 1 + x + x2 + 4 x3 + 7 x4 + 6 x5 + 37 x6 + 404 x7 + 369 x8 + O(x9 ) 3 6 5 30 315 280
Hermite-Differentialgleichung
MWS 6
> restart: Dgl := diff(y(x),x$2)-2*x*diff(y(x),x)+lambda*y(x) = 0;
Dgl := y − 2x y + λy = 0 > with(powseries): sol := powsolve(Dgl): tpsform(sol,x,5); a(_k) = sol(_k);
(λ − 2)C1 3 (λ − 4)λ C0 4 C0 + C1 x − λ C0 x2 − x + x + O(x5 ) 2 6 24 (λ − 2 k + 4)a( k − 2) a( k) = − k ( k − 1)
5
> with(Slode): # Special linear ordinary differential equations FPseries(Dgl,y(x),a(nu)); # formal power series # l¨ ost HOMOGENE lineare DGLen u ¨ber Potenzreihenansatz # und gibt die Rekursion f¨ ur die Koeffizienten op(2,%) = 0: isolate(%,a(nu)): factor(%); Rek := %: # Rekursion
6.1
L¨ osungen u ¨ber Potenzreihenansatz (MWS)
247
∞ 0 FPSstruct C0 + C1 x + a(ν)xν , (ν 2 − ν)a(ν) + (λ − 2ν + 4)a(ν − 2) ν=2
a(ν) =
(−λ + 2ν − 4)a(ν − 2) ν (ν − 1)
Man kann dabei noch den Entwicklungspunkt (in unserem Beispiel ist das weiterhin 0), die Bezeichnung der freien Parameter (jetzt c0 , c1 ) und die Anzahl der ausgewerteten Koeffizienten (nun 3) vorgeben: > FPseries(Dgl,y(x),a(nu),0,c,3); ∞ 0 FPSstruct c0 + c1 x − 1 λc0 x2 + − λ + 1 c1 x3 + a(ν)xν , 2 6 3 ν=4 (ν 2 − ν)a(ν) + (λ − 2ν + 4)a(ν − 2)
Maple unterscheidet — vermutlich f¨ ur mathematisch zartbesaitete Nutzer — noch formale Taylor-Reihen: > FTseries(Dgl,y(x),a(nu),0,c,3); op(2,%) = 0: isolate(%,a(nu));
# formal Taylor series
∞ 0 λ 1 a(ν) ν 1 2 3 c x + FPSstruct c0 + c1 x − λc0 x + − + x , 2 6 3 1 ν! ν=4 a(ν) + (λ − 2ν + 4)a(ν − 2)
a(ν) = −(λ − 2ν + 4)a(ν − 2) Entsprechend dem Vorgehen im Textteil wollen wir die beiden L¨ osungen η1, λ und η2, λ mit a0 = 1, a1 = 0 beziehungsweise a0 = 0, a1 = 1 bestimmen:
(−λ + 4k − 4) b(k − 1) rek1 := b(k) = 1 2 k (2k − 1) (−λ + 4k − 2)b(k − 1) 1 rek2 := b(k) = 2 k (2k + 1) ost werden: Diese Rekursionen k¨ onnen mit dem Maple-Befehl rsolve gel¨ > rsolve({rek1,b(0)=1},b(k)): b1 := unapply(%,k): rsolve({rek2,b(0)=1},b(k)): b2 := unapply(%,k): ’b[1](k)’ = b1(k), ’b[2](k)’ = b2(k);
4k Γ k − λ 4k Γ k − λ + 1 4 2 , b2 (k) = 4 b1 (k) = Γ (2k + 1)Γ − λ Γ (2k + 2)Γ − λ + 1 4 4 2
MWS 6
> subs(nu=2*k,Rek): rek1 := subs({a(2*k)=b(k),a(2*k-2)=b(k-1)},%); subs(nu=2*k+1,Rek): rek2 := subs({a(2*k+1)=b(k),a(2*k-1)=b(k-1)},%);
248
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
Es ergeben sich damit die gesuchten Funktionen, deren Gestalt von der verwendeten Maple-Version abh¨angen kann: > sum(b1(k)*x^(2*k),k=0..infinity): eta1 := unapply(%,x): sum(b2(k)*x^(2*k+1),k=0..infinity): eta2 := unapply(%,x): ’eta[1,lambda](x)’ = eta1(x), ’eta[2,lambda](x)’ = eta2(x);
% $ % − λ , 1 , x2 4 2 % $ % $ η2, λ (x) = x hypergeom − λ + 1 , 3 , x2 4 2 2 $
η1, λ (x) = hypergeom
Zur Probe setzen wir diese in die Hermite-Differentialgleichung ein und u ufen die Anfangsbedingungen: ¨berpr¨ > odetest(y(x)=eta1(x),Dgl), odetest(y(x)=eta2(x),Dgl); eta1(0), eta2(0); eval(diff(eta1(x),x),x=0), eval(diff(eta2(x),x),x=0);
0, 0 ,
1, 0 ,
0, 1
Aus dem Textteil wissen wir bereits, daß sich f¨ ur gewisse ganzzahlige Parameterwerte λ Polynome ergeben. Diese sind skalare Vielfache der HermitePolynome. > eval(eta1(x),lambda=4*n): seq(simplify(%),n=0..3); eval(eta2(x),lambda=4*n+2): seq((expand@simplify)(%),n=0..3);
MWS 6
1, −2x2 + 1, −4x2 + 4 x4 + 1, 4x4 − 8 x6 + 1 − 6x2 3 15 2 4 4 3 3 5 3 x, − x + x, x − x + x , x − 2x + 4 x5 − 8 x7 3 3 15 5 105 Die Hermite-Polynome als Orthogonalpolynome: Auf die Bedeutung der Hermite-Polynome als spezielle Orthogonalpolynome und die F¨ ulle der m¨ oglichen Aussagen dazu gehen wir nicht ein. Wir erw¨ ahnen diesen Begriff lediglich, weil man diese Polynome in dem Paket orthopoly findet. > h := (n,x) -> expand(HermiteH(n,x)): seq(h(n,x)/coeff(h(n,x),x,ldegree(h(n,x))),n=0..5);
1, x, −2x2 + 1, − 2 x3 + x , −4x2 + 4 x4 + 1, x − 4 x3 + 4 x5 3 3 3 15 > with(orthopoly): with(plots): h := (k,x) -> H(k,x)/coeff(H(k,x),x,ldegree(H(k,x))): folge := seq(plot(h(n,x),x=-2..2,numpoints=500,color=blue,
6.1
5
L¨ osungen u ¨ber Potenzreihenansatz (MWS)
249
title=cat(convert(n,string),". Hermite-Polynom")),n=1..5): display(folge,insequence=true,tickmarks=[[-2,-1,1,2],[-3,-1,1,3]], view=[-2..2,-3..3]);
3. Hermite-Polynom 3
1 –2
–1
1
2
–1
–3
Legendre-Differentialgleichung In diesem Teilabschnitt verzichten wir auf erl¨ auternde Kommentare, da das Vorgehen dem zur Hermite-Differentialgleichung entspricht. > restart: macro(dy1=diff(y(x),x),dy2=diff(y(x),x$2)): Dgl := (1-x^2)*dy2-2*x*dy1+lambda*(lambda+1)*y(x) = 0;
Dgl := (1 − x2 )y − 2x y + λ (λ + 1)y = 0 > with(Slode): FPseries(Dgl,y(x),a(nu)); op(2,%) = 0; isolate(%,a(nu)): factor(%); Rek := %: # Rekursion
FPSstruct C 0 + C 1 x +
∞ 0
a(ν)xν ,
...
ν=2
(ν 2 − ν)a(ν) + (3ν − 2 + λ2 + λ − ν 2 )a(ν − 2) = 0 a(ν) =
(ν − 1 + λ)(ν − 2 − λ)a(ν − 2) (ν − 1)ν
> subs(nu=2*k,Rek): rek1 := subs({a(2*k)=b(k),a(2*k-2)=b(k-1)},%); subs(nu=2*k+1,Rek): rek2 := subs({a(2*k+1)=b(k),a(2*k-1)=b(k-1)},%);
1 (2k − 1 + λ)(2k − 2 − λ)b(k − 1) 2 (2k − 1)k 1 (2k + λ)(2k − 1 − λ)b(k − 1) rek2 := b(k) = 2 k (2k + 1)
rek1 := b(k) =
MWS 6
250
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
> rsolve({rek1,b(0)=1},b(k)): b1 := unapply(%,k): rsolve({rek2,b(0)=1},b(k)): b2 := unapply(%,k): ’b[1](k)’ = b1(k), ’b[2](k)’ = b2(k);
4k Γ k + λ + 1 Γ k − λ 2 2 2 b1 (k) = Γ (2k + 1)Γ λ + 1 Γ − λ 2 2 2 λ λ 4k Γ +1+k Γ − +k+ 1 2 2 2 b2 (k) = λ λ 1 Γ (2k + 2)Γ + 1)Γ − + 2 2 2 > sum(b1(k)*x^(2*k),k=0..infinity): eta1 := unapply(%,x): sum(b2(k)*x^(2*k+1),k=0..infinity): eta2 := unapply(%,x): ’eta[1,lambda](x)’ = eta1(x), ’eta[2,lambda](x)’ = eta2(x);
% $ % − λ , λ + 1 , 1 x2 2 2 2 2 $ % $ % λ 1 λ η2, λ (x) = x hypergeom 1 + , − , 3 , x2 2 2 2 2 $
η1, λ (x) = hypergeom
> odetest(y(x)=eta1(x),Dgl), odetest(y(x)=eta2(x),Dgl); eta1(0), eta2(0); eval(diff(eta1(x),x),x=0), eval(diff(eta2(x),x),x=0);
0, 0 ,
1, 0 ,
0, 1
MWS 6
> alias(StandFunc=StandardFunctions): seq(expand(convert(subs(lambda=2*n,eta1(x)),StandFunc)),n=0..2); seq(expand(convert(subs(lambda=-(2*n+1),eta1(x)),StandFunc)),n=0..2);
1, 1 − 3x2 , 1 + 35 x4 − 10x2 , 3
1, 1 − 3x2 , 1 + 35 x4 − 10x2 3
> seq(expand(convert(subs(lambda=2*n+1,eta2(x)),StandFunc)),n=0..2); seq(expand(convert(subs(lambda=-2*n,eta2(x)),StandFunc)),n=1..3);
x , x − 5 x3 , x − 14 x3 + 21 x5 , 3 3 5
x, x − 5 x3 , x − 14 x3 + 21 x5 3 3 5
Die Legendre-Polynome als Orthogonalpolynome: > h := (n,x) -> expand(LegendreP(n,x)): seq(h(n,x)/coeff(h(n,x),x,ldegree(h(n,x))),n=0..5);
1, x, 1 − 3x2 , x − 5 x3 , 1 + 35 x4 − 10x2 , x − 14 x3 + 21 x5 3 3 3 5
6.1
5
L¨ osungen u ¨ber Potenzreihenansatz (MWS)
251
> with(plots): with(orthopoly): h := (k,x) -> P(k,x)/coeff(P(k,x),x,ldegree(P(k,x))): folge := seq(plot(h(n,x),x=-1..1,numpoints=500,color=blue, title=cat(convert(n,string),". Legendre-Polynom")),n=1..6): display(folge,insequence=true,tickmarks=[[-1,0,1],[-3,-1,1,3]]);
6. Legendre-Polynom 3
1 –1
1 –1
–3
Airy1 -Differentialgleichung > restart: Dgl := diff(y(x),x$2)-x*y(x) = 0;
Dgl := y − x y = 0 Nach Satz 6.1.1 beziehungsweise Folgerung 6.1.2 des Textteils erhalten wir durch Potenzreihenansatz analytische L¨ osungen mit Konvergenzradius r = ∞ . Wir bestimmen die Rekursionsformel f¨ ur die Koeffizienten der Reihenentwicklung:
∞ 0 FPSstruct c0 + c1 x + 1 c0 x3 + 1 c1 x4 + 1 c0 x6 + a(ν)xν , . . . 12 6 180 ν=7
(ν − ν)a(ν) − a(ν − 3) = 0 , 2
a(ν − 3) a(ν) = ν (ν − 1)
Da aν durch a9 uns f¨ ur Fundamentall¨ osunν−3 bestimmt ist, interessieren wir 9∞ ∞ 3ν 3 ν+1 a x beziehungsweise a x . (Der quagen der Form ν=0 3 ν ν=0 3 ν+1 ur ν ∈ N0 .) dratische Term tritt nicht auf; daher ist a3 ν+2 = 0 f¨ 1
Der englische Mathematiker und Astronom George Biddell Airy (1801– 1892) war in seinen mathematischen Arbeiten durchaus praktisch orientiert. So befaßte er sich u. a. mit numerischer Mondtheorie, Fragen zum VenusOrbit, mathematischer Musiktheorie und entdeckte den Astigmatismus des menschlichen Auges.
MWS 6
> with(Slode): FPseries(Dgl,y(x),a(nu),x=0,c,6); op(2,%) = 0; isolate(%,a(nu)): factor(%); Rek := %: # Rekursion
252
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
> subs(nu=3*k,Rek): rek1 := subs({a(3*k)=b(k),a(3*k-3)=b(k-1)},%); subs(nu=3*k+1,Rek): rek2 := subs({a(3*k+1)=b(k),a(3*k-2)=b(k-1)},%);
b(k − 1) rek1 := b(k) = 1 , 3 k (3k − 1)
b(k − 1) rek2 := b(k) = 1 3 (3k + 1)k
> rsolve({rek1,b(0)=1},b(k)); b1 := unapply(%,k): rsolve({rek2,b(0)=1},b(k)); b2 := unapply(%,k):
9−k Γ 2 3 , 2 Γ (k + )Γ (k + 1) 3
√ 2 · 9−1−k π 3 Γ k + 4 Γ 2 Γ (k + 1) 3 3
> sum(b1(k)*x^(3*k),k=0..infinity): A1 := unapply(%,x): sum(b2(k)*x^(3*k+1),k=0..infinity): A2 := unapply(%,x): ’A[1](x)’ = A1(x), ’A[2](x)’ = A2(x);
√ 1 x3 Γ 2 32/3 (x3 )1/6 2 −1 A1 (x) = BesselI , 3 3 3 3 √ 3 x BesselI 1 , 2 x π 35/6 2 3 3 A2 (x) = 9 Γ 2 (x3 )1/6 3 Die beiden Funktionen A1 und A2 haben Bedeutung in der Quantenmechanik. An den Koeffizienten kann man erkennen, daß beide L¨ osungen f¨ ur ¨ positive x eine gewisse Ahnlichkeit mit den Hyperbelfunktionen haben und ¨ deshalb monoton wachsen. F¨ ur negative x besteht eine Ahnlichkeit mit dem oszillierenden Verhalten der trigonometrischen Funktionen.
MWS 6
> series(A1(x),x=0,12); series(A2(x),x=0,10);
1 + 1 x3 + 1 x6 + 1 x9 + O x12 , 6 180 12960
x + 1 x4 + 1 x7 + O x10 12 504
> plot([A1(x),A2(x)],x=-8..3,y=-1.3..3,color=blue, linestyle=[1,2],thickness=2,labels=["",""]);
Die Airy-Funktionen A1 und A2 3
2
1
–8
–6
–4
–2
0 –1
2
6.1
L¨ osungen u ¨ber Potenzreihenansatz (MWS)
253
> odetest(y(x)=A1(x),Dgl), odetest(y(x)=A2(x),Dgl); limit(A1(x),x=0), limit(A2(x),x=0); limit(D(A1)(x),x=0), limit(D(A2)(x),x=0);
0, 0 ,
1, 0 ,
0, 1
Anwendung der Potenzreihenmethode auf ein DGL-System Beispiel 3: Wir greifen das einfache Beispiel (B 2) aus Abschnitt 6.1 des Textteils auf: x 1 1 und y(0) = . y = F (x)y mit F (x) := 1 x 0 > restart: with(LinearAlgebra): Sys := diff(y[1](x),x) = x*y[1](x)+y[2](x), diff(y[2](x),x) = y[1](x)+x*y[2](x); AnfBed := y[1](0)=1,y[2](0)=0;
Sys := y1 = x y1 + y2 , y2 = y1 + x y2 ,
AnfBed = y1 (0) = 1, y2 (0) = 0
Symbolisches L¨osen: > dsolve({Sys,AnfBed});
7 8 2 2 2 2 y1 = 1 e x+1/2 x + 1 e −x+1/2 x , y2 = 1 e x+1/2 x − 1 e −x+1/2 x 2 2 2 2 Wir kommen zum Potenzreihenansatz und arbeiten dabei a) mit Koeffizientenvergleich:
F (x ) = Aus einem Ansatz y(x) = und y (x) =
∞ 9
∞ 9
x 1 1 x
aν xν folgen F (x)y(x) =
ν=0
∞ 9
xν (x E + F0 )aν
ν=0
(ν + 1)xν aν+1 . Es ist somit f¨ ur ν ∈ N die Rekursion
ν=0
(ν +1)aν+1 = aν−1 +F0 aν mit a0 = y(0) = (1, 0)T und a1 = F0 a0 = (0, 1)T zu l¨osen. Das machen wir nat¨ urlich wieder mit einer Prozedur: > a := proc(nu) option remember: if nu=0 then return [1,0]
MWS 6
> E := IdentityMatrix(2): F[0] := Matrix([[0,1],[1,0]]): ‘F(x)‘ = x*E+F[0]; 5 6
254
5
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
elif nu=1 then return F[0].a(0) else return (a(nu-2)+F[0].a(nu-1))/nu end if end proc: y(x) = evalm(add(evalm(x^nu*a(nu)),nu=0..8));
5 6 y = 1 + x2 + 5 x4 + 19 x6 + 191 x8 , x + 2 x3 + 13 x5 + 29 x7 12 180 10080 3 60 630
b) direkt mit dem Maple-Befehl dsolve und der Option type=series , die offenbar auch auf Systeme anwendbar sind: > Order := 7: dsolve({Sys,AnfBed},{y[1](x),y[2](x)},type=series);
8 7 y1 = 1 + x2 + 5 x4 + 19 x6 + O(x7 ), y2 = x + 2 x3 + 13 x5 + O(x7 ) 12 180 3 60
6.2 Schwach singul¨ are Punkte Differentialgleichungen mit singul¨aren Stellen sind nicht immer durch einen Potenzreihenansatz l¨osbar. An Euler-Differentialgleichungen wollen wir uns — wie schon in Beispiel (B 3) des Textteils ausgef¨ uhrt — nun auch mit Maple klarmachen, daß man mit einem modifizierten Ansatz arbeiten muß: Beispiel 4: > restart: Dgl := x^2*diff(y(x),x$2)+4*x*diff(y(x),x)+2*y(x) = 0;
MWS 6
Dgl := x2 y + 4x y + 2y = 0 > with(Slode): FPseries(Dgl,y(x),a(nu)); op(2,%) = 0; isolate(%,a(nu));
FPSstruct
0 ∞
ν
a(ν)x , a(ν) 2 + 3ν + ν
a(ν) 2 + 3ν + ν 2 = 0 ,
2
ν=0
a(ν) = 0
PDEtools[declare] (vgl. Seite 11) ist zu Beginn folgender Anweisungsgruppe (durch unsere Initialisierungsdatei) auf ON und liefert Differentialausdr¨ ucke im kompaktem Modus. Nach der Variablentransformation wollen wir dies unterdr¨ ucken und schalten deshalb auf OFF . > with(DEtools): eulersols(Dgl,y(x)); OFF: Dchangevar({x=exp(t),y(x)=z(t)},Dgl,x,t): Dgl2 := expand(%); sol := dsolve(Dgl2,z(t)); y(x) = subs(t=log(x),rhs(sol)): simplify(%,exp);
6.2
Schwach singul¨ are Punkte (MWS) 5
255
6 1 1 , , x2 x
2 Dgl2 := 3 d z(t) + d 2 z(t) + 2z(t) = 0 dt dt C1 C2 sol := z(t) = C1 e−2 t + C2 e−t , y(x) = 2 + x x
Beispiel 5: > restart: with(DEtools): Dgl := x^2*diff(y(x),x,x)-3*x*diff(y(x),x)+4*y(x) = 0; eulersols(Dgl,y(x)); OFF:
Dgl := x2 y − 3x y + 4y = 0 ,
x2 , x2 ln(x)
> Dgl2 := PDEtools[dchange]({x=exp(t),y(x)=z(t)},Dgl,simplify); sol := dsolve(Dgl2,z(t)); PDEtools[dchange]({t=log(x),z(t)=y(x)},sol); 2 Dgl2 := d 2 z(t) − 4 d z(t) + 4z(t) = 0 dt dt 2t 2t sol := z(t) = C1 e + C2 e t , y(x) = C1 x2 + C2 x2 ln(x)
Bessel-Differentialgleichung > restart: with(DEtools): Dgl := x^2*diff(y(x),x$2)+x*diff(y(x),x)+(x^2-rho^2)*y(x) = 0;
Dgl := x2 y + x y + x2 − 2 y = 0
[0] ,
x 2 − 2 = 0 ,
, −
Bekanntlich liefern J und J− ein Fundamentalsystem der Bessel-Differenur = 2 tialgleichung, sofern nicht aus N0 ist. Wir schauen uns speziell f¨ an, welches Resultat Maple liefert: > rho := 2: dsolve(Dgl,y(x));
y = C1 BesselJ(2, x) + C2 BesselY(2, x) Mit J2 und Y2 erhalten wir das erwartete Fundamentalsystem. Verwendet alt die N¨ aherungsl¨ osung einen man in dsolve die Option type=series , so enth¨ Logarithmus-Term und sieht deshalb vertrauenserweckend‘ aus. ’ > infolevel[dsolve] := 3: Order := 6: dsolve(Dgl,y(x),series);
MWS 6
> regularsp(Dgl); # schwache Singularit¨ at(en) # regularsp(Dgl,x,y(x)); # Maple 9 und fr¨ uher indicialeq(Dgl,x,0,y(x)); # Indexgleichung solve(%,x);
256
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
DEtools/convertsys: converted to first-order system Y’(x) = f(x,Y(x)) namely (with Y’ represented by YP)
:
; x Y2 + x2 − 4 Y1 Y P1 = Y 2 , Y P 2 = − x2
DEtools/convertsys: correspondence between Y[i] names and original functions:
Y1 = y , Y2 = y
dsolve/series/ordinary: converted to first-order system Y’(x) = f(x,Y(x)) namely (with Y’ represented by YP)
:
; x Y2 + x2 − 4 Y1 Y P1 = Y 2 , Y P 2 = − x2
dsolve/series/ordinary: correspondence between Y[i] names and original functions:
Y1 = y , Y2 = y
MWS 6
dsolve/series/ordinary: vector Y of initial conditions at x0 = 0 [y(0), D(y)(0)] dsolve/series/ordinary: trying Newton iteration dsolve/series/direct: trying direct subs dsolve/series/froben: trying method of Frobenius dsolve/series/froben: indicial eqn is -4+r^2 dsolve/series/froben: roots of indicial eqn are [[2, -2]]
y = C1 x2 1 − 1 x2 + 1 x4 + O x6 12 384 & 4 ' ln(x) 9x + O x6 −144 − 36x2 + O x6 + C2 + x2 x2 Als n¨achstes verwenden wir den Befehl Slode[FPseries] , um mittels eines modifizierten Reihenansatzes an ein Fundamentalsystem zu gelangen: > with(Slode): FPseries(Dgl,y(x),a(nu),0,c,4); op(2,%) = 0; isolate(%,a(nu)): factor(%); Rek := %: # Rekursion
∞
0 FPSstruct c0 x − 1 c0 x4 + a(ν)xν , a(ν − 2) + − 4 + ν 2 a(ν) 12 ν=5 a(ν − 2) a(ν − 2) + (−4 + ν 2 ) a(ν) = 0 , a(ν) = − (ν − 2)(ν + 2) 2
> subs(nu=2*n+2,Rek); subs({a(2*n+2)=b(n),a(2*n)=b(n-1)},%); sol := rsolve(%,{b(n)});
6.3
Laplace-Transformation (MWS)
257
a(2n) b(n − 1) , b(n) = − 1 a(2n + 2) = − 1 2 n(2n + 4) 2 n(2n + 4) 7 8 2(−1)n 4−n b(0) sol := b(n) = Γ (n + 3)Γ (n + 1) > subs(b(0)=1/(2^rho*GAMMA(rho+1)),sol); subs(%,Sum(b(n)*x^(2*n+rho),n=0..infinity)): % = value(%);
7
(−1)n 4−n b(n) = 1 4 Γ (n + 3) Γ (n + 1)
8
∞ n −n 2 n+2 0 1 (−1) 4 x = BesselJ(2, x) , 4 Γ (n + 3) Γ (n + 1) n=0
Es u ur diese Situation ¨berrascht nicht, daß wir nur eine L¨osung erhalten. F¨ ist also der Befehl Slode[FPseries] nur eingeschr¨ ankt geeignet. Zum Schluß dieses Abschnitts verifizieren wir durch eine Animation die Beziehung limρ→n Y (x) = Yn (x) f¨ ur n ∈ N0 . > with(plots): rho := ’rho’: R := [1,0.5,seq(1/(3*k),k=1..10)]: folge := seq(plot([BesselY(0,x),BesselY(rho,x)],x=0..11,y=-1.3..0.6, color=[black,blue],tickmarks=[[5,10],[-1,0,0.5]]),rho=R): display(folge,insequence=true);
Bessel-Funktion Y0 mit approximierender Funktion Y1/3 0.5 5 0
x
10
MWS 6
y –1
6.3 Laplace-Transformation Wir erinnern uns an die Laplace-Transformation und versuchen, mit ihrer Hilfe auch Anfangswertaufgaben der Form y = Ay + g(x) mit y(0) = b zu l¨osen. Aufgrund bekannter Eigenschaften der Laplace-Transformation ergibt sich sY (s) − y(0) = AY (s) + G(s), wobei Y beziehungsweise G
258
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
die Laplace-Transformierten von y beziehungsweise g sind. Wir erinnern daran, daß diese bei vektorwertigen Funktionen komponentenweise zu bilden sind. Y (s) erh¨alt man dann als L¨ osung des Gleichungssystems (sE − A)Y (s) = G(s) + b , und y(x) ergibt sich durch R¨ ucktransformation aus Y (s). Zun¨achst rechnen wir kurz die Beispiele (B 4) bis (B 8) des Textteils, um mit dem einfachsten Befehl, den Maple zur Laplace-Transformation bietet, vertraut zu machen: > restart: with(inttrans): L(’1’)(s) = laplace(1,x,s);
1 L 1 (s) = s > L(’exp(a*x)’)(s) = laplace(exp(a*x),x,s);
L ea x (s) =
1 s−a
> L(’cosh(a*x)’)(s) = laplace(cosh(a*x),x,s); L(’sinh(a*x)’)(s) = laplace(sinh(a*x),x,s);
L cosh(a x) (s) =
L sinh(a x) (s) =
s , s2 − a2
a s2 − a2
> L(’cos(a*x)’)(s) = laplace(cos(a*x),x,s); L(’sin(a*x)’)(s) = laplace(sin(a*x),x,s);
MWS 6
L cos(a x) (s) =
s2
L sin(a x) (s) =
s , + a2
a s2 + a2
> L(’exp(b*x)*cos(a*x)’)(s) = laplace(exp(b*x)*cos(a*x),x,s); L(’exp(b*x)*sin(a*x)’)(s) = laplace(exp(b*x)*sin(a*x),x,s);
L eb x cos(a x) (s) =
L eb x sin(a x) (s) =
s−b , (s − b)2 + a2
a (s − b)2 + a2
¨ Wir vollziehen die Uberlegungen f¨ ur Systeme an folgendem einfachen Beispiel (vgl. (B 9) des Textteils) mit Maple nach: > restart: with(LinearAlgebra): with(inttrans): A := Matrix([[6,1],[4,3]]); b := Vector([1,2]); vy := Vector([y[1](x),y[2](x)]):
5 A :=
6 1 4 3
6 ,
b :=
5 6 1 2
# (B9)
6.3
Laplace-Transformation (MWS)
259
> p := CharacteristicPolynomial(A,lambda); factor(p);
p := λ2 − 9λ + 14 ,
(λ − 2)(λ − 7)
> LinearSolve(s*IdentityMatrix(2)-A,b): sol := map(factor,%): ‘Y(s)‘ = sol;
⎡
⎤ −1 + s ⎢ (s − 2)(s − 7) ⎥ ⎥ Y (s) = ⎢ ⎣ 2(−4 + s) ⎦ (s − 2)(s − 7) > map(invlaplace,sol,s,x): zip((u,v)->u=v,vy,%): Loesung := convert(%,list);
% $ Loesung := y1 = 6 e7 x − 1 e2 x , y2 = 4 e2 x + 6 e7 x 5 5 5 5 > Sys := convert(map(diff,vy,x)-(A.vy),list): subs(Loesung,Sys): map(simplify,%), eval(Loesung,x=0);
0, 0 , y1 (0) = 1, y2 (0) = 2 Die folgende einfache lineare Anfangswertaufgabe zweiter Ordnung greift das Beispiel (B 10) des Textteils auf: > restart: with(LinearAlgebra): with(DEtools): with(inttrans): # (B10) vy := [y[1],y[2]]: Dgl := diff(y(x),x$2)-6*diff(y(x),x)+10*y(x) = 0; AnfBed := y(0) = 0, D(y)(0) = 1;
AnfBed := y(0) = 0, D(y)(0) = 1
> convertsys(Dgl,{AnfBed},y(x),x,y,Dy); Sys, b := op(1,%), Vector(op(4,%));
$
% Dy 1 = y2 , Dy 2 = 6y2 − 10y1 , y1 = y , y2 = y , 0, [0, 1] % 506 $ Sys, b := Dy 1 = y2 , Dy 2 = 6y2 − 10y1 , 1
> A := -GenerateMatrix(Sys,vy)[1];
5 A :=
0 1 −10 6
6
> sol := LinearSolve(s*IdentityMatrix(2)-A,b): ‘Y(s)‘ = map(student[completesquare],sol,s);
MWS 6
Dgl := y − 6y + 10y = 0 ,
260
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker ⎡
⎤ 1 ⎢ (s − 3)2 + 1 ⎥ Y (s) = ⎣ ⎦ s 2 (s − 3) + 1 Hier ben¨otigen wir nur zu der ersten Komponente ein Urbild: > invlaplace(sol[1],s,x): Loesung := y(x) = %;
Loesung := y = e3 x sin(x) 0
> odetest(Loesung,Dgl);
Maple kommt bei diesem einfachen Beispiel nat¨ urlich auch ohne unsere Hilfestellung direkt‘ zum Ziel: ’ > dsolve({Dgl,AnfBed},y(x),method=laplace);
y = e3 x sin(x) Auch das Beispiel aus Abschnitt 5.4 (Seite 170ff) (vgl. auch Beispiel 7 aus MWS 5) greifen wir mit Maple und der Laplace-Transformation auf: Beispiel 6:
5
> restart: with(LinearAlgebra): with(inttrans): A := Matrix([[0,1,0],[4,3,-4],[1,2,-1]]); c0 := Vector([1,8,4]): c1 := Vector([0,4,1]): c2 := Vector([2,0,2]): g := exp(x)*c0 + x*exp(x)*c1 + x^2/2*exp(x)*c2: g := unapply(g,x): ’g(x)’ = g(x); b := Vector([0,0,0]); vy := Vector([y[1](x),y[2](x),y[3](x)]):
MWS 6
⎡
⎤ 0 1 0 A := ⎣ 4 3 −4 ⎦ , 1 2 −1
⎤ ex + x2 ex ⎦, g(x) = ⎣ 8ex + 4x ex x x 2 x 4e + x e + x e ⎡
> p := CharacteristicPolynomial(A,lambda); factor(p);
p := λ3 − 2λ2 + λ ,
λ (λ − 1)2
> map(laplace,g(x),x,s): map(normal,%): G := unapply(%,s): ’G(s)’ = G(s)
⎡
s2 − 2s + 3 (s − 1)3 4(2s − 1) (s − 1)2
⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ G(s) = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣ 4s2 − 7s + 5 ⎦ (s − 1)3
⎡
⎤ 0 b := ⎣ 0 ⎦ 0
6.3
Laplace-Transformation (MWS)
261
> LinearSolve(s*IdentityMatrix(3)-A,G(s)+b): sol := map(factor,%): ‘Y(s)‘ = sol;
⎡
5s2 + s3 + 1 − 3s s(s − 1)4
⎤
⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ 4 (2 s2 − 2 s + 1) ⎥ Y (s) = ⎢ ⎥ ⎥ ⎢ (s − 1)4 ⎥ ⎢ ⎣ (1 + s)(4s2 − 2s + 1) ⎦ s(s − 1)4 > map(invlaplace,sol,s,x): zip((u,v)->u=v,vy,%): Loesung := convert(%,list);
$ Loesung := y1 = 1 + 3x2 − 1 + 2 x3 + 2x ex, 3 % y2 = 2 12x + 6x2 + x3 ex, y3 = 1 + x3 + 9 x2 + 5x − 1 ex 3 2 Wir vergessen auch hier nicht die Probe: > Sys := convert(map(diff,vy,x)-(A. vy + g(x)),list): subs(Loesung,Sys): map(simplify,%);
[0, 0, 0] Die Behandlung der Beispiele (B11) bis (B14) des Textteils mit Maple ist nun Routine: > restart: with(inttrans): Dgl := diff(eta(x),x$2)-eta(x) = 0;
# (B11)
> PDEtools[declare]();
Declared: y(x), u(x), v(x), η(x) to be displayed as y, u, v, η ; derivatives with respect to x of functions of one variable are being displayed with Zur Abk¨ urzung verwenden wir die folgende alias-Anweisung. Diese wirkt nicht, wenn PDEtools[declare] sich im ON-Modus befindet; deshalb schalten wir vorher auf OFF : > OFF: alias(H(s)=laplace(eta(x),x,s)): # H als Großschreibung von eta laplace(Dgl,x,s): expand(%): collect(%,H(s));
(s2 − 1)H(s) − sη(0) − D(η)(0) = 0
MWS 6
Dgl := η − η = 0
262
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
> expr := isolate(%,H(s)); convert(rhs(expr),parfrac,s);
sη(0) + D(η)(0) s2 − 1 1 −D(η)(0) + η(0) 1 η(0) + D(η)(0) + 2 s+1 2 s−1 expr := H(s) =
Wir berechnen das Urbild und machen wieder die Probe: > ON: invlaplace(expr,s,x); odetest(%,Dgl);
η = η(0) cosh(x) + D(η)(0) sinh(x) ,
0
Maple kommt auch hier wieder direkt‘ zum Ziel: ’ > dsolve(Dgl,eta(x),method=laplace);
η = η(0) cosh(x) + D(η)(0) sinh(x) > restart: with(inttrans): f := x -> piecewise(x<0,0,(abs@sin)(x)): L(’f’)(s) = laplace(f(x),x,s);
# (B12)
coth π s 2 L (f )(s) = s2 + 1 Zum Vergleich mit dem Ergebnis aus dem Textteil lassen wir umformen: > convert(%,exp): simplify(%);
MWS 6
L (f )(s) =
eπ s + 1 (s2 + 1)(eπ s − 1)
> H[c] := x -> Heaviside(x-c): L(’H[2]’)(s) = laplace(subs(c=2,H[c](x)),x,s);
L (H2 )(s) = > laplace(subs(n=3,x^n),x,s);
e−2 s s
6 s4
> restart: with(inttrans): Dgl := x*diff(eta(x),x$2)-x*diff(eta(x),x)-eta(x) = 0; AnfBed := eta(0)=0, D(eta)(0)=1;
Dgl := x η − x η − η = 0 ,
# (B13), c=2
# (B14), n=3
# (B15)
AnfBed = η(0) = 0, D(η)(0) = 1
6.3
Laplace-Transformation (MWS)
263
> dsolve({Dgl,AnfBed},eta(x),method=laplace);
η = x ex > OFF: alias(H(s)=laplace(eta(x),x,s)): laplace(Dgl,x,s);
−2sH(s) + s
d H(s) + η(0) − s2 d H(s) = 0 ds ds
> isolate(%,diff(H(s),s)): factor(%): eq := subs(AnfBed,%);
2H(s) eq := d H(s) = − ds −1 + s > subs(H(s)=z(s),eq); dsolve(%,z(s)); sol := subs(z(s)=H(s),%);
d z(s) = − 2z(s) , ds −1 + s
z(s) =
C1 , (−1 + s)2
sol := H(s) =
C1 (−1 + s)2
> ON: eq:= invlaplace(sol,s,x); eval(diff(eq,x),x=0); convert(%,D);
eq := η = C1 x ex ,
η
= C1 ,
D(η)(0) = C1
x=0
> subs({AnfBed},%); solve(%,{_C1}); eval(eq,%);
1 = C1 ,
{ C1 = 1} ,
η = x ex
Unstetige rechte Seiten
> restart: with(plots): DGL := diff(y(x),x$2) + y(x); # eigentlich: diff(y(x),x$2)+sin(y(x)) AWe := y(0)=0, D(y)(0)=1; Loesung := dsolve({DGL=0,AWe},y(x));
DGL := y + y ,
AWe := y(0) = 0, D(y)(0) = 1
Loesung := y = sin(x) > alias(H=Heaviside): PI := evalf(Pi,5): Schub := x -> sum((-1)^j*H(x-j*Pi),j=0..5);
MWS 6
Bei dem folgenden Beispiel mit unstetigen rechten Seiten, wie sie etwa bei der Modellierung von Ein- und Ausschaltvorg¨angen in nat¨ urlicher Weise auftreten, greifen wir eine Anregung aus [Gu/Mo] auf, die wir lebendig‘ inter’ pretieren. Ein Opa schubst seinen Enkel auf einer Schaukel an:
264
MWS 6
N¨ utzliches — nicht nur f¨ ur den Praktiker
Schub := x −→
5 0
(−1)j H(x − j π)
j=0
5
10
> setoptions(axesfont=[SYMBOL,12],thickness=3,scaling=constrained): OPTS := discont=true,color=black: OPTL := color=blue: xTICKS := n -> [PI=p,seq(k*PI=cat(convert(k,string),p),k=2..n)]: GraphS := n -> plot(g,0..n*3.2,OPTS): Loes0 := rhs(Loesung): plot(Loes0,x=0..16,tickmarks=[xTICKS(5),[-1,1]],OPTL); g := Schub: Y := [seq(3*k,k=-2..2)]: Loesung1:= dsolve({DGL=g(x),AWe},y(x),method=laplace); Loes1 := rhs(Loesung1): Bild1 := plot(Loes1,x=0..7*3.2,OPTL): display(GraphS(7),Bild1,tickmarks=[xTICKS(7),Y]);
2 Loesung1 := y = 1 + − 2H(x − π) − 2H(x − 3π) − 2H(x − 5π) cos x 2 2 + 2H(x − 2π) + 2H(x − 4π) sin x − cos(x) + sin(x) 2 Opa schl¨ aft
Enkel jauchzt, Mutter besorgt 6 3
1 −1
π
2π
3π
4π
5π
0
π
2π
3π
4π
5π
6π
7π
MWS 6
−3
5
−6 > g := x -> Schub(2*x): Loes2 := rhs(dsolve({DGL=g(x),AWe},y(x),method=laplace)): Bild2 := plot(Loes2,x=0..3*3.2,OPTL): display(GraphS(3),Bild2,tickmarks=[xTICKS(3),[0,2]]); g := x -> Schub(x/2): Loes3 := rhs(dsolve({DGL=g(x),AWe},y(x),method=laplace)): Bild3 := plot(Loes3,x=0..6*3.2,OPTL): display(GraphS(6),Bild3,tickmarks=[xTICKS(6),[0,2]]);
Weniger langweilig
Kontrolliertes Schaukeln
2 2 0
π
2π
3π
0
π
2π
3π
4π
5π
6π
Kapitel 7
Rand- und Eigenwertprobleme 7.1 7.2 7.3 7.4 7.5
7.6
RWAn f¨ ur lineare DGL-Systeme mit linearen Randbedingungen Randwertprobleme f¨ ur lineare Differentialgleichungen k-ter Ordnung Nicht-lineare Randwertaufgaben und Fixpunktprobleme Selbstadjungierte Randwertaufgaben Selbstadjungierte Randeigenwertaufgaben Fourier-Reihen Entwicklungss¨ atze Sturm-Liouville-Randeigenwertaufgaben
Bei den bisher betrachteten Anfangswertaufgaben waren — zu einer gegebenen Differentialgleichung — f¨ ur eine gesuchte Funktion (und eventuell einige ihrer Ableitungen) Bedingungen in einem Punkt gestellt worden. Bei den in diesem Kapitel untersuchten Rand wertproblemen werden Bedingungen an den beiden Randpunkten a und b eines vorgegebenen Intervalls [a , b] gestellt. Fragen dieser Art begegnen uns bei vielen Aufgaben der Physik und Technik. Ein Beispiel, das auch in der Entwicklung der Mathematik eine herausragende Bedeutung hatte, ist das der schwingenden Saite: Eine Saite einer festen L¨ange ist an zwei Punkten der x-Achse eingespannt und wird etwa durch Auslenkung angeregt. Bei den meisten Fragestellungen werden nur f¨ ur gewisse Randbedingungen eindeutige L¨osungen existieren. Die allgemeine Untersuchung f¨ uhrt zu Eigenwertaufgaben.
Kapitel 7
Schon bei der schwingenden Saite, wo ein beliebiger Ton durch Kombination von Obert¨onen beschrieben werden kann, st¨ oßt man auf die Frage der Entwicklung nach speziellen‘ Funktionen. ’ Wie in den Kapiteln 4, 5 und 6 ist es auch hier von Vorteil, zun¨ achst allgemein Systeme zu betrachten und erst dann auf Differentialgleichungen k-ter Ordnung, schließlich speziell zweiter Ordnung, u ¨berzugehen.
266
Kapitel 7
Rand- und Eigenwertprobleme
7.1 Randwertaufgaben fu ¨r lineare DGL-Systeme mit linearen Randbedingungen Wir betrachten das lineare Differentialgleichungssystem y = F (x)y + g(x)
(D)
mit der linearen Randbedingung Ay(a) + B y(b) = c .
(R)
Hierbei seien k eine nat¨ urliche Zahl, a und b reelle Zahlen mit a < b, F ∈ C0 [a , b], k , also eine stetige Funktion auf dem Intervall [a , b] mit Werten in dem Raum k der (komplexen) k × k-Matrizen, g ∈ C0 := C0 [a , b], k , also eine stetige Funktion auf [ a , b] mit Werten im k , osungen y liegen also in A und B aus k und c ∈ k . Die gesuchten L¨ C1 := C1 [a , b], k .
Ein derartiges Problem heißt Randwertaufgabe oder Randwertproblem, kurz RWA oder RWP, genauer auch Zweipunkt-Randwertaufgabe oder ZweipunktRandwertproblem. Wir sprechen von einer homogenen Randwertaufgabe, wenn die Funktion g und der Vektor c Null sind. Ist mindestens eine dieser beiden Gr¨oßen Null, so bezeichnen wir die Aufgabe als halbhomogen. Wir werden sehen, daß ohne zus¨ atzliche Voraussetzungen an die Randbedingungen keine allgemeine Aussage u ¨ber die L¨osbarkeit einer Randwertaufgabe gemacht und — im Falle der L¨osbarkeit — nicht Eindeutigkeit erschlossen werden kann. ur z ∈ C1 und x ∈ [a , b] ist eine Durch (Hz)(x) := z (x) − F (x)z(x) f¨
-lineare Abbildung
H : C1 −→ C0
gegeben. (D) bedeutet damit gerade Hy = g . Mit R z := Az(a) + B z(b) hat man entsprechend eine
Kapitel 7
-lineare Abbildung
R : C1 −→
k
,
und die Randbedingung kann kurz als R y = c geschrieben werden. Es sei Y ∈ C1 [a , b], k eine Fundamentalmatrix des homogenen Systems zu (D), d. h. Y (x) = F (x)Y (x) mit det Y (x) = 0 f¨ ur alle x ∈ [a , b]. Mittels Variation der Konstanten — man vergleiche hierzu Abschnitt 4.6 — erh¨alt man die spezielle L¨ osung des inhomogenen Systems (D) x y0 (x) := Y (x)
Y (t) a
−1
g(t) dt
x ∈ [a , b]
7.1
Randwertaufgaben f¨ ur Systeme
267
mit y0 (a) = 0 . Damit gewinnt man mit beliebigem d ∈
k
y(x) = y0 (x) + Y (x)d
(1)
als allgemeine L¨ osung von (D). Die Randbedingungen (R) f¨ uhren dann auf das lineare Gleichungssystem AY (a) + B Y (b) d + B y0 (b) = c , (2) dessen Koeffizientenmatrix C := CY := AY (a) + B Y (b) als charakteristische Matrix bezeichnet wird. Aus (2) liest man ab: Satz 7.1.1 Die Randwertaufgabe (D) mit (R) ist genau dann f¨ ur beliebiges g und c eindeutig l¨ osbar, wenn die Matrix C invertierbar ist, d. h. die Determinante von C nicht Null ist. Nat¨ urlich ist dies ¨ aquivalent dazu, daß die zugeh¨ orige homogene Randwertaufgabe y = F (x)y mit Ay(a) + B y(b) = 0
(3)
nur trivial l¨ osbar ist, d. h. nur y = 0 als L¨ osung hat. Wir sehen uns zwei erste Beispiele dazu an: (B1) Wir betrachten die lineare homogene Differentialgleichung mit konstanten Koeffizienten 0 1 y = y 0 0 !" # =:F
mit den Randbedingungen 1 0 −1 0 0 y(0) + y(1) = . 0 0 0 1 1 1 x ei0 1 ne Fundamentalmatrix Y . Damit erh¨alt man zu den gegebenen Randbedingungen das lineare Gleichungssystem 0 Cd = (4) 1 mit
Kapitel 7
Es gilt F n = 0 f¨ ur n ≥ 2. Daher liefert Y (x) := exp(x F ) =
268
Kapitel 7 C := AY (0)+B Y (1) =
1 0 0 0
Rand- und Eigenwertprobleme
1 0 −1 0 1 1 0 −1 + = . 0 1 0 1 0 1 0 1
Die Matrix C hat also den Rang 1, hingegen hat die erweiterte Ko effizientenmatrix C, (0, 1)T den Rang 2. Mithin besitzt das Gleichungssystem (4) und damit die Randwertaufgabe keine L¨ osung. (B2) Mit einer beliebigen reellen Zahl α sei die lineare homogene Differentialgleichung mit konstanten Koeffizienten 0 1 y = y −α2 0 mit den Randbedingungen 1 0 −1 0 0 y(0) + y(π) = 0 1 0 −1 0 betrachtet. Wir verwenden im Falle α = 0 die Fundamentalmatrix Y aus dem vorangehenden Beispiel und erhalten u ¨ber die Randbedingungen das homogene Gleichungssystem Cd = 0 mit der charakteristischen Matrix 1 0 1 0 −1 0 1 π 0 −π C = + = . 0 1 0 1 0 −1 0 1 0 0 Dieses hat offensichtlich die eindimensionale L¨ osungsmannigfaltigkeit , also unendlich viele nicht-triviale L¨ osungen. (t, 0)T | t ∈
Im Falle α = 0 ist z. B.
Kapitel 7
Y (x) =
sin(α x) cos(α x) α cos(α x) −α sin(α x)
eine Fundamentalmatrix des (homogenen) DGL-Systems. F¨ ur die charakteristische Matrix ergibt sich hier 1 0 0 1 −1 0 sin(α π) cos(α π) C= + 0 1 α 0 0 −1 α cos(α π) −α sin(α π) − sin(α π) 1 − cos(α π) = . α(1 − cos(α π)) α sin(α π) Wegen det C = −2α (1 − cos(α π)) besitzt diese Randwertaufgabe — unter Beachtung von α = 0 — genau dann eine nicht-triviale L¨osung, wenn α ∈ 2 \ {0} ist.
7.1
Randwertaufgaben f¨ ur Systeme
269
Anmerkung Sind Y und Z Fundamentalmatrizen des homogenen Differentialgleichungssystems, so besteht zwischen ihnen — nach Bemerkung 4.3.5 — die Beziehung Z = Y T mit einer invertierbaren Matrix T ∈
k
.
Mithin gilt CZ = AZ(a) + B Z(b) = CY T . Folglich ist die Matrix CZ genau dann invertierbar, wenn CY dies ist. Im Fall der eindeutigen L¨osbarkeit (durch die triviale‘ Nullfunktion) der ’ zugeh¨origen homogenen Randwertaufgabe H y = 0 und R y = 0, also im Falle det C = 0 was wir f¨ ur den Rest dieses Abschnitts voraussetzen, kann man die L¨ osungsfunktion des allgemeinen Problems mit Hilfe der sogenannten Green1 -Matrix beschreiben. Satz 7.1.2 Es gibt eine matrixwertige Abbildung G : [a , b] × [a , b] −→
k
mit den Eigenschaften: • Die Einschr¨ ankung von G auf die beiden Bereiche {(x, t) | a ≤ x < t ≤ b} und {(x, t) | a ≤ t ≤ x ≤ b} ist jeweils stetig. • G(t+, t) − G(t−, t) = E f¨ ur a < t < b. • F¨ ur jedes g ∈ C0 [a , b], k ist durch
b y(x) :=
G(x, t) g(t)dt a
1
Der englische Mathematiker und Physiker George Green (1793–1841) lieferte Grundlagen der Potentialtheorie (Green-Funktion und Green-Formel) und Beitr¨ age zur Schwingungslehre.
Kapitel 7
die L¨ osung y der Randwertaufgabe mit homogener Randbedingung (c = 0) gegeben, also H y = g mit R y = 0 .
270
Kapitel 7
Rand- und Eigenwertprobleme
Definitionsbereich der Green-Matrix t b
x
=
t
x ≤ t
x ≥ t a a
b x
Beweis: Nach (1) und (2) gilt n¨ amlich f¨ ur die L¨ osung y der Randwertaufgabe mit homogener Randbedingung y(x) = y0 (x) + Y (x) d
und
C d + B y0 (b) = 0
aß der Defimit einem geeigneten d ∈ k , hier also d = −C −1 B y0 (b). Gem¨ nition der Funktion y0 hat man also
x y(x) =
Y (x)Y (t)−1 g(t) dt − Y (x)C −1 B
a
b
Y (b)Y (t)−1 g(t) dt
a
b =
G(x, t)g(t) dt a
mit
Kapitel 7
G(x, t) :=
Y (x) E − C −1 B Y (b) Y (t)−1 , −Y (x)C
−1
B Y (b)Y (t)
−1
,
a≤t≤x≤b a≤x
indem man das Integral von a bis b aufspaltet in den Teil von a bis x und den Rest. Zusammen mit E − C −1 B Y (b) = C −1 AY (a), was direkt aus der Definition von C folgt, und
7.1
Randwertaufgaben f¨ ur Systeme G(t+, t) =
271
Y (t)C −1 AY (a)Y (t)−1 ,
G(t−, t) = −Y (t)C −1 B Y (b)Y (t)−1
ergibt dies offenbar die Behauptung. Anmerkung F¨ ur die im Beweis definierte Abbildung G gilt:
Y (x)C −1 AY (a)Y (t)−1 ,
G(x, t) =
−Y (x)C
−1
B Y (b)Y (t)
−1
,
a≤t≤x≤b a≤x
(5)
Die inhomogene Randwertaufgabe l¨aßt sich in zwei halbhomogene Randwertaufgaben aufspalten: y = F (x)y + g(x) , und
Ay(a) + B y(b) = 0
(6)
y = F (x)y ,
Ay(a) + B y(b) = c (7) b Nach dem vorangehenden Satz liefert a G(x, t) g(t)dt die L¨ osung von (6). Ist osung der vollen Randwertaufgabe y1 die L¨osung von (7), so ergibt sich die L¨ — Hy = g mit Ry = c — durch b y(x) = y1 (x) +
G(x, t) g(t)dt . a
Die Green-Matrix G h¨ angt nicht von der Inhomogenit¨ at in (D) ab. Hat man G gewonnen, so lassen sich L¨osungen mit beliebiger Inhomogenit¨ at darstellen. Anwender sprechen oft von Einflußfunktion. Sie ist zwar mit einer speziellen Fundamentalmatrix gebildet, h¨angt aber nach Bemerkung 4.3.5 nicht von b einer speziellen Wahl ab. Da bei der Integration y(x) := a G(x, t)g(t)dt zu gegebenem g bei festem x ∈ [a , b] bez¨ uglich t integriert wird, spielen die Werte von G auf der Diagonalen ∆ := (t, t) | t ∈ [a , b] zur Berechnung von y keine Rolle.
eine weitere solche Funktion, so gilt f¨ und Beweis: Ist G ur δ := G − G k beliebiges g ∈ C0 [a , b],
b δ(x, t) g(t)dt = 0 f¨ ur x ∈ [a , b] . a
Kapitel 7
osung y der RWA Durch die Forderung, f¨ ur jedes g ∈ C0 [a , b], k die L¨ b mit homogener Randbedingung (Ry = 0) u ¨ber y(x) := a G(x, t)g(t)dt zu liefern, ist die Green-Matrix als stetige Abbildung auf [a , b]2 \ ∆ (mit Spr¨ ungen auf ∆) eindeutig bestimmt.
272
Kapitel 7
Rand- und Eigenwertprobleme
Bei festem x ∈ [a , b] erf¨ ullt also die durch Φ(t) := δ(x, t) f¨ ur t ∈ [a , b] definierte st¨ uckweise stetige matrixwertige Funktion Φ b
Φ(t) g(t)dt = 0 f¨ ur jedes g ∈ C0 [a , b],
k
.
a
Daß dann Φ außerhalb der Unstetigkeitsstellen Null sein muß, ist f¨ ur skalarwertige Funktionen bekannt. Das Resultat u agt sich unmittelbar auf die ¨bertr¨ hier gegebenen k -wertigen Abbildungen. (B3) Wir betrachten die lineare Anfangswertaufgabe y = F (x)y + g(x) mit y(a) = c , also (D) mit y(a) = c, unter den Gesichtspunkten dieses Abschnitts: Es sei Y die Fundamentalmatrix zu der zugeh¨ origen homogenen Differentialgleichung mit Y (a) = E . Die obige Anfangsbedingung kann mit A := k := E und B := 0 in der Form Ay(a) + B y(b) = c, also als Randbedingung (R), geschrieben werden. Es folgt C = Y (a) = E und dann: 7 Y (x)Y (t)−1 , a ≤ t ≤ x ≤ b G(x, t) = 0 , a≤x
Die resultierende L¨osungsformel b
x G(x, t) g(t)dt = Y (x)
y(x) = a
Y (t)−1 g(t) dt
a
(f¨ ur die Aufgabe mit homogener Randbedingung) ist nat¨ urlich die, die wir schon aus Abschnitt 4.6 kennen. Da die durch y1 (x) = Y (x)c gegebene L¨ osung y1 trivialerweise die Anfangsbedingung y1 (a) = c ¨ erf¨ ullt, ist nach den Uberlegungen der vorigen Seite durch
x Y (t)
y(x) = Y (x) c +
−1
g(t) dt
Kapitel 7
a
die L¨osung y der Randwertaufgabe gegeben. (Man vergleiche Formel (1) aus Abschnitt 4.6.) Wir schließen diesen Abschnitt ab mit einer Charakterisierung der GreenMatrix : Satz 7.1.3 Die Green-Matrix G : [a , b] × [a , b] −→ Eigenschaften eindeutig bestimmt:
k
ist durch die folgenden vier
7.1
Randwertaufgaben f¨ ur Systeme
273
① G ist auf [a , b]2 \ ∆ stetig. ② G(t+, t) − G(t−, t) = E f¨ ur a < t < b. ③ F¨ ur jedes feste t ∈ [a , b] l¨ ost G( , t) die homogene Matrix-Differentialgleichung H G( , t) = 0 in [a , b] \ {t} . 2
④ F¨ ur jedes feste t ∈ ]a , b[ erf¨ ullt G( , t) die homogenen Randbedingungen
R G( , t) = 0 .
Die Aussagen ③ und ④ bedeuten nat¨ urlich, daß dies f¨ ur jede Spalte von G( , t) gilt, also mit dem κ-ten Einheitsvektor eκ
H G( , t)eκ = 0 und R G( , t)eκ = 0
f¨ ur κ = 1, . . . , k gelten. Oft notiert man die erste Aussage auch in der Form ∂ G(x, t) = F (x)G(x, t) ∂x
f¨ ur x = t .
Beweis: Die Abbildung G gem¨ aß (5) besitzt nach Satz 7.1.2 die Eigenschaften ① und ②. Zu ③: In jedem der beiden Dreiecke‘ {(x, t) | a ≤ t < x ≤ b} ’ und {(x, t) | a ≤ x < t ≤ b} ist G( , t) von der Form G( , t) = Y ( )T mit einer Matrix T ∈ k . Die Spalten von G( , t) sind somit Linearkombinationen der Spalten von Y ( ), also L¨osungen der homogenen DGL. Zu ④:
R G( , t) = AG(a, t) + B G(b, t) = A − Y (a)C −1 B Y (b)Y (t)−1 + B Y (b)C −1 AY (a)Y (t)−1 = − AY (a)C −1 B Y (b) + B Y (b) C −1 AY (a) Y (t)−1 = 0 !" # !" #
= C−A Y (a)
= C−A Y (a)
eine weitere Abbildung mit diesen vier Eigenschaften, dann ist δ := Ist G auf [a , b]2 stetig erg¨anzbar, da sich die Spr¨ G−G unge‘ auf ∆ aufheben. ’ Mit ③ f¨ ur G und G erh¨ alt man f¨ ur t ∈ ]a , b[ zun¨ achst H δ( , t) = 0 in [a , b] \ {t}
Die erhaltenen Ergebnisse werden nun im folgenden Abschnitt auf lineare Differentialgleichungen k-ter Ordnung spezialisiert. 2
Die Abbildungen H und R wurden als lineare Abbildungen auf C1 := C1 ([ a , b ]) definiert. Hier und an einigen Stellen im folgenden sind jeweils die entsprechenden Abbildungen auf C1 ([ a , t [ ) beziehungsweise C1 ( ] t , b ]) zu verstehen.
Kapitel 7
und dann durch Grenz¨ ubergang x → t auch H δ(t, t) = 0. Die Spalten von osungen der homogenen Randwertaufgabe und somit Null. δ( , t) sind also L¨
274
Kapitel 7
Rand- und Eigenwertprobleme
7.2 Randwertprobleme fu ¨r lineare DGLen k-ter Ordnung Wir betrachten in diesem Abschnitt die lineare Differentialgleichung k-ter Ordnung f0 (x)η (k) + f1 (x)η (k−1) + · · · + fk (x)η = γ(x)
(1)
mit den linearen Randbedingungen k 0
αλ κ η (κ−1) (a) + βλ κ η (κ−1) (b)
= γλ
f¨ ur λ = 1, . . . , k .
(2)
κ=1
Dabei seien k ∈ 2 , a und b reelle Zahlen mit a < b und γ , f0 , . . . , fk stetige komplexwertige Funktionen auf dem Intervall [a , b] mit f0 (x) = 0 ur λ, κ = f¨ ur x ∈ [a , b]. Dazu seien komplexe Zahlen αλ κ , βλ κ und γκ f¨ 1, . . . , k gegeben.
F¨ ur
fκ f< κ := f0
(κ = 1, . . . , k)
und mittels der Substitutionen ⎛ 0 1 ⎛ ⎞ ⎜ 0 0 η ⎜ ⎜ . ⎜ . ⎟ y := ⎝ .. ⎠ , F (x) := ⎜ .. ⎜ ⎝ 0 η (k−1) !" # −f< k (x) := τ (η)
und
γ :=
⎞ 0 ... 0 1 0 ⎟ ⎟ .. ⎟ .. .. . . . ⎟, ⎟ ... 0 1 ⎠ ... −f< 1 (x)
γ f0 ⎛
⎞ 0 ⎜ .. ⎟ ⎜ ⎟ g(x) := ⎜ . ⎟ ⎝ 0 ⎠ γ(x)
f¨ ur x ∈ [a , b], A := (αλ κ ), B := (βλ κ ) und c := (γ1 . . . , γk )T ist dieses Randwertproblem ¨ aquivalent zu y = F (x)y + g(x)
(D)
Ay(a) + B y(b) = c .
(R)
Kapitel 7
mit Mit den beiden Abbildungen H und R aus Abschnitt 7.1 kann dies wieder kurz in der Form Hy = g mit Ry = c notiert werden. Ist η1 , . . . , ηk ein Fundamentalsystem der homogenen DGL, so liefert die Wronski-Matrix ⎞ ⎛ η1 . . . ηk .. ⎟ ⎜ . Y := (y1 , . . . , yk ) =: ⎝ .. . ⎠ (k−1)
η1
(k−1)
. . . ηk
7.2
RWPe f¨ ur lineare Differentialgleichungen k-ter Ordnung
275
¨ nach den Uberlegungen in Abschnitt 4.4 eine Fundamentalmatrix des entsprechenden homogenen DGL-Systems y = F (x)y . F¨ ur den Rest des Abschnitts setzen wir voraus, daß die homogene Randwertaufgabe zu (1) mit (2), also Hy = 0 mit Ry = 0, nur trivial l¨ osbar ist. Ausgeschrieben bedeutet dies: F¨ ur η ∈ Ck ([a , b], ) folgt aus
f0 (x)η (k) + f1 (x)η (k−1) + · · · + fk (x)η = 0
(3)
mit k 0
αλ κ η (κ−1) (a) + βλ κ η (κ−1) (b)
= 0 f¨ ur λ = 1, . . . , k
(4)
κ=1
< η = 0. Nach Satz ur jedes 7.1.2 existiert dann eine Green-Matrix G , die f¨ k durch g ∈ C0 [a , b],
b y(x) :=
< (x, t) g(t)dt G
a
die L¨osung y der Randwertaufgabe mit homogener Randbedingung, also Hy = g mit Ry = 0, liefert.3 Die hier gesuchte (skalare) L¨ osung η von (1) mit (4) ergibt sich als erste Komponente von y , also η(x) = eT1 y(x). Wegen der vorliegenden speziellen Struktur von g zu der vorgegebenen Inhomogenit¨at γ gilt also b η(x) =
eT1 y(x)
=
G(x, t) γ(t)dt , a
t) dividiert durch wenn G(x, t) das letzte Element der ersten Zeile von G(x, t)ek /f0 (t) . Satz 7.1.2 f0 (t) (Normierung) bezeichnet, d. h. G(x, t) = eT1 G(x, liefert somit hier Satz 7.2.1
, die in [a , b]2 \ D stetig ist
b η(x) :=
G(x, t) γ(t)dt a
die L¨ osung η der Randwertaufgabe mit homogener Randbedingung liefert. 3
Wir haben hier die matrixwertige Funktion aus Abschnitt 7.1 abweichend mit bezeichnet, um das Symbol G f¨ G ur die hier im Vordergrund stehende skalare Green-Funktion einsetzen zu k¨ onnen.
Kapitel 7
Es gibt eine Funktion G : [a , b] × [a , b] −→ durch und f¨ ur jedes γ ∈ C0 [a , b],
276
Kapitel 7
Rand- und Eigenwertprobleme
Jede solche Funktion G heißt Green-Funktion zu der RWA (1) mit (2). Die Green-Funktion wird man in der Regel nicht u ¨ber den beschriebenen Weg berechnen, sondern die nachstehende Charakterisierung 7.2.2 heranziehen, die wir aus Satz 7.1.3 gewinnen. F¨ ur den Nachweis sehen wir uns die im Beweis von Satz 7.1.2 gemachte Definition genauer an: Y (x) C −1 AY (a) Y (t)−1 , a ≤ t ≤ x ≤ b <(x, t) := G −Y (x)C −1 B Y (b)Y (t)−1 , a ≤ x < t ≤ b <(x, t)ek /f0 (t) ist also jeweils mit einer festen MaWegen G(x, t) = eT1 G trix M ∈ k ein Ausdruck der Form eT1 Y (x)M Y (t)−1 ek /f0 (t) auszuwerten: eT1 Y (x) ist gerade die erste Zeile von Y (x), also gleich η1 (x), . . . , ηk (x) . Nach der Definition von Y (in der zweiten Zeile steht gerade die Ableitung der ersten usw.) gilt f¨ ur die (κ + 1)-te Zeile von Y (x) die Beziehung dκ T T e Y (x) = eκ+1 Y (x) dxκ 1
(κ = 0, . . . , k − 1) .
< in jedem der beiden Teilbereiche (k − 1)-mal partiell nach x Somit ist G differenzierbar mit: ∂κ T < T < < G (x, t) (κ + 1)-te Zeile von G e G (x, t) = eκ+1 ∂xκ 1 <(x, t)ek von G <(x, t) gilt also dort: F¨ ur die letzte Spalte G ⎛ ⎜ ⎜ <(x, t)ek /f0 (t) = ⎜ G ⎜ ⎝
⎞
G(x, t) ∂ ∂x G(x, t) .. . ∂ −1 ∂x −1
(5)
⎟ ⎟ ⎟ ⎟ ⎠
(6)
G(x, t)
Satz 7.2.2 Die Green-Funktion G : [a , b] × [a , b] −→ zu der Randwertaufgabe (1) mit (2) ist durch die folgenden vier Eigenschaften eindeutig bestimmt:
Kapitel 7
① G ist stetig, und f¨ ur jedes feste t ∈ [a , b] ist G( , t) (k − 2)-mal stetig differenzierbar.
② G( , t) ist in [a , b] \ {t} k-mal stetig differenzierbar mit
∂ k−1 ∂ k−1 1 f¨ ur a < t < b . G(t+, t) − G(t−, t) = k−1 k−1 ∂x ∂x f0 (t)
(7)
7.2
RWPe f¨ ur lineare Differentialgleichungen k-ter Ordnung
277
③ F¨ ur jedes (feste) t ∈ [a , b] l¨ ost G( , t) die homogene Differentialgleichung (3) in [a , b] \ {t} .
④ F¨ ur jedes t ∈ ]a , b[ erf¨ ullt G( , t) die homogenen Randbedingungen (4) .
Beweis: ③ und ④ folgen unmittelbar aus den entsprechenden Aussagen von <( , t) = 0 in [a , b] \ {t} bedeutet speziell Satz 7.1.3: H G
∂ < <(x, t)ek G (x, t)ek = F (x) G ∂x
f¨ ur x = t .
Unter Beachtung von (6) zeigt die letzte Komponente, verbunden mit der ost. F¨ ur t ∈ ]a , b[ ben¨otigten Differenzierbarkeitsaussage, daß G( , t) (3) l¨ <( , t)ek = 0 mit (6) die Aussage ④. liefert R G
Die Differenzierbarkeits- und Stetigkeitseigenschaften von ① und ② sind also in [a , b]2 \ D schon erledigt. <(t+, t) − G <(t−, t) = E liefert speziell Die Beziehung ② aus Satz 7.1.3 G < < G (t+, t)ek − G (t−, t)ek = ek , also nach (6) den Rest von ① und ②. Auch die Eindeutigkeit liest man aus Satz 7.1.3 ab.
Vereinfachte Berechnung der Green-Funktion Zur Berechnung der Green-Funktion machen wir — mit dem Fundamentalsystem η1 , . . . , ηk der homogenen DGL und zu bestimmenden Funktionen ακ und βκ — den Ansatz: ⎧ k 9 ⎪ ⎪ ⎪ αj (t) + βj (t) ηj (x) , a ≤ t ≤ x ≤ b ⎨ G(x, t) = j=1 k 9 ⎪ ⎪ ⎪ αj (t) − βj (t) ηj (x) , a ≤ x ≤ t ≤ b ⎩ j=1
Aus den Stetigkeitsforderungen f¨ ur die κ-te Ableitung nach x (κ = 0, . . . , k − 2) sowie der Sprungbedingung (7) f¨ ur x = t ergeben sich die folgenden Gleichungen:
j=1
j=1
k k (k−1) (k−1) 9 9 αj (x) + βj (x) ηj αj (x) − βj (x) ηj (x) − (x) = 1/f0 (x)
j=1
j=1
Diese sind ¨aquivalent zu dem Gleichungssystem ⎛ ⎞ ⎛ ⎞ 0 β1 (x) ⎜ ... ⎟ ⎜ .. ⎟ ⎟ 2f0 (x)Y (x) ⎝ . ⎠ = ⎜ ⎝0⎠ , βk (x) 1
Kapitel 7
k k (κ) (κ) 9 9 αj (x) + βj (x) ηj (x) − αj (x) − βj (x) ηj (x) = 0
278
Kapitel 7
Rand- und Eigenwertprobleme
aus dem sich eindeutig β1 (x), . . . , βk (x) ergeben. Einsetzen in die Randbedingungen ergibt f¨ ur a < t < b ⎞ ⎞ ⎛ ⎛ ηj (a) ηj (b) k k 0 0 ⎜ ⎜ .. .. ⎟ ⎟ αj (t)−βj (t) A ⎝ αj (t)+βj (t) B ⎝ ⎠+ ⎠ = 0 . . (k−1) (k−1) j=1 j=1 ηj ηj (a) (b) !" # !" # = yj (a) = yj (b) beziehungsweise ⎞ ⎞ ⎛ ⎛ α1 (t) β1 (t) ⎜ ⎜ ⎟ ⎟ AY (a) + B Y (b) ⎝ ... ⎠ = AY (a) − B Y (b) ⎝ ... ⎠ . (8) αk (t) βk (t) Dies liefert eindeutig α1 (t), . . . , αk (t) , da ja die charakteristische Matrix AY (a) + B Y (b) invertierbar ist. ¨ Diese Uberlegungen k¨ onnen auch leicht zu einem alternativen Beweis zur eindeutigen Existenz der Green-Funktion ausgestaltet werden.
Es ist wieder Zeit f¨ ur ein Beispiel4 . Wir f¨ uhren hierbei nicht jeden Zwischenschritt (Matrixmultiplikation und Anwendung der Addititionstheoreme f¨ ur die trigonometrischen Funktionen) aus: (B4) F¨ ur ein ν ∈
\ {0} betrachten wir
−η − ν 2 η = 0
mit
η(0) = η(1) und η (0) = η (1) . 5
¨ In den allgemeinen Uberlegungen ist also k = 2, a = 0, b = 1 und ur x ∈ [0, 1] zu setzen und f0 (x) := −1, f1 (x) := 0, f2 (x) := −ν 2 f¨ etwa 1 0 −1 0 A= , B = 0 1 0 −1
Kapitel 7
zu w¨ahlen. Eine Fundamentalmatrix ergibt sich bekannterweise durch sin(ν x) cos(ν x) mit w(x) := det Y (x) = −ν . Y (x) = ν cos(ν x) −ν sin(ν x) Mit dem obigen Ansatz erh¨ alt man β1 und β2 durch β1 (x) β1 (x) − cos(ν x) 1 0 −2Y (x) . = zu = 1 2ν β2 (x) β2 (x) sin(ν x) 4 5
Dieses findet man schon bei Ince (1927). Daß wir die homogene Differentialgleichung so und nicht als η + ν 2 η = 0 no¨ tieren, wird durch die Uberlegungen aus Abschnitt 7.4 verst¨ andlich.
7.2
RWPe f¨ ur lineare Differentialgleichungen k-ter Ordnung
279
¨ Uber die charakteristische Matrix 0 1 − sin ν − cos ν AY (0) + B Y (1) = + , ν 0 −ν cos ν ν sin ν die f¨ ur ν ∈ / 2π regul¨ar ist, ergeben sich α1 , α2 f¨ ur solche ν durch & ' − sin ν 1 − cos ν α1 (t) −1 − sin(ν(t − 1)) − sin(νt) = 2ν ν cos(ν(t − 1)) + cos(νt) ν(1 − cos ν) ν sin ν α2 (t)
zu
α1 (t) α2 (t)
−1 = 2ν (1 − cos ν)
sin(ν) sin(ν t) sin(ν) cos(ν t)
.
Nach kurzer Rechnung erh¨alt man: ⎧ sin(ν (t − x)) − sin(ν (t − x + 1)) ⎪ , t≤x ⎪ ⎨ 2ν (1 − cos ν) G(x, t) = ⎪ ⎪ ⎩ sin(ν (x − t)) − sin(ν (x − t + 1)) , x < t 2ν (1 − cos ν) Die zweite Zeile l¨ aßt sich noch zu −
cos(ν (x − t + 1/2)) 2ν sin(ν/2)
umformen. Damit k¨onnen wir dann, da G offenbar symmetrisch ist, u ¨bersichtlicher schreiben: ⎧ cos(ν (t − x + 1/2)) ⎪ ⎪ , t≤x ⎨− 2ν sin(ν/2) G(x, t) = ⎪ ⎪ ⎩− cos(ν (x − t + 1/2)) , x < t 2ν sin(ν/2) Die beiden folgenden Graphiken zeigen (f¨ ur ν = 2) sehr sch¨ on den Knick beziehungsweise Sprung an der Diagonalen: Ableitung nach x
Green-Funktion
0
–0.25 0
0.5 x 0.5
t
0
0
–0.5 0
0.5 x 0.5
1
1
t
1
1
Kapitel 7
0.5 –0.2
280
Kapitel 7
Rand- und Eigenwertprobleme
Getrennte Randbedingungen im Fall k = 2 In dem folgenden in vielen Anwendungen auftretenden Spezialfall kann die Green-Funktion einfach berechnet werden. Es seien k = 2 und speziell 0 0 α11 α12 und B = A = . 0 0 β21 β22 Wir betrachten also die lineare Differentialgleichung zweiter Ordnung f0 (x)η + f1 (x)η + f2 (x)η = γ(x) mit den homogenen linearen Randbedingungen r1 (η) := α11 η(a) + α12 η (a) = 0
.
r2 (η) := β21 η(b) + β22 η (b) = 0
Unter den allgemeinen Annahmen dieses Abschnitts sei wieder die homogene Randwertaufgabe nur trivial l¨osbar. Je zwei nicht-triviale L¨ osungen η1 und η2 der homogenen Differentialgleiullen, bilden ein chung, die die Randbedingungen r1 (η1 ) = r2 (η2 ) = 0 erf¨ Fundamentalsystem. atte man auch Beweis: W¨are Œ η2 ein skalares Vielfaches von η1 , so h¨ r2 (η1 ) = 0, also im Widerspruch zur Voraussetzung η2 = 0, da η2 beide Randbedingungen erf¨ ullt. ur x ∈ [a , b] Mit solchen L¨osungen η1 und η2 bilden wir f¨ Y (x) :=
η1 (x) η2 (x) η1 (x) η2 (x)
und
w(x) := det Y (x) .
Das Gleichungssystem
Kapitel 7
2f0 (x)Y (x) liefert hier
β1 (x) β2 (x)
β1 (x) β2 (x)
1 = 2f0 (x)w(x)
0 = 1
−η2 (x) η1 (x)
.
Unter Beachtung von r1 (η1 ) = r2 (η2 ) = 0 hat man 0 0 0 r1 (η2 ) , B Y (b) = . AY (a) = r2 (η1 ) 0 0 0 Die Forderung (8) ergibt hier:
7.2
RWPe f¨ ur lineare Differentialgleichungen k-ter Ordnung
0 r1 (η2 ) r2 (η1 ) 0
α1 (t) α2 (t)
=
0 r1 (η2 ) −r2 (η1 ) 0
β1 (t) β2 (t)
⇐⇒
281
α2 (t) = β2 (t) α1 (t) = −β1 (t)
Damit ergibt sich die Green-Funktion hier durch G(x, t) =
2β2 (t) η2 (x) , t ≤ x
1 = f0 (t)w(t)
−2β1 (t) η1 (x) , x ≤ t
η1 (t) η2 (x) , t ≤ x η2 (t) η1 (x) , x ≤ t
b
und mittels η(x) =
G(x, t) γ(t) dt a
die L¨osung η der Randwertaufgabe. Auch hierzu abschließend ein Beispiel: −η + η = x
(B5)
mit
η(0) = 0 und η(1) = 0
Zwei nicht-triviale L¨ osungen η1 und η2 der homogenen Differentialgleichung, welche die erste beziehungsweise zweite Randbedingung erf¨ ullen, hat man durch: η1 (x) := sinh(x)
und
η2 (x) := sinh(x − 1)
Hierzu erh¨alt man als Wronski-Matrix beziehungsweise WronskiDeterminante: sinh(x) sinh(x − 1) und H(x) = cosh(x) cosh(x − 1) w(x) = det H(x) = sinh(x) cosh(x − 1) − cosh(x) sinh(x − 1) = sinh(x − (x − 1)) = sinh(1) .
t≤x x
und damit nach einfacher Rechnung die L¨ osung η der RWA: x η(x) =
sinh(1 − x) t sinh(t) dt + sinh(1)
0
sinh(x) = x− sinh(1)
1 x
sinh(x) t sinh(1 − t) dt sinh(1)
Kapitel 7
Die Green-Funktion ergibt sich hiermit durch ⎧ sinh(1 − x) sinh(t) ⎪ ⎪ , ⎨ sinh(1) G(x, t) = sinh(x) sinh(1 − t) ⎪ ⎪ ⎩ , sinh(1)
282
Kapitel 7
Rand- und Eigenwertprobleme
7.3 Nicht-lineare Randwertaufgaben und Fixpunktprobleme Mit Hilfe der Green-Funktion k¨onnen durchaus auch nicht-lineare Randwertaufgaben behandelt werden. Wir beschr¨anken uns zu dieser Fragestellung auf ein ausf¨ uhrliches Beispiel (man vergleiche [Bu/St]), um die Dinge u berschaubar zu halten. ¨ (B6)
η = 3 η 2 mit η(0) = 4, η(1) = 1 2
(1)
Diese Aufgabe wird offenbar durch η = 4/(1 + )2 gel¨ ost. Wir wollen jedoch ¨ die Kenntnis dieser L¨osung bei den folgenden Uberlegungen außer acht lassen.
(1) spalten wir auf in die beiden halbhomogenen Aufgaben = 0 mit (0) = 4, (1) = 1
(2)
und — mit zun¨achst beliebigem γ — −σ = γ(x) mit σ(0) = 0, σ(1) = 0 .
(3)
(2) wird gel¨ost durch = 4 − 3 . Die Green-Funktion zu (3) ergibt sich ¨ nach den vorangehenden Uberlegungen zu getrennten Randbedingungen mit f0 (x) = −1, η1 (x) = x, η2 (x) = x − 1, folglich ω(x) = 1, zu: t (1 − x) , 0≤t≤x≤1 G(x, t) = x(1 − t) , 0≤x
Die L¨osung σ von (3) ist somit gegeben durch 1 σ(x) = τ := + σ , also
G(x, t)γ(t) dt . 0
1
Kapitel 7
τ (x) = 4 − 3x +
G(x, t)γ(t) dt , 0
erf¨ ullt mithin τ = −γ(x) mit τ (0) = 4 und τ (1) = 1. Die Aufgabe (1) ist daher ¨aquivalent zu 1 η(x) = 4 − 3x −
G(x, t) 3 η(t)2 dt . 2
(4)
0
Wir interpretieren (4) als Fixpunktgleichung. Zur Anwendung des Fixpunktsatzes f¨ ur Kontraktionen (vgl. Seite 73) betrachten wir
7.4
Selbstadjungierte Randwertaufgaben
283
mit der zur Maximumsnorm | |s gebildeten Metrik δ , M := C [0, 1], D := η ∈ M | 0 ≤ η(x) ≤ 4 − 3x f¨ ur 0 ≤ x ≤ 1 und
1 (T η)(x) := 4 − 3x −
G(x, t) 3 η(t)2 dt f¨ ur η ∈ D . 2
0
Es sei nun η ∈ D. Da die Green-Funktion in diesem Fall nicht-negativ ist, gelten (T η)(x) ≤ 4 − 3x und 1 (T η)(x) ≥ 4 − 3x −
G(x, t) 3 (4 − 3t)2 dt =: z(x) 2
f¨ ur x ∈ [0, 1] .
0
z ist die L¨osung der Randwertaufgabe z = 3 (4 − 3x)2 mit z(0) = 4, z(1) = 1 . 2 Folglich ist z(x) = 1 (4 − 3x)4 + 13 x + 4 . 72 24 9 Die rechte Seite ist offenbar in [0 , 1] nicht-negativ. Damit haben wir gezeigt: T : D −→ D . F¨ ur u, v ∈ D sch¨atzen wir nun 1 (T u)(x) − (T v)(x) = −
G(x, t) 3 u(t) − v(t) u(t) + v(t) dt 2
0
ab und erhalten 1 3 (T u)(x) − (T v)(x) ≤ u − vs · G(x, t) 2 · 2(4 − 3t) dt 0 !" # 3 = x(1 − x)(3 − x) < 1 2 Damit ist auch die Kontraktionseigenschaft nachgewiesen.
7.4 Selbstadjungierte Randwertaufgaben Wir betrachten in diesem Abschnitt — unter den Voraussetzungen und mit den Bezeichnungen aus Abschnitt 7.2 — wieder die halbhomogene Randwertaufgabe, bestehend aus der linearen Differentialgleichung k-ter Ordnung
Kapitel 7
¨ Die Anwendungsm¨oglichkeiten dieser Uberlegungen sind eher bescheiden. F¨ ur nicht-lineare Randwertaufgaben erweisen sich geeignete numerische Methoden als leistungsf¨ ahiger. Diese Dinge sind jedoch nicht Thema unseres Buches.
284
Kapitel 7
Rand- und Eigenwertprobleme
f0 (x)η (k) + f1 (x)η (k−1) + · · · + fk (x)η = γ(x)
(1)
und den homogenen linearen Randbedingungen k 0
αλ κ η (κ−1) (a) + βλ κ η (κ−1) (b)
= 0 f¨ ur λ = 1, . . . , k .
(2)
κ=1
Wir bezeichnen mit U den Unterraum aller Funktionen, die die Randbedingungen (2) erf¨ ullen, also U := η ∈ Ck [a , b], A(τ (η))(a) + B (τ (η))(b) = 0 ,
und k¨ urzen die linke Seite der Differentialgleichung (1) durch L η ab, setzen also f¨ ur η ∈ Ck [a , b], und x ∈ [a , b]
(L η)(x) := f0 (x)η (k) (x) + f1 (x)η (k−1) (x) + · · · + fk (x)η(x) . Wir nennen eine solche Abbildung L Differentialoperator. L heißt reell, wenn osungen der Randalle Koeffizientenfunktionen f0 , . . . , fk reellwertig sind. L¨ wertaufgabe sind also gerade die Funktionen η ∈ U mit L η = γ . Oft werden die Funktionen aus U als Vergleichsfunktionen bezeichnet. Neben L betrachten wir den zugeh¨origen adjungierten Differentialoperator, definiert durch (k) + · · · − fk−1 η + fk η L∗ η := (−1)k f0 η f¨ ur η∈ Ck [a , b], , nat¨ urlich unter der zus¨atzlichen Voraussetzung fκ ∈ f¨ ur κ = 0, . . . , k . Diesen Operator wollen wir nicht eiCk−κ [a , b], genst¨andig untersuchen. Er ergibt sich in nat¨ urlicher Weise, wenn man das b Integral a u(x)(L v)(x) dx durch partielle Integration auswertet. Stimmen L und L∗ u ¨berein, so nennen wir L oder auch die Differentialgleichung (1) formal-selbstadjungiert.
Kapitel 7
Wir sehen uns das nur im wichtigen Spezialfall k = 2 f¨ ur reellwertige Funktionen etwas genauer an: L η = f0 η + f1 η + f2 η wird das Integral F¨ ur u, v ∈ C2 [a , b],
b
b u(x)(L v)(x) dx =
a
a
$ % u(x) f0 (x)v (x) + f1 (x) v (x) + f2 (x) v(x) dx
7.4
Selbstadjungierte Randwertaufgaben
285
nach partieller Integration der ersten beiden Summanden zu b b $ % (uf0 )v − (uf0 ) v + uf1 v + (uf0 ) − (uf1 ) + uf2 v dx .
a
a
Mit L∗ u := (uf0 ) − (uf1 ) + uf2 = f0 u + (2f0 − f1 )u + (f0 − f1 + f2 )u gilt L = L∗ offenbar genau dann, wenn f0 = f1 . In diesem Fall hat man mit p := −f0 und q := f2 L η = −(p η ) + q η ,
(3)
folglich — nach einfacher Rechnung — die Lagrange-Identit¨ at u (L v) − (L u)v = p (u v − uv )
(4)
und so b
% b u (L v) − (L u)v dx = p(x) u (x)v(x) − u(x)v (x) .
(5)
a
a
Die Randwertaufgabe (1) mit (2) heißt genau dann selbstadjungiert, wenn L formal-selbstadjungiert ist und f¨ ur alle Funktionen u und v aus U gilt: b
b u(x)(L v)(x) dx =
a
a
b
Mit dem durch (f, g) :=
auf C0 [a , b],
(L u)(x)v(x) dx
f (x)g(x) dx a
definierten Skalarprodukt6 ( , ) kann dies kurz als f¨ ur u, v ∈ U
geschrieben werden. Bei Randwertaufgaben zweiter Ordnung ist die Selbstadjungiertheit relativ leicht festzustellen. Wir beschr¨anken uns auch dabei der Einfachheit halber auf reellwertige Funktionen: 6
Den Routinenachweis, daß ( , ) ein Skalarprodukt ist, ersparen wir uns; denn das d¨ urfte allgemein bekannt sein.
Kapitel 7
(u, Lv) = (L u, v)
286
Kapitel 7
Rand- und Eigenwertprobleme
(B7) Die Randwertaufgabe (L η)(x) := − p(x)η (x) + q(x)η(x) = γ(x) mit α11 η(a) + α12 η (a) = 0 , β21 η(b) + β22 η (b) = 0 und (α11 , α12 ) sowie (β21 , β22 ) ungleich Null ist selbstadjungiert. b (5) b u(x)(L v)(x) − v(x)(L u)(x) dx = p(x) u (x)v(x) − u(x)v (x)
a
a
Zum Nachweis, daß die rechte Seite Null ist, unterscheiden wir die folgenden F¨alle: 1) α12 = 0 ∧ β22 = 0 : Dann gelten η (a) = α η(a) und η (b) = β η(b) ur η ∈ {u, v}. mit geeigneten α, β ∈ f¨
2) Im Falle α12 = 0 ∧ β22 = 0 hat man η(a) = 0 und η (b) = β η(b) mit geeignetem β ∈ .
3) α12 = 0 ∧ β22 = 0: Hier gelten η (a) = α η(a) und η(b) = 0 f¨ ur ein α∈ .
4) Im verbleibenden Fall α12 = β22 = 0 folgt η(a) = 0, η(b) = 0. Bei den Beispielen (B 4), (B 5) und (B 6) war die Green-Funktion jeweils symmetrisch. Dazu zeigen wir allgemein: Satz 7.4.1 (Symmetrie der Green-Funktion) Die Randwertaufgabe (1) mit (2) sei selbstadjungiert, und die zugeh¨ orige homogene Randwertaufgabe besitze nur die triviale L¨ osung. Dann gilt f¨ ur ihre Green-Funktion G G(t, x) = G(x, t)
f¨ ur x, t ∈ [a , b] .
Im reellwertigen Fall hat man also unter diesen Voraussetzungen die Symmetrie von G. betrachten wir Beweis: Zu beliebigen Funktionen g, h ∈ C0 [a , b],
Kapitel 7
b u :=
b G( , t)g(t)dt und v :=
G( , t)h(t)dt .
a
a
Nach Satz 7.2.1 geh¨oren u und v zu U. Wegen der Selbstadjungiertheit hat man also b $ % (L u)(x)v(x) − u(x)(L v)(x) dx = 0 . a
Mit L u = g und L v = h (vgl. Satz 7.2.1) ergibt sich daraus
7.5
Selbstadjungierte Randeigenwertaufgaben bb
287
G(x, t) − G(t, x) g(x)h(t) dtdx = 0
a a
und so — in nun schon vertrauter Schlußweise — die Behauptung.
Ein Beispiel f¨ ur einen reellen formal-selbstadjungierten Differentialoperator, bei dem die zugeh¨ orige Green-Funktion f¨ ur spezielle Randbedingungen nicht symmetrisch, die Randwertaufgabe also nicht selbstadjungiert ist, enth¨ alt MWS 7.
Auf ersten Blick u ¨berrascht vielleicht, daß sich jeder reelle Differentialoperator L zweiter Ordnung in formal-selbstadjungierte Form bringen l¨ aßt. Doch das ist ganz einfach: Bemerkung 7.4.2 Der reelle Differentialoperator L, gegeben durch L η = f0 η + f1 η + f2 η , geht f¨ ur x p(x) := exp
f1 (t) f0 (t)
dt
q(x) := −p(x)
und
f2 (x) f0 (x)
a
durch Multiplikation mit −p/f0 u ¨ber in die formal-selbstadjungierte Form = −(p η ) + q η . L f f Beweis: − p η + q η = −p η − p η + q η = − 1 p η − p η − 2 p η f0 f0 p f0 η + f1 η + f2 η =− f0
(B8) In Abschnitt 6.1 haben wir die Hermite-Differentialgleichung η − 2x η + λη = 0
7.5 Selbstadjungierte Randeigenwertaufgaben Bei vielen Randwertaufgaben enth¨ alt die Differentialgleichung noch einen freien Parameter λ . Wird die L¨ osbarkeit in Abh¨ angigkeit von λ untersucht, spricht man von einer Randeigenwertaufgabe oder einem Randeigenwertproblem, kurz auch nur von einer Eigenwertaufgabe oder einem Eigenwertproblem. Da Eigenvektoren hier Funktionen sind, sprechen wir auch von Eigenfunktionen oder Eigenl¨ osungen.
Kapitel 7
betrachtet. Sie ist offenbar nicht formal-selbstadjungiert. Mit den obi¨ gen Uberlegungen geht sie u ¨ber in die formal-selbstadjungierte Form 2 2 e− η + λ e− η = 0 .
288
Kapitel 7
Rand- und Eigenwertprobleme
(B9) Die Randwertaufgabe η + λη = 0 mit η(0) = η(π) = 0 wird als Schwingungsgleichung von Helmholtz7 bezeichnet. Sie beschreibt etwa die Auslenkung einer an den Enden fest eingespannten ∂2 ∂2 Saite und entsteht aus der Wellengleichung ∂t 2 u = ∂x2 u durch Se’ paration‘ (Ansatz der Form u(x, t) = a(t)η(x)). Aus physikalischen Gr¨ unden kann man von λ ∈ ausgehen. Dies ist aber auch mathematisch begr¨ undet (Bemerkung 7.5.1), da die Aufgabe selbstadjungiert ist. Wir k¨ onnten uns sogar auf positive Eigenwerte beschr¨ anken, wenn ¨ wir die allgemeine Uberlegung 7.6.2 vorziehen w¨ urden.
λ < 0: Hier ist die allgemeine L¨ osung η der Differentialgleichung mit Konstanten c1 , c2 von der Form √ √ η(x) = c1 sinh −λ x + c2 cosh −λ x . Die erste Randbedingung η(0) = 0√zeigt c2 = 0, dann folgt c1 = 0 aus 0 = η(π) = c1 sinh −λπ , zusammen somit η = 0. Negative λ sind also keine Eigenwerte. λ = 0: Nun ist die allgemeine L¨ osung η der Differentialgleichung von der Form η(x) = c1 + c2 x . η(0) = 0 zeigt c1 = 0. Dann folgt c2 = 0 aus 0 = η(π) = c2 π . λ > 0: Die allgemeine L¨osung η der Differentialgleichung ist in diesem Fall von der Form √ √ η(x) = c1 sin λ x + c2 cos λ x . √ η(0) = 0 liefert c2 = 0. Dann zeigt 0 = η(π) = c1 sin λπ , daß√ eine nicht-triviale L¨ osung genau dann existiert, wenn √ urliche Zahl ist. sin λπ = 0 gilt, also λ eine nat¨
Kapitel 7
Damit haben wir unendlich viele Eigenwerte (speziell Eigenfrequenzen der Saite) λn := n2 mit zugeh¨ origen normierten‘ Eigenl¨ osungen ’ = 2 sin n ηn = π
f¨ ur n ∈ . Die Normierung‘ bedeutet, daß (ηn , ηn ) = 1 mit dem ’ Skalarprodukt ( , ) aus Abschnitt 7.4 gilt. Der zugeh¨ orige Eigenraum
7
Der deutsche Physiker und Physiologe Hermann Ludwig Ferdinand von Helmholtz (1821–1894) untersuchte physiologische Vorg¨ ange auf physikalischer Basis. In der Physik kl¨ arte er die Bedeutung des Energieprinzips und bereitete mit seinen Untersuchungen zur Elektrodynamik die Theorie von Maxwell vor.
7.5
Selbstadjungierte Randeigenwertaufgaben
289
ist jeweils eindimensional. Zudem sind die Funktionen ηn paarweise orthogonal, bilden also ein Orthonormalsystem. Dieses ist bekanntlich aßt sich darstellen vollst¨ andig, d. h. jede Funktion η ∈ C0 [0, π ], 8 l¨ in der Form ∞ 0 η = (η, ηn )ηn .
n=1
Die Koeffizienten (η, ηn ) heißen Fourier-Koeffizienten, die Reihe Fourier-Reihe. Die Konvergenz bez¨ uglich der Norm, die aus dem Skalarprodukt resultiert, ist einfach zu sehen. Entscheidende Fragen sind: Wann hat man punktweise, wann gleichm¨ aßige Konvergenz? ¨ Bei den folgenden Uberlegungen betrachten wir als wichtigen Spezialfall den f¨ ur viele Anwendungen — insbesondere auch bei der Behandlung partieller Differentialgleichungen der Physik — wichtigen und ausreichenden Fall einer reellen selbstadjungierten Randwertaufgabe zweiter Ordnung mit homogenen Randbedingungen: (L η)(x) := − p(x)η (x) + q(x)η(x) = γ(x) mit
R η := A
η(a) η (a)
+B
η(b) η (b)
(1)
= 0
(2)
Hierbei seien wieder a und b reelle Zahlen mit a < b, x jeweils in [ a , b], p ∈ C1 := C1 [a , b], , q, γ ∈ C0 := C0 [a , b], , η ∈ C2 := C2 [a , b], und A und B reelle (2, 2)-Matrizen.
Wir bezeichnen wieder mit U den Unterraum aller Funktionen, die die Randbedingungen (2) erf¨ ullen, also U := η ∈ C2 A(τ (η))(a) + B (τ (η))(b) = 0 . Wir machen die Annahme, daß die homogene Randwertaufgabe L η = 0 mit R η = 0 nur trivial l¨osbar ist. Die allgemeine Randwertaufgabe (1) mit (2) besitzt dann eine eindeutig bestimmte L¨osung η , die mit Hilfe der hier reellen Green-Funktion G in der Gestalt η(x) =
G(x, t) γ(t) dt a
geschrieben werden kann. Wir haben also eine Integralgleichung mit — nach Satz 7.4.1 — symmetrischem Kern‘ G. ’ 8
Der passende Raum w¨ are eigentlich L2 [ 0 , π ], . Die Kenntnisse der Lebesgue-Integrationstheorie wollen wir jedoch in diesem Buch nicht voraussetzen.
Kapitel 7
b
290
Kapitel 7
Rand- und Eigenwertprobleme
Wir betrachten mit einer Funktion r ∈ C0 [a , b], ]0, ∞ [ die Randeigenwertaufgabe 9 (L η)(x) = λ r(x)η(x) mit R η = 0 . (3) Wir sprechen oft lax von Eigenwerten von L, wenn wir Eigenwerte des auf U eingeschr¨ankten Operators 1/r L meinen. Bemerkung 7.5.1 Eigenwerte von L sind reell. Beweis: F¨ ur λ ∈
und u ∈ U \ {0} mit L u = λr u
rechnet man unter Ber¨ ucksichtigung der Selbstadjungiertheit der Aufgabe λ (r u, u) = (λr u, u) = (L u, u) = (u, Lu) = (u, λr u) = λ(u, r u) . √ √ Das zeigt λ = λ, da (r u, u) = ( r u, r u) = (u, r u) positiv ist.
Wir weisen ausdr¨ ucklich darauf hin, daß wir bisher noch keine allgemeinen Existenzaussagen f¨ ur Eigenwerte bei dem vorliegenden Aufgabentyp haben! Die obige Annahme bedeutet gerade, daß λ = 0 kein Eigenwert von L ist. Die Randeigenwertaufgabe (3) ist ¨aquivalent zu b η(x) = λ
G(x, t) r(t) η(t) dt , a
also einem Eigenwertproblem f¨ ur eine Integralgleichung. Mit dem FredholmIntegraloperator10 T , definiert durch T η (x) :=
b G(x, t) r(t) η(t) dt
Kapitel 7
a
f¨ ur η ∈ C0 , kann dies kurz als 9
10
Dieser zus¨ atzlich auftretende Faktor r ist wichtig, da bei der Umschreibung auf formal-selbstadjungierte Form gem¨ aß Bemerkung 7.4.2 auch die gegebene Inhomogenit¨ at zu transformieren ist. Der schwedische Mathematiker Eric Ivar Fredholm (1866–1927) besch¨ aftigte sich besonders mit Problemen der praktischen Mechanik. Die nach ihm benannte Integralgleichung zweiter Art spielt eine entscheidende Rolle bei der L¨ osung physikalischer Aufgaben. Seine Untersuchungen gaben erste Anregungen f¨ ur die Hilbert-Raum-Theorie, wie sie sp¨ ater von David Hilbert, Erhard Schmidt ´de ´ric Riesz ausgestaltet wurde. und Fre
7.5
Selbstadjungierte Randeigenwertaufgaben
291
η = λT η
(4)
notiert werden. T : C0 −→ C0 ist offenbar linear. Bez¨ uglich des auf C0 durch b u, v :=
r(x)u(x)v(x) dx a
definierten Skalarproduktes11 ist T symmetrisch, d. h. es gilt >
? > ? T u, v = u, T v
(5)
f¨ ur u und v aus C0 . Beweis:
>
b
b
?
r(x)
T u, v = a
G(x, t) r(t) u(t) dt v(x) dx
a
b b
G(x, t) r(x) r(t) u(t) v(x) dt dx
= a
b =
a
r(t) a
b G(x, t) r(x) v(x) dx = !" #
a = G(t,x)
!"
>
u, T v
?
#
=(T v)(t)
Man hat bei dieser Rechnung irgendwie den Eindruck, daß diese Symmetrie auch ohne Rechnung zu sehen‘ sein m¨ ußte. Dazu notieren wir: ’ Bemerkung 7.5.2 a) F¨ ur u ∈
0
gelten T u ∈ U und L T u = ru.
b) F¨ ur v ∈ U gilt v = T (1/r L)v .
Mit a) kann man nun die Symmetrie von T bez¨ uglich , sehen‘: ’ 11
Auch den Nachweis, daß , ein Skalarprodukt ist, lassen wir weg. Man liest die √ √ ur zu zeigenden Eigenschaften direkt ab aus u , v = ( r u, r v) = (r u, v) f¨ at von r die Definitheit u, v ∈ C0 . Wir weisen nur darauf hin, daß die Positivit¨ sichert.
Kapitel 7
Beweis: a) ist unmittelbar durch die Definition und die Beschreibung einer L¨osung der RWA durch die Green-Funktion gegeben; denn f¨ ur v := T u gelten ja gerade R v = 0 und L v = r u . F¨ ur b) beachtet man zu v ∈ U mit w := 1/r Lv : L T w = r w = L v , also L(T w − v) = 0 . Da 0 nicht Eigenwert von L ist, gilt v = T w = T (1/r L)v .
292 >
Kapitel 7
Rand- und Eigenwertprobleme
? > ? T u, v = (T u, r v) = (T u, L T v) = (L T u, T v) = (r u, T v) = u, T v
An einigen Stellen ist im folgenden zu ber¨ ucksichtigen, daß die Eigenwerte zu L und die zu T offenbar gerade reziprok zueinander sind. Bemerkung 7.5.3 Alle Eigenwerte zu T sind reell. Eigenl¨ osungen zu verschiedenen Eigenwerten von T sind bez¨ uglich , zueinander orthogonal. Beweis: Die erste Aussage ist durch Bemerkung 7.5.1 mit obiger Anmerkung u ¨ber die Reziprozit¨at der Eigenwerte von L und T gegeben. Sind λ und µ verschiedene Eigenwerte von T , so gilt f¨ ur Eigenl¨ osungen u zu λ und v zu µ > ? (5) > ? λu, v = λu, v = T u, v = u, T v = u, µv = µu, v . Damit hat man u, v = 0.
¨ F¨ ur die nachfolgenden Uberlegungen stellen wir einige einfache Anmerkungen zu Fourier-Reihen zusammen. In Abrenzung von Spezialf¨ allen mit trigonometrischen Funktionen (man vergleiche etwa (B 9)) spricht man oft auch von verallgemeinerten Fourier-Reihen. Wir lassen jedoch den Zusatz verallgemeinert“ im folgenden jeweils weg. ”
Fourier-Reihen Eine gegebene Funktionenfolge (ϕν ) sei ein Orthonormalsystem, d. h. 7 0 , ν = µ ϕν , ϕµ = . 1 , ν = µ Dies ist beispielsweise gegeben, wenn man f¨ ur ν ∈ normierte Eigenfunktion ϕν hat.
Kapitel 7
Wir betrachten den Vektorraum R := f | f : [a , b] −→
zum Eigenwert λν von T eine
integrierbar .
Der Kenner wird hier im Sinne von Lebesgue verstehen und den Integrierbarkeit heranziehen. F¨ ur die Fragestellung dieses AbschnitHilbert-Raum L2 [ a , b ], tes gen¨ ugt jedoch weitgehend der Raum der Riemann-integrierbaren Funktionen a-Hilbertbeziehungsweise noch spezieller C0 mit dem Skalarprodukt , als Pr¨ Raum, also ohne Vollst¨ andigkeit.
Zu f ∈ R und n ∈ b a
sind Koeffizienten c1 , . . . , cn ∈
derart gesucht, daß
n n 2 2 0 0 r(x) f (x) − cν ην (x) dx = f − cν ην ν=1
ν=1
2
7.5
Selbstadjungierte Randeigenwertaufgaben
293
minimal wird bez¨ uglich der aus dem Skalarprodukt , resultierenden ur beNorm | |2 ( Approximation im gewichteten quadratischen Mittel“). F¨ ” liebige cν gilt
f−
n 0
cν ην , f −
ν=1
n 0
cν ην
= f , f +
ν=1
n n 0 2 0 cν − f , ην − f , ην 2 . ν=1
ν=1
Dieser (nicht-negative) Ausdruck wird offenbar genau dann minimal, wenn ur ν = 1, . . . , n gilt. Die Zahlen f , ην heißen Fouriercν = f , ην f¨ Koeffizienten (von f bez¨ uglich ην ). Mit Fn :=
n 0
f , ην ην
ν=1
liest man sofort 2
0 ≤ |f − Fn |22 = |f |2 −
n 0
f , ην 2
ν=1
ab und daraus
0 2 n 0 n = f , η η f , ην 2 ν ν 2
ν=1
ν=1
sowie die Bessel-Ungleichung: ∞ 0
2
f , ην 2 ≤ f , f = |f |2
ν=0
Insgesamt hat man so den Approximationssatz: Satz 7.5.4 Unter allen Funktionen der Form
n 9
cν ην wird f am besten durch Fn im
ν=1
quadratischen Mittel approximiert; dabei gilt:
ν=1
Es gilt also genau dann |Fn − f |2 → 0 f¨ ur n → ∞ , wenn die ParsevalGleichung 12 ∞ 0 2 f , ην 2 = f , f = |f |2 ν=1 12
Im Spezialfall von dem franz¨ osischen Mathematiker Marc-Antoine Parseval ´nes (1755-1836) notiert. des Che
Kapitel 7
n 0 ? > 2 f − Fn , f − Fn = |f |2 − f , ην 2
294
Kapitel 7
Rand- und Eigenwertprobleme
erf¨ ullt ist. Man schreibt in diesem Fall f =
∞ 0
f , ην ην
(Fourier-Reihe von f )
ν=1
und sollte dabei beachten, daß dies nur‘ Konvergenz bez¨ uglich | |2 bedeutet. ’ Entwicklungss¨ atze ¨ Das Ziel der nachfolgenden Uberlegungen ist der Nachweis von: • L besitzt abz¨ ahlbar unendlich viele reelle Eigenwerte λn mit λn −→ ∞ f¨ ur n → ∞. • Jede gen¨ ugend glatte Funktion, welche die Randbedingungen erf¨ ullt, kann in eine gleichm¨ aßig konvergente Fourier-Reihe nach den zugeh¨ origen Eigenfunktionen ηn entwickelt werden. Mit Hilfe der Fourier-Reihen gelingt dann die L¨ osung der Randwertaufgabe. F¨ ur den durchaus aufwendigen Beweis gibt es mehrere M¨ oglichkeiten: uhrt. Der Weg u ufer13 -Transformation wird etwa in [Wal] ausgef¨ ¨ber die Pr¨ Verbreiteter, weil allgemeiner anwendbar, ist die Herleitung aus der Eigenwerttheorie selbstadjungierter Integraloperatoren, allgemeiner der Eigenwerttheorie kompakter selbstadjungierter Operatoren im Hilbert-Raum. Auch wir folgen daher diesem Weg, verzichten aber darauf, naheliegende Verallgemeinerungen darzustellen, und beschr¨anken uns konsequent auf die hier gegebene Fragestellung. Wir ben¨otigen einige Vorbereitungen:
Kapitel 7
Neben der Maximumsnorm | |s betrachten wir auf C0 , wie schon oben vermerkt, noch die aus dem Skalarprodukt , resultierende Norm | |2 , also @> ? u, u f¨ ur u ∈ C0 . |u|2 := Man hat — wie u ¨blich — die Ungleichung von Cauchy-Schwarz: u, v ≤ |u| |v| 2 2 Nach Definition von , gilt |u|2 ≤ c|u|s mit c :=
@ (b − a) |r|s .
(6)
Wir beginnen mit einer einfachen Absch¨ atzung: 13
Der deutsche Mathematiker Ernst Paul Heinz Pr¨ ufer (1896–1934) arbeitete haupts¨ achlich auf dem Gebiet der abelschen Gruppen und der Knotentheorie.
7.5
Selbstadjungierte Randeigenwertaufgaben
295
Bemerkung 7.5.5 Es existiert eine nicht-negative Konstante d mit |T η|2 ≤ d |η|2 f¨ ur alle η ∈ C0 . aßig stetig. Damit ist T : C0 , | |2 −→ C0 , | |2 gleichm¨ Beweis: Mit einer Schranke α f¨ ur G(x, t) r(t) auf [a , b]2 hat man mittels der Ungleichung von Cauchy-Schwarz (T η)(x) ≤ und so mit := 2 T η = 2
b a
b α |η(t)|
√ r(t) dt ≤ α b − a |η|2
a
r(x) dx und d := α
(7)
(b − a)
b 2
|(T η)(x)|2 r(x) dx ≤ α2 (b − a)|η|2 , folglich |T η|2 ≤ d |η|2 . a
Die gleichm¨aßige Stetigkeit ist dann sofort mit der Linearit¨ at von T gegeben: |T η1 − T η2 |2 ≤ d |η1 − η2 |2
Die Abbildungsnorm von T bez¨ uglich | |2 , d. h. das optimale d in der obigen Absch¨atzung, T := sup |T η|2 : η ∈ C0 mit |η|2 = 1 kann hier — wegen der Symmetrie von T — beschrieben werden durch: Bemerkung 7.5.6 ? > T = sup T η , η : η ∈ C0 mit |η|2 = 1
abgesch¨atzt werden. Bezeichnet man die rechte Seite in der Bemerkung mit τ , so hat man also τ ≤ T . Es verbleibt der Nachweis von T ≤ τ . Zun¨ achst vermerken wir: 2
(8) F¨ ur alle η ∈ C0 gilt |T η , η| ≤ τ |η|2 . > ? Im nicht-trivialen Fall η = 0 gilt mit η := 1/|η|2 η : T η , η ≤ τ , also > ? T η , η ≤ τ |η|2 . F¨ ur η1 , η2 ∈ C0 hat man 2
Kapitel 7
Beweis: F¨ ur η ∈ C0 mit |η|2 = 1 kann nach der Ungleichung von CauchySchwarz > ? T η , η ≤ |T η| |η| ≤ T 2 2
296
Kapitel 7
Rand- und Eigenwertprobleme
> ? > ? > ? > ? T (η1 + η2 ), η1 + η2 − T (η1 − η2 ), η1 − η2 = 2 T η1 , η2 + 2 T η2 , η1 ? > = 4 T η1 , η2 . Hieraus erh¨alt man mittels (8): > ? 2 2 2 2 4 T η1 , η2 ≤ τ |η1 + η2 |2 + |η1 − η1 |2 = 2τ |η1 |2 + |η2 |2
(9)
F¨ ur η ∈ C0 mit |η|2 = 1 bilden wir η2 := T η , µ := |η2 |2 , η1 := µ η und erhalten ? > T η1 , η2 = µ T η , T η = µ3 . Zusammen mit (9) ergibt dies 4 µ3 ≤ 4τ µ2 ; folglich ist |T η|2 = µ ≤ τ und damit T ≤ τ . Entscheidend ist, daß der Operator T nicht nur symmmetrisch, sondern zudem in folgendem Sinne kompakt ist: Satz 7.5.7 Es sei (ηn ) eine Folge in C0 mit |ηn |2 ≤ 1 f¨ ur n ∈ . Dann gibt es zu der uglich | |s — also nach (6) Folge der Bilder (T ηn ) eine Teilfolge, die bez¨ auch bez¨ uglich | |2 — konvergent ist.
Beweis: Die Folge (wn ) := (T ηn ) ist nach (7) gleichm¨ aßig beschr¨ ankt. Zudem ist sie gleichgradig stetig: Die durch h(x, t) := G(x, t) r(t) gegebene aßig stetig. Zu jedem ε > 0 existiert also Abbildung h ist auf [a , b]2 gleichm¨ ein δ > 0 derart, daß insbesondere |h(x1 , t) − h(x2 , t)| < ε gilt f¨ ur x1 , x2 , t ∈ [a , b] mit |x1 − x2 | < δ . Damit hat man |wn (x1 ) − wn (x2 )| = (T ηn )(x1 ) − (T ηn )(x2 ) b ≤
√ h(x1 , t) − h(x2 , t) r(t) |ηn (t)| dt ≤ ε b − a,
Kapitel 7
a
wobei f¨ ur die letzte Absch¨ atzung |ηn |2 = 1 ber¨ ucksichtigt und wieder die Ungleichung von Cauchy-Schwarz eingesetzt wurde. So existiert nach `-Ascoli (man vergleiche etwa [Wa1]) eine dem bekannten Satz von Arzela bez¨ uglich | |s konvergente Teilfolge. Zur Existenz von Eigenwerten von T zeigen wir als erstes: Satz 7.5.8 Es existiert ein Eigenwert λ1 von T mit |λ1 | = T .
7.5
Selbstadjungierte Randeigenwertaufgaben
297
Beweis: Es sei Œ T > 0. Nach der Bemerkung 7.5.5 hat man Œ > ? T = sup T η , η : η ∈ C0 mit |η|2 = 1 (sonst −T betrachten!) Daher existiert eine Folge (ηn ) in C0 mit |ηn |2 = 1 ? > ur n −→ ∞. Nach dem vorangehenden f¨ ur n ∈ und T ηn , ηn −→ T f¨ Satz kann Œ von der | |2 -Konvergenz von (T ηn ) ausgegangen werden (sonst geeignete Teilfolge betrachten). ? > T ηn − T ηn 2 = |T ηn |22 + T 2 |ηn |22 − 2T T ηn , ηn 2 ? > ≤ 2T 2 − 2T T ηn , ηn −→ 0 (n −→ ∞)
Mit (T ηn ) konvergiert (T ηn ), folglich auch (ηn ). So existiert ein ϕ1 ∈ C0 mit ηn −→ ϕ1 , was T ηn −→ T ϕ1 nach sich zieht. Das zeigt T ϕ1 und daher T ϕ1 = T ϕ1 . T ηn −→ T ϕ1 |ηn |2 = 1 liefert |ϕ1 |2 = 1, speziell ϕ1 = 0. Demzufolge ist T ein Eigenwert von T . Ist λ ein beliebiger Eigenwert von T , so gilt mit einem zugeh¨ origen normierten Eigenvektor η : |λ| = |T η|2 ≤ T . Das obige λ1 ist also gerade der betraglich gr¨ oßte Eigenwert von T . Nun betrachten wir den Unterraum aller Funktionen, die orthogonal zu ϕ1 sind: U2 := η ∈ C0 | η , ϕ1 = 0 Die Einschr¨ankung T2 von T auf U2 bildet diesen Raum in sich ab; denn f¨ ur η ∈ U2 gilt ? > ? > T η , ϕ1 = η , T ϕ1 = λ1 η , ϕ1 = 0 . ¨ T2 ist wieder symmetrisch und kompakt. Daher liefern die obigen Uberleorigen normierten Eigenvektor gungen einen Eigenwert λ2 und einen zugeh¨ ϕ2 . Es gelten also
? > |λ1 | = sup T η , η : η ∈ C0 mit |η|2 = 1 ? > ≥ sup T η , η : η ∈ U2 mit |η|2 = 1 = |λ2 | . Induktiv erh¨alt man so reelle Eigenwerte λν und zugeh¨ orige normierte Eigenvektoren ϕν mit ϕn , ϕ1 = · · · = ϕn , ϕn−1 = 0
Kapitel 7
|ϕ2 |2 = 1 , ϕ1 , ϕ2 = 0 und |λ1 | ≥ |λ2 | , da
298
Kapitel 7
Rand- und Eigenwertprobleme
f¨ ur n ∈ 2 . Die Dimension von C0 ist nicht endlich; mithin endet das Verfahren nicht.
Da die Differentialgleichung zweiter Ordnung ist, kann zu festem λ ∈ die geometrische Vielfachheit, also die Dimension des zugeh¨ origen Eigenraumes, h¨ochstens 2 sein. Das entsprechende λn tritt nach Konstruktion zweimal auf, wenn diese Dimension 2 ist.
atte man — da Die so erhaltene Folge (λn ) ist eine Nullfolge; denn sonst h¨ nicht-wachsend) ist — |λ | ≥ ε f¨ u r (|λn |) antiton (monoton n ein ε> 0. Die are dann beschr¨ ankt. Die Folge T ψn = (ϕn ) Folge (ψn ) := 1/λn ϕn w¨ h¨atte so nach Satz 7.5.7 eine konvergente Teilfolge im Widerspruch zu ϕn − ϕm 2 = 2 f¨ ur n = m . 2 ¨ Wir fassen diese Uberlegungen zusammen: Satz 7.5.9 F¨ ur jedes n ∈ gibt es einen Eigenwert λn von T mit einer zugeh¨ origen normierten Eigenfunktion ϕn derart, daß
|λ1 | ≥ |λ2 | ≥ · · ·
und
λn −→ 0
Die Eigenfunktionen sind orthonormiert 7 0 , n = m ϕn , ϕm = δn,m := 1 , n = m
f¨ ur n −→ ∞ .
f¨ ur n, m ∈ .
Mit den Unterr¨ aumen U1 := C0 und Un := η ∈ C0 | η , ϕ1 = · · · = η , ϕn−1 = 0 f¨ ur n ∈ 2 gilt: ? > |λn | = sup T η , η : η ∈ Un , |η|2 = 1 = sup T η 2 : η ∈ Un , |η|2 = 1
Kapitel 7
F¨ ur das praktische Vorgehen hat das beschriebene Verfahren den Nachteil, daß zur Bestimmung des n-ten Eigenwertes die vorangehenden Eigenwerte mit zugeh¨origen Eigenfunktionen bekannt sein m¨ ussen. Es wurde eine große F¨ ulle von Verfahren entwickelt, die hier weiterhelfen. Darauf gehen wir jedoch nicht mehr ein, nennen nur beispielhaft das Minimum-Maximum-Prinzip von Courant.
7.5
Selbstadjungierte Randeigenwertaufgaben
299
Zusatz 7.5.10 Jedes Element f aus dem Bildbereich von T , also f = T η mit einem uglich der Eigenfunktionen (ϕn ) η ∈ C0 , wird durch die Fourier-Reihe bez¨ Tη = f =
∞ 0
f , ϕν ϕν =
ν=1
∞ 0
λν η , ϕν ϕν
ν=1
dargestellt. Beweis: F¨ ur n ∈ 2 und beliebiges η ∈ C0 geh¨ ort die Funktion n := n−1 9 η , ϕν ϕν zu Un . Daher hat man η−
ν=1
ur n −→ ∞ . |T n |2 ≤ |λn | |n |2 ≤ |λn | |η|2 −→ 0 f¨ F¨ ur die Folge der linearen Abbildungen (Tn ), definiert durch &n−1 ' n−1 0 0 Tn η := T η , ϕν ϕν = λν η , ϕν ϕν , ν=1
ν=1
gilt somit |T η − Tn η|2 = |T n |2 ≤ |λn ||η|2 , also |T − Tn | ≤ |λn |, d. h. Konvergenz in der Operatornorm. Das zeigt insbesondere Tη =
∞ 0
λν η , ϕν ϕν .
ν=1 n−1 9
λν η , ϕν ϕν =
ν=1
n−1 9
η , T ϕν ϕν =
ν=1
n−1 9
f , ϕν ϕν f¨ ur das spezielle η
ν=1
mit T η = f liefert die restliche Aussage.
Nach der Bemerkung 7.5.2. hat man die Aussage des vorangehenden Satzes insbeullt. sondere f¨ ur Funktionen aus U , also jedes f ∈ C2 , das die Randbedingungen erf¨ Durch geeignete Approximation‘ kann man die Voraussetzung an f noch deutlich ’ abschw¨ achen. Darauf gehen wir jedoch nicht mehr ein, da man dazu zweckm¨ aßig die Integrationstheorie von Lebesgue einsetzt, deren Kenntnis wir ja nicht voraussetzen wollen.
Satz 7.5.11 Geh¨ ort f zum Bildbereich von T , so hat man f (x) =
∞ 0
f , ϕν ϕν (x)
ν=1
mit absolut gleichm¨ aßiger Konvergenz f¨ ur x ∈ [a , b].
Kapitel 7
¨ F¨ ur viele Uberlegungen ben¨ otigt man nicht diese Konvergenz, sondern punktweise Konvergenz, besser — etwa f¨ ur Vertauschung von Summation und Integration — gleichm¨aßige Konvergenz. Dazu zeigen wir:
300
Kapitel 7
Beweis: F¨ ur ν ∈
Rand- und Eigenwertprobleme
hat man mit ? > cν := f , ϕν = T η , ϕν = η , T ϕν = λν η , ϕν
f¨ ur n ∈
,p ∈
0
&n+p 0
und x ∈ [a , b]: '2 |cν ϕν (x)|
=
&n+p 0
ν=n
'2 |η , ϕν | |λν ϕν (x)|
ν=n
≤
n+p 0
η , ϕν 2 ·
ν=n
n+p 0
(λν ϕν (x))2
ν=n
Die erste Summe der letzten Zeile wird nach der Bessel-Ungleichung beliebig klein, wenn n hinreichend groß ist. Wir m¨ ussen daher nur noch nachweisen, ur daß die zweite Summe auf [ a , b] beschr¨ ankt bleibt: Mit hx (t) := G(x, t) f¨ t ∈ [a , b] gilt unter Beachtung von λν ϕν (x) = T ϕν (x) =
b G(x, t)ϕν (t)r(t) dt = hx , ϕν a
wieder nach der Bessel-Ungleichung n+p 0
(λν ϕν (x))2 ≤ |hx |22 ≤ (b−a) max |G(s, t)|2 r(t) : (s, t) ∈ [a , b]2 .
ν=n
Die Eigenwerte µn der Randeigenwertaufgabe sind genau die reziproken Werte der Eigenwerte λn von T (mit gleichen Eigenfunktionen). L hat also abz¨ ahlbar unendlich viele Eigenwerte µn und |µn | −→ ∞ f¨ ur n −→ ∞ .
Kapitel 7
Wegen der besonderen Wichtigkeit, schreiben wir den obigen Satz 7.5.9 noch trivial‘ von T auf L um: ’ Satz 7.5.12 F¨ ur jedes n ∈ gibt es einen Eigenwert µn von L mit einer zugeh¨ origen normierten Eigenfunktion ϕn derart, daß
|µ1 | ≤ |µ2 | ≤ · · ·
und
|µn | −→ ∞
f¨ ur n −→ ∞ .
Die Eigenfunktionen sind orthonormiert, d. h. ϕn , ϕm = δn,m
f¨ ur n, m ∈
.
7.6
Sturm-Liouville-Randeigenwertaufgaben
301
7.6 Sturm-Liouville-Randeigenwertaufgaben14 Wir betrachten nun die folgende spezielle Randeigenwertaufgabe: L η := − p(x)η + q(x)η = λr(x)η
(1)
mit r1 (η) := α11 η(a) + α12 η (a) = 0 r2 (η) := β21 η(b) + β22 η (b) = 0
(2)
ur x ∈ [a , b], Dabei seien p ∈ C1 , r, q ∈ C0 mit p(x) > 0 und r(x) > 0 f¨ η ∈ C2 und (α11 , α12 ) sowie (β21 , β22 ) ungleich Null. Die Selbstadjungiertheit der Randwertaufgabe ist nach (B 7) aus Abschnitt 7.4 bekannt. Der Operator L wird unter diesen Annahmen auch als SturmLiouville-Operator bezeichnet. Wichtige Spezialf¨alle der Randbedingungen sind: η(a) = η(b) = 0 η (a) = η (b) = 0
Dirichlet − Randbedingung 15 Neumann − Randbedingung 16
¨ Uber solche Aufgaben gibt es eine recht umfangreiche Theorie, die SturmLiouville-Theorie. Wir gehen nicht auf alle Feinheiten ein, sondern begn¨ ugen uns damit, wenige Ideen exemplarisch darzustellen. Wir erinnern zun¨ achst an die Lagrange-Identit¨ at aus Abschnitt 7.4: η2 L η1 − η1 L η2 = p η2 η1 − η2 η1
(3)
f¨ ur η1 , η2 ∈ C2 . Mit der Wronski- Determinante w zu η1 , η2 , also η1 (x) η2 (x) w(x) := det = (η1 η2 − η2 η1 )(x) f¨ ur x ∈ [a , b] , η1 (x) η2 (x) 14
16
Kapitel 7
15
Der schweizerische Mathematiker Jacques Charles Franc ¸ ois Sturm (1803– 1855) befaßte sich mit Problemen der Algebra und der mathematischen Physik. Aus gemeinsamen Untersuchungen mit dem franz¨ osischen Mathematiker Joseph Liouville (1809–1892) zur Schwingung einer Saite entstanden Arbeiten zu den angegebenen Randeigenwertaufgaben. Sturm entwickelte Methoden, um Eigenschaften der L¨ osungsfunktionen zu ermitteln, ohne die Aufgabe explizit zu l¨ osen. Liouville war Professor f¨ ur Analysis und Mechanik und z¨ ahlte zu den bedeutendsten Mathematikern des 19. Jahrhunderts. Sein vielleicht bekanntester Satz ist der aus der Funktionentheorie u ankter ganzer Funk¨ber die Konstanz beschr¨ tionen. Benannt nach dem deutschen Mathematiker Johann Peter Gustav Lejeune Dirichlet (1805–1859). Benannt nach dem deutschen Mathematiker Carl Gottfried Neumann (1832– 1925).
302
Kapitel 7
Rand- und Eigenwertprobleme
kann dies kurz in der Form η2 L η1 − η1 L η2 = (p w)
(4)
notiert werden. Da — wie bereits erw¨ ahnt — die Differentialgleichung zweiter Ordnung ist, ochstens 2 sein. Beim kann zu festem λ ∈ die geometrische Vielfachheit h¨ vorliegenden Aufgabentyp sind alle Eigenwerte sogar einfach“: ”
Bemerkung 7.6.1 Die geometrische Vielfachheit eines Eigenwertes von L ist stets 1. Je zwei Eigenfunktionen zum gleichen Eigenwert sind also linear abh¨ angig. Beweis: Eigenfunktionen η1 und η2 zum gleichen λ ∈ und r1 (η2 ) = 0, also α11 η1 (a) η1 (a) 0 = . α12 0 η2 (a) η2 (a)
erf¨ ullen r1 (η1 ) = 0
Da (α11 , α12 ) ungleich Null vorausgesetzt wurde, ist die obige Matrix sinangig (vgl. gul¨ar, ihre Determinante w(a) also Null. So sind η1 , η2 linear abh¨ Abschnitt 4.3 oder 4.4). Wir sprechen bei diesem Aufgabentyp daher gelegentlich von dem Eigenvektor oder der Eigenfunktion zu einem Eigenwert λ , wenn wir einen — bis aufs Vorzeichen eindeutigen — normierten Eigenvektor meinen. Bemerkung 7.6.2 Hat man speziell Dirichlet-Randbedingungen, so sind die Eigenwerte von L nach unten beschr¨ ankt: Sie sind alle gr¨ oßer als q(x) σ := min x ∈ [a , b] . r(x) Ist zudem q nicht-negativ, so sind alle Eigenwerte von L positiv.
Kapitel 7
Beweis: Ist η eine normierte Eigenfunktion zum Eigenwert λ , dann gilt λ = λη , η = (λr η, η) = (L η, η) . Nach partieller Integration des Anteils − p η η erh¨ alt man b (L η, η) =
− pη
b
+ q η η dx =
a
2 p η + q η 2 dx
a
b
b q η dx ≥ σ 2
> a
r η 2 dx = σ . a
7.6
Sturm-Liouville-Randeigenwertaufgaben
303
b 2 Hierbei ist zu beachten, daß a p η dx positiv ist; denn p wurde als u ¨berall 2 are η = 0 , so h¨ atte man —positiv vorausgesetzt und η ist stetig. W¨ unter Ber¨ ucksichtigung der Randbedingungen — η = 0 im Widerspruch zur angenommenen Normiertheit von η . Lemma 7.6.3 (Nullstellen-Vergleich) F¨ ur η1 , η2 ∈ C2 seien x1 , x2 zwei aufeinanderfolgende Nullstellen von η1 mit x1 < x2 und L η2 (x) L η1 (x) ≥ f¨ ur alle x ∈ ]x1 , x2 [ mit η2 (x) = 0 . η2 (x) η1 (x) ankt Hat η2 keine Nullstelle im Intervall ]x1 , x2 [, so sind η1 , η2 eingeschr¨ auf dieses Intervall linear abh¨ angig. Beweis: η1 , η2 sind in ]x1 , x2 [ beide verschieden von Null, also Œ positiv. So hat man dann (4) 0 ≥ η2 L η1 − η1 L η2 = p w . w(x1 ) ist nicht-positiv, da η1 (x1 ) = 0 und η1 (x1 ) ≥ 0 gelten (rechts von x1 ist η1 zun¨achst positiv). Entsprechend hat man w(x2 ) ≥ 0, zusammen also, da p w antiton ist, w = 0 . Damit folgt aus 1 η2 (x) = w(x) f¨ ur x ∈ ]x1 , x2 [ η1 (η1 (x))2 die Konstanz von η2 /η1 auf diesem Intervall.
Zur Anwendung des Lemmas vermerken wir: Linear unabh¨ angige L¨ osungen einer homogenen linearen Differentialgleichung sind nach den Ergebnissen von Abschnitt 4.3 bzw. 4.4 auch auf jedem Teilintervall linear unabh¨ angig. Folgerung 7.6.4 (Trennungssatz von Sturm) angige L¨ osungen von L η = 0, dann liegt Sind η1 und η2 zwei linear unabh¨ zwischen zwei aufeinanderfolgenden Nullstellen von η1 genau eine von η2 . Der Satz besagt insbesondere, daß η1 und η2 ungef¨ ahr gleich viele Nullstellen haben. Er beinhaltet jedoch nicht, daß u ¨berhaupt eine Nullstelle existiert.
mit q ∈ C0 und q(x) ≥ q(x) f¨ ur x ∈ [a , b], so gilt:
Kapitel 7
Beweis: Zwischen zwei aufeinanderfolgenden Nullstellen von η1 liegt nach dem vorangehenden Lemma — mit L η1 = L η2 = 0 — mindestens eine onnte Nullstelle von η2 . H¨atte man dort mehr als eine Nullstelle von η2 , so k¨ man die Rollen der beiden Funktionen vertauschen und erhielte in diesem Bereich eine weitere Nullstelle von η1 im Widerspruch dazu, daß die Nullstellen als aufeinanderfolgend vorausgesetzt wurden. ¨ Andert man den Differentialoperator L ab zu L, definiert durch η := − p(x)η + q(x)η f¨ ur η ∈ C2 L
304
Kapitel 7
Rand- und Eigenwertprobleme
Folgerung 7.6.5 Es seien η1 , η2 ∈ C2 auf jedem Teilintervall von [a , b] linear unabh¨ angig. η1 = 0 f¨ Gilt L ur ein η1 = 0 und L η2 = 0, so liegt zwischen je zwei Nullstellen von η1 mindestens eine von η2 . q liefert also f¨ ur nicht-triviale L¨ osungen h¨ochstens weniger Nullstellen als q . Beweis: Dies liest man unmittelbar aus dem obigen Lemma unter Beachtung von L η2 = 0 und L η1 /η1 = q − q ≤ 0 ab. (B10) Ein Vergleich der Nullstellen von L¨ osungen der beiden bekannten Aufgaben − η − 2η = 0 −η − η = 0 und mit den jeweiligen Fundamentalsystemen (sin, cos)T beziehungsweise √ √ T sin( 2 ), cos( 2 ) l¨aßt sich nat¨ urlich von Hand machen. 7.6.5 macht vorweg eine entsprechende allgemeine Aussage f¨ ur all die F¨ alle, in denen man die L¨osungen nicht sofort sieht‘. ’
Historische Notizen
Kapitel 7
Jean Baptist Joseph Fourier (1768–1830) Der franz¨osische Physiker und Mathematiker behandelte u. a. das Problem der W¨ armeleitung. Seine Th´eorie analytique de la chaleur war ein entscheidender Beitrag f¨ ur die mathematische Physik, aber auch f¨ ur die Mathematik selbst. Seine Untersuchungen f¨ uhrten zur Pr¨ azisierung des Funktionsbegriffes und zu der Aufgabe, eine beliebige‘ Funk’ tion als trigonometrische Reihe darzustellen. Ab 1816 war er Mitglied der Pariser Akademie der Wissenschaften. Er wahrte sich den Sinn f¨ ur die Praxis: So begleitete er ¨ Napoleon I 1798 nach Agypten, und als Pr¨afekt des Departements Is`ere ließ er S¨ umpfe trockenlegen und rottete so die Malaria aus.
MWS zu Kapitel 7
Rand- und Eigenwertprobleme Wichtige Maple-Befehle dieses Kapitels: LinearAlgebra-Paket: GenerateMatrix, SubMatrix RandBed2Matrix: Eigene Prozedur; wandelt Randbedingungen in Matrixform DEtools[convertsys], plots[spacecurve]
7.1 Randwertaufgaben fu ¨r lineare DGL-Systeme mit linearen Randbedingungen Ohne zus¨atzliche Voraussetzungen an die Randbedingungen kann man keine allgemeinen Aussagen u osbarkeit einer RWA machen oder — im ¨ber die L¨ Falle der L¨osbarkeit — auf Eindeutigkeit schließen. Wir greifen dazu die beiden Beispiele (B 1) und (B 2) des Textteils auf: Beispiel 1: > restart: with(LinearAlgebra): Sys := D(y[1])(x) = y[2](x), D(y[2])(x) = 0; RandBed := [y[1](0)=y[1](1), y[2](1)=1];
Sys := D(y1 )(x) = y2 , D(y2 )(x) = 0, RandBed := y1 (0) = y1 (1), y2 (1) = 1
sol := Der Standard-Befehl dsolve liefert also keine L¨ osung der Randwertaufgabe. ¨ Unsere Uberlegungen werden ergeben, daß tats¨ achlich keine L¨ osung existiert. Mit Hilfe folgender Matrizen A und B sowie des Vektors c lassen sich die Randbedingungen vektoriell in der Form Ay(0) + B y(1) = c
MWS 7
> sol := dsolve({Sys,op(RandBed)},{y[1](x),y[2](x)});
306
MWS 7
Rand- und Eigenwertprobleme
darstellen. Da diese Umschreibung h¨aufig vorkommt, haben wir eine einfache Maple-Prozedur RandBed2Matrix geschrieben. Damit sie nach jedem restart bereitsteht, schlagen wir vor, sie z. B. in die (private) Initialisierungsdatei .mapleinit bzw. maple.ini einzutragen.
5
10
> RandBed2Matrix := proc(RandBed,vars) local n,A,B,c,d,u,v; n := nops(RandBed); subs({(vars[1,j]=u[j])$j=1..n,(vars[2,j]=v[j])$j=1..n},RandBed): (A,d) := LinearAlgebra[GenerateMatrix](%,[seq(u[j],j=1..n)]); (B,c) := LinearAlgebra[GenerateMatrix]([seq(-d[j]=0,j=1..n)], [seq(v[j],j=1..n)]); return A,B,c end proc: > vars := [[y[1](0),y[2](0)],[y[1](1),y[2](1)]]: (A,B,c) := RandBed2Matrix(RandBed,vars); A.Vector(vars[1])+B.Vector(vars[2]) = c;
5 A, B, c :=
6 5 6 5 6 1 0 −1 0 0 , , , 0 0 0 1 1
5
6 5 6 0 y1 (0) − y1 (1) = 1 y2 (1)
Als n¨achstes bestimmen wir eine Fundamentalmatrix des homogenen DGLSystems: > sol := dsolve({Sys},{y[1](x),y[2](x)});
sol := y2 = C2 , y1 = C2 x + C1 > V := Vector([y[1](x),y[2](x)]): Matrix(<subs(subs({_C1=1,_C2=0},sol),V) | subs(subs({_C1=0,_C2=1},sol),V)>): Y := unapply(%,x): ’Y(x)’ = Y(x);
5
1 x Y (x) = 0 1
6
MWS 7
Hiermit erhalten wir die charakteristische Matrix: 5
> C := A.Y(0)+B.Y(1);
C := Zu l¨osen ist das Gleichungssystem: > C.d = c;
0 −1 0 1
6
7.1
Randwertaufgaben (MWS) 5
307
6 5 6 0 −1 0 .d= 0 1 1
In diesem Falle sieht man direkt, daß es unl¨ osbar ist; allgemein l¨ aßt sich dies etwa durch Vergleich der R¨ ange der Koeffizientenmatrix C und der erweiterten Koeffizientenmatrix u ufen: ¨berpr¨ > Rank(C), Rank();
1, 2 Da die R¨ange verschieden sind, besitzt das lineare Gleichungssystem und damit auch die RWA keine L¨osung. Beispiel 2: > restart: with(LinearAlgebra): Sys := D(y[1])(x) = y[2](x), D(y[2])(x) = -alpha^2*y[1](x); RandBed := [y[1](0)=y[1](Pi), y[2](0)=y[2](Pi)];
Sys := D(y1 )(x) = y2 , D(y2 )(x) = −α2 y1 RandBed := y1 (0) = y1 (π), y2 (0) = y2 (π) > sol := dsolve({Sys,op(RandBed)},{y[1](x),y[2](x)});
sol := {y2 = 0, y1 = 0} dsolve liefert nur die triviale L¨ osung der homogenen Randwertaufgabe. Wir werden sehen, daß dies nur f¨ ur fast alle‘ Parameterwerte α richtig ist. ’ Analog zu Beispiel 1 lassen sich die Randbedingungen mit Hilfe der Matrizen A und B sowie des Vektors c vektoriell in der Form Ay(0) + B y(π) = c darstellen: > vars := [[y[1](0),y[2](0)],[y[1](Pi),y[2](Pi)]]: (A,B,c) := RandBed2Matrix(RandBed,vars); A.Vector(vars[1])+B.Vector(vars[2]) = c;
6 5 6 5 6 1 0 −1 0 0 A, B, c := , , , 0 1 0 −1 0
5
6 5 6 y1 (0) − y1 (π) 0 = 0 y2 (0) − y2 (π)
Im Falle α = 0 ergibt sich folgende Fundamentalmatrix:
5
> sol := dsolve(subs(alpha=0,{Sys}),{y[1](x),y[2](x)}); V := Vector([y[1](x),y[2](x)]): Matrix(<subs(subs({_C1=1,_C2=0},sol),V) | subs(subs({_C1=0,_C2=1},sol),V)>): Y := unapply(%,x): ’Y(x)’ = Y(x);
MWS 7
5
308
MWS 7 sol :=
Rand- und Eigenwertprobleme
y2 = C2, y1 = C2 x + C1 ,
5 Y (x) =
1 x 0 1
6
Als charakteristische Matrix erhalten wir: 5
> C := A.Y(0)+B.Y(Pi);
C :=
0 −π 0 0
6
Das Gleichungssystem C d = 0 hat offensichtlich eine eindimensionale L¨ osungsmannigfaltigkeit: > LinearSolve(C,c);
5
t0 1 0
6
Im Falle α = 0 ergibt sich analog: > sol := dsolve({Sys},{y[1](x),y[2](x)}); Matrix(<subs(subs({_C1=1,_C2=0},sol),V) | subs(subs({_C1=0,_C2=1},sol),V)>): Y := unapply(%,x): ’Y(x)’ = Y(x);
sol := y1 = C1 sin(α x) + C2 cos(α x), y2 = α ( C1 cos(α x) − C2 sin(α x)) 6 5 sin(α x) cos(α x) Y (x) = cos(α x)α − sin(α x)α > C := A.Y(0)+B.Y(Pi); Determinant(C): DET := simplify(%); _EnvAllSolutions := true: solve(DET,alpha);
5 C :=
6 − sin(π α) 1 − cos(π α) , DET := 2α − 1 + cos(π α) , 0, 2 Z1 α − cos(π α)α sin(π α)α
MWS 7
Mithin verschwindet die Determinante f¨ ur alle geraden ganzen Zahlen (ungleich 0), und die Randwertaufgabe besitzt dann eine nicht-triviale L¨ osung.
7.2 Randwertprobleme fu ¨r lineare DGLen k-ter Ordnung Green-Funktion Wir greifen das Beispiel (B 4) des Textteils mit Maple auf:
7.2
RWPe f¨ ur lineare Differentialgleichungen k-ter Ordnung (MWS)
309
> restart: with(LinearAlgebra): Dgl := -diff(y(x),x$2)-nu^2*y(x) = 0; a := 0: b := 1: f0 := -1: RandBed := [y(a)=y(b),D(y)(a)=D(y)(b)];
Dgl := −y − ν 2 y = 0 ,
RandBed := y(0) = y(1), D(y)(0) = D(y)(1)
> DEtools[convertsys](Dgl,{},y(x),x,y,Dy);
$
% Dy 1 = y2 , Dy 2 = −ν 2 y1 , y1 = y , y2 = y , undefined ,
> vars := [[y(a),D(y)(a)],[y(b),D(y)(b)]]: (A,B,c) := RandBed2Matrix(RandBed,vars); Sie haben sicher daran gedacht, die Prozedur RandBed2Matrix in Ihre private Initialisierungsdatei einzutragen, oder?
5 A, B, c :=
6 5 6 5 6 1 0 −1 0 0 , , 0 1 0 −1 0
> dsolve(Dgl,y(x),output=basis); VectorCalculus[Wronskian](%,x): Y := unapply(%,x): ’Y(x)’ = Y(x);
5
sin(ν x), cos(ν x) ,
Y (x) =
sin(ν x) cos(ν x) cos(ν x)ν − sin(ν x)ν
6
> C := A.Y(a)+B.Y(b); # charakteristische Matrix
5 C :=
− sin(ν) 1 − cos(ν) ν − cos(ν)ν sin(ν)ν
6
¨ F¨ ur die weiteren Uberlegungen setzen wir die Regularit¨ at von C voraus. Dazu rechnen wir:
det(C) = 2ν (−1 + cos(ν)) ,
0 , 2π Z1
Wir gehen daher im folgenden von ν ∈ C \ 2π Z aus. AY := map(simplify,C^(-1).A.Y(a)): BY := map(simplify,C^(-1).B.Y(b)): AY, BY;
MWS 7
> Determinant(C): ’det(C)’ = simplify(%); _EnvAllSolutions := true: solve(rhs(%%));
310
MWS 7
⎡
⎤ sin(ν) 1 1 ⎢ 2 2 −1 + cos(ν) ⎥ ⎢ ⎥, ⎣ 1 ⎦ sin(ν) 1 − 2 −1 + cos(ν) 2
Rand- und Eigenwertprobleme
⎡
⎤ sin(ν) 1 1 − ⎢ 2 2 −1 + cos(ν) ⎥ ⎢ ⎥ ⎣1 ⎦ sin(ν) 1 2 −1 + cos(ν) 2
> Y1_ := SubMatrix(Y(x),1,1..2): # 1. Zeile Y_k := SubMatrix(Y(t)^(-1),1..2,-1): # letzte Spalte G := piecewise(x>=t,(Y1_.AY.Y_k)[1,1]/f0, x
G(x, t) =
⎧ 1 sin(ν (x − t)) − sin(ν (−1 − t + x)) ⎪ ⎪ ⎪ ⎨2 ν (−1 + cos(ν))
t≤x
⎪ 1 sin(ν (x − t)) − sin(ν (1 − t + x)) ⎪ ⎪ ⎩− 2 ν (−1 + cos(ν))
x
Die Graphiken dieser Green-Funktion im Textteil werden hier nicht erneut ausgeben. Wir haben sie so erstellt:
5
> with(plots): Optionen := color=white,axes=box,grid=[30,30],orientation=[30,35]: p1 := plot3d(subs(nu=2,G),x=0..1,t=0..1,Optionen): p2 := display(plot3d(diff(subs(nu=2,G),x),x=0..1,t=0..1,Optionen), seq(spacecurve([x,x,t-1/2],t=0..1,color=black),x=[k/10 $ k=0..10]), seq(spacecurve([t,t,z],t=0..1,color=black),z=[-1/2,1/2])): display(p1,tickmarks=[3$3]): display(p2,tickmarks=[3$3]):
Bei der obigen Rechnung haben wir die Definition der Green-Funktion direkt eingesetzt. Wir f¨ uhren nun noch die im Textteil gemachte Rechnung mit Maple aus: > beta := map(simplify,LinearSolve(Y(x),Vector([0,1/(2*f0)]))); alpha := map(simplify,LinearSolve(C,(A.Y(a)-B.Y(b)).beta),trig); alpha := unapply(alpha,x): beta := unapply(beta,x):
⎤ 1 cos(ν x) − ⎥ ⎢ 2 ν ⎥, β := ⎢ ⎦ ⎣ 1 sin(ν x) 2 ν
MWS 7
⎡
⎡
1 ⎢2 ⎢ α := ⎣ 1 2
⎤ sin(ν x) sin(ν) ν (−1 + cos(ν)) ⎥ ⎥ cos(ν x) sin(ν) ⎦ ν (−1 + cos(ν))
Die Green-Funktion, die wir nicht erneut ausgeben, ergibt sich hier durch: > piecewise(x>=t,(Y1_.(alpha(t)+beta(t)))[1], x
7.2
RWPe f¨ ur lineare Differentialgleichungen k-ter Ordnung (MWS)
311
Auch das Beispiel (B 5) des Textteils sehen wir uns mit Maple an: Die Berechnung der Green-Funktion vereinfacht sich stark f¨ ur DGLen 2. Ordnung mit getrennten‘ Randbedingungen: ’ > restart: with(LinearAlgebra): Dgl := -diff(y(x),x$2)+y(x) = x; a := 0: b := 1: f0 := -1: RandBed := [y(a)=0,y(b)=0];
Dgl := −y + y = x ,
RandBed := y(0) = 0, y(1) = 0
Jetzt sind zwei nicht-triviale L¨ osungen y1 , y2 der homogenen DGL zu bestimmen, welche die erste beziehungsweise zweite Randbedingung erf¨ ullen: > dsolve({lhs(Dgl),RandBed[1],D(y)(a)=1},y(x)): convert(rhs(%),trig): y1 := unapply(%,x); dsolve({lhs(Dgl),RandBed[2],D(y)(b)=1},y(x)): convert(rhs(%),trig): combine(%): y2 := unapply(%,x);
y1 := x → sinh(x) ,
y2 := x → sinh(−1 + x)
Hierzu erh¨alt man als Wronski-Matrix beziehungsweise Wronski-Determinante: > VectorCalculus[Wronskian]([y1(x),y2(x)],x): Y := unapply(%,x): ’Y(x)’ = Y(x); W := combine(Determinant(Y(x)));
5
Y (x) =
sinh(x) sinh(−1 + x) cosh(x) cosh(−1 + x)
6
,
W := sinh(1)
Es ergeben sich hiermit wie folgt die Green-Funktion > G := piecewise(x>=t,y2(x)*y1(t)/(f0(t)*W), x
⎧ sinh(−1 + x) sinh(t) ⎪ ⎪ ⎨− sinh(1) G(x, t) = ⎪ ⎪ ⎩− sinh(x) sinh(−1 + t) sinh(1)
t≤x x
> y2(x)*int(y1(t)/(f0(t)*W)*t,t=a..x)+y1(x)*int(y2(t)/(f0(t)*W)*t, t=x..b): combine(%): ’y(x)’ = collect(%,x);
y = x−
sinh(x) sinh(1)
Leider konnten wir osung der RWA mittels 1 Maple nicht dazu bringen, die L¨ des Befehls y = 0 G(x, t)t dt in u ¨berschaubarer Gestalt auszugeben.
MWS 7
sowie die L¨osung der Randwertaufgabe:
312
MWS 7
Rand- und Eigenwertprobleme
7.3 Nicht-lineare Randwertaufgaben und Fixpunktprobleme ¨ Bei den Uberlegungen dieses Abschnitts beschr¨anken wir uns auf ein spezielles Beispiel, an dem wir demonstrieren, wie der Fixpunktsatz aus Kapitel 3 auch im nicht-linearen Falle eingesetzt werden kann, um (lokale) Existenz- und Eindeutigkeitsaussagen zu erhalten. Zudem wird sich zeigen, daß die damit zusammenh¨angende Fixpunktiteration brauchbare N¨ aherungen liefert. > restart: with(plots): f := (x,y) -> 3/2*y^2: a := 0: b := 1: Dgl := diff(y(x),x$2) = f(x,y(x)); RandBed := y(a)=4, y(b)=1;
Dgl := y =
3y 2 , 2
RandBed := y(0) = 4, y(1) = 1
Diese nicht-lineare RWA mit inhomogenen Randbedingungen besitzt zwei L¨osungen, von denen eine durch die elementare Funktion > z := x -> 4/(1+x)^2;
z := x →
4 (1 + x)2
MWS 7
gegeben ist, w¨ahrend die andere elliptische Funktionen ben¨ otigt. Wir k¨ onnten f¨ ur z die Probe durch Einsetzen machen, verzichten jedoch darauf. Stattdessen formulieren wir die RWA als Fixpunktproblem T (y) = y und best¨ atigen dann die Fixpunkteigenschaft von z . Wie im vorangehenden Abschnitt kann die RWA in die halbhomogenen RWAn y = 0 mit y(0) = 4, y(1) = 1 beziehungsweise y = 3y 2 /2 mit y(0) = 0, y(1) = 0 aufgespalten werden. Das erste Problem hat die L¨osung y = 4 − 3 X ; das zweite ist a ¨quivalent 1 3 2 zu y(x) = − 0 G(x, t) 2 y(t) dt . Hierbei ist G die wohlbekannte GreenFunktion zu −y = γ(x) mit y(0) = 0, y(1) = 0 . Wegen der Symmetrieeigenschaft gen¨ ugt es, diese nur im Dreieck‘ 0 ≤ t ≤ x ≤ 1 zu kennen: ’ > G := (x,t) -> t*(1-x);
G := (x, t) → t (1 − x) L¨ osungen der vorgegebenen nicht-linearen RWA sind dann Fixpunkte des folgenden Operators T : > T := y -> unapply(4-3*x-int(expand(G(x,t)*f(t,y(t))),t=a..x) -int(expand(G(t,x)*f(t,y(t))),t=x..b),x): ’T(y)(x)’ = factor(T(y)(x));
7.3
Nicht-lineare Randwertaufgaben und Fixpunktprobleme (MWS) x
T (y)(x) = 4 − 3x −
3 − t y(t)2 (−1 + x) dt − 2
1 −
313
3 x y(t)2 (−1 + t) dt 2
x
0
Wir u ufen, daß die Funktion z ein Fixpunkt ist: ¨berpr¨ > d := T(z)(x)-z(x): dx := diff(d,x): eval([d,dx],x=0), dxx;
dxx := diff(dx,x):
[0, 0], 0 Im Textteil ergab sich, daß die folgende Funktion w wichtig ist f¨ ur den Nachweis der Kontraktionseigenschaft des Operators T : > int(G(x,t)*3*(4-3*t),t=a..x)+int(G(t,x)*3*(4-3*t),t=x..b): factor(%): w := unapply(%,x);
w := x → 3 x(−1 + x)(x − 3) 2 Der Maximalwert von w im Intervall [0, 1] liefert eine Lipschitz-Konstante L zu T : > solve({D(w)(x)=0,0<=x,x<=1},x): E := allvalues(%); eval(w(x),E): expand(%); L = evalf(%,5);
E :=
7 √ 8 x= 4− 7 , 3 3
√ − 10 + 7 7 , 9 9
L = 0.9468
Der Operator T ist also eine Kontraktion. Die L¨ osung z ∈ D der nichtlinearen RWA kann deshalb mittels Fixpunktiteration approximiert werden:
5
> y0 := unapply(4-3*x,x): y := proc(n) global f,a,b; option remember; if n=0 then y0 else T(y(n-1)) end if end proc:
> seq((sort@expand)(y(n)(x)),n=0..2);
−3x + 4 , 9 x4 − 6x3 + 12x2 − 81 x + 4 , 27 x10 − 9 x9 + 27 x8 8 8 1280 32 16 5337 549 873 12705 81 124281 7 6 5 4 3 2 − x + x − x + x − x + 12x − x+4 896 40 40 512 4 17920 Informativer ist deren graphische Veranschaulichung mittels einer Animation:
MWS 7
Wir geben nur die ersten drei Glieder der Folge yn (x) an, da deren Grad achst: gleich 3 · 2n − 2 ist und somit exponentiell anw¨
314
MWS 7
Rand- und Eigenwertprobleme
> Animation := seq(plot([y(n)(x),z(x)],x=a..b,color=[blue,black], view=[a..b,0..4],linestyle=[1,3],thickness=[2,1], title=cat(n,". Fixpunkt-Iteration")),n=0..6): display(Animation,insequence=true);
Fixpunkt-Iterationen 4
3
2
1
0
0.2
0.4
x
0.6
0.8
1
7.4 Selbstadjungierte Randwertaufgaben Eine Randwertaufgabe mit formal-selbstadjungierter Differentialgleichung ist nicht notwendig selbstadjungiert. Dies zeigt das folgende Beispiel 3:
(vgl. [Weise], S. 147)
> restart: with(LinearAlgebra): Dgl := diff(y(x),x$2)+y(x) = 0; a := 0: b := Pi: f0 := 1: RandBed := [y(a)-D(y)(b)=0,y(b)=0];
MWS 7
Dgl := y + y = 0 ,
RandBed := y(0) − D(y)(π) = 0 , y(π) = 0
vars := [[y(a),D(y)(a)],[y(b),D(y)(b)]]: (A,B,c) := RandBed2Matrix(RandBed,vars);
5 A, B , c :=
6 5 6 5 6 1 0 0 −1 0 , , 0 0 1 0 0
> dsolve(Dgl,y(x),output=basis); VectorCalculus[Wronskian](%,x): Y := unapply(%,x): ’Y(x)’ = Y(x);
7.4
Selbstadjungierte Randwertaufgaben (MWS)
5
sin(x), cos(x) ,
Y (x) =
sin(x) cos(x) cos(x) − sin(x)
315 6
> C := A.Y(a)+B.Y(b); # charakteristische Matrix Determinant(C): ’det(C)’ = simplify(%);
5 C :=
1 1 0 −1
6 ,
det(C) = −1
Die charakteristische Matrix C ist also regul¨ ar. Die homogene Randwertaufgabe besitzt somit nur die triviale L¨ osung; dies sichert die Existenz der Green-Funktion. Man erh¨alt sie z. B. mittels folgender Rechenschritte: > AY := map(simplify,C^(-1).A.Y(a)): BY := map(simplify,C^(-1).B.Y(b)): AY, BY;
5
6 5 6 0 1 1 −1 , 0 0 0 1
> beta := map(simplify,LinearSolve(Y(x),Vector([0,1/2/f0]))); alpha := map(simplify,LinearSolve(C,(A.Y(a)-B.Y(b)).beta),trig); alpha := unapply(alpha,x): beta := unapply(beta,x):
⎡
⎤ 1 cos(x) ⎢ 2 ⎥ β := ⎣ ⎦, 1 − sin(x) 2
⎤ − sin(x) − 1 cos(x) 2 ⎥ ⎢ α := ⎣ ⎦ 1 sin(x) 2 ⎡
Die Green-Funktion ergibt sich hier durch: > Y1_ := SubMatrix(Y(x),1,1..2): # 1. Zeile G := piecewise(x>=t,(Y1_.(alpha(t)+beta(t)))[1], x
− sin(x) sin(t) , t≤x G(x, t) = − sin(x) sin(t) − sin(x) cos(t) + cos(x) sin(t) , x < t
> with(plots): Optionen := style=patchcontour,shading=zhue,grid=[100,100],axes=box, tickmarks=[[0="0",1.57="p/2",3.14="p"]$2,[-1,1]], axesfont=[SYMBOL,12]:
MWS 7
Die Green-Funktion ist also in diesem Fall nicht symmetrisch. Somit ist nach Satz 7.4.1 die Randwertaufgabe nicht selbstadjungiert. Diese GreenFunktion, die mit ihrer Ableitung die Titelseite unseres Buches ziert, kann man wie folgt graphisch darstellen:
316 5
10
15
MWS 7
Rand- und Eigenwertprobleme
p1 := plot3d(G,x=a..b,t=a..b,Optionen,contours=20): p2 := spacecurve([x,x,subs(t=x,G+0.01)],x=a..b,color=black, thickness=2): display(p1,p2,orientation=[-90,0]); phi:=limit(diff(G,x),t=x,right): L := [0,0.1,0.21,0.32,0.46,0.79,1.11,1.25,1.37,1.47,1.57,1.67, 1.78,1.89,2.03,2.36,2.68,2.82,2.94,3.04,3.14]: p3 := seq(spacecurve([x,x,phi+t],t=0..1,color=black),x=L), spacecurve([x,x,phi],x=0..Pi,color=black), spacecurve([x,x,phi+1],x=0..Pi,color=black): p4 := plot3d(diff(G,x),x=a..b,t=a..b,Optionen, contours=[seq(1-k*0.1,k=0..25)]): display(p3,p4,orientation=[-155,50]);
Ableitung der Green-Funktion
Green-Funktion
1 π
x π/2 π
π/2
t
0
0
7.5 Selbstadjungierte Randeigenwertaufgaben
MWS 7
Die schwingende Saite Bereits mehrfach wurde (im Textteil) das Problem der schwingenden Saite angesprochen und die herausragende Bedeutung dieser Fragestellung f¨ ur die Entwicklung der Mathematik betont. Wir betrachten eine Saite der L¨ ange π, die an ihren Enden, die in den Punkten 0 und π der x-Achse liegen m¨ ogen, fest eingespannt ist. Hat die Saite im Punkte x zum Zeitpunkt t die Auslenkung u(x, t), so gen¨ ugt diese der eindimensionalen Wellengleichung: > restart: OFF: WGL := diff(u(x,t),t$2) = diff(u(x,t),x,x);
7.5
Selbstadjungierte Randeigenwertaufgaben (MWS)
317
∂2 ∂2 u(x, t) = u(x, t) ∂t2 ∂x2
WGL :=
Wir versuchen, die Wellengleichung mittels Separation‘ zu l¨ osen, machen ’ dazu also einen Ansatz der Form u(x, t) = a(t) η(x): > eval(WGL,u(x,t)=eta(x)*a(t)); %/(eta(x)*a(t)); Gl1 := -rhs(%) = lambda: Gl2 := -lhs(%%) = lambda:
η(x)
d2 a(t) dt2
=
d2 η(x) a(t) , dx2
d2 η(x) d2 a(t) 2 2 dt = dx a(t) η(x)
Die letzte Gleichung kann nur gelten, wenn beide Seiten konstant sind. Bezeichnen wir diese Separationskonstante‘ mit −λ , so erh¨ alt man je eine ’ gew¨ohnliche Differentialgleichung f¨ ur η und a: > ON: DGL1 := Gl1*eta(x); DGL2 := Gl2*a(t);
DGL1 := −η = η λ ,
DGL2 := −at, t = a(t) λ
Wir suchen eine L¨osung u , welche ber¨ ucksichtigt, daß die Saite an ihren Endpunkten eingespannt ist. Dies f¨ uhrt auf die Randbedingungen u(0, t) = 0 , u(π, t) = 0 sowie die Anfangsbedingungen u(x, 0) = ϕ(x)
und
∂ u(x, t) = ψ(x) . ∂t t=0
Zum Zeitpunkt t = 0 hat die Saite also die Anfangsauslenkung ϕ(x) und die Anfangsgeschwindigkeit ψ(x). Schließt man den Fall der ruhenden Saite aus, so ergeben sich aus obigen Randbedingungen die Bedingungen η(0) = 0 und η(π) = 0. η ist also L¨osung der Randeigenwertaufgabe η + λη = 0 , η(0) = 0 , η(π) = 0 ,
> assume(n,posint): dsolve({subs(lambda=n^2,DGL1),eta(0)=0,eta(Pi)=0});
η = C1 sin(nx) F¨ ur die DGL a + λn a = 0 ergibt sich die allgemeine L¨ osung a(t) = c1 sin(nt) + c2 cos(nt). > dsolve(subs(lambda=n^2,DGL2));
MWS 7
die uns bereits in (B 9) begegnet ist. Sie hat die Eigenwerte λn = n2 und die zugeh¨origen Eigenl¨ osungen ηn (x) = sin(nx).
318
MWS 7
Rand- und Eigenwertprobleme
a(t) = C1 sin(nt) + C2 cos(nt) ¨ ( SuperposiObige Anfangsbedingungen versuchen wir durch Uberlagerung‘ ’ ’ tion‘) zu erf¨ ullen, ohne uns zun¨achst (im Hinblick auf die Vertauschung von Differentiation und Summation) Gedanken u ¨ber die Konvergenz der Reihe u(x, t) =
∞ 0
An cos(nt) + Bn sin(nt) sin(nx)
n=1
zu machen. Aus den Beziehungen u(x, 0) =
∞ 0
An sin(nx) = ϕ(x) und D2 (u)(x, 0) =
n=1
∞ 0
nBn sin(nx) = ψ(x)
n=1
erhalten wir f¨ ur die Koeffizienten: 2 π 1 2 π An = ϕ(x) sin(nx) dx bzw. Bn = ψ(x) sin(nx) dx . π 0 nπ 0 Um eine zweimal stetig differenzierbare L¨osung u der vorgegebenen AnfangsRandwertaufgabe zu erhalten, m¨ ussen die Funktionen ϕ und ψ hinreichend glatt‘ sein. Wir betrachten die nachfolgenden Beispiele, obwohl sie diese Vor’ aussetzungen nicht erf¨ ullen; denn die Beispiele sind von praktischem Interesse (vgl. [Me/Va], S. 389f). Beispiel 4: 1) Anzupfen einer Gitarrensaite in der Mitte: Wir beginnen mit dem einfachen Fall ϕ(x) = π/2 − |x − π/2| und ψ = 0. ur die Koeffizienten An erhalten wir: Es gilt also Bn = 0, und f¨ > Pi/2-abs(x-Pi/2): phi := unapply(%,x): A := n -> 2/Pi*int(phi(x)*sin(n*x),x=0..Pi): ’A(n)’ = A(n);
4 sin A(n) =
πn 2
π n2
MWS 7
Hieraus ergibt sich ∞ 4 0 (−1)n+1 sin (2n − 1)x cos (2n − 1)t u(x, t) = π n=1 (2n − 1)2 ∞ 2 0 (−1)n+1 sin (2n − 1)(x + t) + sin (2n − 1)(x − t) = π n=1 (2n − 1)2 Der Knick‘ von u(x, 0) = ϕ(x) pflanzt sich f¨ ur t ∈ [0, π/2] fort l¨ angs der ’ charakteristischen Linien‘ x + t = π/2 beziehungsweise x − t = π/2. Wir ’ veranschaulichen dies durch folgende Animation:
7.5
5
Selbstadjungierte Randeigenwertaufgaben (MWS)
319
> with(plots): N := 200: u := (x,t) -> sum(A(n)*sin(n*x)*cos(n*t),n=1..N): OPT := color=blue,thickness=2,scaling=constrained, tickmarks=[[-1.57="-p/2",0="0",1.57="p/2",3.14="p"]$2], axesfont=[SYMBOL,12]: animate(u(x,t),x=0..Pi,t=0..Pi,OPT,frames=17);
3D-Gesamtschau der Animation π/2
0
−π/2
0
π/2
π/2
π
0
Der weitere Verlauf der Knickstellen‘ ergibt sich aus u(x, π/2 + t) = ’ −u(x, π/2 − t) sowie u(x, t + π) = −u(x, t). 2) Anzupfen einer Gitarrensaite am Rande: Wir ¨andern die Anfangsauslenkung ab und betrachten jetzt: x, x < 1112π ϕ(x) = 11(π − x) , sonst > piecewise(x<11/12*Pi,x,11*(Pi-x)): phi := unapply(%,x): A := n -> 2/Pi*int(phi(x)*sin(n*x),x=0..Pi): ’A(n)’ = simplify(A(n));
24 sin A(n) =
11π n 12
π n2
> N := 300: u := (x,t) -> sum(A(n)*sin(n*x)*cos(n*t),n=1..N): animate(u(x,t),x=0..Pi,t=0..Pi,OPT,frames=11);
MWS 7
Den zeitlichen Verlauf der Schwingung veranschaulichen wir wieder durch eine Animation:
320
MWS 7
Rand- und Eigenwertprobleme
π/2 0 −π/2 0
0 π/2
π/2 π
π
3) Anschlagen der Saite eines Klaviers: Diese Situation modellieren wir mittels ϕ = 0 und 1, ψ(x) = 0,
π/2 < x < 5π/8 sonst
.
> piecewise(x>Pi/2 and x<5/8*Pi,1,0): psi := unapply(%,x): B := n -> 1/n*2/Pi*int(psi(x)*sin(n*x),x=0..Pi): ’B(n)’ = B(n);
π n 5π n − cos 2 cos 8 2 B(n) = − n2 π Auch diesmal veranschaulichen wir die Auslenkungen der Saite durch eine Animation: > N := 200: u := (x,t) -> sum(B(n)*sin(n*x)*sin(n*t),n=1..N): animate(u(x,t),x=0..Pi,t=0..Pi,OPT,ytickmarks=[0,0.2],frames=7);
MWS 7
0.2
0
0
0 π/2
π
π/2
7.5
Selbstadjungierte Randeigenwertaufgaben (MWS)
321
Fourier-Reihen, Entwicklungss¨ atze Im folgenden verifizieren wir die Approximationsaussagen der S¨ atze 7.5.4 und 7.5.11 und legen dabei als Orthonormalsystem die orthonormierten Eigenfunktionen von Beispiel (B9) zugrunde. Wir u ¨bernehmen diese und definieren als passendes Skalarprodukt: > restart: with(plots): SkalarProd := (u,v) -> Int(u(x)*v(x),x=0..Pi); eta := n -> (x -> sqrt(2/Pi)*sin(n*x));
=
π SkalarProd := (u, v) −→
u(x)v(x) dx ,
η := n −→ x −→
2 sin(nx) π
0
Beispiel 5: Wir beginnen mit einer stetigen Funktion und berechnen deren FourierKoeffizienten: > f := x -> x-Pi/2: assume(n,posint): c := n -> value(SkalarProd(f,eta(n))): ’c(n)’ = c(n);
√ √ π 2 1 + (−1)n c(n) = − 2n Mit Maple k¨onnen wir im vorliegenden Fall die G¨ ultigkeit der ParsevalGleichung best¨atigen: > Sum(c(n)^2,n=1..infinity): % = value(expand(%)); SkalarProd(f,f): % = value(%);
2 ∞ 0 π 1 + (−1)n π3 , = 2n2 12 n=1
π
x−
π 2 π3 dx = 2 12
0
5
> T := (x,n)-> sum(c(k)*eta(k)(x),k=1..n); # Partialsumme der Fourier-Reihe OurTicks := tickmarks=[[3.14="p"],[-1.57="-p/2",0="0",1.57="p/2"]]: animation := seq(plot([f(x),T(x,2*n)],x=0..Pi,color=[black,blue], OurTicks,axesfont=[SYMBOL,12],title=cat("n = ",2*n)),n=1..8): display(animation,insequence=true);
MWS 7
Nach Satz 7.5.4 sind die Partialsummen der Fourier-Reihe | |2 -konvergent gegen f . Wir veranschaulichen dies wieder mittels einer Animation:
322
MWS 7 T := (x, n) −→
n 0
Rand- und Eigenwertprobleme
c(k) η(k)(x)
k=1
n = 6
π/2
0
π
x
−π/2
Die Animation verdeutlicht, daß die Partialsummen der Fourier-Reihe an den Intervallenden nicht punktweise gegen f (x) konvergieren k¨ onnen. Beispiel 6: Als n¨achstes Beispiel greifen wir eine Funktion heraus, welche die Randbedingungen von (B9) erf¨ ullt. Nach Satz 7.5.11 erwartet man also absolut gleichm¨aßige Konvergenz f¨ ur x ∈ [0, π ]. Wir beginnen mit der Berechnung der Fourier-Koeffizienten und u ufen auch in diesem Falle die G¨ ultig¨berpr¨ keit der Parseval-Gleichung: > f := x -> x*cos(x/2): ’c(n)’ = (factor@value)(c(n));
√ 16 (−1)1+n 2 n c(n) = √ π (1 + 2n)2 (−1 + 2n)2
Sum(simplify(c(n)^2),n=1..infinity): % = (expand@value)(%); SkalarProd(f,f): % = value(%); ∞ 0
MWS 7
n=1 π
512 n2 1 − 8n2 + 16n4
2
=
1 3 π −π, 6
π
2 1 x2 cos x dx = π 3 − π 2 6
0
Diesmal zeigen die Partialsummen der Fourier-Reihe ein wesentlich besseres Approximationsverhalten:
7.5
Selbstadjungierte Randeigenwertaufgaben (MWS)
323
> OurTicks1 := tickmarks=[[1.57="p/2",3.14="p"],[0,1]]: animation := seq(plot([f(x),T(x,n)],x=0..Pi,color=[black,blue], OurTicks1,axesfont=[SYMBOL,12],title=cat("n = ",n)),n=1..4): display(animation,insequence=true,view=[0..Pi,0..1.2],thickness=2);
1. und 2. Partialsumme
1
0
π/2
π
Die gleichm¨aßige Konvergenz l¨ aßt sich durch das Verhalten der Fehlerfunktionen, d. h. der Differenz zwischen f und den Partialsummen der FourierReihe, deutlicher hervorheben: > OurTicks := tickmarks=[[1.57="p/2",3.14="p"],[0,0.1,-0.05]]: animation := seq(plot(f(x)-T(x,n),x=0..Pi,color=blue, OurTicks,axesfont=[SYMBOL,12],title=cat("n = ",n)),n=1..8): display(animation,insequence=true); 0.1
0
n = 2
π/2
π
−0.05
MWS 7
8 Anhang
Matrixfunktionen 8.1 8.2 8.3
Matrixpolynome Matrixfunktionen: Definition, Eigenschaften Beispiele zur Berechnung von Matrixfunktionen
In Kapitel 5 haben wir u. a. lineare Differentialgleichungssysteme mit konstanten Koeffizienten behandelt und dazu die Matrix-Exponentialfunktion eingef¨ uhrt. Diese lieferte durch exp(xA) eine Fundamentalmatrix des homogenen Systems y = Ay, deren Berechnung i. allg. die Kenntnis der Eigenwerte von A sowie zugeh¨ origer Eigen- und Hauptvektoren voraussetzte. F¨ ur viele Anwendungsbereiche der Matrixanalysis ist es w¨ unschenswert, dieses Konzept, eine gegebene Matrix A als Argument in eine Funktion f einer zun¨ achst skalaren Variablen einzusetzen, auf eine gr¨oßere Klasse von Funktionen zu erweitern. Wir w¨ ahlen a ¨hnlich wie [Hs/Si], S. 69–107 einen Zugang, der — obwohl sonst in der Lehrbuchliteratur wenig verbreitet — im Grunde wohlbekannt sein sollte und z. B. in den Monographien [Gant], S. 121–151 und [Ho/Jo], S. 382–449 großenteils zu finden ist. Seine Urspr¨ unge gehen im Falle einfacher Eigenwerte auf Sylvester (1883) bzw. im Falle mehrfacher Eigenwerte auf Buchheim (1886) zur¨ uck. Dem — auch historisch — inter¨ essanten Ubersichtsartikel [Rine] verdanken wir wichtige Anregungen, die in diesem Kapitel ihren Niederschlag gefunden haben. Von zentraler Bedeutung ist die Spektraldarstellung von Sylvester-Buchahlte Definition des Begriffs einer Matrixheim. Auf ihr beruht die hier gew¨ funktion. Zugleich ergibt sich hieraus eine elementare Berechnungsm¨oglichkeit f¨ ur f (A). Diese setzt von A nur die Kenntnis der Eigenwerte (mit ihren Vielfachheiten) voraus — ben¨ otigt also keine Jordan-Normalform — und basiert bemerkenswerterweise auf Hermite-Interpolation.
8.1 Matrixpolynome ∈
0
mit Koeffizienten c0 , . . . , c
p(λ) = c0 + c1 λ + · · · + c λ
f¨ ur λ ∈
,
∈
,
Anhang
F¨ ur ein Polynom p vom Grade gegeben also durch
326
8 Anhang
definiert man zu A ∈
n
Matrixfunktionen
in nat¨ urlicher Weise das Matrixpolynom
p(A) := c0
+ c1 A + · · · + c A .
(1)
Wir notieren dazu vorab die folgenden einfachen Eigenschaften: α) Die Abbildung p −→ p(A) ist ein Homomorphismus von der Algebra der ur Polynome p1 , p2 und komplexe Polynome in die Algebra n , d. h. f¨ Zahlen α1 , α2 gilt:
α1 p1 + α2 p2 − → α1 p1 (A) + α2 p2 (A) p1 · p 2 −→ p1 (A)p2 (A) p1 ◦ p2 −→ p1 (p2 (A))
Zus¨ atzlich hat man die Kompositionsregel: β) F¨ ur jede invertierbare Matrix S ∈
n
gilt p(S −1 AS) = S −1 p(A)S.
¨ Bei den folgenden Uberlegungen setzen wir Hermite-Interpolation entscheidend ein. Da diese vielleicht nicht allen Lesern vertraut ist, f¨ uhren wir die Fragestellung vorweg etwas aus und beweisen kurz den zugeh¨origen Existenzund Eindeutigkeitssatz. F¨ ur Erg¨ anzungen verweisen wir auf die einschl¨agige Literatur, z. B. [Bu/St] oder [Ki/Ch]. Zu s ∈
, paarweise verschiedenen λ1 , . . . , λ ∈ ,
ωj,ν ∈ suchen wir f¨ ur
:=
(j = 1, . . . , s;
9 j
1, . . . ,
= 0, . . . ,
j
∈
und
− 1)
ein Polynom p vom Grade kleiner
mit
j=1
p(ν) (λj ) = ωj,ν
(j = 1, . . . , s;
= 0, . . . ,
j
− 1) .
(H)
Man spricht von Hermite-Interpolation“, gelegentlich auch verallgemei” ” nerter Lagrange-Interpolation“. Anders als bei der Lagrange-Interpola= 1 ergibt, werden hier an den tion, die sich als Spezialfall f¨ ur 1 = · · · = St¨ utzstellen‘ λj nicht nur die Funktionswerte, sondern auch die Ableitungen ’ bis zur Ordnung j − 1 vorgegeben. Satz 8.1.1
Es gibt genau eine L¨ osung von (H).
Beweis: Sind p1 und p2 L¨ osungen, dann ist r := p1 − p2 ein Polynom vom Grade kleiner mit
Anhang
r(ν) (λj ) = 0
(j = 1, . . . , s;
= 0, . . . ,
j
− 1) .
Jedes λj ist also eine mindestens j -fache Nullstelle. So hat r — entsprechend Vielfachheit gez¨ ahlt — mindestens Nullstellen. Das liefert r = 0 und somit p1 = p2 . Auch die Existenz folgt nun leicht: (H) ist ¨aquivalent
8.1
Matrixpolynome
327
zu einem linearen Gleichungssystem von Gleichungen f¨ ur die Koeffizienten eines gesuchten Polynoms p . Die zugeh¨orige Matrix ist regul¨ar wegen der schon gezeigten Eindeutigkeit. Folglich besitzt das Gleichungssystem f¨ ur beliebige rechte Seiten eine eindeutige L¨ osung. F¨ ur σ = 1, . . . , s; k = 0, . . . , lationsaufgabe p(ν) (λj ) =
σ,j
k,ν
σ
− 1 wird die L¨osung der speziellen Interpo(j = 1, . . . , s;
= 0, . . . ,
j
− 1)
als Hermite-Grundpolynom bezeichnet und mit hσ,k notiert. Es gilt also (ν)
hσ,k (λj ) =
σ,j
(σ, j = 1, . . . , s; k, = 0, . . . ,
k,ν
j
− 1)
und damit f¨ ur die L¨ osung der allgemeinen Interpolationsaufgabe (H) σ −1
σ −1
p =
p(k) (λσ )hσ,k .
ωσ,k hσ,k = σ=1 k=0
σ=1 k=0
Zur praktischen Bestimmung der hσ,k zieht man oft ein einfaches Differenzenschema heran, f¨ ur das wir etwa auf [Bu/St] oder [Ki/Ch] verweisen. N¨ahere Einzelheiten d¨ urften aber auch durch die in Abschnitt 8.3 gerechneten und in MWS 8 aufgegriffenen Beispiele von sich aus verst¨andlich werden. Ein ganz einfaches Beispiel soll die Vorgehensweise schon hier etwas erl¨autern und auch — f¨ ur reelles λ — veranschaulichen. Ausf¨ uhrliche Beispiele zu verschiedenen Gesichtspunkten finden sich dann in Abschnitt 8.3. (B1) Es seien s = 2, λ1 = 0, λ2 = 1, √ f (x) := x
ωj,0 := f (λj )
1
= 1,
f¨ ur
(j = 1, 2)
2
= 2 und mit
x ∈ [0, ∞ [ und
ω2,1 := f (λ2 ) .
Das gesuchte Polynom p h¨ ochstens zweiten Grades soll also an der Stelle 0 den gleichen Funktionswert wie f haben und an der Stelle 1 mit dem Funktionswert und der ersten Ableitung mit f u ¨bereinstimmen. Das gibt h1,0 (λ) = (λ − 1)2 , und
h2,0 (λ) = λ(2 − λ),
h2,1 (λ) = λ(λ − 1)
1 1 p(λ) = λ (2 − λ) + λ (λ − 1) = λ (3 − λ) . 2 2
Anhang
328
8 Anhang
Matrixfunktionen
Fehlerfunktion (f − p)
Hermite-Interpolation
0.15
1
0.1
0.5 0.05
0
0
0.5
1
0
1.5
0
0.5
1
1.5
Eine gegebene Matrix A habe nun genau die (paarweise verschiedenen) Eimit den algebraischen Vielfachheiten n1 , . . . , n . genwerte λ1 , . . . , λ ∈ Ihr charakteristisches Polynom χ ist also gegeben durch
χ (λ) =
A
(λ − λσ )nσ
(λ ∈ ) .
σ=1
F¨ ur das Minimalpolynom 1 µ µ (λ) =
von A gilt somit A
(λ − λσ )
σ
(λ ∈ )
σ=1
mit
σ
F¨ ur n ∈
≤ nσ (σ = 1, . . . s).
bezeichne Πn den Raum der Polynome vom Grade h¨ ochstens n. 9 sei der Grad des Minimalpolynoms µ , also := σ. 0
σ=1
Satz 8.1.2 Zu jedem gegebenen Polynom p existiert genau ein r ∈ Π mit p(A) = r(A) , n¨ amlich
−1
σ −1
p(k) (λσ ) hσ,k .
r = σ=1 k=0
Es gilt damit also die Spektraldarstellung von Sylvester-Buchheim σ −1
p(k) (λσ ) hσ,k (A) .
p(A) =
Anhang
σ=1 k=0
Beweis: Division mit Rest ergibt 1
Zur Erinnerung: µA ist das normierte (h¨ ochster Koeffizient 1) Polynom nimalen Grades mit ( ) = 0 .
mi-
8.1
Matrixpolynome
329
(λ ∈ )
p(λ) = q(λ) µ (λ) + r(λ)
(2)
mit einem geeigneten Polynom q und r ∈ Π −1 . Wegen µ (A) = 0 folgt hieraus p(A) = r(A). Sind r1 , r2 ∈ Π −1 mit p(A) = r1 (A) = r2 (A), so ist (r1 − r2 )(A) = 0 und somit aufgrund des Grades und der Definition des Minimalpolynoms r1 − r2 = 0 , also r1 = r2 . (k)
Wegen µ (λσ ) = 0 f¨ ur σ = 1, . . . , s und k = 0, . . . , f¨ ur diese Indizes: p(k) (λσ ) = r(k) (λσ ) Mithin ist
σ
− 1 folgt aus (2)
σ −1
p(k) (λσ )hσ,k ,
r = σ=1 k=0
also σ −1
p(k) (λσ )hσ,k (A) .
p(A) = r(A) = σ=1 k=0
F¨ ur σ = 1, . . . , s und k = 0, . . . , Pσ := Cσ,0 , und erhalten:
σ
− 1 setzen wir Cσ,k := hσ,k (A), speziell
Satz 8.1.3
a)
9
Pσ =
σ=1
b) Pj P = c) Cσ,k+1 =
j,
Pj
(j, = 1, . . . , s)
1 (A − λ ) C σ σ,k k+1
d) Cσ,k = 1 (A − λσ k!
e) (A − λσ
(k ≤
σ
− 2)
)k Pσ mit k ≥
)k Pσ = 0 f¨ ur k ∈
σ
9 Beweis: a) ergibt sich direkt aus der Beziehung ur alσ=1 hσ,0 (λ) = 1 f¨ alt man unmittelbar aus Satz 8.1.1, da die linke und le λ ∈ . Diese erh¨ die rechte Seite je ein Polynom aus Π −1 definieren, das an den Stellen ahrend die Ableitungen der Ordλ1 , . . . , λ den Funktionswert 1 annimmt, w¨ nung 1, . . . , σ − 1 jeweils an der Stelle λσ verschwinden.
σ −1
b)
Pj P = hj,0 (A) h
,0 (A)
=
hj,0 · h
= σ=1
hj,0 (λσ ) h ,0 (λσ ) Cσ,0 = !" # !" # =
j,σ
=
,σ
j,
Pj
(λσ ) Cσ,k
Anhang
σ=1 k=0
(k) ,0
330
8 Anhang
Matrixfunktionen
Bei der vorletzten Gleichung haben wir die Leibniz-Regel zur Differentiation einer Produktfunktion und die Interpolationsbedingungen eingesetzt.
1 (λ − λ ) h (λ) (λ ∈ c) F¨ ur das durch pσ,k (λ) := σ σ,k k+1 Polynom pσ,k gilt
1 A − λσ k+1
) definierte
j −1
(ν)
Cσ,k = pσ,k (A) =
pσ,k (λj ) Cj,ν .
(3)
j=1 ν=0
ur j = 1, . . . , s und Mit pσ,k (λj ) = 0 f¨ (ν)
pσ,k (λ) =
f¨ ur
1 (ν−1) (ν) h (λ) (λ − λσ ) hσ,k (λ) + k + 1 σ,k k+1
≥ 1 ergibt sich (ν)
pσ,k (λj ) =
σ,j
k+1,ν
(j = 1, . . . , s;
= 0, . . . ,
j
− 1) .
(4)
Aus (3) und (4) folgt pσ,k (A) = Cσ,k+1 . d) Gem¨ aß Definition ist Cσ,0 = Pσ , und mit Hilfe von c) kann der Induktionsschritt durchgef¨ uhrt werden: 1 (A − λσ k+1
Cσ,k+1 =
) Cσ,k =
1 (A − λσ k+1
)·
1 (A − λσ k!
)k Pσ
e) F¨ ur k ≥ σ ist µ ein Teiler des durch (λ − λσ )k hσ,0 (λ) f¨ ur λ ∈ gegebenen Polynoms; denn hσ,0 hat λj f¨ ur j = σ als j -fache Nullstelle, und der erste Faktor liefert ja λσ als mindestens σ -fache Nullstelle. Mit µ (A) = 0 folgt so (A − λσ )k Pσ = 0. Anmerkung: Die Matrizen Cσ,k | σ = 1, . . . , s; k = 0, . . . , σ − 1 sind linear unabh¨ angig.
Beweis: Aus einer Relation σ −1
ασ,k Cσ,k = 0 σ=1 k=0
mit ασ,k ∈
folgt f¨ ur das entsprechende Polynom σ −1
p :=
ασ,k hσ,k
Anhang
σ=1 k=0
p(A) = 0 . Das Minimalpolynom µ hat den Grad , p hingegen geh¨ ort zu at von µ ist also p = 0 , mithin sind alle Π −1 . Aufgrund der Minimalit¨ Koeffizienten ασ,k Null.
8.2
Matrixfunktionen: Definition, Eigenschaften
331
Bei der allgemeinen Formel sollte man nicht den einfachen Spezialfall aus den Augen verlieren. Dazu notieren wir: Bemerkung 8.1.4 Ist A diagonalisierbar, so gilt A
µ (λ) =
(λ − λσ )
f¨ ur λ ∈
.
σ=1
Mit p(λ) = λ erh¨ alt man dann die Spektraldarstellung λ σ Pσ .
A = σ=1
Die auftretenden Projektionen P1 , . . . , P werden in der einschl¨agigen Literatur oft als Frobenius-Kovarianten oder Riesz-Projektoren bezeichnet. Zusatz 8.1.5: Pσ ist die Projektion auf den Hauptraum Hσ := x ∈ n | (A − λσ )nσ x = 0 = Kern (A − λσ
)nσ ,
d. h. es gilt rg(Pσ ) = nσ . Je nσ linear unabh¨ angige Spalten von Pσ liefern eine Basis von Hσ . Beweisskizze: Wegen rg((A − λσ
)nσ ) = n − nσ ist dim Hσ = nσ .
Nach e) aus Satz 8.1.3 hat man (A − λσ )nσ Pσ = 0. F¨ ur σ := Pσ ( also σ ⊂ Hσ , folglich rg(Pσ ) = dim σ ≤ dim Hσ .
n
) gilt
Ber¨ ucksichtigt man die Beziehungen a) und b) aus Satz 8.1.3, so erh¨alt man n
=
1
⊕ ··· ⊕
Hieraus ergibt sich rg(Pσ ) = nσ , Hσ =
σ
. (σ = 1, . . . , s) .
¨ F¨ ur die in dieser Beweisskizze nicht ausgef¨ uhrten Uberlegungen ziehe man bei Bedarf etwa [Halm], S. 11 f oder [Hs/Si], S. f heran.
8.2 Matrixfunktionen: Definition, Eigenschaften
µ (λ) =
A σ=1
(λ − λσ )
σ
n
(λ ∈ )
sei wieder wie in
Anhang
Das Minimalpolynom einer gegebenen Matrix A ∈ Abschnitt 8.1 dargestellt:
332
8 Anhang
Matrixfunktionen
Dabei waren λ1 , . . . , λ ∈ mit s ∈ die (paarweise verschiedenen) Eigenwerte von A mit den (algebraischen) Vielfachheiten n1 , . . . , n und σ nat¨ urliche Zahlen mit σ ≤ nσ f¨ ur σ = 1, . . . s.
Definition: F(A) bezeichne die Menge der Funktionen f aus in λσ jeweils ( σ − 1)-mal differenzierbar sind.
in
, die f¨ ur σ = 1, . . . , s
F¨ ur f ∈ F(A) sei σ −1
f (A) := σ=1 k=0
f (k) (λσ ) (A − λσ )k Pσ . k!
Auch diese Verallgemeinerung der Formel aus Satz 8.1.2 wird als Spektraldarstellung von Sylvester-Buchheim bezeichnet. Anmerkungen: a) Im Falle einfacher Eigenwerte werden an Funktionen f ∈ F(A) nur sehr schwache Anforderungen gestellt: Sie brauchen an diesen Stellen nur definiert zu sein. F¨ ur reelle Matrizen mit reellen Eigenwerten interpretieren wir Differenzierbarkeit‘ als reelle Differenzierbarkeit‘; f¨ ur komplexe ’ ’ Eigenwerte λσ mit Vielfachheit σ ≥ 2 hingegen bedeute sie komplexe ’ Differenzierbarkeit‘. Bei (mindestens) zweimaliger Differenzierbarkeit ist dann f in dem betreffenden Punkt holomorph, da ja die zweimalige Differenzierbarkeit die Existenz der ersten Ableitung in einer geeigneten Umgebung bedingt. b) F¨ ur Polynome p gilt nach Satz 8.1.2 und d) aus Satz 8.1.3 σ −1
p(A) = σ=1 k=0
p(k) (λσ ) (A − λσ )k Pσ . k!
Daher stimmt in diesem Fall die obige Definition mit der speziellen Definition f¨ ur Matrixpolynome in Abschnitt 8.1 u ¨berein. ur k ∈ c) Es seien λ0 und ck f¨
0
f (λ) =
gegebene komplexe Zahlen und damit ∞ 9
ck (λ − λ0 )k
k=0
konvergent f¨ ur λ ∈ mit |λ − λ0 | < r und |λσ − λ0 | < r (σ = 1, . . . , s) mit einem geeigneten r9> 0. Dann existiert der Grenzwert der entspre∞ k chenden Matrixreihe2 k=0 ck (A − λ0 ) , und dieser ist gleich f (A), also
Anhang
2
Dies bedeutet Konvergenz in einer Matrixnorm auf ponentenweise Konvergenz.
n
und damit gerade kom-
8.2
Matrixfunktionen: Definition, Eigenschaften
333
∞
ck (A − λ0 )k .
f (A) = k=0
9 ur ∈ 0 definierten Beweis: Die durch f (λ) := k=0 ck (λ − λ0 )k f¨ ur Partialsummen f sind f¨ ur jedes r ∈ ]0, r [ gleichm¨aßig konvergent f¨ aßige Konvergenz), und es gilt λ ∈ mit |λ − λ0 | ≤ r (lokal gleichm¨
σ −1
f
f (A) =
(k)
(λσ ) (A − λσ )k Pσ . k!
σ=1 k=0
Zusammen mit f (A) −→
∞ 9
ck (A − λ0 )k und f
(k)
(λσ ) −→ f (k) (λσ )
k=0
−→ ∞ folgt hieraus die Behauptung.
f¨ ur
urliche Erweiterung von MatrixpoDie Potenzreihendefinition — als nat¨ lynomen — ist mithin in unserer Definition als Spezialfall enthalten. ur A ∈ n , invertierbares d) Die Beziehung p(S −1 AS) = S −1 p(A)S f¨ S ∈ n und ein beliebiges Polynom p legt es nahe, Matrixfunktionen mittels der Jordan-Block-Methode zu definieren. Wir erl¨autern dies an folgendem Spezialfall einer (n, n)-Matrix, der aber schon die Kernaussage des allgemeinen Falles beinhaltet:
λ1 1 .. ... . 0
A =
0 .. ... . 1 λ1
ur λ ∈ und P1 = Es gilt hier µ (λ) = (λ − λ1 )n f¨ sowie 0 1 0 .. .. . . . A − λ1 = .. .. . .1 0 0
Mit dieser speziellen Matrix A − λ1 n−1
f (A) = k=0
folgt aus
f (k) (λ1 ) (A − λ1 )k P1 = k!
0
f (λ1 ) 1!
..
.
...
n−1
k=0
... .. . .. .
f (k) (λ1 ) (A − λ1 )k : k!
f (n−1) (λ1 ) (n−1)!
.. . f (λ1 ) 1!
f (λ1 )
Anhang
f (A) =
f (λ1 ) .. . .. .
wegen h1,0 (λ) = 1
334
8 Anhang
Matrixfunktionen
1 zu festem τ ∈ \ {λ1 , . . . , λ } und λ ∈ \ {τ } gilt e) F¨ ur f (λ) := τ −λ k! (k) ur k ∈ . Damit f¨ uhrt c) hier auf die Partialbruchf (λ) = (τ −λ)k+1 f¨ darstellung der Resolvente:
(τ
− A)
−1
σ −1
= σ=1 k=0
1 (A − λσ )k Pσ (τ − λσ )k+1
(1)
Die Beziehung f (A) = (τ − A)−1 liest man dabei zun¨achst f¨ ur hinreichend große τ aus der Neumann-Reihe ab und hat dann (Identit¨at rationaler Funktionen!) die Aussage allgemein. Alternativ multipliziert man die rechte Seite von (1) mit τ − A = (τ − λσ ) − (A − λσ ). f) Mit Hilfe der Resolvente kann man — gem¨aß einem Vorschlag von E. ul begr¨ unden und Cartan aus dem Jahre 1928 — den Funktionalkalk¨ Matrixfunktionen f (A) in Analogie zur Integralformel von Cauchy definieren: 1 f (λ) (λ − A)−1 dλ f (A) := 2π Γ
Hierbei sei die Funktion f holomorph um die Eigenwerte von A und Γ ein Wegezyklus bestehend aus gen¨ ugend kleinen Kreisen um die Eigenwerte. Mit Hilfe der Partialbruchdarstellung (1) und der Integralformel (von Cauchy) f¨ ur die Ableitung folgt 1 f (λ) (λ − A)−1 dλ 2π Γ σ −1 f (λ) 1 dλ (A − λσ )k Pσ = (λ − λσ )k+1 2π σ=1 k=0 Γ # !" 1 (k) f (λσ ) = k!
Cartans Definition ist also ebenfalls als Spezialfall in unserer Definition enthalten. Sie hat den Vorteil, daß sie — im Gegensatz zur JordanBlock-Methode — direkt auf unendlich-dimensionale R¨aume ausgedehnt werden kann.
Anhang
Die Berechnung von f (A) erfordert nicht notwendig die Kenntnis des Minimalpolynoms µ . Im folgenden sei c irgendein Polynom von der Form c(λ) =
A σ=1
(λ − λσ )
σ
(λ ∈ )
8.2
Matrixfunktionen: Definition, Eigenschaften
335
mit σ ∈ f¨ ur σ = 1, . . . s, das A annulliert, d. h. c(A) = 0. Das Minimalur σ = 1, . . . , s. polynom µ teilt dann c. Demzufolge ist σ ≥ σ f¨ Satz 8.2.1 in , die f¨ ur σ = 1, . . . , s in λσ jeweils Es sei f eine Funktion aus ur jedes interpolierende‘ Polynom p mit (σ − 1)-mal differenzierbar ist. F¨ ’ (k) (k) p (λσ ) = f (λσ ) (σ = 1, . . . , s; k = 0, . . . , σ − 1)
gilt f (A) = p(A) . Beweis: Dies liest man unmittelbar aus der Definition von f (A) und Anmerkung b) von Seite 332 – f¨ ur p statt p — ab. 9 ur σ = 1, . . . , s und k = 0, . . . , σ − 1 Wir bezeichnen zu := j=1 j f¨ mit hσ,k ∈ Π −1 das Hermite-Grundpolynom zu den Interpolationsbedingungen (ν) hσ,k (λj ) =
σ,j
(j = 1, . . . , s;
k,ν
= 0, . . . , j − 1)
und mit Hf,c zu einer Funktion f das entsprechende Hermite-Interpolationspolynom gem¨ aß Satz 8.2.1, also σ −1
Hf,c =
f (k) (λσ ) hσ,k ,
σ=1 k=0
und erhalten die einfache Folgerung 8.2.2 σ −1
f (A) =
f (k) (λσ ) hσ,k (A)
σ=1 k=0
mit
hσ,k (A) =
f¨ ur 0 ≤ k ≤ f¨ ur k ≥ σ
Cσ,k 0
σ
−1
Beweis: Satz 8.2.1 liefert mit p := Hf,c die erste Gleichung. j −1 9 9 (ν) hσ,k (A) = hσ,k (λj ) Cj,ν !" # j=1 ν=0
=
σ,j
zeigt den Rest.
k,ν
Mit Satz 8.2.1 kann man speziell f¨ ur die Matrix-Exponentialfunktion eine weitere L¨ osungsformel gewinnen (man vgl. dazu etwa auch [Kowa], S. 35-38
Anhang
ur k ≥ σ ben¨ otigt man nicht die Anmerkung: Wegen hσ,k (A) = 0 f¨ ur σ ≤ k < σ . Das entscheidende Existenz der Ableitungen f (k) (λσ ) f¨ Polynom c ist also das Minimalpolynom.
336
8 Anhang
oder [Run], S. 211-216). Es seien dazu c0 , . . . , c normierten Polynoms c, also c(λ) = λ + c
−1
−1 λ
die Koeffizienten des
−1
+ · · · + c0
Matrixfunktionen
(λ ∈ ) .
Satz 8.2.3 Ordnet man das Hermite-Interpolationspolynom Hf,c zu der f¨ ur x ∈ und durch f (λ) := exp(xλ) gegebenen Funktion f nach Potenzen von λ ∈ λ, so bilden die Koeffizientenfunktionen ϕν (als Funktionen von x) dieser Darstellung
−1
ϕν (x) λν
Hf,c (λ) = ν=0
ein Fundamentalsystem der homogenen linearen Differentialgleichung
y(
)
(x) + c
−1 y
(
−1)
(x) + · · · + c0 y(x) = 0
(x ∈ )
(2)
mit den kanonischen Anfangswerten ϕ(κ) ν (0) =
ν,κ
− 1) .
( , κ = 0, . . . ,
Hierbei ist c gerade das charakteristische Polynom der Differentialgleichung (2). Ferner gilt: −1
ϕν (x) Aν
exp(xA) =
(x ∈ )
(3)
ν=1
N −1 Daß sich exp(x ) prinzipiell in der Form mit geeigneten Koeffi=1 ψ (x) zientenfunktionen ψ darstellen l¨ aßt, liegt nat¨ urlich daran, daß sich f¨ ur ≥ N durch die Potenzen 0 = E, . . . , N −1 linear kombinieren lassen, weil ja c( ) = 0 gilt. In der obigen Formel werden die Koeffizientenfunktionen konkret angegeben.
Beweis: Aus der ersten Gleichung von σ −1
−1 ν
Hf,c (λ) =
ϕν (x) λ =
Anhang
ν=0
σ=1 k=0
∂k exp (λx) hσ,k (λ) (4) ∂λk |λ = λσ
folgt durch Einsetzen von A — wegen exp (xA) = Hf,c (A) — direkt die Beziehung (3). Ferner ergibt sich mit c := 1 aus der zweiten Gleichung von (4) durch Differentiation nach x unter Beachtung des Satzes von Schwarz, der die Vertauschbarkeit der Reihenfolge der Differentiationen sichert: ' & −1 σ −1 ∂k λx κ (κ) hσ,k (λ) e c λ cκ ϕν (x) λν = κ ∂λk |λ = λσ κ=0 σ=1 k=0 ν=0 κ=0 !" # = c(λ)
8.2
Matrixfunktionen: Definition, Eigenschaften
337
Wegen c(k) (λσ ) = 0 f¨ ur σ = 1, . . . , s und k = 0, . . . , σ − 1 ist die rechte Seite dieser Gleichung gleich Null f¨ ur jedes λ ∈ . Die linke Seite ergibt dann
f¨ ur x ∈
cκ ϕ(κ) ν (x) = 0
und
−1 .
= 0, . . . ,
κ=0
osen also die Differentialgleichung (2). Zur Die Funktionen ϕ0 , . . . , ϕ −1 l¨ (κ) Bestimmung der Anfangswerte ϕν (0) differenzieren wir f¨ ur κ = 0, . . . , −1 die zweite Gleichung in (4) κ-mal nach x und erhalten u ¨ber σ −1
−1 ν ϕ(κ) ν (x) λ
= σ=1 k=0
ν=0
∂k κ λ exp(λx) hσ,k (λ) ∂λk |λ = λσ
speziell f¨ ur x = 0: σ −1
−1 ν ϕ(κ) ν (0) λ
= σ=1 k=0
ν=0
∂k κ λ hσ,k (λ) . ∂λk |λ = λσ
(5)
Die rechte Seite ist — als Hermite-Interpolationspolynom — gleich λκ . −1 9 (κ) Damit liefert (5) ϕν (0) λν = λκ , also ν=0
ϕ(κ) ν (0) =
− 1) .
( , κ = 0, . . . ,
ν,κ
Anmerkung: Aus Formel (3) erh¨ alt man mittels Differentiation f¨ ur k ∈
0
−1 ν ϕ(k) ν (x) A ,
Ak exp (xA) = ν=0
speziell f¨ ur x = 0 also −1 ν ϕ(k) ν (0) A
Ak =
(k ∈
0)
.
ν=0
Mithin liefern f¨ ur = 0, . . . , − 1 die Folgen ψν : 0 −→ mit ψν (k) = (k) ϕν (0) ein Fundamentalsystem der homogenen linearen Differenzengleichung
y(k +
)+c
−1
y(k +
− 1) + · · · + c0 y(k) = 0
(k ∈
0)
.
Umgekehrt kann man aus diesen Folgen die Funktionen ϕν zur¨ uckgewinnen:
k=0
(k)
ϕν (0) k x = k!
∞
ψν (k) k=0
xk k!
Anhang
∞
ϕν (x) =
338
8 Anhang
Matrixfunktionen
Satz 8.2.4 a) f −→ f (A) ist ein Homomorphismus der Algebra F(A) in die Algebra ur Funktionen f1 , f2 ∈ F(A) und komplexe Zahlen α1 , α2 gilt: n , d. h. f¨
α1 f1 + α2 f2 −→ α1 f1 (A) + α2 f2 (A) f1 · f2 −→ f1 (A)f2 (A) b) Kompositionsregel: Es seien f1 ∈ F(A) und eine Funktion f2 aus in f¨ ur σ = 1, . . . , s in f1 (λσ ) jeweils ( σ − 1) -mal differenzierbar. Dann gilt (f2 ◦ f1 )(A) = f2 (f1 (A)) .
Beweis von a): Zu f1 und f2 existieren nach Satz 8.1.1 Polynome p1 und p2 mit fκ(k) (λσ ) = p(k) κ (λσ ) (σ = 1, . . . , s ; k = 0, . . . ,
σ
− 1)
ur κ = 1, 2. Aus und somit fκ (A) = pκ (A) f¨ (α1 f1 + α2 f2 )(k) (λσ ) = (α1 p1 + α2 p2 )(k) (λσ ) folgt dann — mit Seite 326, α) — (α1 f1 + α2 f2 )(A) = (α1 p1 + α2 p2 )(A) = α1 p1 (A) + α2 p2 (A) = α1 f1 (A) + α2 f2 (A) . Ferner ergibt sich mit Hilfe der Leibniz-Regel zur Differentiation einer Produktfunktion (f1 · f2 )(k) (λσ ) = (p1 · p2 )(k) (λσ ) f¨ ur σ = 1, . . . , s und k = 0, . . . ,
σ
− 1 und so
(f1 · f2 )(A) = (p1 · p2 )(A) = p1 (A) p2 (A) = f1 (A) f2 (A) . Auf einen — deutlich aufwendigeren — Beweis zu b) verzichten wir.
Anmerkung: F¨ ur die G¨ ultigkeit der obigen Kompositionsregel reicht es nicht aus, f1 ∈ F(A) und f2 ∈ F(f1 (A)) zu fordern; denn hieraus folgt nicht f2 ◦ f1 ∈ F(A): 0 1 1 0 F¨ ur A := und f1 := cos z. B. gilt f1 (A) = . Mithin 0 0 0 1 ist µf1 ( ) (λ) = λ − 1. Wegen 1 = 1 geh¨ ort also jede beliebige Funkti−→ zu F(f1 (A)). Es gibt jedoch Funktionen f2 derart, daß on f2 : f := f2 ◦ f1 nicht in λ1 = 0 differenzierbar ist.
Anhang
8.3
Beispiele zur Berechnung von Matrixfunktionen
339
8.3 Beispiele zur Berechnung von Matrixfunktionen Es folgen einige Beispiele, in denen wir zu einer gegebenen Matrix A ∈ n und f ∈ F(A) die Matrixfunktion f (A) berechnen. Dies tun wir — ausgehend von der Definition in Abschnitt 8.2 bzw. von Satz 8.2.1 oder Folgerung 8.2.2 — mit Hilfe des Hermite-Interpolationspolynoms in der NewtonDarstellung. Die Koeffizienten dieses Polynoms erhalten wir wie u ¨blich mittels eines Differenzenschemas. Da St¨ utzstellen mit h¨oherer Vielfachheit auftreten k¨onnen, verwenden wir darin verallgemeinerte dividierte Differenzen (man vgl. hierzu etwa [Bu/St]).
Eine sehr elegante Alternative ist die Residuenformel‘— vor allem auch de’ ren sp¨ atere Umsetzung mit Maple. Obwohl wir in dieser Darstellung keine ur funktionentheoretischen Grundlagen voraussetzen3 , halten wir es dennoch f¨ lohnend, f¨ ur den Kenner diese weitere explizite Darstellung f¨ ur holomorphe Funktionen c(z) − c(λ) 1 f (z) dz (1) Hf,c (λ) = c(z) (z − λ) 2π Γ
hier aufzuf¨ uhren (vgl. etwa [Dav], S. 68). Γ ist dabei ein Wegezyklus von hinreichend kleinen, einfach durchlaufenen positiv-orientierten Kreisen um die Eigenwerte von A. Mit dem Residuensatz erh¨ alt man aus (1) die Residuenformel:
c(z) − c(λ) f (z) ; z = λσ Res Hf,c (λ) = c(z) (z − λ) σ=1
In den folgenden Beispielen — ausgenommen (B4) — ist c gleich dem charakteristischen Polynom χ . (B1) Es sei A :=
1 1 4 1
.
Aus χ (λ) = λ2 − 2λ − 3 ergeben sich die Eigenwerte λ1 = 3 und λ2 = −1. Es ist also hier c := χ = µ , daher s = 2, n1 = n2 = = = 2. In diesem einfachen 1 = 2 = 1 = 2 = 1 und somit Fall sieht‘ man direkt h1,0 (λ) = 14 (λ + 1) und h2,0 (λ) = 14 (3 − λ) . ’ Mit 1 1 2 1 2 −1 , P2 = P1 = 4 −4 2 4 4 2
3
Der interessierte Leser findet eine zum vorliegenden Buch besonders passende Darstellung in [Fo/Ho] .
Anhang
ergibt sich
340
8 Anhang
Matrixfunktionen
f (A) = f (3) P1 + f (−1) P2 . Als Spezialf¨ alle erhalten wir f¨ ur k ∈ 0 die Matrixpotenzen Ak bzw. f¨ ur die f¨ ur x ∈ und λ ∈ durch f (λ) = exp (xλ) gegebene Funktion f die Matrix-Exponentialfunktion exp (xA):
Ak = 3k P1 + (−1)k P2 ,
exp (xA) = e3 x P1 + e−x P2
Wir vergleichen die obigen Resultate mit denen der Residuenformel. Elementare Umformung oder auch Polynomdivision — etwa mit Hilfe des Horner-Schemas — ergibt c(z) − c(λ) = z+λ−2; z−λ
dies erleichtert die weiteren Schritte: 2 z+λ−2 f (z) ; z = λσ Hf,c (λ) = Res (z − 3) (z + 1) σ=1
1 1 (λ + 1)f (3) − (λ − 3)f (−1) 4 4 1 1 f (3) + 3f (−1) + f (3) − f (−1) λ = 4 4
=
F¨ ur f (λ) = exp (xλ) erhalten wir damit gem¨ aß Satz 8.2.3 durch ϕ0 (x) :=
1 3x 1 3x e − e−x e + 3 e−x , ϕ1 (x) := 4 4
ein Fundamentalsystem der homogenen linearen Differentialgleichung y − 2y − 3y = 0 sowie die Darstellung exp (xA) = ϕ0 (x)
Anhang
(B2) Es sei A =
0 1 0 4 3 −4 1 2 −1
.
+ ϕ1 (x)A .
(vgl. (B1) zu Abschnitt 5.2)
Wegen c(λ) := χ (λ) = λ (λ − 1)2 hat A die Eigenwerte λ1 = 0 und λ2 = 1 mit den Vielfachheiten n1 = 1 und n2 = 2. Mit Hilfe des Differenzenschemas f (0) 0 f (1) − f (0) 1 f (1) f (1) − (f (1) − f (0)) f (1) 1 f (1)
erhalten wir das Hermite-Interpolationspolynom in der NewtonDarstellung:
8.3
Beispiele zur Berechnung von Matrixfunktionen
341
h(λ) = f (0) + f (1) − f (0) λ + f (1) − (f (1) − f (0)) λ(λ − 1) = f (0) (1 − 2λ + λ2 ) + f (1) (λ − λ (λ − 1)) + f (1) λ (λ − 1) Hieran liest man die Hermite-Grundpolynome direkt ab: h1,0 (λ) = (λ − 1)2 , h2,0 (λ) = λ (2 − λ) , h2,1 (λ) = λ (λ − 1) So gilt P1 = h1,0 (A) =
5 1 −4 0 0 0 5 1 −4
P2 = h2,0 (A) =
−4 −1 4 0 1 0 −5 −1 5
,
,
(A −
) P2 =
4 2 −4 4 2 −4 6 3 −6
und damit f (A) = f (0) P1 + f (1) P2 + f (1) (A −
) P2 ,
speziell exp (xA) = P1 + ex P2 + xex (A −
)P2 .
Wir verwenden ein weiteres Mal die Residuenformel. Mit c(z) − c(λ) = z 2 + (λ − 2)z + (λ − 1)2 z−λ
erhalten wir:
z 2 + (λ − 2)z + (λ − 1)2 f (z) ; z = λσ Res Hf,c (λ) = z (z − 1)2 σ=1 (λ − 1)2 ∂ f (z) z + (λ − 2) + = (λ − 1)2 f (0) + z ∂z |z = 1 2
= (λ − 1)2 f (0) + λ (2 − λ) f (1) + λ (λ − 1) f (1) = f (0) + − 2f (0) + 2f (1) − f (1) λ + f (0) − f (1) + f (1) λ2 Satz 8.2.3 liefert ein Fundamentalsystem der DGL4 y − 2 y + y = 0 durch ϕ0 (x) = 1 , ϕ1 (x) = −2 + (2 − x) ex , ϕ2 (x) = 1 + (x − 1) ex und die Darstellung exp (xA) = ϕ0 (x)
Nat¨ urlich w¨ urde man bei einer gegebenen DGL von solchem Typ zun¨ achst verm¨ oge := y den Grad reduzieren. Doch das ist nicht der Gesichtspunkt, den wir an dieser Stelle darstellen wollen.
Anhang
4
+ ϕ1 (x)A + ϕ2 (x)A2 .
342
8 Anhang
(B3) Es sei A =
−1 0 −2 0 0 0 1 0 2
Matrixfunktionen
.
Hier ist c(λ) := χ (λ) := λ2 (λ − 1). Mithin sind λ1 = 0 und λ2 = 1 die Eigenwerte mit Vielfachheiten n1 = 2 und n2 = 1. Analog zum vorangehenden Beispiel erhalten wir mit Hilfe von f (0) 0 f (0) 0 f (0) f (1) − f (0) − f (0) f (1) − f (0) 1 f (1)
das Hermite-Interpolationspolynom h(λ) = f (0) + f (0)λ + f (1) − f (0) − f (0) λ2 = f (0)(1 − λ2 ) + f (0) λ − λ2 + f (1)λ2 und hieraus h1,0 (λ) = 1 − λ2 ,
h1,1 (λ) = λ − λ2 ,
h2,0 (λ) = λ2 .
Dies ergibt P1 =
2 0 2 0 1 0 −1 0 −1
,
AP1 = 0 ,
P2 =
−1 0 −2 0 0 0 1 0 2
.
In der Spektraldarstellung f (A) = f (0) P1 + f (1) P2 tritt offensichtlich der Term mit f (0) nicht explizit auf. Dies kann man auch daran sehen, daß die vorliegende Matrix diagonalisierbar ist und das Minimalpolynom durch µ (λ) = λ (λ − 1) gegeben ist.
(B4) Es sei A =
Anhang
A+
=
und (A +
1 −1 1 −1 −3 3 −5 4 8 −4 3 −4 15 −10 11 −11 2 −1 1 −1 −3 4 −5 4 8 −4 4 −4 15 −10 11 −10 )3 = 0 .
.
,
Hierf¨ ur beobachten wir:
(A +
2
) =
0 0 0 0 2 −1 1 −1 0 0 0 0 −2 1 −1 1
8.3
Beispiele zur Berechnung von Matrixfunktionen
343
An Stelle des charakteristischen Polynoms k¨onnen wir deshalb das durch c(λ) = (λ + 1)3 gegebene Polynom c benutzen. Wegen s = 1, alt man direkt λ1 = −1 und 1 = 3 erh¨ h1,0 (λ) = 1,
h1,1 (λ) = λ + 1,
1 h1,2 (λ) = (λ + 1)2 . 2
Die Spektraldarstellung lautet damit f (A) = f (−1)
+ f (−1)(A +
)+
f (−1) (A + 2
)2 .
Im Hinblick auf den Kontext mit Differentialgleichungssystemen bringen wir noch ein Beispiel mit (konjugiert) komplexen Eigenwerten:
(B5) Es sei A =
4 5 8 −1 −5 −7 −2 1 0
.
Wegen χ (λ) = (λ − 1)(λ2 + 2λ + 10) hat A die einfachen Eigenwerte λ1 = 1, λ2 = −1 + 3 und λ3 = −1 − 3 . Damit gilt offenbar 1 (λ2 + 2 λ + 10) , 13 −3 + 2 (λ − 1)(λ + 1 + 3 ) und h3,0 (λ) = h2,0 (λ) . h2,0 (λ) = 78
h1,0 (λ) =
Als Spektraldarstellung ergibt sich f (A) = f (1) P1 + f (−1 + 3 ) P2 + f (−1 − 3 ) P3 mit den Eigenprojektionen P1 =
1 1 1 1 1 1 −1 −1 −1
, P2 =
1 2
− −1 + 1
−1 − 2 1−
−1 − 2 −1 + 3 2−
, P3 = P2 .
Im Falle f ( λ2 ) = f (λ2 ) vereinfacht sich die obige Spektraldarstellung zu f (A) = f (1) P1 +2 Re f (−1+3 ) Re(P2 )−2 Im f (−1+3 ) Im(P2 ) ;
Speziell f¨ ur die Matrix-Exponentialfunktion ergibt sich hieraus
Anhang
denn hier rechnet man f¨ ur die letzten beiden Summanden von f (A): f (λ2 )P2 + f (λ3 )P3 = f (λ2 )P2 + f λ2 P2 = f (λ2 )P2 + f (λ2 ) P2 = 2 Re (f (λ2 ) P2 ) = 2 Re(f (λ2 ))Re(P2 ) − 2 Im(f (λ2 ))Im(P2 ) .
344
8 Anhang
exp (xA) = ex
1 1 1 1 1 1 −1 −1 −1
Matrixfunktionen
+ e−x cos(3 x)
0 −1 −1 −1 0 −1 1 1 2
− e−x sin(3x)
−1 −1 −2 1 2 3 0 −1 −1
.
Zum Abschluß sei noch die folgende Klasse reeller Matrizen betrachtet: (B6) Es sei A =
α −β β α
mit beliebigen reellen Zahlen α und β .
F¨ ur das charakteristische Polynom χ einer solchen Matrix gilt: χ (λ) = (λ − α)2 + β 2 . Daher hat man die beiden konjugierten Eigenwerte λ1 = α + β und λ2 = α − β . Im Falle β = 0 hat man: h1,0 (λ) =
1 1 λ − (α + β) . λ − (α − β) und h2,0 (λ) = − 2 β 2 β
Mit den Eigenprojektionen 1 1− 1 1 und P2 = P1 = 1 2 2 − 1
ergibt sich die Spektraldarstellung f (A) = f (α + β) P1 + f (α − β) P2 .
Anhang
Unser Interesse gilt der Berechnung von log A. Beachtet man, daß die komplexe Logarithmusfunktion log z = log |z| + arg z mehrdeutig ist und Matrizen L mit exp(L) = A dieselben Eigenvektoren wie A haben, so erh¨ alt man mit ganzzahligen k und die Matrizenschar ' & 1 2 2 2 log(α + β ) − arg(α + β) + k 2π P1 + 2π P2 . log A = arg(α + β) 12 log(α2 + β 2 )
8.3
Beispiele zur Berechnung von Matrixfunktionen
345
Historische Notizen
James Joseph Sylvester (1814–1897) Der britische Mathematiker war ein bedeutender Zahlentheoretiker und Mitbegr¨ under der Invariantentheorie. Von ihm stammen viele Beitr¨ age zur Kombinatorik, der Theorie algebraischer Gleichungen, der quadratischen und h¨oherer Formen sowie der Matrizenund Determinantentheorie. Er war nicht nur ein erfolgreicher Mathematiker, sondern auch Physiker, Jurist, Poet und Herausgeber wichtiger mathematischer Zeitschriften.
Anhang
MWS zum Anhang
Matrixfunktionen Wichtige Maple-Befehle dieses Kapitels: linalg-Paket: exponential, ‘linalg/matfunc/pinterp‘, ‘linalg/matfunc‘ LinearAlgebra-Paket: MatrixFunction, MatrixExponential, MatrixPower
8.3 Beispiele zur Berechnung von Matrixfunktionen Wir greifen die im Text ausgef¨ uhrten einfachen Beispiele nun mit Maple auf, berechnen also insbesondere zu einer Matrix A und einer geeigneten Funktion f die Matrixfunktion f (A). Dies geschieht mit Hilfe der in Abschnitt 8.2 des Textes vorgestellten Spektraldarstellung von Sylvester-Buchheim. Bekanntlich setzt diese nur die Kenntnis der Eigenwerte voraus (entsprechend ihrer Vielfachheiten) und basiert auf Hermite-Interpolation. Diese Methour die Matrix-Exponentialfunktion bede wird im linalg-Paket zwar nur f¨ nutzt, kann jedoch viel allgemeinere Matrixfunktionen berechnen. Wir f¨ uhren dies hier zun¨achst in Einzelschritten‘ detailliert vor und benutzen dabei die ’ urzend geben wir ihr den NaMaple-Prozedur ‘linalg/matfunc/pinterp‘. Abk¨ ur Hermite-Interpolation. Diese ist wesentlicher Teil der unmen HInterp f¨ dokumentierten Prozedur ‘linalg/matfunc‘. In ihr sind die Einzelschritte zu einem Kommando verpackt‘. Ab Maple 9 gibt es mit MatrixFunction einen ’ entsprechenden Befehl f¨ ur das LinearAlgebra-Paket. MatrixExponential und MatrixPower sind Spezialf¨alle hiervon f¨ ur die Matrix-Exponentialfunktion bzw. Matrix-Potenzen.
Ab Maple 9.5 ist das table-basierte‘ Paket linalg auf das neuere module’ ’ basierte‘ Format umgestellt worden. Bei Verwendung dieses Paketes sind deshalb geringf¨ ugige Modifikationen n¨ otig, die nachfolgend dokumentiert werden:
Die Entscheidung, ob man mit den Matrixfunktionen des linalg-Paketes oder denen des LinearAlgebra-Paketes arbeitet, wird mit Hilfe einer der folgenden alias-Anweisungen getroffen:
MWS 8
5
> restart: with(LinearAlgebra): interface(imaginaryunit=i): macro(I=i): # Maple 9 und fr¨ uher: alias(HInterp=‘linalg/matfunc/pinterp‘): # Neu ab Maple 9.5: kernelopts(opaquemodules=false): alias(HInterp=linalg:-‘matfunc/pinterp‘):
348 > # # # #
8 Anhang u ¨ber Matrixfunktionen linalg-Paket: Maple 9 und fr¨ uher: alias(MatFunc=‘linalg/matfunc‘,MatExp=linalg[exponential]): Neu ab Maple 9.5: alias(MatFunc=linalg:-matfunc,MatExp=linalg[exponential]):
5
# Ab Maple 9 im Linear-Algebra-Paket verf¨ ugbar: alias(MatFunc=MatrixFunction,MatExp=MatrixExponential):
Beispiel 1 > A := Matrix([[1,1],[4,1]]);
A :=
1 1 4 1
Aus dem zugeh¨origen charakteristischen Polynom > CharacteristicPolynomial(A,lambda): c := unapply(%,lambda): ’chi[A]’(lambda) = factor(c(lambda));
χ (λ) = (λ + 1) (λ − 3) ergeben sich die Eigenwerte: > Eigenw := solve(c(lambda));
Eigenw := 3, −1 In diesem einfachen Falle erh¨ alt man mittels Lagrange-Interpolation: > X := [Eigenw]: Y := map(f,X): interp(X,Y,lambda): collect(%,Y): H := unapply(%,lambda): # Hermite-Interpolationspolynom ’H[f,c](lambda)’ = H(lambda);
Hf, c (λ) =
λ + 1 f (3) + − λ + 3 f (−1) 4 4 4 4
Hieraus liest man direkt die Hermite-Grundpolynome, hier speziell Lagrange-Grundpolynome, ab: > h10 := lambda -> coeff(H(lambda),f(3)): h20 := lambda -> coeff(H(lambda),f(-1)): ’h10(lambda)’ = h10(lambda), ’h20(lambda)’ = h20(lambda);
MWS 8
h1,0 (λ) = λ + 1 , h2,0 (λ) = − λ + 3 4 4 4 4
Diese h¨ atte man alternativ auch so gewinnen k¨ onnen: > CurveFitting[PolynomialInterpolation](X,Y,lambda,form=Lagrange);
8.3
Beispiele zur Berechnung von Matrixfunktionen (MWS)
349
1 f (3) (λ + 1) − 1 f (−1) (λ − 3) 4 4
Mit Hilfe der Eigenprojektionen‘ ’ > P1 := h10(A): P2 := h20(A): ’P1’ = P1, ’P2’ = P2;
⎤ ⎤ ⎡ 1 −1 1 1 P1 = ⎣ 2 4 ⎦ , P 2 = ⎣ 2 4 ⎦ −1 1 1 1 2 2 ⎡
ergibt sich die Spektraldarstellung: > F : = f(3)*evalm(P1)+f(-1)*evalm(P2): ’f(A)’ = F;
⎤ ⎡ 1 1 1 2 4 2 ⎦ ⎣ ⎣ + f (−1) f (A) = f (3) −1 1 1 2 ⎡
⎤ −1 4 ⎦ 1 2
Die vorangehenden Schritte lassen sich wie folgt kompakter ausf¨ uhren: > ’f(A)’ =
H(A):
F¨ ur f kann man spezielle Funktionen einsetzen: > subs(f=exp,F): ’exp(A)’ = %;
⎡ ⎤ 1 1 1 −1 ⎣ 2 3 ⎣2 4⎦ +e = e −1 1 1 2 ⎡
e
⎤ −1 4 ⎦ 1 2
Die Matrixpotenzen und die Matrix-Exponentialfunktion erh¨ alt man z. B. so: > subs(f=(lambda->lambda^k),F): subs(f=(lambda->exp(x*lambda)),F): ’A^k’ = %%, ’exp(x*A)’ = %;
⎤ ⎡ 1 1 1 k⎣ 2 k k⎣2 4⎦ + (−1) A =3 −1 1 1 2 ⎡
⎤ −1 4 ⎦ , ex 1 2
⎡ ⎤ 1 1 1 −x ⎣ 2 3x ⎣ 2 4 ⎦ +e =e −1 1 1 2 ⎡
⎤ −1 4 ⎦ 1 2
Einfacher geht es nat¨ urlich mit den Maple-Kommandos MatFunc bzw. MatExp (vgl. die alias-Anweisung zu Beginn dieses Abschnitts).
MWS 8
> ’exp(A)’ = MatExp(A); # MatFunc(A,exp(lambda),lambda); ’exp(x*A)’ = MatExp(A,x); # MatFunc(A,exp(x*lambda),lambda); ’A^k’ = MatFunc(A,lambda^k,lambda); # ggf: MatrixPower(A,k);
350
8 Anhang u ¨ber Matrixfunktionen
Wir verzichten auf eine Wiedergabe des Maple-Outputs, um unn¨otige Wiederholungen zu vermeiden. Verwendet man in der vorangehenden Anweisungsgruppe die Prozeduren des linalg-Paketes, so ist zu beachten, daß das Paket LinearAlgebra zur Darstellung von Arrays eine andere Datenstruktur benutzt. Eine Weiterverwendung obiger Resultate erfordert deshalb zuvor eine Typumwandlung mittels des Maple-Befehls convert(..., Matrix) .
Mit funktionentheoretischen Hilfsmitteln erh¨ alt man — wie in Abschnitt 8.3 des Textteils angegeben — f¨ ur das Hermite-Interpolationspolynom Hf,c die Residuenformel‘ als weitere explizite Darstellung, deren Umsetzung in Maple ’ sehr elegant gelingt: > H := (f,c) -> unapply(add(residue((c(z)-c(lambda))/ (c(z)*(z-lambda))*f(z),z=zeta), zeta={Eigenw}),lambda): ’H[f,c](lambda)’ = collect(H(f,c)(lambda),f);
Hf, c (λ) =
λ + 1 f (3) + − λ + 3 f (−1) 4 4 4 4
Wendet man dies f¨ ur ein festes reelles x speziell auf die durch λ → exp(λx) gegebene Funktion f an und ordnet das Interpolationspolynom nach Potenzen von λ , so ergibt sich: > N := degree(c(lambda),lambda): f0 := lambda->exp(lambda*x): subs(f=f0,H(f,c)(lambda)): collect(%,lambda): Phi := [seq(coeff(%,lambda,nu),nu=0..N-1)];
$
Φ :=
1 e3 x + 3 e−x , 1 e3 x − 1 e−x 4 4 4 4
%
Die Koeffizienten φν (nun als Funktionen von x) bilden ein Fundamentalsystem der folgenden homogenen DGL 2. Ordnung mit den sch¨ onen‘ Anfangs’ werten 0 bzw. 1:
5
> sum(coeff(c(lambda),lambda,nu)*(D@@nu)(y)(x),nu=0..N): Dgl := convert(%,diff); AnfBed := [seq((D@@nu)(y)(0),nu=0..N-1)]; seq(odetest(y(x)=z,Dgl),z=Phi); seq(eval(AnfBed,y=unapply(z,x)),z=Phi);
Dg := −3y − 2y + y , 0, 0,
AnfBed := y(0), D(y)(0)
[1, 0], [0, 1]
Wir erhalten damit die weitere Darstellung exp (xA) = φ0 (x)
MWS 8
> E := IdentityMatrix(N): ’exp(x*A)’ = Phi[1]*E+Phi[2]*A:
+ φ1 (x)A:
8.3
Beispiele zur Berechnung von Matrixfunktionen (MWS)
Beispiel 2
351
(vgl. (B1) zu Abschnitt 5.2 bzw. (B2) zu Abschnitt . )
> A := Matrix([[0,1,0],[4,3,-4],[1,2,-1]]); N := RowDimension(A): E := IdentityMatrix(N):
⎡
⎤ 0 1 0 A := ⎣ 4 3 −4 ⎦ 1 2 −1 Wegen > CharacteristicPolynomial(A,lambda): c := unapply(%,lambda): ’chi[A]’(lambda) = factor(c(lambda));
χ (λ) = λ (λ − 1)2 hat A den einfachen Eigenwert 0 sowie den doppelten Eigenwert 1. Mittels Hermite-Interpolation erh¨ alt man folgende Grundpolynome:
5
> Eigenw := 0,1,1: X := [Eigenw]: Y := [f(0),f(1),D(f)(1)]: HInterp(X,Y,lambda): collect(%,Y): H := unapply(%,lambda): ’H[f,c](lambda)’ = H(lambda); coeff(H(lambda),f(0)): expand(%): h10 := unapply(%,lambda): coeff(H(lambda),f(1)): expand(%): h20 := unapply(%,lambda): coeff(H(lambda),D(f)(1)): expand(%): h21 := unapply(%,lambda): ’h10(lambda)’ = h10(lambda), ’h20(lambda)’ = h20(lambda), ’h21(lambda)’ = h21(lambda);
Hf, c (λ) = (1 + λ (−2 + λ)) f (0) + λ (2 − λ) f (1) + λ (λ − 1) D(f )(1) h1,0 (λ) = λ2 − 2 λ + 1, h2,0 (λ) = 2 λ − λ2 , h2,1 (λ) = λ2 − λ In diese Polynome setzen wir nun die Matrix A ein. Dazu m¨ ussen sie in ausmultiplizierter Form vorliegen, was oben durch den Befehl expand erzielt wurde. Es gilt dann > P1 := P2 := C21 := ’P1’ =
h10(A): # P1 = C10 h20(A): # P2 = C20 h21(A): # (A-E)*P2 = C21 P1, ’P2’ = P2, ’(A-E)*P2’ = (A-E) . P2;
⎡ ⎤ ⎤ −4 −1 4 5 1 −4 P1 = ⎣ 0 0 0 ⎦ , P2 = ⎣ 0 1 0 ⎦ , (A − −5 −1 5 5 1 −4 ⎡
⎡
⎤ 4 2 −4 ) P2 = ⎣ 4 2 −4 ⎦ 6 3 −6
und damit > F := f(0)*evalm(P1)+f(1)*evalm(P2)+D(f)(1)*evalm(C21): ’f(A)’ = F;
MWS 8
⎤ ⎡ ⎤ ⎡ ⎤ 5 1 −4 −4 −1 4 4 2 −4 f (A) = f (0) ⎣ 0 0 0 ⎦ + f (1) ⎣ 0 1 0 ⎦ + D(f )(1) ⎣ 4 2 −4 ⎦ 5 1 −4 −5 −1 5 6 3 −6 ⎡
352
8 Anhang u ¨ber Matrixfunktionen
Wie in Beispiel 1 erhalten wir folgende Matrix-Exponentialfunktion: > subs(f=(lambda->exp(x*lambda)),F): ’exp(x*A)’ = %;
⎤ ⎤ ⎡ ⎡ ⎤ −4 −1 4 4 2 −4 5 1 −4 = ⎣ 0 0 0 ⎦ + ex ⎣ 0 1 0 ⎦ + xex ⎣ 4 2 −4 ⎦ −5 −1 5 6 3 −6 5 1 −4 ⎡
ex
Wir berechnen jetzt wieder alternativ das Interpolationspolynom mit Hilfe der Residuenformel: > H := (f,c) -> unapply(add(residue((c(z)-c(lambda))/ (c(z)*(z-lambda))*f(z),z=zeta),zeta={Eigenw}),lambda): ’H[f,c](lambda)’ = collect(H(f,c)(lambda),f);
Hf, c (λ) = (λ2 − 2 λ + 1) f (0) + (2 λ − λ2 ) f (1) + (λ2 − λ) D(f )(1) Wendet man dies wieder f¨ ur ein festes reelles x auf die durch λ → exp(λx) gegebene Funktion f an und ordnet das Interpolationspolynom nach Potenzen von λ , so ergibt sich: > f0 := lambda->exp(lambda*x): subs(f=f0,H(f,c)(lambda)): collect(%,lambda): Phi := [seq(collect(coeff(%,lambda,nu),exp(x)),nu=0..N-1)];
Φ := [1, −2 + (2 − x)ex , 1 + (x − 1)ex ] Die Koeffizienten φν (nun als Funktionen von x) bilden ein Fundamentalsystem folgender homogenen DGL 3. Ordnung mit den sch¨onen‘ Anfangswerten ’ 0 bzw. 1:
5
> sum(coeff(c(lambda),lambda,nu)*(D@@nu)(y)(x),nu=0..N): Dgl := convert(%,diff); AnfBed := [seq((D@@nu)(y)(0),nu=0..N-1)]; seq(odetest(y(x)=z,Dgl),z=Phi); seq(eval(AnfBed,y=unapply(z,x)),z=Phi);
Dg := y − 2y + y , 0, 0, 0,
Anf Bed := [y(0), D(y)(0), (D(2) )(y)(0)] [1, 0, 0] , [0, 1, 0] , [0, 0, 1]
Wir erhalten so die Darstellung exp (xA) = φ0 (x)
+ φ1 (x)A + φ2 (x)A2 :
MWS 8
> sum(Phi[nu+1]*lambda^nu,nu=0..N-1): p := unapply(%,lambda): ’exp(x*A)’ = map(expand,p(A)):
Beispiel 3 > A := Matrix([[-1,0,-2],[0,0,0],[1,0,2]]); E := IdentityMatrix(RowDimension(A)):
8.3
Beispiele zur Berechnung von Matrixfunktionen (MWS)
353
⎡
⎤ −1 0 −2 A := ⎣ 0 0 0 ⎦ 1 0 2 Es ist > c := CharacteristicPolynomial(A,lambda): ’chi[A]’(lambda) = factor(c);
χ (λ) = λ2 (λ − 1) , mithin also > Eigenw := solve(c);
Eigenw := 1, 0, 0 Analog zu Beispiel 2 erhalten wir folgendes Interpolationspolynom > X := sort([Eigenw]): Y := [f(0),D(f)(0),f(1)]: HInterp(X,Y,lambda): collect(%,Y): H := unapply(%,lambda): ’H[f,c](lambda)’ = H(lambda);
Hf, c (λ) = (1 − λ2 )f (0) + λ (1 − λ)D(f )(0) + λ2 f (1) und hieraus (in ausmultiplizierter Form) die Hermite-Grundpolynome:
5
> coeff(H(lambda),f(0)): expand(%): h10 := unapply(%,lambda): coeff(H(lambda),D(f)(0)): expand(%): h11 := unapply(%,lambda): coeff(H(lambda),f(1)): expand(%): h20 := unapply(%,lambda): ’h10(lambda)’ = h10(lambda), ’h11(lambda)’ = h11(lambda), ’h20(lambda)’ = h20(lambda);
h1,0 (λ) = 1 − λ2 , h1,1 (λ) = λ − λ2 , h2,0 (λ) = λ2 Dies ergibt: > P1 := C11 := P2 := ’P1’ =
h10(A): # P1 = h11(A): # A*P1 h20(A): # P2 = P1, ’A*P1’ = A
C10 = C11 C20 . P1, ’P2’ = P2;
⎡ ⎤ ⎡ ⎤ ⎤ 2 0 2 −1 0 −2 0 0 0 P1 = ⎣ 0 1 0 ⎦ , AP1 = ⎣ 0 0 0 ⎦ , P2 = ⎣ 0 0 0 ⎦ −1 0 −1 1 0 2 0 0 0 ⎡
In der Spektraldarstellung > F := f(0)*evalm(P1)+D(f)(0)*evalm(C11)+f(1)*evalm(P2): ’f(A)’ = F;
MWS 8
⎤ ⎡ ⎤ ⎡ ⎤ 2 0 2 0 0 0 −1 0 −2 f (A) = f (0) ⎣ 0 1 0 ⎦ + D(f )(0) ⎣ 0 0 0 ⎦ + f (1) ⎣ 0 0 0 ⎦ −1 0 −1 0 0 0 1 0 2 ⎡
354
8 Anhang u ¨ber Matrixfunktionen
wird also D(f )(0) nicht ben¨ otigt. Die vorliegende Matrix A ist diagonalisierbar und hat folgendes Minimalpolynom: > MinimalPolynomial(A,lambda): ’mu[A]’(lambda) = factor(%);
µ (λ) = λ (λ − 1) Wegen A2 = A ist A eine Wurzel von A. Die Rechnung mit der an der Stelle λ = 0 nicht differenzierbaren uadratwurzelfunktion liefert: > F := evalm(F): ’sqrt(A)’ = eval(F,f=sqrt);
⎡ ⎤ −1 0 −2 √ A = ⎣ 0 0 0⎦ 1 0 2
uhrt auf eine Fehlermeldung: Direkte Anwendung von MatFunc hingegen f¨ > ’sqrt(A)’ = MatFunc(A,sqrt(lambda),lambda); Error, (in LinearAlgebra:-LA_Main:-Matrixfunction) Matrix function is not defined for this Matrix
√ MatFunc arbeitet bei der Berechnung von A mit dem charakteristischen Polynom und nicht mit dem Minimalpolynom. Somit tritt der Term D(f )(0) explizit auf. Dieser wird ausgewertet, bevor er mit der Nullmatrix multipliziert wird. Die so zwangsl¨ aufig auftretende aßt sich vermei√ Fehlermeldung l¨ den, wenn man z. B. zun¨ achst symbolisch A + x berechnet und anschließend f¨ ur x = 0 auswertet: > MatFunc(A,sqrt(lambda+x),lambda): ’sqrt(A+x*E)’ = %; ’sqrt(A)’ = subs(x=0,%%);
√ A+x
⎡ √ √ √ ⎤ √ − 1 + x + 2 x 0 −2 1 + x + 2 x √ ⎥ ⎢ x 0 0 = ⎣ ⎦ √ √ √ √ 0 − x+2 1+x 1+x− x ⎤ ⎡ −1 0 −2 √ ⎥ ⎢ A = ⎣ 0 0 0⎦ 1 0 2
MWS 8
Beispiel 4 > A := Matrix([[1,-1,1,-1],[-3,3,-5,4],[8,-4,3,-4],[15,-10,11,-11]]); E := IdentityMatrix(RowDimension(A)):
8.3
Beispiele zur Berechnung von Matrixfunktionen (MWS)
355
⎡
⎤ 1 −1 1 −1 ⎢ −3 3 −5 4⎥ ⎥ A := ⎢ ⎣ 8 −4 3 −4 ⎦ 15 −10 11 −11 Hierf¨ ur beobachten wir: > ’A+E’ = A+E, ’(A+E)^2’ = (A+E)^2, ’(A+E)^3’ = (A+E)^3;
⎡
A+
⎤ 2 −1 1 −1 ⎢ −3 4 −5 4⎥ ⎥ =⎢ ⎣ 8 −4 4 −4 ⎦, (A + 15 −10 11 −10
⎡
⎤ 0 0 0 0 ⎢ 2 −1 1 −1 ⎥ ⎥ )2 = ⎢ ⎣ 0 0 0 0 ⎦, (A + −2 1 −1 1
)3 = 0
> MinimalPolynomial(A,lambda): ’mu[A]’(lambda) = factor(%);
µ (λ) = (λ + 1)3 An Stelle des charakteristischen Polynoms k¨ onnen wir deshalb das Minimalpolynom benutzen. Offensichtlich gilt: > h10 := 1; h11 := lambda -> lambda+1; h12 := lambda -> (lambda+1)^2/2;
h1,0 := 1 ,
h1,1 := λ → λ + 1 ,
h1,2 := λ → 1 (λ + 1)2 2
Die Spektraldarstellung lautet damit: > ’f(A)’ = f(-1)*’E’+D(f)(-1)*’(A+E)’+(D@@2)(f)(-1)/2*’(A+E)^2’;
f (A) = f (−1)
+ D(f )(−1)(A +
Beispiel 5
) + 1 (D(2) )(f )(−1)(A + 2
)2
(vgl. Beispiel 2 im MWS zu Kapitel 5)
Im Hinblick auf den Kontext mit Differentialgleichungssystemen bringen wir ein Beispiel mit (konjugiert) komplexen Eigenwerten: > A := Matrix([[4,5,8],[-1,-5,-7],[-2,1,0]]); c := CharacteristicPolynomial(A,lambda): ’chi[A]’(lambda) = factor(c,I);
⎡
⎤ 4 5 8 A := ⎣ −1 −5 −7 ⎦ , −2 1 0
χ (λ) = −(−λ − 1 + 3 ) (λ + 1 + 3 ) (λ − 1)
Eigenw := 1, −1 + 3 , −1 − 3
MWS 8
> Eigenw := [solve(c)];
356
8 Anhang u ¨ber Matrixfunktionen
In diesem Falle erh¨ alt man mittels Lagrange-Interpolation: > Y := map(f,Eigenw): interp(Eigenw,Y,lambda): collect(%,Y): evalc(%): H := unapply(%,lambda): ’H[f,c](lambda)’ = H(lambda);
2 7 3 1 λ 3 λ 2 λ+ λ − + − Hf, c (λ) = f (−1 + 3 ) − + 78 26 39 13 26 26 2 7 3 1 λ 3 λ 2 λ− + − λ + − + f (−1 − 3 ) − + 78 26 39 13 26 26 10 2 1 2 f (1) λ+ λ + + 13 13 13
Hieraus liest man direkt die Lagrange-Grundpolynome ab:
5
> coeff(H(lambda),f(1)): evalc(%): h10 := unapply(%,lambda): coeff(H(lambda),f(-1+3*I)): evalc(%): h20 := unapply(%,lambda): coeff(H(lambda),f(-1-3*I)): evalc(%): h30 := unapply(%,lambda): ’h10(lambda)’ = h10(lambda), ’h20(lambda)’ = h20(lambda), ’h30(lambda)’ = conjugate(’h20(conjugate(lambda))’);
h1,0 (λ) = 1 λ2 + 2 λ + 10 , 13 13 13 2 λ 3 λ , h3,0 (λ) = h2,0 (λ) + 1 λ2 − 3 λ + 7 − h2,0 (λ) = − + 78 26 39 13 26 26
Mit Hilfe der Eigenprojektionen‘ ’ > P1 := h10(A): P2 := h20(A): P3 := h30(A): ’P1’ = P1, ’P2’ = P2, ’P3’ = conjugate(’P2’);
−1 − 1 −1 − ⎤ −1 2 2 2 2 1 1 1 ⎥ ⎢ ⎥ ⎢ −1 1 −1 ⎦ ⎣ 1 1 1 , P2 = ⎢ P1 = + 3 ⎥ , P3 = P2 + 2 ⎦ 2 2 2 ⎣ −1 −1 −1 1−1 1 1− 1 2 2 2 2 ⎡
⎤
⎡
ergibt sich wegen P3 = P2 die Spektraldarstellung: > ’f(A)’ = f(1)*’P1’+f(-1+3*I)*’P2’+f(-1-3*I)*conjugate(’P2’);
f (A) = f (1) P1 + f (−1 + 3 ) P2 + f (−1 − 3 ) P2
MWS 8
ur λ ∈ C vereinfacht sich diese zu Im Falle f (λ) = f (λ) f¨ > F := f(1)*evalm(P1)+Re(f(-1+3*I))*evalm(map(Re,2*P2)) -Im(f(-1+3*I))*evalm(map(Im,2*P2)): ’f(A)’ = F;
8.3
Beispiele zur Berechnung von Matrixfunktionen (MWS)
357
⎡
⎤ ⎡ ⎤ 1 1 1 0 −1 −1 f (A) = f (1) ⎣ 1 1 1 ⎦ + Ref (−1 + 3 ) ⎣ −1 0 −1 ⎦ −1 −1 −1 1 1 2 ⎡ ⎤ −1 −1 −2 − Imf (−1 + 3 ) ⎣ 1 2 3 ⎦ 0 −1 −1 F¨ ur die Matrix-Exponentialfunktion ergibt sich hieraus: > assume(x::real): subs(f=(lambda -> exp(x*lambda)),F): ’exp(x*A)’ = map(evalc,%);
⎡
ex
⎡ ⎤ ⎤ 1 1 1 0 −1 −1 = ex ⎣ 1 1 1 ⎦ + e−x cos(3 x) ⎣ −1 0 −1 ⎦ −1 −1 −1 1 1 2 ⎡ ⎤ −1 −1 −2 − e−x sin(3x) ⎣ 1 2 3 ⎦ 0 −1 −1
Im Normalfall verzichtet man nat¨ urlich auf die Einzelschritte und berechnet die Matrix-Exponentialfunktion mit MatExp: > ’exp(x*A)’ = MatExp(A,x):
Beispiel 6 Zum Schluß sei noch folgende Klasse reeller Matrizen betrachtet: > assume(alpha::real,beta::real): A := Matrix([[alpha,-beta],[beta,alpha]]); c := CharacteristicPolynomial(A,lambda): ’chi[A]’(lambda) = factor(c,I);
A :=
α −β β α
,
χ (λ) = (α − β − λ) (α + β − λ)
> Eigenw := solve(c,lambda);
Eigenw := α + β , α − β Im Falle β = 0 erh¨ alt man mittels Lagrange-Interpolation: > X := [Eigenw]: Y := map(f,X): interp(X,Y,lambda): collect(%,Y): evalc(%): H := unapply(%,lambda): ’H[f,c](lambda)’ = H(lambda);
Hieraus liest man direkt die Lagrange-Grundpolynome ab:
MWS 8
+ f (α − β ) 1 + λ − α Hf, c (λ) = f (α + β ) 1 + − λ + α 2β 2β 2 2β 2β 2
358
8 Anhang u ¨ber Matrixfunktionen
> coeff(H(lambda),f(X[1])): evalc(%): h10 := unapply(%,lambda): coeff(H(lambda),f(X[2])): evalc(%): h20 := unapply(%,lambda): ’h10(lambda)’ = h10(lambda), ’h20(lambda)’ = h20(lambda);
h1,0 (λ) =
1 2
+ − 2λβ +
α 2β
, h2,0 (λ) =
1 2
+
−
λ 2β
α 2β
Mit Hilfe der Eigenprojektionen‘ ’ > P1 := map(simplify,h10(A)): P2 := map(simplify,h20(A)): ’P1’ = P1, ’P2’ = P2;
:
P1 =
1 2 −1 2
;
1 2 1 2
:
, P2 =
1 2 1 2
−1 2 1 2
;
ergibt sich — wie im vorangehenden Beispiel — die Spektraldarstellung: > F := Re(f(X[1]))*map(Re,2*P1)-Im(f(X[1]))*map(Im,2*P1): ’f(A)’ = F;
f (A) =
Ref (α + β ) −Imf (α + β ) Imf (α + β ) Ref (α + β )
F¨ ur den Hauptwert des Logarithmus ergibt sich hieraus: > subs(f=(lambda -> log(lambda)),F): L := map(evalc,%): ’log(A)’ = L;
log(A) =
log( α2 + β 2 ) −arg(α +β ) arg(α + β ) log( α2 + β 2 )
Wir machen die Probe: > MatExp(L): ’exp(log(A))’ = map(simplify,%);
elog(
)
=
α −β β α
Zum Vergleich kann log(A) mit Hilfe von MatFunc berechnet werden: > L := MatFunc(A,log(lambda),lambda);
Aus Platzgr¨ unden verzichten wir auf eine Wiedergabe hier im Buch. Ber¨ ucksichtigt man, daß arctan(y, x) = argument (x + y) bei Maple der Hauptwert des Argumentes von x + y ist, so gilt f¨ ur y = 0 die Beziehung arctan(−y, x) = − arctan(y, x) . Wegen > ’log(A)’ = map(z->subs(arctan(-beta,alpha)=-arctan(beta,alpha),z),L);
MWS 8
:1
log(A) =
2
log(α2 + β 2 ) −arctan(β, α)
arctan(β, α)
1 2
;
log(α2 + β 2 )
stimmt die so erhaltene Darstellung von log(A) mit obigem Resultat u ¨berein.
9 Anhang zu Maple 9.1 Ein erster Einstieg in Maple Maple ist eines der ausgereiftesten Computeralgebra-Systeme und ein in vielfacher Hinsicht m¨ achtiges Werkzeug f¨ ur Mathematik, Natur–, Ingenieur– sowie Wirtschaftswissenschaften. Seine St¨ arken liegen u. a. in der F¨ ahigkeit, symbolisch rechnen zu k¨ onnen. Man kann nat¨ urlich mit Maple auch ganz normale numerische Berechnungen durchf¨ uhren und dabei noch die Anzahl der zu ber¨ ucksichtigenden Stellen w¨ ahlen. Aber im Gegensatz zum numerischen Rechnen, wo die Resultate meist durch Rundungsfehler verf¨ alscht werden, hat man beim symbolischen Rechnen keinerlei Informationsverlust. Zudem wird dem Benutzer viel l¨ astige und fehleranf¨allige Rechenarbeit abgenommen. Eine wesentliche St¨ arke von Maple ist die Visualisierungsm¨ oglichkeit von Funktionen und anderer geometrischer Objekte. Besonders eindrucksvoll kann man durch Animationen den dynamischen Charakter vieler Sachverhalte herausarbeiten. Dies macht Maple interessant als Motivationsvehikel f¨ ur den Einsatz in der Lehre, wenn es darum geht, abstrakte Sachverhalte im wahrsten Sinne geometrisch begreifbar zu machen. Maple ist im Prinzip eine gew¨ ohnliche Programmiersprache, die allerdings meist interaktiv eingesetzt wird. Der Wortschatz dieser Sprache ist zudem sehr umfangreich und orientiert sich an mathematischen Inhalten. Ihr Erlernen erfolgt idealerweise — auf angemessenem Niveau — schon in der Schule oder aber in den Grundvorlesungen Analysis und Lineare Algebra, indem man parallel zu deren Fortschreiten immer wieder neue Vokabeln einf¨ uhrt und deren Handhabung am aktuellen Stoff ein¨ ubt. Auf diese Weise steigt der Schwierigkeitsgrad unmerklich an. Unser Buch wendet sich keineswegs nur an Leser, die bereits u ¨ber MapleGrundkenntnisse verf¨ ugen. Jedoch ist eine gewisse Bereitschaft, sich auf das Wechselspiel zwischen dem theoretischen und dem MWS-Teil der jeweiligen Kapitel einzulassen, sehr f¨ orderlich. Dabei kann man auf vielf¨ altige Weise weitere Hilfestellung erhalten. Als Maple-B¨ ucher empfehlen wir besonders [Heck], ferner den Maple 9 Learning Guide [LeG] und die Maple 9 Introductory and Advanced Programming Guides [PrG1, PrG2], welche auch f¨ ur Maple 9.5 gelten, sowie [Walz] und das Standardwerk [Kof]. Die Hilfe-Funktion Das Arbeiten mit Maple wird durch die Hilfe-Funktion gut unterst¨ utzt. Dazu uleiste an. Will man sich erst einmal einen klickt man etwa Help in der Men¨
360
9 Anhang zu Maple
¨ groben Uberblick verschaffen u ¨ber das, was Maple alles bietet, empfiehlt sich die New User’s Tour . Erste (interaktive) Schritte mit Maple kann man z. B. mit Hilfe eines der oben genannten B¨ ucher machen. Wir weisen zudem noch auf die im Literaturverzeichnis erg¨ anzend aufgef¨ uhrten B¨ ucher zu Maple hin. Kurzinformationen u ur ¨ber die Syntax von Maple-Befehlen erh¨alt man (etwa f¨ plot) leicht auf folgende Weise: > ?plot
F¨ ur das praktische Arbeiten ist es oft sehr hilfreich, die Beispiele der HilfeSeite ins Worksheet zu kopieren und sie auszuf¨ uhren bzw. auf die eigenen Bed¨ urfnisse anzupassen. Eine weitere Hilfem¨oglichkeit bietet der HelpBrowser. Klickt man auf Help, so ¨ offnet sich ein Men¨ u mit den wichtigen Men¨ upunkten Topic Search und Full Text Search . Bei der Eingabe von
topic wirkt Topic Search wie ?topic . Mit Hilfe von Full Text Search kann man nach Stichw¨ ortern in den Hilfe-Seiten suchen.
Elementare Rechnungen Dieser Abschnitt will und kann keine Maple-Einf¨ uhrung ersetzen. Wir empfehlen deshalb, zus¨ atzlich insbesondere folgende Teile der New User’s Tour anzuschauen: 1. Algebraic Computations 2. Graphics 3. Calculus 4. Linear Algebra Annahmen u ¨ber Variable > restart: sqrt(a^2); # Quadratwurzel
√ a2
Ohne weitere Annahmen u ¨ber a kann Maple offensichtlich diesen Ausdruck nicht vereinfachen. > assume(a,real): simplify(sqrt(a^2));
|a˜| Mit dem Befehl assume machen wir Annahmen u ¨ber a. Normalerweise h¨ angt Maple dann eine Tilde an den Variablennamen an. Mit additionally
kann man weitere Annahmen hinzuf¨ ugen und mit about kann man erfahren, welche Annahmen u ¨ber eine Unbekannte gemacht worden sind.
9.1
Ein erster Einstieg in Maple
361
> assume(a>0): about(a); sqrt(a^2); Originally a, renamed a~: is assumed to be: RealRange(Open(0),infinity)
a˜ > assume(a,real): sqrt(a^2); simplify(%,symbolic);
a˜2 ,
a˜
Vorsicht: Die Option symbolic bewirkt offenbar Vereinfachungen, bei denen a als nicht-negativ betrachtet wird. Eigentlich m¨ ußte sich ja |a| ergeben.
Einige wichtige reelle Zahlen Maple kennt sowohl Pi als auch pi :
π,
> Pi; pi;
π
Es kennt aber nur f¨ ur Pi einen Zahlenwert: > evalf(Pi,40); evalf(pi,40); #evaluate using floating point arithmetic
3.141592653589793238462643383279502884197 ,
π
Die Euler-Zahl e: > evalf(exp(1),40); evalf(e,40);
2.718281828459045235360287471352662497757 ,
e
Nach der folgenden Anweisung kennt Maple auch die u ¨bliche Schreibweise: > alias(e=exp(1)): evalf(e,40);
2.718281828459045235360287471352662497757
eval, evalb, evalc
eval und subs liefern (fast) immer dasselbe Resultat: > restart: eval(z^2+1,z=2), subs(z=2,z^2+1);
5, 5 > eval(sin(z)/cos(z),z=0), subs(z=0,sin(z)/cos(z));
0,
sin(0) cos(0)
362
9 Anhang zu Maple
Vollst¨andige Auswertung: > restart: a := b: b := c: c := d: eval(a);
d Auswertungen unterschiedlicher Tiefe: > eval(a,1), eval(a,2), eval(a,3), eval(a,4);
b, c, d, d Auswertung logischer Ausdr¨ ucke: > expr := x*(x-1) = x^2-x; expand(expr);
expr := x (x − 1) = x2 − x ,
x2 − x = x 2 − x
Der Variablen expr wird also der logische Ausdruck x (x − 1) = x2 − x als Wert zugewiesen. > evalb(expr), evalb(expand(expr));
false , true
evalb liefert offensichtlich unterschiedliche Ergebnisse, da es Ausdr¨ ucke nicht von sich aus vereinfacht. Vergleichen wir dies mit is :
true
> is(expr);
Und noch ein Vergleich von evalb und is: > evalb(Pi>3), evalb(evalf(Pi)>3), is(Pi>3);
3 < π , true , true Wir wenden deshalb bevorzugt den Maple-Befehl is an. Auswertung von Ausdr¨ ucken mit komplexen Zahlen: > abs(x+I*y), evalc(abs(x+I*y)); subs(z=x+I*y,exp(z)): % = evalc(%);
|x + I y| ,
x2 + y 2 ,
ex+I y = ex cos(y) + I ex sin(y)
evalc interpretiert offensichtlich ungebundene Variable als reelle Gr¨ oßen.
9.1
Ein erster Einstieg in Maple
363
Anf¨ uhrungszeichen Maple kennt drei verschiedene Arten von Anf¨ uhrungszeichen: linksgerichtete (bei Windows auch gerade“ genannt) oder Apostroph,1 rechtsgerichtete ” uhrungszeichen. (Gravis, accent grave)2 und Doppelanf¨ Linksgerichtete Anf¨ uhrungszeichen > restart: x := 2: y := ’x’; y;
y := x ,
2
Linksgerichtete Anf¨ uhrungszeichen — eigentlich , im Ausdruck meist ’ — bewirken eine verz¨ ogerte Auswertung: Durch die Wertzuweisung y := x erh¨ alt y zun¨ achst den Namen von x zugewiesen, erst im n¨ achsten Schritt den tats¨ achlichen Wert von x. Man kann dies dazu nutzen, die Variable x wieder zu einer ungebundenen Variablen zu machen, aber auch um die Lesbarkeit von Ausgaben zu erh¨ ohen: > x := ’x’; x;
x := x ,
x
> ’sin’(0) = sin(0);
sin(0) = 0
Verz¨ ogerte Auswertung einer Variablen ist z. B. dann notwendig, wenn sie als Ausgabeparameter in einer Prozedur verwendet wird. Beim Programmaufruf muß der Name des Parameters (und nicht, wie sonst u ¨blich, sein aktueller Wert) u ¨bergeben werden (call by name an Stelle von call by value): > a := 25: b := 7: r := 1: q := iquo(a,b,’r’); r; b*q+r;
q := 3 ,
4,
25
Die Variable r liefert den Rest bei ganzzahliger Division. Da ihr vor Aufruf von iquo bereits ein Wert zugewiesen wurde, muß man r schreiben und erh¨alt den Ausgabewert r = 4.
, im Ausdruck Rechtsgerichtete Anf¨ uhrungszeichen — eigentlich meist ‘ — dienen zur Kennzeichnung von Symbolen, also von Bezeichnern f¨ ur Variable. Ihre Verwendung ist dann notwendig, wenn ein Variablenname unzul¨assige Zeichen enth¨ alt, z. B. die Variable r : 1 2
Den Apostroph findet man auf einer deutschen Tastatur auf derselben Taste wie #. Auf manchen Tastaturen liefert der Akut (accent aigu) das gleiche Ergebnis. Auf einer deutschen Tastatur erh¨ alt man dieses Zeichen, indem man mit der Umschalttaste (Shift) die Taste rechts neben dem ß“ dr¨ uckt. ”
364
9 Anhang zu Maple
> restart: ‘r’‘, type(‘r’‘,symbol); ‘r’‘ := "r’"; type(%,string); r := ’‘r’‘’; r;
r , true ,
r := “r ” ,
true ,
r := r ,
“r ”
Wir haben hier zugleich die Doppelanf¨ uhrungszeichen ins Spiel gebracht, mit denen Strings gekennzeichnet werden. Man ahnt, daß man durch solch vir¨ tuosen Einsatz von Anf¨ uhrungszeichen jeden Uberblick verhindern kann. Abk¨ urzungen mit macro und alias
urzung von Funktions- und Der macro -Befehl dient bei der Eingabe zur Abk¨ Kommandonamen sowie zur Definition von Konstanten. Mit Hilfe von alias kann man Ausdr¨ ucke bei der Ein- und Ausgabe vereinfachen. > restart: macro(J=BesselJ): Diff(J(0,x),x): % = value(%);
d BesselJ(0, x) = −BesselJ(1, x) dx > restart: alias(J=BesselJ): Diff(J(0,x),x): % = value(%);
d J(0, x) = −J(1, x) dx > restart: macro(s=1.2345): s;
1.2345 >
s := 3;
Error, invalid left hand side of assignment
Durch den macro-Befehl ist s eine gesch¨ utzte Variable geworden. Machen √ wir nun ganz naiv‘ den Versuch, s mit dem Wert 2 zu definieren: ’ > restart: macro(s=sqrt(2)): s, s^2;
√
> s := 3; s;
√
2, 2
2 := 3 ,
3
Wir erhalten ein erstaunliches‘ Resultat! So ist es offenbar richtig: ’ > restart: macro(s=eval(sqrt(2))): s, s^2;
√
2, 2
> s := 3; Error, invalid left hand side in assignment
9.1
Ein erster Einstieg in Maple
365
Schleifen, bedingte Anweisungen, Prozeduren Hier eine Schleife mit Inkrement 2, welche alle ungeraden Zahlen kleiner 20 aufaddiert: > restart: s := 0: for k from 1 to 20 by 2 do s := s+k end do: s;
100
Die Verwendung von bedingten Anweisungen demonstrieren wir im Zusammenhang mit der Definition der Prozedur Fib, welche die durch f0 = 0, f1 = 1, fn = fn−1 + fn−2 rekursiv definierte Folge von Fibonacci-Zahlen liefert:
5
> Fib := proc(n) if n=0 then 0 elif n=1 then 1 else Fib(n-1)+Fib(n-2) end if end proc: seq(Fib(n),n=0..10);
0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55 Auf Feinheiten, z. B. sich durch die Verwendung von option remember alte Zwischenergebnisse in einer Erinnerungstabelle zu merken und dadurch Rechenzeit zu sparen, haben wir hier bewußt verzichtet.
Das Arbeiten mit den Worksheets zu diesem Buch Beim ersten Durcharbeiten kann man die Worksheets einfach fast wie einen ’ Film‘ ablaufen lassen. Gr¨ oßeren Gewinn hat man nat¨ urlich durch aktives Mittun. Im Normalfall empfiehlt es sich, die Worksheets Schritt f¨ ur Schritt auszuf¨ uhren und — eventuell mit Unterst¨ utzung der Hilfe-Funktion — nachzuvollziehen. Schwierigkeiten bereiten eventuell Prozeduren. Hier ist es h¨ aufig zweckm¨ aßig, gezielt Print-Anweisungen einzubauen, um anhand der Zwischenresultate zu verfolgen, was im einzelnen darin abl¨ auft. Bei dem bisweilen sehr umfangreichen Maple-Code zur Erstellung von Graphiken raten wir da¨ zu, durch Auskommentieren, Andern der Strichst¨ arken und Farben Teile zu lokalisieren.
366
9 Anhang zu Maple
Stolperfallen und wie man sie meidet • restart nicht vergessen; denn Variablen, die irgendwann vorher mit Werten belegt worden sind, k¨ onnen zu falschen Ergebnissen f¨ uhren.
• z. B. den Multiplikationsoperator * vergessen
• Vergleichsoperator = und Wertzuweisungszeichen := verwechseln
• zu viele, zu wenige oder falsche Klammern • falsche Anf¨ uhrungszeichen (z. B.
und
verwechseln)
• bei Bereichen: eventuell ... statt ..
• pi und Pi verwechseln
•
nicht als Laufvariable benutzen, falls durch interface(imaginaryunit=i) als imagin¨are Einheit vereinbart ist.
• Eventuelle Probleme durch Verwendung der dito-Operatoren % , %% bzw. %%% , wenn die Anweisungen eines Worksheets nicht der Reihe nach ausgef¨ uhrt werden. Diese Probleme lassen sich vermeiden, wenn man derartige R¨ uckverweise nur innerhalb einer Anweisungsgruppe verwendet und andernfalls Wertzuweisungen an Hilfsvariable vornimmt, auf die man sich dann bezieht.
9.2 Der Befehl interface Mit dem Befehl interface kann man eine Reihe von Voreinstellungen, welche die Kommunikation zwischen Maple und der Benutzeroberfl¨ache regeln, den eigenen Bed¨ urfnissen anpassen. Durch restart werden alle vorgenomme¨ nen Anderungen zur¨ uckgesetzt. Von den zahlreichen Optionen dieses Befehls interessieren uns hier nur die folgenden vier:
are Einheit. Wie folgt kann man Standardm¨ aßig ist I bei Maple die imagin¨ diese (mittels der erst ab Maple 6 verf¨ ugbaren Option imaginaryunit ) etwa zu J ab¨ andern: > restart: I^2; interface(imaginaryunit=J): I^2; J^2;
−1 ,
I2 ,
−1
Variablen, u ¨ber die mittels assume eine Annahme gemacht worden ist, werden in der Regel durch Anh¨angen einer Tilde gekennzeichnet:
9.2
Der Befehl interface
367
x˜ + 1
> assume(x>0): x+1;
Dies kann man auf folgende Weise unterbinden: > interface(showassumed=0): assume(x>0): x+1;
x+1
Will man den Maple-Code einer Bibliotheksroutine, etwa von nextprime, ansehen, ergibt der erste Versuch: > print(‘nextprime‘);
proc(n) ... end proc
Der eigentlich interessierende Rumpf der Prozedur wird also nicht angezeigt. Dies erreicht man wie folgt: > interface(verboseproc=2): print(‘nextprime‘);
proc(n) local , t1 ; option ‘Copyright (c) 1990 by the University of Waterloo. All rights reserved.‘ ; if type(n, integer ) then if n < 2 then 2 else if irem(n, 2) = 0 then t1 := n + 1 else t1 := n + 2 end if ; for from t1 by 2 while not isprime( ) do end do; end if elif type(n, numeric) then error “argument must be integer” else ’nextprime(n)’ end if end proc Beim Laden zahlreicher Programm-Pakete meldet Maple Warnungen, die f¨ ur den Anf¨anger meist unverst¨ andlich und dem Kenner l¨astig sind: > with(linalg): Warning, the protected names norm and trace have been redefined and unprotected
Derartige Meldungen lassen sich folgendermaßen unterbinden: > interface(warnlevel=0): with(linalg):
368
9 Anhang zu Maple
9.3 Die Initialisierungsdatei H¨ aufig benutzte Maple-Befehle und Voreinstellungen kann man in die Initialisierungsdatei von Maple auslagern. Unter Windows heißt diese maple.ini und ist etwa in einem Verzeichnis mit Namen C:\Programme\Maple9.5\Users gespeichert; unter Unix/Linux befindet sie sich im Home-Verzeichnis und wird mit .mapleinit (mit einem Punkt am Anfang) bezeichnet. Beim Start von Maple (und nach jedem Restart) werden die Anweisungen dieser ASCIITextdatei ausgef¨ uhrt. Bei der Erstellung dieses Buches wollten wir mittels interface(warnlevel=0): interface(showassumed=0):
l¨astige Warnungen von Maple beim Laden gewisser Pakete unterbinden, da diese im Buchtext st¨orend wirken, sowie die Maple-Eigenheit unterdr¨ ucken, Variablen, u ¨ber die mittels assume Annahmen gemacht werden, eine Tilde anzuh¨angen und dadurch den Maple-Output schwerer lesbar zu machen. Entsprechend den Empfehlungen auf Seite 11 bez¨ uglich der Maple-Anweisung PDEtools[declare] sowie in MWS 7, Seite 306 bez¨ uglich der Prozedur
RandBed2Matrix hat die von uns verwendete Initialisierungsdatei folgendes Aussehen:
5
10
interface(warnlevel=0): # Unterdr¨ uckt Warnings interface(showassumed=0): # Unterdr¨ uckt Tilde nach assume PDEtools[declare](prime=x,(y,u,v,z,eta)(x),quiet): # vgl. S. 11 RandBed2Matrix := proc(RandBed,vars) # vgl. MWS 7, S.306 local n,A,B,c,d,u,v; n := nops(RandBed); subs({(vars[1][j]=u[j])$j=1..n,(vars[2][j]=v[j])$j=1..n},RandBed): (A,d) := LinearAlgebra[GenerateMatrix](%,[seq(u[j],j=1..n)]); (B,c) := LinearAlgebra[GenerateMatrix]([seq(-d[j]=0,j=1..n)], [seq(v[j],j=1..n)]); return A,B,c end proc:
9.4 Der Befehl transform Ein Blick hinter die Kulissen Der transform -Befehl aus dem Plottools-Paket hat sich bereits in unserem Buch [Fo/Ho] als vielseitig einsetzbarer Maple-Befehl erwiesen, dessen Leistungsf¨ ahigkeit in der Maple-Literatur meist nicht gen¨ ugend erkannt wird.
9.4
Der Befehl transform
369
(Man vergleiche dazu z. B. Abschnitt 5.3 .) Seine Wirkungsweise wollen wir an einem einfachen Beispiel erl¨autern. Die Funktion f (s. u.) wird durch F := transform(f ) zu einer Graphiktransformation, die hier ein 2D- in ein 3D-Graphikobjekt wandelt. Wir wollen uns genauer anschauen, wie dies geschieht:
5
10
> restart: with(plots): with(plottools): Digits := 4: f := (x,y) -> [2*x,2*y,x^2+y^2-1]/(1+x^2+y^2): # stereographische Projektion F := transform(f): # Graphiktransformation zu f Punkt := disk([1,2],0.2,color=blue,numpoints=20,style=patchnogrid): # Punkt z = [1,2] in der Ebene Kugel := plot3d(1,theta=0..2*Pi,phi=0..Pi,coords=spherical, shading=zgrayscale): display(Punkt,axes=frame,scaling=constrained,view=[0..2,1..3], tickmarks=[2,2],title="Graphikobjekt Punkt"); display(F(Punkt),Kugel,axes=framed,scaling=constrained,orientation =[60,60],tickmarks=[3,3,3],title="Graphikobjekt F(Punkt)"); 3
Graphikobjekt Punkt
Graphikobjekt F (Punkt) 1
0 2
-1 -1 -1
0 0 1
1
2
1 1
Dazu f¨ uhren wir schrittweise eine Reihe von Maple-Anweisungen durch, deren meist umfangreiche Ausgaben hier im Buch unterdr¨ uckt werden. Als erstes schauen wir uns das Graphikobjekt Punkt genauer an und erhalten durch > Punkt;
POLYGONS([[1.2, 2.], [1.1 0, 2.062], [1.162, 2.11 ], [1.11 , 2.162], [1.062, 2.1 0], [1.000, 2.200], [. 2, 2.1 0], [. 2 , 2.162], [. 1, 2.11 ], [. 0 , 2.062], ], [. , 1. 10], [. 000, 2.000], [. 0 , 1. ], [. 2, 1. 2], [. 2 , 1. [1.000, 1. 00], [1.062, 1. 10], [1.11 , 1. ], [1.162, 1. 2], [1.1 0, 1. ], [1.200, 2.000]], STYLE(PATCHNOGRID), COLOUR(RG , 0., 0., 1.00000000))
Maple’s interne Darstellung. Es handelt sich offensichtlich um eine Folge von drei Operanden. Mit dem Befehl op(1,Punkt) greifen wir auf den ersten Operanden zu:
370
9 Anhang zu Maple
> op(1,Punkt):
Dies ist eine Liste von 2D-Punkten, die mittels der stereographischen Projektion in 3D-Punkte transformiert werden sollen. Unter Zuhilfenahme von map geht dies sehr einfach. Versucht man es im ersten Anlauf mit > Punkt_3D := map(f,op(1,Punkt)); Error, (in f) f uses a 2nd argument, y, which is missing
so erh¨ alt man eine Fehlermeldung, denn hier wird f auf Punkte der Form [x, y] angewendet. Durch f ([x, y]) wird f n¨ amlich f¨alschlich nur auf ein Argument angewendet; korrekt w¨ are vielmehr der Aufruf f (x, y). Das Problem l¨aßt sich mit folgendem Maple-Befehl l¨ osen: > op([x,y]);
x, y
Offensichtlich ist also f (x, y) = f (op([x, y])). Den Ausdruck auf der rechten Seite kann man mit dem Verkn¨ upfungsoperator @ auch in der Form (f @op)([x, y]) schreiben. Im zweiten Anlauf sind wir erfolgreicher: > Punkt_3D := map(f@op,op(1,Punkt)):
Wir substituieren in Punkt den ersten Operanden durch die Liste Punkt 3D und erhalten so ein 3D-Graphikobjekt: > f_Punkt := subs(op(1,Punkt)=Punkt_3D,Punkt):
Mittels > display(f_Punkt,Kugel,axes=frame,scaling=constrained, orientation=[60,60],tickmarks=[3,3,3]):
u ¨berzeugen wir uns schließlich, daß f Punkt dieselbe Graphik liefert wie F (Punkt). Durch unsere Konstruktion von f Punkt haben wir also die Wirkungsweise der Graphiktransformation F nachvollzogen.
Symbolverzeichnis Lateinische Buchstaben C Euler-Konstante . . . . . . . . . . 223 Ck := Ck (J, n ) . . . . . . . . . . .98, 125 Ck (J) := Ck (J, n ) . . . . . . . . .27, 70 . . . . . . . . . . . . 289 Ck := Ck [a, b ], D Differentiationsoperator . . . . 174 Einheitsmatrix in n . . . . . . 152 G Green-Funktion . . . . . . . . . . . 275 Green-Matrix . . . . . . . . . . . . . 269 H . . . . . . . . . . . . . . . . . . . 125, 266, 273 H, Hc Heaviside-Funktion . . 236f Hf,c . . . . . . . . . . . . . . . . . . . . . . . . . . 335 Hn Hermite-Polynom . . . . . . . 208 J Bessel-Funktion erster Art 221 J(λ) = Jr (λ) JordanElementarmatrix . . . . . . . . . . 156 L Differentialoperator 27, 284, 289 L adjungierter Differentialoperator . . . . . . . . . . . . . . . . . . 284 Pn Legendre-Polynom . . . . . . 209 R . . . . . . . . . . . . . . . . . . . 266, 273, 289 Res Residuum . . . . . . . . . . . . . . . . 339 S =S◦ . . . . . . . . . . . . . . . . . . . . 71 Fredholm-Integraloperator 290 , a . . . . . . . . . . . . . . . . . . . . . 68, 125 n iterierte Abbildung . . . . . . . . . 71 Y Bessel-Funktion zweiter Art 223
arctan cos en n-ter Einheitsvektor . . 127, 273 exp exp f¨ ur Matrizen . . . . . . . . . . . . . . 153 fc . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 hσ,k Hermite-Grundpolynom 327
hσ,k Hermite-Grundpolynom 335 log nat¨ urlicher Logarithmus log f¨ ur Matrizen . . . . . . . . . . . . . . 344 ord Ordnung der Nullstelle eines Polynoms . . . . . . . . . . . . 158 rg Rang einer Matrix sin tan w(x) Wronski-Determinante 128 Fette Buchstaben
K¨ orper der komplexen Zahlen n Einheitsmatrix in n K¨ orper der reellen oder der komplexen Zahlen n Menge der komplexen (n, n)Matrizen . . . . . . . . . . . . . 122 Menge der nat¨ urlichen Zahlen = {1, 2, . . .} ur ein k ∈ k := {k, k + 1, . . .} f¨ K¨ orper der reellen Zahlen
Funktion, die an der Stelle x den Wert x annimmt
Frakturbuchstaben C Kurve . . . . . . . . . . . . . . . . . . . . . . . 33 (C) Tr¨ ager der Kurve C . . . . . . . . . 33 a(C) Anfangspunkt der Kurve C 33 e(C) Endpunkt der Kurve C . . . . 33 D Definitionsbereich . . . . . . . . . 3, 68, 79, 97, 210 F(A) . . . . . . . . . . . . . . . . . . . . . . . . . 332 G Gebiet . . . . . . . . . . . . . . . . . . . . . . 33 Im Imagin¨ arteil L2 . . . . . . . . . . . . . . . . . . . . . . 289, 292
372
M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 R . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292 Re Realteil U . . . . . . . . . . . . . . . . . . . . . . . 284, 289 Griechische Buchstaben Γ Gamma-Funktion . . . . . . . . . . 220 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 Λ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 Λ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 Πn Polynome vom Grade ≤ n 328 Φ Fluß . . . . . . . . . . . . . . . . . . . . . . . . . 97 (α)n Pochhammer-Symbol . . 221 Metrik . . . . . . . . . . . . . . . . . . . . . . . 71 κ,ν Kronecker-Symbol . . . . . . 298 µ Minimalpolynom . . . . . . . . . . 328 σf . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 τ (η) . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 χ charakteristisches Polynom . . . . . . . . . . . . 160, 173, 328
Symbolverzeichnis
Sonstiges , | | Abbildungsnorm . . . . . . . . . 71, 124, 152, 295 | |2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 294 | | . . . . . . . . . . . . . . . . . . . . . . . . 70, 294 L (f )(s) . . . . . . . . . . . . . . . . . . . . . . .224 ( , ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 , . . . . . . . . . . . . . . . . . . . . . . . . . . .291
Markierung f¨ ur Animationen in den MWSs
Namen- und Sachverzeichnis A Abbildung analytische . . . . . . . . . . . . . . . . . . . . . 216 antitone . . . . . . . . . . . . . . . 96, 298, 303 aus einer Menge . . . . . . . . . . . . 70, 332 beschr¨ ankte . . . . . . . . . . . . . . . . . . . . . 71 isotone . . . . . . . . . . . . . . . . . . . . . . . . . . 96 iterierte . . . . . . . . . . . . . . . . . . . . . . . . . 71 kontrahierende . . . . . . . . . . . . . . . . . . 71 schwach kontrahierende . . . . . . . . . 71 Abbildungsnorm . . . . . . . . . 71, 124, 295 Abh¨ angigkeits¨ uberlegungen . . . 80, 113 absolute Konvergenz einer Reihe . 212 absolut gleichm¨ aßige Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . 210, 299 absolut-konvergentes uneigentliches Riemann-Integral . . . . . . . . . . . . . . 226 adjungierter Differentialoperator . 284 Airy, George Biddell . . . . . . . . . . . . . 251 Airy -Differentialgleichung . . . . . . . . . . 251 -Funktionen . . . . . . . . . . . . . . . . . . . . 252 d’Alembert, Jean . . . . . . . . . . . . . . . 136 algebraische Vielfachheit . . . . 184, 328 algebraisches Komplement . . . . . . . 132 analytische Abbildung . . . . . . . . . . . . 216 analytische Funktion . . . . . . . . . . . . . 210 Anfangswertaufgabe . . . . . . . . . . . . 4, 19 Anfangswerte . . . . . . . . . . . . . . . . . . . 4, 19 Anfangswertproblem . . . . . . . . . . . . . . . . 4 Animation . . . . . . . . . . . . . . . . . . . . . . . . 13 antitone Abbildung . . . . . . 96, 298, 303 Approximation im quadratischen Mittel . . . . . . . . 293 Approximationssatz . . . . . . . . . . . . . . 293 asymptotisch stabil . . . . . . . . . . . . . . . . 89 Attraktor . . . . . . . . . . . . . . . . . . . . . . . . . 90 autonomes System . . . . . . . 86, 104, 159 autonomer Fall . . . . . . . . . . . . . . . . . . . . 87 AWA . . . . . . . . . . . . . . . . . . . . . . . . . . . 4, 19
AWP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
B Bahn . . . . . . . . . . . . . . . . . . . . . . . . . 87, 160 Bahnkurve . . . . . . . . . . . . . . . . . . . 87, 160 Banach, Stefan . . . . . . . . . . . . . . . . . . . 99 Banachscher Fixpunktsatz . . . . . . . . 67 Bernoulli, Jakob . . . . . . . . . . . . . . . . 41 Bernoulli-DGL . . . . . . . . . . . . . . 28, 56 beschr¨ ankte Abbildung . . . . . . . . . . . . 71 Bessel, Friedrich Wilhelm . . . . . . . 220 Bessel -Differentialgleichung . . . . . . 220, 255 -Funktion erster Art . . . . . . .107, 221 zweiter Art . . . . . . . . . . 223 -Ungleichung . . . . . . . . . . . . . . 293, 300 Bestimmtheit, Stelle der . . . . . 214, 220 Brennpunkt . . . . . . . . . . . . . . . . . . . . . . 166
C Cauchy, Augustin Louis . . . . . . . . . . 10 Cauchy -Integralformel . . . . . . . . . . . . . . . . . 334 -Polygonzugverfahren . . . . . . . . . . . . 9 -Schwarz-Ungleichung . . . . . . . . 294 charakteristische Gleichung . . . . . . . . . . . . . . . . . . . . . . 216 Matrix . . . . . . . . . . . . . . . . . . . . 267, 306 charakteristischer Exponent . . . . . . . . . . . . . . . . . 176, 179 Multiplikator . . . . . . . . . . . . . . 176, 177 charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . 160, 173, 328 Clairaut, Alexis Claude . . . . . . . . . . 42 Clairaut-DGL . . . . . . . . . . . . . . . 36, 65 lineare L¨ osung . . . . . . . . . . . . . . . . . . 36 singul¨ are L¨ osung . . . . . . . . . . . . . . . . 37
374 Courant Minimum-Maximum-Prinzip . . . 298
D Defekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 -Absch¨ atzung . . . . . . . . . . . . . . 81, 119 DGL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Airy- . . . . . . . . . . . . . . . . . . . . . . . . . . 251 Bernoulli- . . . . . . . . . . . . . . . . . 28, 56 Bessel- . . . . . . . . . . . . . . . . . . . 220, 255 Clairaut- . . . . . . . . . . . . . . . . . . 36, 65 der schwingenden Saite . . . . . . . . 316 Euler- . . . . . . . . . . . . . . . . . . . . . . . . 216 exakte . . . . . . . . . . . . . . . . . . . . . . . 33, 61 explizite . . . . . . . . . . . . . . . . . . . . . . . . . . 3 f¨ ur matrixwertige Funktionen . . 127 Hermite- . . . . . . . . . . . . . . . . . 207, 246 Hill- . . . . . . . . . . . . . . . . . . . . . . . . . . 180 implizite . . . . . . . . . . . . . . . . . . . . . . . . . 3 Integral . . . . . . . . . . . . . . . . . . . . . . . . . . 3 k-ter Ordnung . . . . . . . . . . . . . . . . . . 79 Legendre- . . . . . . . . . . . . . . . 208, 249 lineare, 1. Ordnung . . . . . . . . . . 26, 53 homogene . . . . . . . . . . . . . . . . . . . . . 26 inhomogene . . . . . . . . . . . . . . . . . . . 26 L¨ osung . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 mit getrennten Variablen‘ . . . 19, 43 ’ Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . 3 partielle . . . . . . . . . . . . . . . . . . 3, 35, 63 Riccati- . . . . . . . . . . . . . . . . . . . . 29, 57 -Systeme . . . . . . . . . . . . . . . . . . . . . . . . 67 totale . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Differentialgleichung, gew¨ ohnliche . . 3 Differentialgleichungssystem 1. Ordnung . . . . . . . . . . . . . . . . . . . . . 78 h¨ oherer Ordnung . . . . . . . . . . . . . . . . 80 Differentialoperator . . . . . . . . . 284, 287 adjungierter . . . . . . . . . . . . . . . . . . . . 284 formal-selbstadjungierter . . . . . . . 284 Differentiation einer
Namen- und Sachverzeichnis Laplace-Transformierten . . . . . . 238 Differenzen -Schema . . . . . . . . . . . . . . . . . . 327, 340 verallgemeinerte dividierte . . . . . 339 Differenzengleichung . . . . . . . . . . 93, 337 Dirichlet, Lejeune . . . . . . . . . . . . . . 301 Dirichlet-Randbedingungen . . . . 301 dynamische Systeme . . . . . . . . . . . 86, 98
E Eigenfrequenz . . . . . . . . . . . . . . . . . . . . 288 Eigenfunktion . . . . . . . . . . . . . . . 287, 294 Eigenl¨ osung . . . . . . . . . . . . . . . . . . . . . . 287 Eigenvektor . . . . . . . . . . . . . . . . . . . . . . 156 Eigenwert . . . . . . . . . . . . . . . . . . . 156, 294 Eigenwertaufgabe . . . . . . . . . . . . . . . . 287 Eigenwertproblem . . . . . . . . . . . . . . . . 287 Eigenwerttheorie . . . . . . . . . . . . . . . . . 294 Eindeutigkeit, lokale . . . . . . . . . . . . . . . 77 einfach-zusammenh¨ angend . . . . . . . . . 33 Einflußfunktion . . . . . . . . . . . . . . . . . . 271 Einh¨ ullende . . . . . . . . . . . . . . . . . . . . . . . 39 Ein- und Ausschaltvorg¨ ange . . . . . . 263 elementare Integrationsmethoden . . 19 Entwicklungssatz . . . . . . . . . . . . 294, 321 Enveloppe . . . . . . . . . . . . . . . . . . . . . . . . . 39 erstes Integral . . . . . . . . . . . . . . . . . . . . . 92 Euler, Leonhard . . . . . . . . . . . . . . . . . 10 Euler -Cauchy-Polygonzugverfahren . . . 9 -Differentialgleichung . . . . . . . . . . 216 -Formel . . . . . . . . . . . . . . . . . . . 159, 170 -Konstante . . . . . . . . . . . . . . . . . . . . . 223 -Polygonzugverfahren . . . . . . 8, 9, 16 -Verfahren . . . . . . . . . . . . . . . . . . . . . . . 9 exakte DGL . . . . . . . . . . . . . . . . . . . 33, 61 integrierender Faktor . . . . . . . . 35, 64 Multiplikator . . . . . . . . . . . . . . . . 34, 62 Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . . . . 75, 106, 124 lokale . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Namen- und Sachverzeichnis Existenzintervall, maximales . . . . . . . . . . . . . . . . . . . . . . 22, 26, 30, 84 Existenz von Eigenwerten . . . . . . . . 296 explizite DGL . . . . . . . . . . . . . . . . . . . . . . 3 k-ter Ordnung . . . . . . . . . . . . . . . . . . 79 Exponent charakteristischer . . . . . . . . . 176, 179 Floquet- . . . . . . . . . . . . . . . . . . . . . 179 Exponentialfunktion von Matrizen . . . . . . . . . . . . . 152, 183, 335 exponentiell beschr¨ ankt . . . . . . . . . . 226
F Faktor, integrierender . . . . . . . . . . 35, 64 Fehlerabsch¨ atzung . . . . . . . . 80, 81, 113 Fixpunkt . . . . . . . . . . . . . . . . . . . . . . 68, 71 abstoßend . . . . . . . . . . . . . . . . . . . . . . 106 anziehend . . . . . . . . . . . . . . . . . . . . . . 106 Fixpunktsatz f¨ ur Kontraktionen . . . . . . . . . . 73, 282 f¨ ur verallgemeinerte Kontraktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70, 73 von Banach . . . . . . . . . . . . . . . . . . . . 67 Floquet, Gaston . . . . . . . . . . . . . . . . 175 Floquet -Darstellung . . . . . . . . . . . . . . . . . . . 178 -Exponent . . . . . . . . . . . . . . . . . . . . . 179 -L¨ osung . . . . . . . . . . . . . . . . . . . . . . . . 180 -Multiplikator . . . . . . . . . . . . . . . . . . 177 Satz von . . . . . . . . . . . . . . . . . . . . . . . 178 Fluß zu einer DGL . . . . . . . . . . . . . . . . 97 FM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 Formel von Liouville . . . . . . . 128, 129 Fourier, Joseph . . . . . . . . . . . . . . . . . 304 Fourier -Koeffizienten . . . . . . . . . . . . . 293, 321 -Reihe . . . . . . . . . . . 292, 294, 299, 321 Fredholm, Eric Ivar . . . . . . . . . . . . 290 Fredholm-Integraloperator . . . . . . 290 Frobenius, Georg Ferdinand . . . . 215 Frobenius -Kovarianten . . . . . . . . . . . . . . . . . . . 331 -Methode . . . . . . . . . . . . . . . . . . . . . . 215
375 -Reihe . . . . . . . . . . . . . . . . . . . . . . . . . 215 FS . . . . . . . . . . . . . . . . . . . . . . . . . . 126, 130 Fundamentalmatrix 127, 128, 130, 138 Fundamentalsystem . . . . 126, 130, 139 Funktion analytische . . . . . . . . . . . . . . . . . . . . . 210 exponentiell beschr¨ ankte . . . . . . . 226 Γ - . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 Matrix- . . . . . . . . . . . . . . . . . . . . . . . . 331 st¨ uckweise stetige . . . . . . . . . . . . . . 226 zul¨ assige . . . . . . . . . . . . . . . . . . . . . . . 226 Funktionalkalk¨ ul . . . . . . . . . . . . . . . . . 334
G Γ -Funktion . . . . . . . . . . . . . . . . . . . . . . 220 Gebiet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 einfach-zusammenh¨ angend . . . . . . 33 geometrische Vielfachheit . . . . 184, 302 getrennte Randbedingungen . . . . . . 280 getrennte Variable‘ . . . . . . . . . . . . 19, 43 ’ gew¨ ohnliche Differentialgleichung . . . 3 Einzeleintr¨ age siehe unter DGL Gleichgewichtsl¨ osung . . . . . . . . . . . . . . 88 Gleichgewichtspunkt . . . . . 88, 160, 163 gleichm¨ aßige Konvergenz . . . . . 70, 289 gleichm¨ aßig konvergente Reihe . . . . . . . . . . . . . . . . . 294, 299, 323, 333 Gleichung charakteristische . . . . . . . . . . . . . . . 216 Parseval- . . . . . . . . . . . . . . . . . . . . . 293 globale Abh¨ angigkeit von Anfangswerten 84 Lipschitz-Bedingung . . . . . . . . 75, 83 Green, George . . . . . . . . . . . . . . . . . . 269 Green-Matrix . . . . . . . . . . . . . . . . . . . 269 Charakterisierung . . . . . . . . . . . . . . 272 Green-Funktion . . . . . . . 275, 276, 308 Berechnung . . . . . . . . . . 275, 277, 280 Existenz . . . . . . . . . . . . . . . . . . 275, 278 Sprungbedingung . . . . . . . . . . . . . . 277 Symmetrie . . . . . . . . . . . . . . . . . . . . . 286
376
Namen- und Sachverzeichnis
H Hauptraum . . . . . . . . . . . . . . . . . . . . . . 170 Hauptsatz . . . . . . . . . . . . . . . . . . . . . . . . 75 f¨ ur k -wertige Funktionen . . . . . . 98 Hauptvektor der Ordnung . . . . . . . . . . . . . . 156, 179 der Stufe . . . . . . . . . . . . . . . . . . 156, 179 Hauptvektorkette . . . . . . . 156, 173, 179 Heaviside, Oliver . . . . . . . . . . . . . . . . 236 Heaviside-Funktion . . . . . . . . . . . . . 236 Helix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Helmholtz, Hermann . . . . . . . . . . . 288 Helmholtz -Schwingungsgleichung . . . . . . . . . 288 Hermite, Charles . . . . . . . . . . . . . . . . 207 Hermite -Differentialgleichung . . . . . . 207, 246 -Grundpolynome . . . . . . . . . . 327, 335 -Interpolation . . . . . . . . . . . . . . . . . . 326 -Interpolationspolynom . . . . 335, 340 -Polynome . . . . . . . . . . . . . . . . 208, 248 Hill, George William . . . . . . . . . . . . 180 Hill-DGL . . . . . . . . . . . . . . . . . . . . . . . 180 homogene lineare DGL . . 26, 125, 172 H¨ ullkurve . . . . . . . . . . . . . . . . . . . . . . . . . 39
I Imagin¨ arteil . . . . . . . . . . . . . . . . . 166, 175 implizite DGL . . . . . . . . . . . . . . . . . . . . . . 3 Indexgleichung . . . . . . . . . . . . . . 216, 255 inhomogene lineare DGL . 26, 131, 169 instabile L¨ osung . . . . . . . . . . . . . . . . . . . 89 instabiler Sattelpunkt . . . . . . . . . . . . 163 Integrabilit¨ atsbedingung . . . . . . . . . . . 33 Integral einer DGL . . . . . . . . . . . . . . . . . . . . . . . 3 erstes . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 f¨ ur k -wertige Funktionen . . . . . . 70 Integralformel von Cauchy . . . . . . 334 Integralgleichung mit symmetrischem Kern . . . . . . 289
zweiter Art . . . . . . . . . . . . . . . . . . . . 290 Integraloperator Fredholm- . . . . . . . . . . . . . . . . . . . . 290 selbstadjungierter . . . . . . . . . . . . . . 294 Integrationsmethoden, elementare . 19 integrierender Faktor . . . . . . . . . . 35, 64 inverse Laplace-Transformation . 238 isotone Abbildung . . . . . . . . . . . . . . . . . 96 iterierte Abbildung . . . . . . . . . . . . . . . . 71
J Jordan, Camille . . . . . . . . . . . . . . . . . 182 Jordan -Block-Methode . . . . . . . . . . . . . . . . 333 -Elementarmatrix . . . . . . . . . . . . . . 156 -K¨ astchen . . . . . . . . . . . . . . . . . . . . . . 156 -Normalform . . . . . . . . . . . . . . 151, 156
K Kern . . . . . . . . . . . . . . . . . . . . 27, 125, 289 Knoten . . . . . . . . . . . . . . . . . . . . . . . . . . 161 eintangentiger . . . . . . . . . . . . . . . . . . 164 zweitangentiger . . . . . . . . . . . . . . . . 161 Koeffizientenfunktionen periodische . . . . . . . . . . . . . . . . 175, 201 kompakte Operatoren . . . . . . . 294, 296 komplexe Eigenwerte . . . . . . . . 159, 185 konservatives System . . . . . . . . . . . . . 120 kontrahierende Abbildung . . . . . . . . . 71 Konvergenz absolut gleichm¨ aßige . . . . . . 210, 289 gleichm¨ aßige . . . . . . . . . . .70, 289, 299 in der Operatornorm . . . . . . . . . . . 299 lokal gleichm¨ aßige . . . . . . . . . . . . . . 333 punktweise . . . . . . . . . . . . . . . . . . . . . 289 Konvergenzabszisse . . . . . . . . . . . . . . 227 Konvergenzradius . . . . . . . . . . . 208, 210 Kovarianten Frobenius- . . . . . . . . . . . . . . . . . . . . 331 Kurve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Namen- und Sachverzeichnis
L Lagrange-Identit¨ at . . . . . . . . 285, 301 Langzeitverhalten . . . . . . . . . . . . 86, 160 Laplace, Pierre Simon . . . . . . . . . . 242 Laplace -Transformation . . . . . . 224, 227, 257 inverse . . . . . . . . . . . . . . . . . . 238, 259 zur L¨ osung von AWAn . . . . . . . 231 -Transformierte . . . . . . . . . . . . . . . . 224 ¨ Ahnlichkeitssatz . . . . . . . . . . . . . 230 D¨ ampfungssatz . . . . . . . . . . . . . . 229 Differentiation . . . . . . . . . . . . . . . 238 Eindeutigkeit . . . . . . . . . . . . . . . . 239 Existenz . . . . . . . . . . . . . . . . 225, 226 Exponential-Shift . . . . . . . . . . . . 229 der Ableitung . . . . . . . . . . . . . . . . 230 der h¨ oheren Ableitungen . . . . . 231 Linearit¨ at . . . . . . . . . . . . . . . . . . . 228 periodischer Funktionen . . . . . 235 Streckung . . . . . . . . . . . . . . . . . . . 230 Time-Shift . . . . . . . . . . . . . . . . . . . 237 Verschiebungssatz . . . . . . . . . . . 237 Legendre, Adrien-Marie . . . . . . . . 208 Legendre -Differentialgleichung . . . . . . 208, 249 -Polynome . . . . . . . . . . . . . . . . 209, 250 Lerch, Mathias . . . . . . . . . . . . . . . . . . 239 Lerch, Satz von . . . . . . . . . . . . . . . . . 239 Lindel¨ of, Ernst Leonhard . . . . . . . . 77 lineare DGL . . . . . . . . . 26, 53, 123, 199 homogene . . . . . . . . . . . . . . . . . . 26, 172 inhomogene . . . . . . . . . . . . . . . . 26, 174 lineare Differenzengleichung . . . . . . 337 lineare L¨ osung . . . . . . . . . . . . . . . . . . . . 36 lineare Systeme . . . . . . . . . . . . . 123, 125 homogene . . . . . . . 125, 155, 175, 186 inhomogene . . . . . . . . . . 131, 169, 195 zweidimensionale . . . . . . . . . . 159, 189 Linienelement . . . . . . . . . . . . . . . 7, 12, 13 Liouville, Joseph . . . . . . . . . . . . . . . 301 Liouville, Formel von . . . . . . 128, 129
377 Lipschitz, Rudolf . . . . . . . . . . . . . . . . . 75 Lipschitz -Bedingung . . . . . . . . . . . . . . . . . . 75, 78 globale . . . . . . . . . . . . . . . . . . . . . . . .83 lokale . . . . . . . . . . . . . . . . . . . . . . . . . 82 -Konstante . . . . . . . . . . . . . . . . . . . . . . 75 Logarithmus einer Matrix . . . . . . . . . . . . . . . . . 155, 178, 202, 344 logarithmusbehaftete Bessel-Funktion . . . . . . . . . . . . . . 223 L¨ osung . . . . . . . . . . . . . . . . . . . . . . . . 219 lokale Eindeutigkeit . . . . . . . . . . . . . . . . . . . 77 Existenz und Eindeutigkeit . . 78, 83 Lipschitz-Bedingung . . . . . . . . 75, 82 L¨ osung einer DGL . . . . . . . . . . . . . . . . . . . . . . . 3 im Großen‘ . . . . . . . . . . . . . . . . . . . . . 82 ’ instabile . . . . . . . . . . . . . . . . . . . . . . . . 89 lineare . . . . . . . . . . . . . . . . . . . . . . . . . . 36 logarithmusbehaftete . . . . . . . . . . . 219 maximale . . . . . . . . . . . . . . . . . . . . . . . 20 mit Potenzreihenansatz . . . 205, 244 partikul¨ are . . . . . . . . . . . . . 27, 53, 142 reelle . . . . . . . . . . . . . . . . . . . . . . . . . . 159 singul¨ are . . . . . . . . . . . . . . . . . . . . . . . . 37 stabile . . . . . . . . . . . . . . . . . . . . . . . . . . 89 station¨ are . . . . . . . . . . . . . . . . . . 88, 160 Lotka, Alfred James . . . . . . . . . . . . . 94 Lotka-VolterraGleichungen . . . . . . . . . . . . . . . . . . . . . 94
M Majorantenkriterium von Weierstrass . . . . . . . . . . . . . mathematisches Pendel . . . . . . . 90, Matrix charakteristische . . . . . . . . . . 267, nilpotente . . . . . . . . . . . . . . . . . 155, -Funktionen . . . . . . . . . . . . . . . 332, -Polynome . . . . . . . . . . . . . . . . 325,
226 120 306 184 335 326
378 Matrixnorm, passende . . . . . . . . 78, 210 maximale L¨ osung . . . . . . . . . . . . . . . . . . 20 maximales Existenzintervall . . . . . . . . . . . . . . . . . . . . . . 22, 26, 30, 84 Maximumsnorm . . . . . . . . . . 70, 75, 294 Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . der unbestimmten Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . 206, 243 Frobenius- . . . . . . . . . . . . . . . . . . . 215 Minimalpolynom . . . . . . . . . . . . 328, 335 Minimum-Maximum-Prinzip . . . . . 298 Modellierung . . . . . . . . . . . . . . . . . . . . . . . 5 von Ein- und Ausschaltvorg¨ angen 263 Monodromiematrix . . . . . . . . . . . . . . . 177 Multiplikator . . . . . . . . . . . . . . . . . . 34, 62 charakteristischer . . . . . . . . . 176, 177 Floquet- . . . . . . . . . . . . . . . . . . . . . 177
N Neumann, Carl . . . . . . . . . . . . . . . . . . 301 Neumann -Funktion . . . . . . . . . . . . . . . . . . . . . . 223 -Randbedingungen . . . . . . . . . . . . . 301 -Reihe . . . . . . . . . . . . . . . . . . . . 130, 334 Newton-Darstellung . . . . . . . . 339, 340 nilpotente Matrix . . . . . . . . . . . 155, 184 Normalform Jordan- . . . . . . . . . . . . . . . . . . 151, 156 reelle . . . . . . . . . . . . . . . . . . . . . . . . . . 160 Nullstelle . . . . . . . . . . . . . . . 216, 303, 304 der Ordnung . . . . . . . . . 173, 174, 175 der Vielfachheit . . . . . . 326, 330, 332 Nullstellen-Vergleich . . . . . . . . . . . . . 303
O Operator kompakter . . . . . . . . . . . . . . . . 294, 296 selbstadjungierter . . . . . . . . . . . . . . 294 Sturm-Liouville- . . . . . . . . . . . . 301 symmetrischer . . . . . . . . . . . . . . . . . 296
Namen- und Sachverzeichnis Ordnung einer DGL . . . . . . . . . . . . . . . . . . . . . . . 3 einer Nullstelle . . . . . . . 173, 174, 175 eines Hauptvektors . . . . . . . . 156, 179 Reduktion der . . . . . . . . . . . . .133, 145 Orientierung . . . . . . . . . . . . . . . . . . 87, 160 orthogonal . . . . . . . . . . . . . . . . . . . . . . . 292 Orthonormalsystem . . . . . . . . . . . . . . 292 vollst¨ andiges . . . . . . . . . . . . . . . . . . . 289
P Parseval, Antoine . . . . . . . . . . . . . . 293 Parseval-Gleichung . . . . . . . . . . . . . 293 Partialbruchdarstellung . . . . . . . . . . 232 der Resolvente . . . . . . . . . . . . . . . . . 334 partielle DGL . . . . . . . . . . . . . . . 3, 35, 63 partikul¨ are L¨ osung . . . . . . . . 27, 53, 142 passende Matrixnorm . . . . . . . . . 78, 210 Pendel, mathematisches . . . . . . 90, 120 periodische Koeffizientenfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 175, 201 Periodizit¨ atsmatrix . . . . . . . . . . . . . . . 179 Phasenbild . . . . . . . . . . . . . . . . . . . . . . . . 87 Phasenebene . . . . . . . . . . . . . . . . . . . . . . 87 Phasenkurve . . . . . . . . . . . . . . . . . 87, 160 Phasenportrait . . . . . . 87, 104, 120, 160 Phasenraum . . . . . . . . . . . . . . . . . . . . . . . 87 ´ Picard, Charles Emile . . . . . . . . . . . . 77 Picard-Iteration . . . . . . . . 77, 101, 102 -Lindel¨ of-Verfahren . . . . . . 68 -Verfahren . . . . . . . . . . . . . 68, 77 Pochhammer-Symbol . . . . . . . . . . . 221 Poincar´ e, Henri . . . . . . . . . . . . . . . . . . 86 Polygonzugverfahren . . . . . . . . . 8, 9, 16 Polynom charakteristisches . . . . . . . . . . . . . . 328 Matrix- . . . . . . . . . . . . . . . . . . . 325, 326 Minimal- . . . . . . . . . . . . . . . . . . 328, 335 Potenzreihenansatz . . . . . 205, 244, 253 Potenzreihendefinition . . . . . . . . . . . . 333 Projektion, Projektor . . . . . . . . . . . . 331 Pr¨ ufer, Heinz . . . . . . . . . . . . . . . . . . . 294
Namen- und Sachverzeichnis Pr¨ ufer-Transformation . . . . . . . . . . 294 Punkt regul¨ arer . . . . . . . . . . . . . . . . . . . . . . . 212 schwach singul¨ arer . . . . . . . . . . . . . 214 singul¨ arer . . . . . . . . . . . . . . . . . . . . . . 212 station¨ arer . . . . . . . . . . . . . . . . . 88, 160
Q qualitative Beschreibung autonomer Systeme . . . . . . . . 86, 120 qualitative Theorie . . . . . . . . . . . . . . 7, 86 Quelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
R Randbedingungen Dirichlet- . . . . . . . . . . . . . . . . . . . . 301 getrennte . . . . . . . . . . . . . . . . . . . . . . 280 homogene . . . . . . . . . . . . . . . . . . . . . . 267 inhomogene . . . . . . . . . . . . . . . . . . . . 266 lineare . . . . . . . . . . . . . . . . . . . . . . . . . 266 Neumann- . . . . . . . . . . . . . . . . . . . . . 301 Randeigenwertaufgabe selbstadjungierte . . . . . . . . . . 287, 290 Sturm-Liouville- . . . . . . . . . . . . 301 Randeigenwertproblem . . . . . . . . . . . 287 Randverhalten . . . . . . . . . . . . . . . . . . . . 85 Randwertaufgabe . . . . . . . . . . . . 266, 274 halbhomogene . . . . . . . . . . . . . 266, 271 homogene . . . . . . . . . . . . . . . . . 266, 267 inhomogene . . . . . . . . . . . . . . . 266, 271 lineare . . . . . . . . . . . . . . . . . . . . . . . . . 266 L¨ osbarkeit . . . . . . . . . . . . . . . . 266, 267 nichtlineare . . . . . . . . . . . . . . . . . . . . 282 selbstadjungierte . . . . . . . . . . 285, 289 Randwertproblem . . . . . . . . . . . . . . . . 266 siehe unter Randwertaufgabe R¨ auber-BeuteDifferentialgleichungen . . . . . . . . . . 94 Modell . . . . . . . . . . . . . . . . . . . . . . 90, 93
379 Realteil . . . . . . . . . . . . . . . . . . . . . . . . . . 166 Reduktion auf eine Normalform . . . . . . . . . . . . 30 der Ordnung . . . . . . . . . . . . . . 133, 145 reelle L¨ osungen . . . . . . . . . . . . . . . . . . 159 regul¨ arer Punkt . . . . . . . . . . . . . . . . . . 212 Reihe Fourier- . . . . . . . . 292, 294, 299, 321 Frobenius- . . . . . . . . . . . . . . . . . . . . 215 Neumann- . . . . . . . . . . . . . . . . 130, 334 Residuenformel . . . . . . . . . . . . . . . . . . . 339 Resolvente Partialbruchdarstellung der . . . . 334 Riccati, Jacopo Francesco . . . . . . . . 41 Riccati-DGL . . . . . . . . . . . . . . . . . 29, 57 Richtungsfeld . . . . . . . . . . . . . . . 7, 11, 12 Riemann-Integral absolut-konvergent, uneigentlich 226 Riesz-Projektor . . . . . . . . . . . . . . . . . . 331 Rodrigues-Formel . . . . . . . . . . . . . . . 209 Ruhepunkt . . . . . . . . . . . . . . . . . . . . . . . . 88 RWA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 RWP . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
S Sattelpunkt . . . . . . . . . . . . . . . . . . . . . . 163 Satz u ¨ ber die Jordan-Normalform . . 156 von Floquet . . . . . . . . . . . . . . . . . . 178 von Lerch . . . . . . . . . . . . . . . . . . . . . 239 von Weierstrass . . . . . . . . . . . . . . 70 Schaltvorg¨ ange . . . . . . . . . . . . . . . . . . . 236 Schraubenlinie . . . . . . . . . . . . . . . . . . . . 88 schwach kontrahierende Abbildung . . . . . . . 71 singul¨ arer Punkt . . . . . . . . . . 214, 255 schwache Singularit¨ at . . . . . . . 214, 255 schwingende Saite . . . . . . . . . . . . . . . . 316 Schwingungsgleichung . . . . . . . . . . . . 288 selbstadjungierte RWA . . . . . . . . . . . 285 Senke . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 Separation . . . . . . . . . . . . . . . . . . 214, 317
380 Separatrix . . . . . . . . . . . . . . . . . . . . 92, 120 singul¨ are L¨ osung . . . . . . . . . . . . . . . . . . 37 singul¨ arer Punkt . . . . . . . . . . . . 212, 255 Singularit¨ at, schwache . . . . . . . 214, 255 Skalarprodukt . . . . . . . . . . 285, 294, 321 Spektraldarstellung . . . . . . . . . . . . . . 331 von Sylvester-Buchheim 328, 332 Sprungbedingung . . . . . . . . . . . . . . . . 277 stabil . . . . . . . . . . . . . . . . . . . . . . . . . 89, 167 asymptotisch . . . . . . . . . . . . . . . 89, 167 Stabilit¨ at . . . . . . . . . . . . . 7, 86, 159, 189 Stammfunktion . . . . . . . . . . . . . 4, 33, 61 station¨ are L¨ osung . . . . . . . . . . . . 88, 160 station¨ arer Punkt . . . . . . . . . . . . 88, 160 Stelle der Bestimmtheit . . . . . 214, 220 Stern . . . . . . . . . . . . . . . . . . . . . . . . 163, 195 Strudelpunkt . . . . . . . . . . . . . . . . 166, 167 st¨ uckweise stetig . . . . . . . . . . . . . . . . . 226 Stufe eines Hauptvektors . . . . . . . . . 179 Sturm, Charles Fran¸cois . . . . . . . . . 301 Sturm -Liouville-Operator . . . . . . . . . . 301 -Problem . . . . . . . . . . . 301 Trennungssatz von . . . . . . . . . . . . . 303 Superposition . . . . . . . . . . . . . . . . . . . . 318 Sylvester, James Joseph . . . . . . . . 345 Symmetrie der Green-Funktion . . 286 symmetrischer Kern . . . . . . . . . . . . . . 289
T totale Differentialgleichung . . . . . . . . 33 Tr¨ ager . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Trajektorie . . . . . . . . . . . . 87, 90, 97, 160 Transformation . . . . . . . . . . . . . . . . 23, 28 Laplace- . . . . . . . . . . . . . . . . . 224, 227 inverse Laplace- . . . . . . . . . . . . . . 238 Pr¨ ufer- . . . . . . . . . . . . . . . . . . . . . . . 294
Namen- und Sachverzeichnis
U ¨ Ubergangsmatrix . . . . . . . . . . . . . . . . . 177 ¨ Uberlagerung . . . . . . . . . . . . . . . . . . . . 318 unstetige Inhomogenit¨ aten . . . . . . . 236
V Variation der Konstanten . . . . . . . . . . . . . . . . . . . 26, 53, 131, 142 verallgemeinerte dividierte Differenzen . . . . . . . . . . 339 Fourier-Reihen . . . . . . . . . . . . . . . 292 Kontraktionen . . . . . . . . . . . . . . . . . . 73 Vergleichsfunktion . . . . . . . . . . . 284, 289 Vielfachheit algebraische . . . . . . . . . . 184, 328, 332 einer Nullstelle . . . . . . . 326, 330, 332 geometrische . . . . . . . . . 184, 298, 302 Volterra, Vito . . . . . . . . . . . . . . . . . . 94
W Weber-Funktion . . . . . . . . . . . . . . . . 223 Weierstraß Majorantenkriterium von . . . . . . 226 Satz von . . . . . . . . . . . . . . . . . . . . . . . . 70 Wellengleichung . . . . . . . . . . . . . . . . . . 288 Wirbelpunkt . . . . . . . . . . . . . . . . 166, 195 Wronski, Josef-Maria . . . . . . . . . . . 128 Wronski -Determinante . . . . . . . . . . . . . . . . . 128 -Matrix . . . . . . . . . . . . . . . . . . . 128, 129
Z Zentrum . . . . . . . . . . . . . . . . . . . . . . . . . 166 zul¨ assige Funktion . . . . . . . . . . . . . . . 226
Index zu Maple
A add . . . . . . . . . . . . . . . . . . . . . 196, 246, 350 alias . . . . . . . . . . . . 64, 244, 261, 361, 364 animate, animatecurve . . . . . . . . . . . . . 13 frames . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 assign . . . . . . . . . . . . . . . . . . . . 51, 144, 198 assume . . . . . . . . . . . . . . . . . . . 45, 317, 360
B Balloon-Help . . . . . . . . . . . . . . . . . . . . . . . 13 BesselJ, BesselY . . . . . . . . . . . . . . . . . . 107
C cat . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16, 102 convert D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 diff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 exp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 list . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 350 parfrac . . . . . . . . . . . . . . . . . . . . . . . . . . 262 polynom . . . . . . . . . . . . . . . . . . . . . . . . . 245 set . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 StandardFunctions . . . . . . . . . . . . . . 250 string . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 tan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 trig . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 CurveFitting-Paket PolynomialInterpolation . . . . . . . . 348
D D, D@@nu . . . . . . . . . . . . . . . . . . . . . . . . 112 declare (PDEtools) . . . . . . . . . . . . 11, 261
OFF, ON . . . . . . . . . . . . . . . . . . . . . 11, 12 prime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 quiet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 DEtools-Paket . . . . . . . . . . . . . . . . . . . . . 12 bernoullisol . . . . . . . . . . . . . . . . . . . . . . . 57 clairautsol . . . . . . . . . . . . . . . . . . . . . . . . 65 constcoeffsols . . . . . . . . . . . . . . . . . . . . 199 convertsys . . . . . . . . . . . . . . . . . . . . . . . 112 Dchangevar . . . . . . . . . . . . . . . . . . . . . . . 50 DEplot . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 stepsize . . . . . . . . . . . . . . . . . . . . . 14, 17 DEplot3d . . . . . . . . . . . . . . . . . . . 105, 194 dfieldplot . . . . . . . . . . . . . . . . . . . . . . . . . 13 eulersols . . . . . . . . . . . . . . . . . . . . . . . . . 255 exactsol . . . . . . . . . . . . . . . . . . . . . . . . . . 62 expsols . . . . . . . . . . . . . . . . . . . . . . . . . . 141 firint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 genhomosol . . . . . . . . . . . . . . . . . . . . . . . 51 indicialeq . . . . . . . . . . . . . . . . . . . . . . . . 255 intfactor . . . . . . . . . . . . . . . . . . . . . . . . . . 63 linearsol . . . . . . . . . . . . . . . . . . . . . . . . . . 55 odeadvisor . . . . . . . . . . . . . . . . . . . 44, 103 phaseportrait . . . . . . . . . . . . . . . . . 12, 13 polysols . . . . . . . . . . . . . . . . . . . . . . . . . 141 ratsols . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 reduceOrder . . . . . . . . . . . . . . . . 148, 149 regularsp . . . . . . . . . . . . . . . . . . . . . . . . 255 riccatisol . . . . . . . . . . . . . . . . . . . . . . . . . 59 separablesol . . . . . . . . . . . . . . . . . . . . . . 44 varparam . . . . . . . . . . . . . . . . . . . . 55, 144 diff, Diff . . . . . . . . . . . . . . . . . . . . . . . 11, 364
382
Index zu Maple
do · · · end do . . . . . . . . . . . . . . . . . . 16, 365 dsolve . . . . . . . . . . . . . . . . . . . . . . . . . 13, 103 [Bernoulli] . . . . . . . . . . . . . . . . . . . . . . . . 57 [Clairaut] . . . . . . . . . . . . . . . . . . . . . . . . 65 [dAlembert]. . . . . . . . . . . . . . . . . . . . . . .51 [exact] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 [homogeneous] . . . . . . . . . . . . . . . . . . . . 51 implicit . . . . . . . . . . . . . . . . . . . . . . . . . . 45 [linear]. . . . . . . . . . . . . . . . . . . . . . . . . . . .56 method=classical[foreuler] . . . . . . . . 17 laplace . . . . . . . . . . . . . . . . . 260 output=array . . . . . . . . . . . . . . . . . . . . . 17 basis . . . . . . . . . . . . . . . 141, 199 [Riccati] . . . . . . . . . . . . . . . . . . . . . . . . . . 59 [separable] . . . . . . . . . . . . . . . . . . . . . . . . 45 (type=) numeric . . . . . . . . 17, 114, 117 series . . . . . . . . . . 246, 254, 255
E elif . . . . . . . . . . . . . . . . . . . . . . . . . . . 253, else . . . . . . . . . . . . . . . . . . . . . . . . . . 101, EnvAllSolutions=true . . . . . . . . . . . . eval . . . . . . . . . . 17, 44, 50, 138, 361, evalb . . . . . . . . . . . . . . . . . . . . . . . . . 361, evalc . . . . . . . . . . . . . . . . . . . . 186, 361, evalf . . . . . . . . . . . . . . . . . . . . . . . . . . 17, evalm . . . . . . . . . . . . . . . . . . . . . . . . 187, expand . . . . . . . . . . . . . . . . . . . . . . . . 49,
365 365 308 362 362 362 361 196 362
F factor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . FilledPlot . . . . . . . . . . . . . . . . . . . . . . . . . for . . . . . . . . . . . . . . . . . . . . . . . . . . . 191, FPseries (Slode) . . . . . . . . . . . . . . . . . . fsolve . . . . . . . . . . . . . . . . . . . . . . . . 108, Full Text Search . . . . . . . . . . . . . . . . . .
184 119 365 246 112 360
G GAMMA . . . . . . . . . . . . . . . . . . . . . . . . . 257
H Heaviside . . . . . . . . . . . . . . . . . . . . . . . . . 262
Help . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 HermiteH . . . . . . . . . . . . . . . . . . . . . . . . . 248 HInterp . . . . . . . . . . . . . . . . . . . . . . 347, 351
I if · · · end if . . . . . . . . . . . . . . . . . . . 101, 365 Im . . . . . . . . . . . . . . . . . . . . . . . . . . . 193, 356 indets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 infolevel . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 inifcns . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 int, Int . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 interface imaginaryunit . . . . . . . . . . . . . . 185, 366 showassumed . . . . . . . . . . . . . . . . . . . . 367 verboseproc . . . . . . . . . . . . . . . . . . . . . 367 warnlevel . . . . . . . . . . . . . . . . . . . . . . . . 367 interp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 inttrans-Paket laplace . . . . . . . . . . . . . . . . . . . . . . . . . 258 invlaplace . . . . . . . . . . . . . . . . . . . . . . . 259 is . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362 isolate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
K kernelopts . . . . . . . . . . . . . . . . . . . . . . . . 347
L laplace (inttrans) . . . . . . . . . . . . . . . . . 258 LegendreP . . . . . . . . . . . . . . . . . . . . . . . . 250 lhs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 limit, Limit . . . . . . . . . . . . . . . . . . . . . . . 253 LinearAlgebra-Paket CharacteristicPolynomial . . 184, 348 Determinant . . . . . . . . . . . . . . . . . . . . . 138 DiagonalMatrix. . . . . . . . . . . . . . . . . .184 Eigenvectors . . . . . . . . . . . . . . . . . . . . . 186 GenerateMatrix . . . . . . . . . . . . . 259, 306 IdentityMatrix. . . . . . . . . . . . . . . . . . .183 JordanForm . . . . . . . . . . . . . . . . . . . . . 184 LinearSolve . . . . . . . . . . . . . . . . . . . . . . 142 Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 137 MatrixExponential . . . . . . . . . . 185, 348 MatrixFunction . . . . . . . . . . . . . 201, 348
Index zu Maple MatrixPower . . . . . . . . . . . . . . . . . . . . 349 MinimalPolynomial . . . . . . . . . . . . . . 355 Multiply . . . . . . . . . . . . . . . . . . . . 139, 188 Norm. . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Nullspace . . . . . . . . . . . . . . . . . . . . . . . . 187 Rank . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 RowDimension . . . . . . . . . . . . . . . . . . 183 SubMatrix . . . . . . . . . . . . . . . . . . 310, 315 Trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 Vector . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 linalg-Paket exponential . . . . . . . . . . . . . . . . 185, 348 potential . . . . . . . . . . . . . . . . . . . . . . . . . 61 wronskian . . . . . . . . . . . . . . . . . . . . . . . 141 ‘linalg/matfunc‘ . . . . . . . . . 202, 347, 348 ‘linalg/matfunc/pinterp‘ . . . . . . . . . . 347
M macro . . . . . . . . . . . . . . . . . . . 185, 249, 364 map . . . . . . . . . . . . . . . . . . . . . 103, 137, 370 .mapleinit, maple.ini . . . . . . . . . . 11, 368 max . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 MatFunc . . . . . . . . . . . . . . . . . . . . . . . . . . 348 MatExp . . . . . . . . . . . . . . . . . . . . . . . . . . 348 min . . . . . . . . . . . . . . . . . . . . . . . . . . 106, 119
N New User’s Tour . . . . . . . . . . . . . . . . . . 360 nops . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
O odetest . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 OFF (declare) . . . . . . . . . . . . . . . . . 11, 261 ON (declare) . . . . . . . . . . . . . . . . . . 12, 262 op . . . . . . . . . . . . . . . . . . . . . . . . 46, 246, 370 Order . . . . . . . . . . . . . . . . . . . . . . . . 246, 255 orthopoly-Paket H (Hermite-Polynome) . . . . . . . . 248 P (Legendre-Polynome) . . . . . . . . 251 output=array . . . . . . . . . . . . . . . . . . . . . . 17 basis . . . . . . . . . . . . . . . . 141, 199
383
P parfrac . . . . . . . . . . . . . . . . . . . . . . . . . . . 262 PDEtools-Paket dchange . . . . . . . . . . . . . . . . . . . . . . . . . 50 declare . . . . . . . . . . . . . . . . . . . . . . . 11, 368 pfeil . . . . . . . . . . . . . . . . . . . . . . . . . 106, 191 pi, Pi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 piecewise . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 plots-Paket animate, animatecurve . . . . . . . . . . . 13 complexplot . . . . . . . . . . . . . . . . . . . . . 191 contourplot . . . . . . . . . . . . . . . . . . . . . . . 61 coordplot . . . . . . . . . . . . . . . . . . . . . . . . . 17 cartesian . . . . . . . . . . . . . . . . . . . . . . . 17 display . . . . . . . . . . . . . . . . . . 13, 102, 369 fieldplot . . . . . . . . . . . . . . . . . . . . . . . . . . 14 listplot . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 odeplot . . . . . . . . . . . . . . . . . . 17, 18, 114 plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 plot3d . . . . . . . . . . . . . . . . . . . . . . 310, 369 pointplot . . . . . . . . . . . . . . . . . . . . . . 16, 66 setoptions . . . . . . . . . . . . . . . . . . . . . . . 264 spacecurve. . . . . . . . . . . . . . . . . . . . . . .310 textplot . . . . . . . . . . . . . . . . . . . . . . . . . . 47 Plot-Optionen arrows=line . . . . . . . . . . . . . . . . . . . . . . 12 medium . . . . . . . . . . . . . . . . . . 13 none . . . . . . . . . . . . . . . . . . . . . 15 axes=box . . . . . . . . . . . . . . . . . . . 310, 315 frame . . . . . . . . . . . . . . . . . . 12, 369 axesfont . . . . . . . . . . . . . . . . . . . . . . . . . 103 cartesian . . . . . . . . . . . . . . . . . . . . . . . . . 17 color. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .12 contours . . . . . . . . . . . . . . . . . . . . . . . . . . 61 coords=spherical . . . . . . . . . . . . . . . . 369 dirgrid . . . . . . . . . . . . . . . . . . . . . . . . 12, 59 discont=true . . . . . . . . . . . . . . . . . . . . 264 frames . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 grid . . . . . . . . . . . . . . . . . . . . . . . . . . . 14, 17 insequence=true . . . . . . . . . . . . . . . . . 102 labels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
384 linecolor . . . . . . . . . . . . . . . . . . . . . . . . . . 12 linestyle . . . . . . . . . . . . . . . . . . . . . . . . . 102 numpoints . . . . . . . . . . . . . . . . . . 248, 369 orientation . . . . . . . . . . . . . . . . . . 194, 369 scaling=constrained . . . . . . . . . . 14, 369 scene . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 shading=zhue . . . . . . . . . . . . . . . . . . . 315 zgrayscale . . . . . . . . . . . . . . 369 style=line . . . . . . . . . . . . . . . . . . . . . . . . 66 point . . . . . . . . . . . . . . . . . . . . . . . 18 patchnogrid . . . . . 106, 191, 369 patchcontour . . . . . . . . . . . . . . 315 symbol . . . . . . . . . . . . . . . . . . . . . . . . 16, 61 symbolsize . . . . . . . . . . . . . . . . . . . . . . . . 61 thickness . . . . . . . . . . . . . . . . . . . . . . . . . 13 tickmarks . . . . . . . . . . . . . . . 15, 264, 369 title . . . . . . . . . . . . . . . . . . . . . . . . 102, 369 view . . . . . . . . . . . . . . . . . . . . . . . . . . 14, 17 xtickmarks . . . . . . . . . . . . . . . . . . . . . . . 12 plottools-Paket disk . . . . . . . . . . . . . . . . . . . . . . . . 121, 369 polygon. . . . . . . . . . . . . . . . . . . . .106, 191 transform . . . . . . . . . . . . . . 120, 193, 369 powseries-Paket powsolve . . . . . . . . . . . . . . . . . . . . . . . 244 tpsform. . . . . . . . . . . . . . . . . . . . . . . . . .244 prime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 printf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 proc · · · end proc . . . . . . . . . . . . . 101, 365
R RandBed2Matrix . . . . . . . . . . . . . 306, 368 Re . . . . . . . . . . . . . . . . . . . . . . . . . . . 194, 356 residue . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 restart . . . . . . . . . . . . . . . . . . . . . . . . 11, 360 rhs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 rsolve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
S seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14, 365 series . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 simplify . . . . . . . . . . 44, 56, 111, 360, 361
Index zu Maple Slode-Paket FPseries . . . . . . . . . . . . . . . . . . . . . . . . 246 FTseries . . . . . . . . . . . . . . . . . . . . . . . . . 247 solve . . . . . . . . . . . . . . . . . . . . . 44, 110, 198 sort . . . . . . . . . . . . . . . . . . . . . . . . . . 313, 353 stepsize . . . . . . . . . . . . . . . . . . . . . . . . 14, 17 string . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 student-Paket completesquare . . . . . . . . . . . . 108, 259 subs . . . . . . . . . . . . . . . . . . 44, 50, 361, 362 sum, Sum . . . . . . . . . . . . . . . . . . . . 248, 321
T topic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360 Topic Search . . . . . . . . . . . . . . . . . . . . . . 360 type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
U unapply . . . . . . . . . . . . . . . . . . 13, 101, 138 unassign . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 union . . . . . . . . . . . . . . . . . . . . . . . . 120, 138 unprotect . . . . . . . . . . . . . . . . . . . . . . . . . 184
V value . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364 VectorCalculus-Paket Jacobian . . . . . . . . . . . . . . . . . . . . . . . . 111 ScalarPotential . . . . . . . . . . . . . . . . . . .61 SetCoordinates . . . . . . . . . . . . . . . . . . . 61 VectorField . . . . . . . . . . . . . . . . . . . . . . . 61 Wronskian . . . . . . . . . . . . . . . . . . . . . . . 141
Z zip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Sonderzeichen = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 := . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 %, %%, %%% . . . . . . . . . . . . . . . . . . 13, 61 @ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146, 262 @@ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 $ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Literaturverzeichnis Gew¨ ohnliche Differentialgleichungen [ Am ]
Amann, H. (1995): Gew¨ ohnliche Di erentialgleichungen. de Gruyter, Berlin
[ Arn ]
Arnol’d, V. (2001): Gew¨ ohnliche Di erentialgleichungen. Springer, Berlin
[ Bi/Ro ]
Birkhoff, G., Rota, G. (1978): Ordinar Di erential Equations. Blaisdell, Lexington
[ Bo/DiP ] Boyce, W., DiPrima, R. (1995): Gew¨ ohnliche Di erentialgleichungen. Spektrum, Heidelberg [ Bran ]
Brand, L. (1996): Di erential and Di erence Equations. John Wiley & Sons, New York
[ Bra ]
Braun, M. (1991): Di erentialgleichungen und ihre Anwendungen. Springer, Berlin
[ Ces ]
Cesari, L. (1963): As mptotic ehavior and tabilit Problems in Ordinar Di erential Equations. Springer, Berlin
[ Co/Le ]
Coddington, A., Levinson, N. (1961): Theor of Ordinar Di erential Equations. Prentice-Hall, Englewood Cliffs
[ Col ]
Cole, R. H. (1968): Theor of Ordinar Di erential Equations. AppletonCentury-Crofts, New York
[ De/Bo ] Deuflhard, P., Bornemann, F. (2002): cientific Computing with Ordinar Di erential Equations. Springer, Berlin [ Edw ]
Edwards, C. H. (1993): Elementar Di erential Equations with dar alue Problems. Prentice-Hall, Englewood Cliffs
oun-
[ Ess ]
Esser, M. (1968): Di erential Equations. Saunders, Philadelphia
[ Go/Sc ]
Goldberg, J., Schwartz, A. (1972): Equations. Harper Row, New York
[ Hal ]
Hale, J. (1980): Ordinar Di erential Equations. Krieger, Malabar
[ Har ]
Hartman, P. (1964): Ordinar Di erential Equations. John Wiley & Sons, New York
[ Heu ]
Heuser, H. (1995): Gew¨ ohnliche Di erentialgleichungen. Teubner, Stuttgart
[ Hil ]
Hille, E. (1969): Lectures on Ordinar Di erential Equations. AddisonWesley, M¨ unchen
stems of Ordinar Di erential
[ Hi/Sm ] Hirsch, M., Smale, S. (1974): Di erential Equations, D namical tems and Linear Algebra. Academic Press, San Diego
s-
asic Theor of Ordinar Di erential
[ Hs/Si ]
Hsieh, P., Sibuya, Y. (1999): Equations. Springer, Berlin
[ Ka ]
Kamke, E. (1969): Di erentialgleichungen I. Geest & Portig, Leipzig
386 [ Kapl ]
Literaturverzeichnis Kaplan, W. (1962): Operational Wesley, M¨ unchen
ethods for Linear
stems. Addison-
[ Kn/Ka ] Knobloch, H., Kappel, G. (1974): Gew¨ ohnliche Di erentialgleichungen. Teubner, Stuttgart [ Lu al ]
Luther, W. et al. (1987): Gew¨ ohnliche Di erentialgleichungen · Anal tische und numerische ehandlung. Vieweg, Wiesbaden
[ Per ]
Perko, L. (2001): Di erential Equations and D namical Springer, Berlin
[ Redh ]
Redheffer, R. (1991): Di erential Equations: Theor and Applications. Boston: Jones and Bartlett
[ Rei ]
Reid, W. (1971): Ordinar Di erential Equations. John Wiley & Sons, New York
[ Ross ]
Ross, S. L. (1984): Di erential Equations. John Wiley & Sons, New York ´ Rouche, N., Mawhin, J. (1973): Equations di ´ erentielles ordinaires. Masson et Cie, Paris
[ Rou ]
stems.
[ Run ]
Runckel, H.-J. (2000): H¨ ohere Anal sis — Funktionentheorie und Gew¨ ohnliche Di erentialgleichungen. Oldenbourg, M¨ unchen
[ Sc/Sc ]
Sch¨ afke, F., Schmidt, D. (1973): Gew¨ ohnliche Di erentialgleichungen. Springer, Berlin
[ Schn ]
Schneider, A. (2000): Gew¨ ohnliche Di erentialgleichungen. Fernuniversit¨ at Hagen, Kurs 01335
[ Simm ]
Simmons, F. G. (1991): Di erential Equations with Applications and Historical Notes. McGraw-Hill, New York
[ Wal ]
Walter, W. (2000): Gew¨ ohnliche Di erentialgleichungen. Springer, Berlin
[ Was ]
Wasow, W. R. (1965): As mptotic Expansions for Ordinar Di erential Equations. Interscience Publ., New York
[ Weise ]
Weise, K. H. (1966): Di erentialgleichungen. Vandenhoeck & Ruprecht, G¨ ottingen
[ Yos ]
Yosida, K. (1960): Lectures on Di erential and Integral Equations. John Wiley & Sons, New York
[ Zill ]
Zill, D. (2000): A First Course in Di erential Equations with Applications. Brooks/Cole, Pacific Grove
odeling
Analysis, Lineare Algebra, N umerische Mathematik [ Ba/Fl ]
Barner, M., Flohr, F. (1989): Anal sis II. de Gruyter, Berlin
[ Br ]
Br¨ ocker, T. (1980): Anal sis in mehreren gart
ariablen. Teubner, Stutt-
Literaturverzeichnis
387
[ Bu/St ]
Bulirsch, R., Stoer, J. (2002): Introduction to Numerical Anal sis. Springer, Berlin
[ Dav ]
Davis, P. (1975): Interpolation and Approximation. Dover, New York
[ Dieu ]
´, J. (1975): Grundz¨ Dieudonne uge der modernen Anal sis, Vieweg, Wiesbaden
[ Halm ]
Halmos, P. R. (1974): Finite Dimensional Berlin
[ Heu1 ]
Heuser, H. (2001): Lehrbuch der Anal sis, Teil 1. Teubner, Stuttgart
[ Heu2 ]
Heuser, H. (2000): Lehrbuch der Anal sis, Teil 2. Teubner, Stuttgart
[ Hoff ]
Hoffmann, D. (1995): Anal sis f¨ ur Wirtschaftswissenschaftler und Ingenieure. Springer, Berlin
[ Kab1 ]
Kaballo, W. (2000): Einf¨ uhrung in die Anal sis I. Spektrum, Heidelberg
[ Kab2 ]
Kaballo, W. (1997): Einf¨ uhrung in die Anal sis II. Spektrum, Heidelberg
[ Ki/Ch ]
Kincaid, D., Cheney, W. (1991): Numerical Anal sis. Brooks/Cole, Pacific Grove
[ Koec ]
Koecher, M. (1983): Lineare Algebra und Anal tische Geometrie. Springer, Berlin
[ Koe2 ]
K¨ onigsberger, K. (2004): Anal sis 2. Springer, Berlin
ector
[ Me/Va ] Meyberg, K., Vachenauer, P. (2001): H¨ ohere Berlin [ Schw ]
Schwarz, H. R. (1993): Numerische
[ Wa1 ]
Walter, W. (2001): Anal sis 1. Springer, Berlin
[ Wa2 ]
Walter, W. (2002): Anal sis 2. Springer, Berlin
and 1.
paces. Springer,
athematik 2. Springer,
athematik. Teubner, Stuttgart
Laplace-T ransformation [ Doet ]
Doetsch, G. (1976): Einf¨ uhrung in Theorie und Anwendung der LaplaceTransformation. Birkh¨ auser, Basel
[ Ma/Ob ] Magnus, W., Oberhettinger, F. (1966): Formulas and Theorems for the pecial Functions of athematical Ph sics. Springer, Berlin [ Widd ]
Widder, D. V. (1972): The Laplace Transform. Princeton Univ. Press, Princeton
Matrixfunktionen [ Culv ]
Culver, W. J. (1966): On the Existence and Uniqueness of the Real Logarithm of a atrix. Proceedings of the AMS 17, 1146 1151
[ Gant ]
Gantmacher, F. (1986):
atrizentheorie. Springer, Berlin
388
Literaturverzeichnis
[ Ho/Jo ]
Horn, R., Johnson, C. (1991): Topics in Press, Cambridge
[ Kowa ]
Kowalewski, G. (1950): Einf¨ uhrung in die Theorie der kontinuierlichen Gruppen. Chelsea, New York
[ Leo ]
Leonard, I. E. (1996): The 507 512
[ Mo1 ]
Moler, C., Van Loan, C. (1978): Nineteen Dubious Wa s to Compute the Exponential of a atrix. SIAM Review 20, 801 836
[ Mo2 ]
Moler, C., Van Loan, C. (2003): Nineteen Dubious Wa s to Compute the Exponential of a atrix, Twent -Five Years Later. SIAM Review 45, 3 49
[ Rine ]
Rinehart, R. F. (1955): The Equivalence of Definitions of a atrix Function. Amer. Math. Monthly 62, 395 414 ´ Roseau, M. (1976): Equations di ´ erentielles. Masson, Paris (Chapitre I)
[ Ros ]
atrix Anal sis. University
atrix Exponential. SIAM Review 38,
Zitierte Literatur zu Anwendungen [ Bat ]
Batschelet, E. (1980): Einf¨ uhrung in die Springer, Berlin
[ Def ]
Defares, J., Sneddon, I. (1973): An Introduction to the of edicine and iolog . North-Holl., Amsterdam
[ Fuc ]
Fuchs, G. (1979): Berlin
[ Had ]
Hadeler, K. (1974):
[ Hai ]
Hainzl, J. (1985): gart
[ Hof ]
Hofmann, W. (1967): Lehrbuch der wirte. Ullstein, Frankfurt
athematik f¨ ur athematik f¨ ur
athematik f¨ ur
ediziner und
iologen.
athematics
iologen. Springer,
iologen. Springer, Berlin
athematik f¨ ur Naturwissenschaftler. Teubner, Stuttathematik f¨ ur olks- und etriebs-
[ Ma/Mu ] Margenau, H., Murphy, G. (1967): Die Chemie. Deutsch, Frankfurt
athematik f¨ ur Ph sik und
[ Me ]
Meschede, D. (2004): Gerthsen Ph sik. Springer, Berlin
[ Volt ]
Volterra (1931): Le¸cons sur la th´ eorie math´ ematique de la lutte pour la vie. Gauthier-Villars, Paris
[ Zac ]
Zachmann, H. (1990): heim
athematik f¨ ur Chemiker. Verlag Chemie, Wein-
Literaturverzeichnis
389
Literatur zu und mit Maple aple 9 Learning Guide.
[ LeG ]
Char, B. W. et al. (2003): Maple Inc., Waterloo
[ PrG1 ]
Monagan, M. B. et al. (2003): Guide. Maple Inc., Waterloo
[ PrG2 ]
Monagan, M. B. et al. (2003): Maple Inc., Waterloo
[ Cor ]
Corless, R. M. (2002): Essential
[ Fo/Ho ]
Forst, W., Hoffmann, D. (2002): Funktionentheorie erkunden mit aple. Springer, Berlin
aple 9 Introductor Programming aple 9 Advanced Programming Guide. aple 7. Springer, Berlin
[ Gu/Mo ] Guidera, C., Monogan, M. (1997): Teaching Introductor Di erential Equations with aple. MapleTech Vol. 4, No. 1 (59 67) [ Heck ]
Heck, A. (2003): Introduction to
[ Kam ]
Kamerich, E. (1999): A Guide to
[ Kof ]
Kofler, M. et al. (2002): Addison-Wesley, M¨ unchen
aple. Springer, Berlin aple. Springer, Berlin
aple: Einf¨ uhrung, Anwendung, Referenz.
[ Kr/No ] Kreyszig, E., Norminton, E. J. (2001): Wiley & Sons, New York
aple Computer Guide. John
aple 7: Rechnen und Programmieren. Oldenbourg,
[ Walz ]
Walz, A. (2002): M¨ unchen
[ Wer1 ]
Werner, W. (1996): Heidelberg
athematik lernen mit
aple,
and 1. dpunkt,
[ Wer2 ]
Werner, W. (1998): Heidelberg
athematik lernen mit
aple,
and 2. dpunkt,
[ Wes ]
Westermann, T. (2001): and 2. Springer, Berlin
athematik f¨ ur Ingenieure mit
aple,