Numerische Mathematik 1 (Numerik gew¨ohnlicher Differentialgleichungen)
Rolf Rannacher
Institut fu ¨r Angewandte Mathematik Universit¨at Heidelberg
Vorlesungsskriptum WS 2005/2006 5. September 2006
ii
Adresse des Autors: Institut f¨ ur Angewandte Mathematik Universit¨at Heidelberg Im Neuenheimer Feld 293/294 D-69120 Heidelberg, Deutschland
[email protected] http://www.numerik.uni-hd.de
Inhaltsverzeichnis Literaturverzeichnis
vii
0 Einleitung
1
0.1
Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
0.2
L¨osungsmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
0.3
Prinzipien der Verfahrensanalyse
. . . . . . . . . . . . . . . . . . . . . . . 10
1 Anfangswertaufgaben 1.1
1.2
11
Aus der Theorie der Anfangswertaufgaben . . . . . . . . . . . . . . . . . . 11 1.1.1
Existenz von L¨osungen . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2
Stabilit¨atseigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . 15
¨ Ubungsaufgaben
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2 Einschrittmethoden
29
2.1
Die Eulersche Polygonzugmethode . . . . . . . . . . . . . . . . . . . . . . . 29
2.2
Allgemeine Einschrittmethoden . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3
2.4
2.2.1
Lokale Konvergenz und Fehlerabsch¨atzungen . . . . . . . . . . . . . 36
2.2.2
Globale Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Schrittweitenkontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.3.1
Sch¨atzung des Abschneidefehlers
2.3.2
Adaptive Schrittweitensteuerung . . . . . . . . . . . . . . . . . . . . 46
2.3.3
Numerischer Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
¨ Ubungsaufgaben
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3 Numerische Stabilit¨ at 3.1
. . . . . . . . . . . . . . . . . . . 45
53
Modellproblemanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.1.1
Steife Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
¨ Ubungsaufgaben
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4 Galerkin-Verfahren
77
3.2
4.1
Variationelle Formulierung der Anfangswertaufgaben . . . . . . . . . . . . 77
4.2
Das unstetige“ Galerkin-Verfahren . . . . . . . . . . . . . . . . . . . . . . 78 ” iii
iv
INHALTSVERZEICHNIS
4.2.1
Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.2.2
L¨osbarkeit der Galerkin-Gleichungen . . . . . . . . . . . . . . . . . 81
4.2.3
Andere Arten von Galerkin-Verfahren . . . . . . . . . . . . . . . . . 85
4.2.4
Galerkin-Orthogonalit¨at . . . . . . . . . . . . . . . . . . . . . . . . 86
4.3
A priori Fehleranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.4
A posteriori Fehlersch¨atzung und Schrittweitenkontrolle . . . . . . . . . . . 94
4.5
4.4.1
Allgemeines zur a posteriori Fehleranalyse . . . . . . . . . . . . . . 94
4.4.2
Realisierung f¨ ur das dG-Verfahren . . . . . . . . . . . . . . . . . . . 97
4.4.3
Auswertung der a posteriori Fehlerabsch¨atzung
4.4.4
Adaptive Schrittweitenwahl beim dG(0)-Verfahren . . . . . . . . . . 107
4.4.5
Vergleich zwischen dG- und Differenzen-Verfahren . . . . . . . . . . 108
¨ Ubungsaufgaben
. . . . . . . . . . . 103
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5 Lineare Mehrschrittmethoden
117
5.1
Konstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.2
Stabilit¨at und Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.3
Numerische Stabilit¨at linearer Mehrschrittverfahren . . . . . . . . . . . . . 132
5.4
Praktische Aspekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 5.4.1
Berechnung von Startwerten . . . . . . . . . . . . . . . . . . . . . . 137
5.4.2
L¨osung der impliziten Gleichungssysteme . . . . . . . . . . . . . . . 138
5.4.3
Pr¨adiktor-Korrektor-Methode . . . . . . . . . . . . . . . . . . . . . 139
5.4.4
5.5
Fehlersch¨atzung und Schrittweitensteuerung: Milnes Device“ . . . 140 ” ¨ Ubungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6 Extrapolationsmethode
145
6.1
Das Extrapolationsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.2
Anwendung auf gew¨ohnliche Differentialgleichungen . . . . . . . . . . . . . 150 6.2.1
6.3
Numerischer Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
¨ Ubungsaufgaben
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
7 Differentiell-algebraische Gleichungen (DAEs)
157
7.0.1
Theorie differentiell-algebraischer Probleme . . . . . . . . . . . . . . 159
7.0.2
Numerik differentiell-algebraischer Probleme . . . . . . . . . . . . . 161
INHALTSVERZEICHNIS
v
¨ Ubungsaufgaben
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
8 Randwertaufgaben
165
7.1
8.1
8.2
Aus der Theorie der Randwertaufgaben . . . . . . . . . . . . . . . . . . . . 165 8.1.1
Allgemeine Randwertaufgaben . . . . . . . . . . . . . . . . . . . . . 165
8.1.2
Sturm-Liouville-Probleme . . . . . . . . . . . . . . . . . . . . . . . 169
¨ Ubungsaufgaben
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
9 Schießverfahren
173
9.1
Lineare Randwertaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
9.2
Nichtlineare Randwertaufgaben . . . . . . . . . . . . . . . . . . . . . . . . 180
9.3
¨ Ubungsaufgaben
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
10 Differenzenverfahren
189
10.1 Systeme erster Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 10.2 Sturm-Liouville-Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 ¨ 10.3 Ubungsaufgaben
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
11 Variationsmethoden
207
11.1 Allgemeines Ritz-Galerkin-Verfahren . . . . . . . . . . . . . . . . . . . . . 207 11.2 Methode der finiten Elemente . . . . . . . . . . . . . . . . . . . . . . . . . 212 11.2.1
Lineare“ finite Elemente . . . . . . . . . . . . . . . . . . . . . . . . 212 ” 11.2.2 Finite Elemente h¨oherer Ordnung . . . . . . . . . . . . . . . . . . . 217 11.2.3 Der transport-dominante Fall . . . . . . . . . . . . . . . . . . . . . 218 11.2.4 A posteriori Fehleranalyse . . . . . . . . . . . . . . . . . . . . . . . 220 ¨ 11.3 Ubungsaufgaben
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
12 Ausblick auf partielle Differentialgleichungen
223
12.1 Transportgleichung (hyperbolisches Problem) . . . . . . . . . . . . . . . . . 223 12.1.1 Differenzenverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 224 12.1.2 Finite-Elemente-Galerkin-Verfahren . . . . . . . . . . . . . . . . . . 228 12.2 W¨armeleitungsgleichung (parabolisches Problem) . . . . . . . . . . . . . . 231 12.2.1 Diskretisierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . 232 12.3 Laplace-Gleichung (elliptisches Problem) . . . . . . . . . . . . . . . . . . . 237
vi
INHALTSVERZEICHNIS
12.3.1 Differenzenverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 238 12.3.2 Finite-Elemente-Galerkin-Verfahren . . . . . . . . . . . . . . . . . . 241 Index
244
INHALTSVERZEICHNIS
vii
0 Einleitung Gegenstand dieser Vorlesung sind numerische Algorithmen zur n¨aherungsweisen L¨osung von gew¨ohnlichen Differentialgleichungen. In der Regel lassen sich f¨ ur die in der Praxis auftretenden gew¨ohnlichen Differentialgleichungen keine geschlossenen L¨osungen angeben. Man ist zu ihrer wenigstens n¨aherungsweisen L¨osung also auf numerische Verfahren angewiesen. Diese Verfahren ersetzen das kontinuierliche Ausgangsproblem durch ein dis” kretes”, welches in endlich vielen algebraischen Schritten auf einer Rechenanlage gel¨ost werden kann.
0.1 Beispiele Die folgenden Beispiele aus verschiedenen Wissenschaftsdisziplinen vermitteln einen Eindruck von der Vielf¨altigkeit der auftretenden Probleme. Es bezeichnet u′ die Ableitung einer Funktion u nach ihrem Argument. 1. Astrophysik (Zweik¨ orperproblem) Gefragt ist nach der Bewegung zweier astronomischer K¨orper im gegenseitigen Schwerefeld. Sie werden dabei als Punktmassen beschrieben. Das Koordinatensystem der Ebene R2 sei so gelegt, daß der Ursprung (0, 0) in dem einen K¨orper liegt. Die Position des zweiten K¨orpers ist dann eine Funktion der Zeit mit Koordinatenfunktionen, (x(t), y(t)) , welche nach dem Newtonschen Gesetz dem folgenden System von Gleichungen gen¨ ugen: p γ γ ′′ x′′ (t) = − x(t), y (t) = − y(t), r(t) = x(t)2 + y(t)2 ). (0.1.1) r(t)3 r(t)3 Die Anfangsbedingungen” sind z.B. (0 ≤ ε < 1) : ” x(0) = 1 − ε ,
x′ (0) = 0 ,
y(0) = 0 ,
y ′ (0) =
p
γ(1 + ε)/(1 − ε) .
F¨ ur diese als Anfangswertaufgabe” bezeichnete Problemstellung existieren periodische ” L¨osungen mit der Periode ω = 2π/γ . Ihr Orbit ist eine Ellipse mit Exzentrizit¨at ε und einem Brennpunkt in (0, 0) . 2. Mechanik (Federungssystem) Ein horizontal fortbewegtes Fahrzeug der Masse M (idealisiert als Massepunkt) werde ged¨ampft durch ein vertikales Federungssystem unter den Annahmen: (i) lineares Federverhalten, (ii) D¨ampfungsfaktor lineare Funktion der Relativgeschwindigkeit der Endpunkte. 1
2
Einleitung
Die vertikale Komponente x(t) der Fahrzeugposition gen¨ ugt der Differentialgleichung Mx′′ (t) = − k (x − x0 )(t) − d (x − x0 )′ (t) mit den Anfangsbedingungen x(0) = 0, x′ (0) = 0 . x
6
M r
Fahrzeug
-
Gleichgewichtsniveau
x=0 ... ......... .......................... ...................... ............................. .......
pppppppppp p ppp p
Stoßd¨ampfer
rm
............................................................... ................. ............. .......................................... ........... .............. ................... .......... .......... ............... ............. .......... .................. ........... . . . . . . . . ................................................... ...... . . . . . . . . ..... . . . . . . . . ..... ........
t=0
x0 (t) -
t
3. Biologie (Populationsmodell) Die zeitliche Entwicklung einer Population von F¨ uchsen, f (t) , und Kaninchen, r(t) , wird unter den vereinfachenden Annahmen (i) unbeschr¨ankter Futtervorrat f¨ ur Kaninchen, (ii) Kaninchen einzige Nahrung f¨ ur F¨ uchse, durch das folgende sog. Volterra-Modell” beschrieben: ” r ′ (t) = 2r(t) − αr(t)f (t), r(0) = r0 , f ′ (t) = −f (t) + αr(t)f (t), f (0) = f0 . Im Falle α > 0 dezimieren die F¨ uchse die Kaninchen mit einer Rate proportional zum Produkt der Individuenzahlen und vermehren sich selbst mit derselben Rate. F¨ ur α = 0 besteht keine Wechselwirkung zwischen Kaninchenpopulation und F¨ uchsepopulation, und die L¨osung ist f (t) = f0 e−t (Aussterben) r(t) = r0 e2t (Explosion).
0.1 Beispiele
3
4. Raumfahrt (Landeman¨ over der Apollo-Raumkapsel) Die Flugbahn der Apollo-Raumkapsel beim Wiedereintritt in die Erdatmosph¨are liegt in einer Großkreisebene. Ihre Bewegung ist beschrieben durch die folgenden Gr¨oßen:
v(t) Tangentialgeschwindigkeit γ(t) Bahnneigungswinkel h(t) H¨ohe u ¨ ber Erdoberfl¨ache ξ(t) = h(t)/R, R Erdradius ρ, Cw , CA , g, S, m Konstanten
s Flugbahn @ shhh @ hhhh @ h { . hhh hh6 γ @ hh @ I R@ @ @ @s Erde
........... .............. ............ ............. ................. ............... ............... ................. ..................... .......................... .................. .................................... .............................................................................. .................................. . ................................... .. ................................... .... .................................. ............ . ............................................... . . . . . . . . ....... .... . . . . . . . . . ...... .... . . . . . . . ..... .. ... .... ... .... ... ... ... ... ... .. . ... .. . ... .. ... . .. ... . .. .... .. ... .. ... ...
Die Variablen v, γ, ξ gen¨ ugen den Differentialgleichungen SρCW sin γ(t) v(t)2 − g , 2m (1 + ξ(t))2 v(t) cos γ(t) cos γ(t) SρCA v(t)2 + −g , γ ′ (t) = 2 2m R(1 + ξ(t)) v(t)(1 + ξ(t))2 1 ξ ′(t) = v(t) sin γ(t) , R v ′ (t) = −
mit vorgegebenen Anfangswerte v(0), γ(0), ξ(0) . Die freien Parameter CW und CA sind so anzupassen, daß nach einer Zeitspanne T f¨ ur die L¨osung γ(T ) = 0 ist.
5. Chemie (Reaktionsdynamik) In einem Gef¨aß befinden sich drei Chemikalien Ai , i = 1, 2, 3 , mit Konzentrationen ci (t) , welche wechselseitig miteinander reagieren mit Reaktionsraten ki : k
A1 →1 A2 ,
k
A2 + A3 →2 A1 + A3 ,
k
2A2 →3 A3 .
Bei Vorgabe der Anfangskonzentrationen ci (0) ist die zeitliche Entwicklung von ci bestimmt durch die Differentialgleichungen: c′1 (t) = −k1 c1 (t) + k2 c2 (t)c3 (t), c′2 (t) = k1 c1 (t) − k2 c2 (t)c3 (t) − 2k3 c2 (t), c′3 (t) = 2k3 c2 (t).
4
Einleitung
6. Chemie (Diffusionsmodell) Bei der Beschreibung von Diffusions- und Reaktionsvorg¨angen in chemischen und biologischen Systemen wird man auf Differentialgleichungen der Form αx′′ (r) +
β ′ x (r) + γx(r)[x0 (r)−x(r)] = 0, r
x′ (0) = 0,
αx′ (1) = δ(x(1) − x1 )
gef¨ uhrt. Dabei bedeuten x = x(r) eine Konzentration und r eine Ortsvariable. Die Gr¨oßen α, β, γ, δ, x1 sind Konstanten und x0 = x0 (r) ist eine vorgegebene Funktion. 7. Str¨ omungsmechanik (Wellenausbreitung) Beim Studium von turbulenten Str¨omungen spielt die sog. Burgers-Gleichung” als ma” thematisches Modell eine Rolle: ∂u ∂u ∂2u +u =r 2, ∂t ∂x ∂x
0 ≤ x ≤ 1,
t ≥ 0.
Eine zeitlich station¨are L¨osung u = u(x) gen¨ ugt der Gleichung −ru′′ (x) + u(x)u′ (x) = 0 ,
0 ≤ x ≤ 1,
und gegebenenfalls den Randbedingungen u(0) = u(1) = 0 oder u′ (0) = u′ (1) = 0 . 8. Elastostatik (Balkenbiegung) Ein an einer Seite eingespannter Balken sei einer gleichf¨ormigen Belastung b vertikal zu seiner Achse und einer axialen Belastung p am freien Ende ausgesetzt. y 6
............................................ ....................................................................... .................. ............. .............. ........... ............ .......... ........... ......... .......... ......... ......... ......... ........ ........ ........ ....... ........ ....... ....... ....... ....... ...... ....... ....... ...... ...... ...... ...... ...... ..... ...... ...... ...... ...... ...... ..... ...... ...... ..... ...... ..... ..... ..... .... ..... .... .... .... .... ... ... ... ... .... .... .... .... ... .... .... .......
b ?
Wand
Balken
x
p
@ I @
x=L
x=0
Bei Annahme eines (linearen) elastischen Materialverhaltens und kleiner” Auslenkungen ” ist die Durchbiegung y = y(x) des Balkens beschrieben als L¨osung der Randwertaufga” be” b y ′ (L) = 0 , y(0) = 0. Ey ′′(x) = p y(x) − x2 , 0 ≤ x ≤ L 2
0.1 Beispiele
5
9. Lozenz-System (Chaotisches Verhalten) Der Physiker E.N. Lozenz hat 1963 das folgende System von gew¨ohnlichen Differentialgleichungen angegeben, um die Unm¨oglichkeit einer Langzeitwettervorhersage zu illustrieren: x′ (t) = σx(t) + σy(t), y ′(t) = rx(t) − y(t) − x(t)z(t), z ′ (t) = x(t)y(t) − bz(t),
(0.1.2)
mit den Anfangswerten x0 = 1, y0 = 0, z0 = 0. Tats¨achlich hat er dieses System durch mehrere stark vereinfachende Annahmen aus den Grundgleichungen der Str¨omungsmechanik, den sog. Navier-Stokes-Gleichungen, welche u.a. auch die Luftstr¨omungen in der Erdatmosph¨are beschreiben, abgeleitet. F¨ ur die Parameterwerte σ = 10,
b = 8/3,
r = 28,
besitzt dieses sog. Lorenz-System” eine eindeutige L¨osung, die aber extrem sensitiv ge” gen¨ uber St¨orungen der Anfangsdaten ist. Kleine St¨orungen in diesen werden z.B. u ¨ber das verh¨altnism¨aßig kurze Zeitintervall I = [0, 25] bereits mit einem Faktor ≈ 108 verst¨arkt. Die zuverl¨assige numerische L¨osung dieses Problems f¨ ur Zeiten t > 25 erschien daher seinerzeit praktisch unm¨oglich und stellt auch heute noch ein hartes Problem dar. Im Bild sind zwei Approximationen der L¨osungstrajektorie u ¨ ber das Zeitintervall I = [0, 25] dargestellt, wie sie mit verschiedenen Verfahren berechnet worden sind. Das linke Ergebnis ist das korrekte. Man erkennt zwei Zentren im R3 , um welche der L¨osungspunkt (x(t), y(t), z(t)) mit fortlaufender Zeit kreist, wobei gelegentlich ein Wechsel von dem einen Orbit in den anderen erfolgt. Die genaue numerische Erfassung dieser Umschl¨age ist ¨außerst schwierig.
z
z
50
50
40
40
30
30
20
20
10
10
0
0 20
20
10 -15
-10
-5
0 0 x
5
10
-10 15
-20
10 y
-15
-10
0
-5
0 x
5
10
-10 15
-20
Abbildung 1: L¨osungstrajektorie f¨ ur das Lorenz-System
y
6
Einleitung
0.2 L¨ osungsmethoden Anhand der diskutierten Beispiele sieht man, daß im Zusammenhang mit gew¨ohnlichen Differentialgleichungen zwei Typen von Problemen zu unterscheiden sind: – Anfangswertaufgaben (Beispiele 1–5), bei denen Werte der gesuchten L¨osung zu einem Anfangszeitpunkt” vorgeschrieben sind. ” – Randwertaufgaben (Beispiele 6–8), bei denen Werte der gesuchten L¨osung in Rand” punkten” des zugrunde liegenden Definitionsintervalls vorgeschrieben sind. Die allgemeinste (skalare) gew¨ohnliche Differentialgleichung d-ter Ordnung f¨ ur eine d-mal differenzierbare Funktion u(t) auf einem Intervall I = [t0 , t0 +T ] hat die implizite Gestalt F (t, u(t), u(1) (t), ..., u(d) (t)) = 0,
t ∈ I,
(0.2.3)
mit einer Funktion F (t, x0 , x1 , ..., xd ). Im Fall ∂F/∂xd 6= 0 kann (0.2.3) lokal nach u(d) aufgel¨ost werden, und man erh¨alt eine explizite Differentialgleichung u(d) (t) = f (t, u, u(1) , ..., u(d−1) ),
t ∈ I.
(0.2.4)
Durch Einf¨ uhrung der Hilfsfunktionen u1 := u, u2 := u(1) , ... , ud := u(d−1) kann die Gleichung (0.2.4) d-ter Ordnung in ein dazu ¨aquivalentes d-dimensionales System von Gleichungen erster Ordnung u uhrt werden: ¨berf¨ u′1 (t) = u2 (t), .. . ′ ud−1 (t) = ud (t), u′d (t) = f (t, u1(t), . . . , ud (t)).
(0.2.5)
In kompakter Notation lautet dies u′ (t) = f (t, u(t)) ,
(0.2.6)
mit den Vektorfunktionen u(t) = (u1 (t), . . . , ud (t))⊤ und f (t, x) = (f1 (t, x), . . . , fd (t, x))⊤ . Ausgehend von einem Anfangspunkt (t0 , u0 ) ∈ R1 × Rd werden L¨osungen u(t) auf dem Zeit“-intervall I = [t0 , t0 + T ] gesucht mit der Eigenschaft u(t0 ) = u0 . ” Bei den Anfangswertaufgaben ist die L¨osung ausgehend vom Anfangswert durch Vorw¨artsintegration der Differentialgleichung explizit bestimmbar, w¨ahrend sie bei Randwertaufgaben nur implizit bestimmt ist. Dieser signifikante Unterschied bewirkt, daß es f¨ ur die beiden Problemtypen keine einheitliche L¨osungstheorie gibt, wobei die f¨ ur Randwertaufgaben die schwierigere ist. Entsprechend unterscheiden sich auch die zugeh¨origen numerischen Methoden ganz wesentlich. Der Schwerpunkt dieser Vorlesung liegt zun¨achst
0.2 L¨osungsmethoden
7
auf den N¨aherungsverfahren f¨ ur Anfangswertaufgaben”; Verfahren f¨ ur Randwertauf” ” gaben” werden danach haupts¨achlich als Vorbereitung auf die numerische L¨osung von partiellen Differentialgleichungen diskutiert. Wir skizzieren im folgenden einige einfache L¨osungsans¨atze f¨ ur Anfangswertaufgaben (erster Ordnung), auf denen die meisten praktisch relevanten Verfahren basieren.
Methode der sukzessiven Approximation: Jede L¨osung u : I → Rd der Anfangswertaufgabe gen¨ ugt der Integralgleichung Z t u(t) = u0 + f (s, u(s)) ds, t ∈ I.
(0.2.7)
t0
Dies legt eine Fixpunktiteration zur Approximation von u(t) nahe. Ausgehend von dem Startwert u(0) ≡ 0 werden Funktionen u(k) (t), k ≥ 1 erzeugt durch die Iteration Z t (k) u (t) = u0 + f (s, u(k−1) (s)) ds. (0.2.8) t0
Die Konvergenz dieser Iteration (und damit auch die L¨osbarkeit der Integralgleichung (0.2.7)) ist durch den Banachschen Fixpunktsatz sichergestellt, wenn die Abbildung Z t g(v)(t) = u0 + f (s, v(s)) ds t0
eine Kontraktion auf dem Banach-Raum C(I) ist. Wenn die Funktion f (t, ·) Lipschitzstetig ist, entnehmen wir der Absch¨atzung Z t0 +T max |g(v) − g(w)| ≤ max |f (s, v) − f (s, w)| ds ≤ LT max |v − w|, I
I
t0
I
daß dies der Fall ist f¨ ur T < 1/L. Einfache Anfangswertaufgaben lassen sich mit dieser Methode quasi per Hand l¨osen; f¨ ur kompliziertere ist sie jedoch in der Regel zu ineffizient.
Methode der Taylor-Entwicklung: Unter der Annahme, daß die Funktion f (t, ·) und damit auch die L¨osung u(t) der Anfangswertaufgabe analytisch ist, l¨aßt sich u(t) in eine Taylor-Reihe entwickeln gem¨aß u(t0 + T ) =
∞ X Tk k=0
k!
(k)
u (t0 ) = u0 + T
∞ X T k−1 k=0
k!
f (k−1) (t0 , u0) ,
(0.2.9)
8
Einleitung
mit den k-ten totalen Zeitableitungen f (k) (t, x) von f (t, u(t)), welche mit Hilfe der Kettenregel zu bestimmen sind; z.B.: f (1) (t, x) = ft′ (t, x) + fx′ (t, x)x′ (t) = (ft′ + fx′ f )(t, x). Durch Abschneiden dieser Reihe bei k = m erh¨alt man ein numerisches Verfahren (sog. Taylor-Methode”) zur Berechnung des Funktionswerts u(t0 + T ). Im allgemeinen ist ” die Berechnung der Ableitungen f (k) (t0 , u0) zu teuer, so daß dieser L¨osungsansatz kaum praktikabel ist.
Methode der finiten Differenzen: Beim einfachsten Differenzenverfahren werden N¨aherungen yn ≈ u(tn ) auf einem endlichen Punktgitter des Intervalls I , t0 < t1 < ... < tn < ... < tN = t0 + T , mit Gitterweiten hn = tn − tn−1 berechnet z.B. durch die rekursive Beziehung h−1 n {yn − yn−1 } = f (tn−1 , yn−1 ),
n ≥ 1,
y0 = u0 .
(0.2.10)
Dieses Verfahren wird Eulersche Polygonzugmethode” (oder explizites Euler-Schema”) ” ” genannt, da hierdurch ein approximierender Polygonzug erzeugt wird: y(t) := yn−1 + (t − tn−1 )f (tn−1 , yn−1),
t ∈ [tn−1 , tn ].
(0.2.11)
Beim Eulerschen Polygonzugverfahren wird der neue Wert yn aus dem alten” yn−1 ” einfach durch Auswerten der rechten Seite f (tn−1 , yn−1 ) gewonnen; daher die Bezeichnung explizites” Verfahren. Ein analog gebautes implizites” Verfahren (das sog. implizite ” ” ” Euler-Schema”) erh¨alt man durch h−1 n {yn − yn−1 } = f (tn , yn ) ,
n≥1
y0 = u0 .
(0.2.12)
Hierbei muß zur Berechnung von yn aus yn−1 im allg. ein nichtlineares Gleichungssystem gel¨ost werden. F¨ ur beide Verfahren, explizites” und implizites” Euler-Schema, werden ” ” wir sp¨ater Konvergenzabsch¨atzungen der Form max kyn − u(tn k ≤ c(T, u) h, tn ∈I
(0.2.13)
mit h := maxn hn zeigen. Der Aufwand zur Durchf¨ uhrung des expliziten Euler-Verfahrens ist (bei gleicher Genauigkeit) meist deutlich geringer als bei seinem impliziten Gegenst¨ uck. Es stellt sich also die Frage nach dessen praktischer Relevanz. Tats¨achlich spielen implizite Verfahren nur in speziellen Situationen eine Rolle (Stichwort steife” Probleme), wenn ” explizite Schemata aus Gr¨ unden der numerischen Stabilit¨at gar nicht verwendet werden k¨onnen. F¨ ur die u urfnisse ist die G¨ ute der einfachen Euler¨ blichen praktischen Bed¨ Schemata viel zu gering, doch erlaubt das diesem Differenzenansatz zugrunde liegende Prinzip die Konstruktion von ¨ahnlich einfachen, aber wesentlich genaueren Verfahren.
0.2 L¨osungsmethoden
9
Galerkin-Methoden: Ausgangspunkt ist eine sog. variationelle Formulierung der Anfangswertaufgabe. Dazu wird die Differentialgleichung mit einer sog. Testfunktion ϕ multipliziert und dann u ¨ber das L¨osungsintervall I = [t0 , t0 + T ] integriert: Z Z ′ u (t)ϕ(t) dt = f (t, u(t))ϕ(t) dt. (0.2.14) I
I
Eine Beziehung dieser Art l¨aßt sich sinnvoll f¨ ur jede stetige und st¨uckweise stetig differenzierbare Funktion u formulieren. Der Vektorraum all dieser Funktionen sei mit V bezeichnet. Dabei bedeutet hier st¨uckweise, daß die Differenzierbarkeit nur bis auf endlich viele m¨ogliche Ausnahmestellen in I gefordert wird. Das linke Integral ist dann entsprechend auch st¨uckweise, d.h. als Summe von Teilintegralen, zu verstehen. Wir werden sp¨ater sehen, daß jede Funktion u, welche der Anfangsbedingung u(t0 ) = u0 und der integralen Beziehung f¨ ur jede Testfunktion ϕ gen¨ ugt, auch L¨osung der Anfangswertaufgabe ist. Die (stetige) Galerkin-Methode bestimmt nun eine N¨aherungsl¨osung uh in einem endlich dimensionalen Teilraum (Ansatzraum) Vh ⊂ V durch die Vorschriften uh (t0 ) = u0 und Z Z ′ (0.2.15) uh (t)ϕh (t) dt = f (t, uh (t))ϕh (t) dt, I
I
f¨ ur beliebiges ϕh ∈ Wh . Dabei ist der diskrete Testraum Wh in der Regel anders als Vh zu w¨ahlen. Ein einfaches Beispiel erh¨alt man etwa durch Wahl einer endlichen Zerlegung des Intervalls I gem¨aß t0 < t1 < ... < tn < ... < tN = t0 + T und der Setzung Vh
:= {vh : I → Rd : vh ∈ C[I], vh|(tn−1 ,tn ] ∈ P1 , n = 1, ..., N} ,
Wh := {ϕh : I → Rd : ϕh |(tn−1 ,tn ] ∈ P0 , n = 1, ..., N}.
Da die Testfunktionen nur st¨ uckweise stetig zu sein brauchen, kann man die integrale Bestimmungsgleichung offensicht auf jedes einzelne Teilintervall [tn−1 , tn ] einschr¨anken, Z tn Z tn ′ f (t, uh (t)) dt, (0.2.16) uh (t) dt = uh (tn ) − uh (tn−1 ) = tn −1
tn −1
d.h.: Auch das Galerkin-Verfahren ist wie das Differenzenverfahren ein Zeitschrittverfahren bestehend aus einzelnen Zeitschritten uh (tn−1 ) → uh (tn ). Bei Auswertung des Integrals auf der rechten Seite mit der Trapezregel ergibt sich das Differenzenschema yn − yn−1 = 21 hn f (tn , yn ) + f (tn−1 , yn−1) (0.2.17)
f¨ ur die Werte yn := uh (tn ) . Dieses implizite Differenzenverfahren wird Trapez-Verfahren” ” genannt. Es hat offensichtlich denselben Aufwand wie das implizite Euler-Verfahren. Allerdings ist es von h¨oherer Genauigkeit, denn wir werden Konvergenzabsch¨atzung max kuh (t) − u(t)k ≤ c(T, u) h2 , t∈I
(0.2.18)
10
Einleitung
zeigen mit h := maxn hn . Alternativ zu den st¨ uckweise polynomialen Ans¨atzen k¨onnte man beim Galerkin-Verfahren auch globale, orthogonale Legendre-Polynome oder trigonometrische Funktionen verwenden. Dies ist bei Anfangswertaufgaben aber wegen der globalen Kopplung aller Zeitlevel zu aufwendig.
0.3 Prinzipien der Verfahrensanalyse Ziel dieser Vorlesung ist u. a. die Entwicklung von Kriterien zur Leistungsbeurteilung der verschiedenen L¨osungsverfahren. Dazu geh¨oren die Fragen nach der Konvergenz der Diskretisierungen z.B. f¨ ur kleiner werdende Schrittweite beim Differenzenverfahren, ihrer Konvergenzordnung gemessen etwa in Potenzen dieser Schrittweite, ihrer numerischen Stabilit¨at bei Rechnungen u ¨ber l¨angere Zeitintervalle und schließlich die zuverl¨assige Kontrolle des Fehlers w¨ahrend der laufenden Rechnung und die effektive Schrittweitenwahl. Man unterscheidet zwischen a priori und a posteriori Fehleranalyse. Bei ersterer wird der Verfahrensfehler vor der Rechnung, d.h. a priori, in Termen des Diskretisierungsparameters h abgesch¨atzt. Dabei treten Konstanten c(u) auf, in denen h¨ohere Ableitungen der (unbekannten) L¨osung eingehen: max ku(tn )−y n k ≤ c(u)hm . [0,T ]
Derartige Fehlerabsch¨atzungen geben in der Regel nur Informationen u ¨ber das asymptotische Verhalten des Fehlers f¨ ur h → 0 , erlauben aber keine brauchbaren quantitativen Aussagen u ¨ber die tats¨achliche Gr¨oße des Fehlers. Insbesondere lassen sich auf dieser Basis nur schwer verl¨aßliche Kriterien f¨ ur die geeignete Wahl der Schrittweite h ableiten. Die a posteriori Fehlerabsch¨atzung basiert auf der bereits berechneten N¨aherungsl¨osung y n , d.h. deren Residuum” r(y n ) bzgl. der Differentialgleichung (oder dem Abschneide” ” fehler” τ n ), und ben¨otigt keinerlei Informationen u ¨ ber die exakte L¨osung: max ku(tn )−y nk ≤ c max kr(y n )k. [0,T ]
tn ∈[0,T ]
Eine solche Absch¨atzung ist zwar leicht auswertbar, liefert aber keine a priori Aussagen u ur lassen sich damit neben ei¨ber die zu erwartende Konvergenz des Verfahrens. Daf¨ ner quantitativen Kontrolle des aktuellen Fehlers auch effiziente Strategien zur Wahl der Diskretisierungsschrittweiten hn angeben.
1 Anfangswertaufgaben 1.1 Aus der Theorie der Anfangswertaufgaben 1.1.1 Existenz von Lo ¨sungen Wir betrachten im folgenden allgemeine Systeme gew¨ohnlicher Differentialgleichungen erster Ordnung in der (expliziten) Form u′ (t) = f (t, u(t)) .
(1.1.1)
““ mit Vektorfunktionen u(t) = (u1 (t), . . . , ud (t))⊤ und f (t, x) = (f1 (t, x), . . . , fd (t, x))⊤ . Ausgehend von einem Anfangspunkt (t0 , u0) ∈ R1 ×Rd werden L¨osungen u(t) auf einem ”Zeit”-intervall I = [t0 , t0 + T ] oder auch I = [t0 − T, t0 + T ] gesucht mit u(t0 ) = u0 . Die Funktion f (t, x) sei auf einem Zylinder D = I × Ω ⊂ R1 ×Rd des (t, x)-Raumes, welcher den Punkt (t0 , u0) enth¨alt, definiert und dort stetig. Weiterhin werden die Standardnotationen f¨ ur das euklidische Skalarprodukt und Norm (x, y) =
d X
kxk = (x, x)1/2 ,
xi yi ,
i=1
x, y ∈ Rd ,
sowie f¨ ur die zugeh¨orige nat¨ urliche Matrizennorm kAk = sup{kAxk : x ∈ Rd , kxk = 1} , d×d f¨ ur A ∈ R , verwendet. Ableitungen werden wie folgt bezeichnet: u′ (t) =
du(t) , dt
ft′ (t, x) =
∂f (t, x) , ∂t
∂i f (t, x) =
∂f (t, x) . ∂xi
Unter einer Anfangswertaufgabe“ wollen wir folgende Problemstellung verstehen: ” Definition 1.1: AWA Zu einem gegebenen Punkt (t0 , u0 ) ∈ D ist eine (stetig) differenzierbare Funktion u : I → Rd gesucht mit den Eigenschaften: 1. Graph(u) := {(t, u(t)), t ∈ I} ⊂ D , 2. u′ (t) = f (t, u(t)) ,
t∈I,
3. u(t0 ) = u0 . Nach dem Fundamentalsatz der Differential- und Integralrechnung ist eine stetige Funktion u : I → Rd genau dann L¨osung der AWA, wenn Graph(u) ⊂ D ist, und Z t u(t) = u0 + f (s, u(s)) ds , t ∈ I . (1.1.2) t0
11
12
Anfangswertaufgaben
Eine allgemeine Aussage u ¨ber die lokale Existenz von L¨osungen der AWA macht der folgende fundamentale Satz: Satz 1.1 (Existenzsatz von Peano): Die Funktion f (t, x) sei stetig auf dem (d + 1)dimensionalen Zylinder D = {(t, x) ∈ R1 × Rd : |t − t0 | ≤ α , kx − u0 k ≤ β}. Dann existiert eine L¨osung u(t) der AWA auf dem Intervall I := [t0 − T, t0 + T ], wobei mit M := max(t,x)∈D kf (t, x)k : β T := min α, . M
Beweis: Zum Beweis konstruieren wir mit Hilfe einer Differenzenmethode eine Folge von st¨ uckweise linearen Funktionen, welche eine Teilfolge besitzt, die gegen eine L¨osung der AWA konvergiert. O.B.d.A. gen¨ ugt es, das Halbintervall I = [t0 , t0 + T ] zu betrachten. Zu einem Schrittweitenparameter h > 0 (h → 0) wird eine ¨aquidistante Unterteilung des Intervalls I gew¨ahlt: t0 < . . . < tn < . . . < tN = t0 + T ,
h = tn − tn−1 .
Ausgehend von uh0 := u0 erzeugt dann das sog. Eulersche Polygonzugverfahren Werte uhn durch die sukzessive Vorschrift uhn = uhn−1 + hf (tn−1 , uhn−1 ) ,
n ≥ 1.
(1.1.3)
Diese diskreten Funktionswerte werden linear interpoliert zu einer stetigen Funktion: uh (t) := uhn−1 + (t − tn−1 )f (tn−1 , uhn−1) ,
tn−1 ≤ t ≤ tn .
(i) Wir zeigen zun¨achst, daß diese Konstruktion durchf¨ uhrbar ist, d.h.: Graph(uh ) ⊂ D . h h′ Sei (t, u (t)) ∈ D f¨ ur t0 ≤ t ≤ tk−1 . Offenbar ist u (t) ≡ f (tk−1, uhk−1) , t ∈ [tk−1 , tk ] . Nach Konstruktion gilt dann f¨ ur t ∈ [tk−1 , tk ] h
h
u (t) − u0 = u (t) − = (t −
uhk−1
+
k−1 X i=1
{uhi − uhi−1}
tk−1 )f (tk−1 , uhk−1)
+h
k−1 X
f (ti−1 , uhi−1 )
i=1
und folglich kuh (t) − u0 k ≤ (t − tk−1 )M + (tk−1 − t0 )M = M(t − t0 ) ≤ β . Also ist (t, uh (t)) ∈ D f¨ ur 0 ≤ t ≤ tk . Durch Induktion nach k folgt Graph(uh ) ⊂ D .
1.1 Aus der Theorie der Anfangswertaufgaben
13
(ii) Wir zeigen als n¨achstes, daß die Funktionenfamilie {uh }h>0 gleichgradig stetig ist. Seien dazu t, s ∈ I, s ≤ t beliebig mit t ∈ [tk−1 , tk ], s ∈ [tj−1 , tj , ] f¨ ur gewisse tj ≤ tk . Dann ist h
h
h
u (t) − u (s) = u (t) −
uhk−1
+
k−1 X i=j
{uhi − uhi−1 } + uhj−1 − uh (s)
= (t − tk−1 )f (tk−1, uhk−1) + h = (t −
tk−1 )f (tk−1, uhk−1)
+h
k−1 X i=j
f (ti−1 , uhi−1 ) + (tj−1 − t′ )f (tj−1, uhj−1)
k−1 X
i=j+1
f (ti−1 , uhi−1) + (h + tj−1 − s)f (tj−1 , uhj−1)
und folglich kuh (t) − uh (s)k ≤ M {(t − tk−1 ) + (tk−1 − tj ) + (tj − s)} ≤ M|t − t′ | . Also ist die Familie {uh }h>0 gleichgradig stetig (sogar gleichgradig Lipschitz-stetig). Nach dem Satz von Arzel`a-Ascoli (Hilfssatz 1.1) existiert nun eine Nullfolge (hi )i∈N und eine stetige Funktion u auf I , so daß max kuhi (t) − u(t)k → 0 (i → ∞) .
(1.1.4)
t∈I
Offenbar ist dann auch Graph(u) ⊂ D .
(iii) Es bleibt zu zeigen, daß die Limesfunktion u der Integralgleichung (1.1.2) gen¨ ugt. F¨ ur i hi t ∈ [tk , tk+1 ] ⊂ I setzen wir u (t) := u (t) . F¨ ur jedes i gilt zun¨achst nach Konstruktion Z t i u (t) = u0 + {f (tk−1 , uik−1)−f (s, ui(s))} ds tk
+
k Z tj X j=1
tj−1
{f (tj−1 , uij−1)−f (s, ui(s))} ds
+
Z
t
f (s, ui(s)) ds .
t0
Auf der kompakten Menge D ist die stetige Funktion f (t, x) auch gleichm¨aßig stetig. Zu jedem ε > 0 gibt es also ein δε , so daß f¨ ur |t − s| + kx − yk < δε gilt kf (t, x) − f (s, y)k < ε . F¨ ur hinreichend großes i ≥ iε folgt also (aufgrund der gleichgradigen Stetigkeit der ui ): max kf (tk−1 , ui(tk−1 )) − f (s, ui(s))k ≤ ε .
s∈[tk−1 ,tk ]
Zusammen mit der gleichm¨aßigen Konvergenz ui → u (i → ∞) auf I impliziert dies, daß die Limesfunktion u (1.1.2) erf¨ ullt. Q.E.D.
14
Anfangswertaufgaben
Wenn die AWA h¨ochstens eine L¨osung u auf I hat, erschließt man durch ein Widerspruchsargument, daß f¨ ur jede Nullfolge des Schrittweitenparameters h die vom Eulerschen Polygonzugverfahren gelieferte Folge (uh )h f¨ ur h → 0 gegen u konvergiert. Hilfssatz 1.1 (Satz von Arzel` a-Ascoli): Sei F = {f } eine Familie stetiger Funktionen f : I → Rd , welche gleichm¨aßig beschr¨ankt und gleichgradig stetig sind: M := sup max kf (t)k < ∞ , f ∈F
∀ ε > 0 ∃ δ (ε) > 0 :
t∈I
sup f ∈F
max kf (t) − f (s)k ≤ ε .
t,s∈I |t−s|≤δ(ε)
Dann gibt es eine Folge (fn )n∈N ⊂ F , welche gleichm¨aßig auf I gegen eine stetige Funktion f : I → Rd konvergiert: max kfn (t) − f (t)k → 0 t∈I
(n → ∞) .
Beweis: Sei (rk )k∈N die auf irgendeine Weise durchnumerierte Folge der rationalen Punkte in I . F¨ ur jedes rk gilt nach Voraussetzung supf ∈F |f (rk )| < ∞ . Der Satz von BolzanoWeierstraß garantiert also die Existenz von Folgen (fnk )nk ∈N ⊂ F, k ∈ N mit den Eigenschaften (fnk+1 ) ⊂ (fnk ) und (fnk (rk ))nk ∈N konvergent. Gem¨aß dieser Konstruktion ist (fnk (rl ))nk ∈N konvergent f¨ ur l = 1, . . . , k . F¨ ur die Diagonalfolge (fn )n∈N := (fnn )n∈N ist dann folglich (fn (rk ))n∈N konvergent, f¨ ur alle k ∈ N .
Wir wollen zeigen, daß die Folge (fn )n∈N gleichm¨aßig auf I konvergiert. Nach Konstruktion konvergiert (fn )n∈N in den rationalen Punkten in I . Sei ε > 0 und rk ∈ I beliebig gew¨ahlt. Dann gibt es ein Nε (rk ) ∈ N , so daß kfn (rk ) − fm (rk )k ≤ ε
∀ n, m ≥ Nε (rk ) .
Aufgrund der gleichgradigen Stetigkeit der fn ∈ F gibt es ein δε , so daß gilt: sup kfn (t) − fn (s)k ≤ ε n∈N
∀ t, s ∈ I , |t − s| < δε .
Wir unterteilen nun das Intervall I in Teilintervalle Ik = [tk−1 , tk ] , t0 < . . . < tN = t0 +T , wobei max1≤k≤N |tk − tk−1 | ≤ δε . Aus jedem Ik w¨ahlen wir ein rk ∈ Q . F¨ ur beliebiges t ∈ Ik gilt dann kfn (t) − fm (t)k ≤ kfn (t) − fn (rk )k + kfn (rk ) − fm (rk )k + kfm (rk ) − fm (t)k ≤ 3ε f¨ ur n, m ≥ max{Nε (r1 ), . . . , Nε (rN )} . Die Funktionenfolge (fn )n∈N ist also eine CauchyFolge im metrischen Raum C(I)d der auf I definierten und stetigen Vektorfunktionen mit der Metrik d(f, g) := maxt∈I kf (t) − g(t)k . Da C(I)d vollst¨andig ist, existiert ein f ∈ C(I)d , so daß d(fn , f ) → 0 (n → ∞) . Q.E.D. Der Beweis von Satz 1.1 zeigt, daß das Existenzintervall I = [t0 − T, t0 + T ] der durch den Existenzsatz von Peano gelieferten lokalen L¨osung im wesentlichen nur von den
1.1 Aus der Theorie der Anfangswertaufgaben
15
Stetigkeitseigenschaften der Funktion f (t, x) abh¨angt. Durch wiederholte Anwendung dieses Argumentes ergibt sich also die folgende Aussage. Satz 1.2 (Fortsetzungssatz): Sei die Funktion f (t, x) stetig auf einem beschr¨ankten Zylinder D des R1 × Rd , welcher den Punkt (t0 , u0) enth¨alt, und sei u eine L¨osung der AWA auf einem Intervall I = [t0 − T, t0 + T ] . Die L¨osung ist dann (stetig differenzierbar) fortsetzbar nach rechts und links, bis der Graph von u an den Rand von D st¨oßt. Aus der Integralgleichungsdarstellung (1.1.2) ergibt sich unmittelbar die folgende Aussage u ¨ber die Regularit¨at von L¨osungen der AWA. Satz 1.3 (Regularit¨ atssatz): Sei u eine L¨osung der AWA auf dem Intervall I . Im m Falle f ∈ C (D) , f¨ur ein m ≥ 1 , ist dann u ∈ C m+1 (I) . Beispiel 1.1:
u′ (t) = u(t)1/3 , t ≥ 0 ,
L¨osungen sind f¨ ur beliebiges c ≥ 0 : uc (t) =
u(0) = 0 .
0, 2
0≤t≤c 3/2 (t − c) , c < t. 3
Das Eulersche Polygonzugverfahren liefert f¨ ur alle c > 0 die L¨osung uc (t) ≡ 0 . Die anderen (¨ uberabz¨ahlbar vielen!) L¨osungen k¨onnen also so nicht approximiert werden. Beispiel 1.2:
u′ (t) = u(t)2 ,
0 ≤ t < 1,
u(0) = 1 .
Eine (lokale) L¨osung ist u(t) = (1 − t)−1 . Obwohl f (t, x) = x2 eine glatte Funktion ist, wird die L¨osung u(t) f¨ ur t → 1 singul¨ar. Beispiel 1.3:
u′ (t) = λu(t) ,
t ≥ 0,
u(0) = u0
(λ ∈ C) .
Die globale (eindeutige) L¨osung ist u(t) = u0 eλt mit dem asymptotischen Verhalten Re λ < 0 : Re λ = 0 : Re λ > 0 :
|u(t)| → 0 (t → ∞) , |u(t)| = |u0| ,
|u(t)| → ∞ (t → ∞) .
1.1.2 Stabilit¨ atseigenschaften Wir wenden uns nun den Fragen nach Eindeutigkeit und Stabilit¨at von L¨osungen zu. Definition 1.2 (Lipschitz-Bedingung): Die Funktion f (t, x) gen¨ugt einer Lipschitz” bedingung“, wenn mit einer Konstanten L(t) (Lipschitz-Konstante) gilt kf (t, x) − f (t, y)k ≤ L(t)kx − yk , Wir setzen L := supt∈I L(t).
(t, x) , (t, y) ∈ D.
(1.1.5)
16
Anfangswertaufgaben
Satz 1.4 (Lokaler Stabilit¨ atssatz): Mit zwei stetigen Funktionen f (t, x) und g(t, x) auf D seien die beiden AWAn u′ (t) = f (t, u(t)) , v ′ (t) = g(t, v(t)) ,
t∈I, t∈I,
u(t0 ) = u0 , v(t0 ) = v0 .
(1.1.6) (1.1.7)
betrachtet. Die Funktion f (t, x) gen¨uge der Lipschitzbedingung (1.1.5) auf D . Dann gilt f¨ur zwei beliebige L¨osungen u von (1.1.6) und v von (1.1.7) Z t L(t−t0 ) ku0 − v0 k + ε(s) ds , t ∈ I , (1.1.8) ku(t) − v(t)k ≤ e t0
wobei ε(t) := supx∈Ω kf (t, x) − g(t, x)k. Beweis: F¨ ur die Differenz e(t) = u(t) − v(t) gilt Z t Z t e(t) = {f (s, u(s)) − f (s, v(s))} ds + {f (s, v(s)) − g(s, v(s))} ds + u0 − v0 . t0
t0
hieraus folgt ke(t)k ≤ L
Z
t
t0
ke(s)k ds +
Z
t
t0
ε(s) ds + ku0 − v0 k ,
d.h.: Die (stetige) Funktion w(t) = ke(t)k gen¨ ugt einer linearen Integralungleichung. Mit Hilfe des Gronwallschen Lemmas (Hilfssatz 1.2) ergibt sich daraus die gew¨ unschte Absch¨atzung. Q.E.D.
Hilfssatz 1.2 (Gronwallsches Lemma): Die st¨uckweise stetige Funktion w(t) ≥ 0 gen¨uge mit einer integrablen Funktion a(t) ≥ 0 und einer nicht fallenden Funktion b(t) ≥ 0 der Integralungleichung Z t w(t) ≤ a(s)w(s) ds + b(t) , t ≥ t0 . (1.1.9) t0
Dann gilt die Absch¨atzung w(t) ≤ exp
hZ
t
t0
i a(s)ds b(t) ,
t ≥ t0 .
Beweis: Wir definieren die Hilfsfunktionen Z t Z t a(s)w(s)ds ≤ b(t) . a(s)w(s) ds , ψ(t) := w(t) − ϕ(t) := t0
t0
F¨ ur diese gilt dann ϕ′ (t) = a(t)w(t) ,
ϕ(t0 ) = 0
(1.1.10)
1.1 Aus der Theorie der Anfangswertaufgaben
17
und folglich a(t)ψ(t) = a(t)w(t) − a(t)
Z
t
t0
a(s)w(s) ds = ϕ′ (t) − a(t)ϕ(t) .
Also ist ϕ(t) L¨osung der linearen AWA ϕ′ (t) = a(t)ϕ(t) + a(t)ψ(t) ,
t ≥ t0 ,
ϕ(t0 ) = 0 .
Durch Nachrechnen verifiziert man, daß hZ t iZ t h Z s i ϕ(t) = exp a(s) ds exp − a(r)dr a(s)ψ(s) ds . t0
t0
t0
Wegen a(s) ≥ 0 und ψ(s) ≤ b(t) folgt hZ t iZ tn h Z s io d ϕ(t) ≤ b(t) exp a(s)ds − exp − a(r)dr ds ds t0 t0 t0 hZ t i ≤ b(t) exp a(s)ds − b(t) . t0
Das ergibt schließlich mit der Voraussetzung (1.1.9) w(t) ≤ ϕ(t) + b(t) ≤ b(t) exp
hZ
i
t
a(s)ds . t0
Q.E.D.
Korollar 1.1 (Eindeutigkeitssatz): Der Stabilit¨atssatz zeigt als Nebenprodukt, daß eine AWA mit Lipschitz-stetiger Funktion f (t, ·) h¨ochstens eine L¨osung haben kann. Die durch den Existenzsatz von Peano gelieferte lokale L¨osung ist in diesem Falle also eindeutig. Damit erh¨alt man einen Teil der Aussagen des klassischen Existenzsatzes von Picard-Lindel¨of.
Beispiel 1.4: Die Funktion f (t, x) habe auf D stetige partielle Ableitungen nach x , welche beschr¨ankt sind: max |∂j fi (t, x)| ≤ K ,
1≤i,j≤d
(t, x) ∈ D .
Dann ist f Lipschitz-stetig bzgl. x mit der Lipschitz-Konstante L = dK . Zum Beweis schreiben wir ′
fi (t, x) − fi (t, x ) =
Z
0
1 ′
′
∂s fi (t, x +s(x−x )) ds =
Z 1X d 0
j=1
∂j fi (t, x′ +s(x−x′ ))(xj −x′j ) ds
18
Anfangswertaufgaben
und finden ′
′
kf (t, x) − f (t, x )k ≤ kx − x k
d Z hX i,j=1
1 ′
0
′
2
|∂j fi (t, x +s(x−x ))| ds
i1/2
≤ kx − x′ k Kd .
Beispiel 1.5: Die Funktion f (t, x) = x1/3 (d = 1) aus Beispiel 1.1.1.1 ist auf dem Intervall I = [0, 1] in x = 0 nicht Lipschitz-stetig, woraus sich die Mehrdeutigkeit der L¨osung der zugeh¨origen AWA erkl¨art. F¨ ur die Anfangsbedingung u(0) = 1 ergibt sich dagegen 2 3/2 die L¨osung u(t) = [ 3 t + 1] , welche eindeutig ist, da die Funktion f (t, x) = x1/3 bei x = 1 Lipschitz-stetig ist. Beispiel 1.6: Die Funktion f (t, x) = x2 (d = 1) aus Beispiel 1.1.1.2 ist nur lokal“ ” Lipschitz-stetig, d.h. nur f¨ ur beschr¨ankte Argumente: |x2 − y 2| = |x + y||x − y| ≤ L|x − y| mit L = max{|x + y| , x, y ∈ D} . Solange die L¨osung der zugeh¨origen AWA existiert, ist sie also eindeutig. F¨ ur sp¨atere Zwecke ben¨otigen wir noch st¨arkere Aussagen u ¨ber die Abh¨angigkeit der L¨osungen von AWAn von den Anfangswerten als die durch den Stabilit¨atssatz garantierte Stetigkeit. Satz 1.5 (Differenzielle Stabilit¨ at): Zus¨atzlich zu den Voraussetzungen des Existenzsatzes von Peano existiere die Funktionalmatrix fx′ (t, x) = (∂j fi (t, x))1≤i,j≤d auf dem Zylinder D und sei dort stetig. Dann h¨angt die (eindeutige) L¨osung der AWA stetig differenzierbar vom Anfangswert u0 ab. Die Ableitung Du0 u(t) = (∂ui (t)/∂u0,j )di,j=1 ist gegeben als L¨osung der linearen Matrix-AWA Du0 u′ (t) = fx′ (t, u (t)) Du0 u (t) , t ∈ I,
Du0 u(t0 ) = I .
(1.1.11)
Beweis: F¨ ur kleine δ > 0 betrachten wir die Anfangswerte uδ (t0 ) = u0 + δej mit dem j-ten kartesischen Einheitsvektor ej . F¨ ur die zugeh¨origen L¨osungen uδ der AWA gilt −1
−1
Z
t
{f (s, u)−f (s, uδ )} ds Z 1 d −1 f (s, uδ +ε(u−uδ )) dε ds = ej + δ t0 0 dε Z tZ 1 = ej + fx′ (s, uδ +ε(u−uδ )) dε δ −1 (u−uδ )(s) ds t 0 Z 0t = ej + Bδ (s) δ −1 (u−uδ )(s) ds ,
δ (u−uδ )(t) = ej + δ
t0 Z t
t0
wobei
1.1 Aus der Theorie der Anfangswertaufgaben
Bδ (s) :=
Z
19
1
0
fx′ (s, uδ +ε(u−uδ )) dε → fx′ (s, u(s)) (δ → 0).
Zur Abk¨ urzung setzen wir ∆δ u(t) := δ −1 (u−uδ ) . Mit Hilfe des Gronwallschen Lemmas ergibt sich wegen kej k = 1 : k∆δ u(t)k ≤ exp
Z
t t0
Bδ (s) ds ≤ eL(t−t0 ) .
F¨ ur zwei beliebige Werte δ, δ ′ > 0 und die zugeh¨origen L¨osungen uδ , uδ′ gilt dann Z t Z t Bδ (s)∆δ u(s) ds − Bδ′ (s)∆δ′ u(s) ds ∆δ u(t)−∆δ′ u(t) = t0 t0 Z t Z t (Bδ (s)−Bδ′ (s))∆δ′ u(s) ds, Bδ (s)(∆δ u(s)−∆δ′ u(s)) ds + = t0
t0
und mit Hilfe des Gronwallschen Lemmas folgt weiter Z t0 +T 2LT kBδ (s)−Bδ′ (s)k ds . sup k∆δ u(t)−∆δ′ u(t)k ≤ e t∈I
t0
Nach Voraussetzung ist die Ableitung fx′ (t, x) auf kompakten Mengen gleichm¨aßig stetig. Dies gilt dann auch f¨ ur Bδ (s) als Funktion sowohl von s als auch von δ . Durch Wahl von ′ δ, δ hinreichend klein kann daher supt∈I k∆δ u(t)−∆δ′ u(t)k kleiner als jedes beliebig klein vorgegebene ε > 0 gemacht werden. Dies impliziert, daß f¨ ur jede Nullfolge (δi )i∈N die zugeh¨orige Folge von L¨osungen (∆δi u)i∈N eine Cauchy-Folge bzgl. der Maximumnorm ist. Der stetige Limes ist die gesuchte Ableitung Du0 ,j u von u nach der j-ten Komponente u0,j des Anfangswerts u0 : max k∆δ u(t) − Du0 ,j u(t)k → 0 (δ → 0). t∈I
Durch Grenz¨ ubergang δ → 0 in obiger Identit¨at ergibt sich weiter Z t Du0 ,j u(t) = ej + fx′ (s, u)Du0 ,j u(s) ds, t0
d.h.: Die Funktion Du0 ,j u(t) ist L¨osung der AWA Du0 ,j u′ (t) = fx′ (t, u(t))Du0 ,j u(t),
t ≥ t0 ,
Du0 ,j u(t0 ) = ej .
F¨ uhrt man diese Konstruktion f¨ ur alle Komponenten u0,1 , . . . , u0,d des Anfangswerts durch, so erh¨alt man eine Matrixfunktion Du0 u(t) := [Du0 ,1 u(t), . . . , Du0 ,d u(t)] , welche dann nach Konstruktion L¨osung der Matrix-Differentialgleichung (1.1.11) ist. Q.E.D. Als Folgerung aus den S¨atzen 1.2 und 1.4 erh¨alt man eine globale Existenzaussage f¨ ur AWAn mit linear beschr¨ankter“ Nichtlinearit¨at. ”
20
Anfangswertaufgaben
Satz 1.6 (Globaler Existenzsatz): Die Funktion f (t, x) sei stetig auf D = R1 × Rd und gen¨uge mit stetigen Funktionen α(t) und β(t) der Wachstumsbedingung kf (t, x)k ≤ α(t) kxk + β(t) ,
(t, x) ∈ D .
(1.1.12)
Dann besitzt die zugeh¨orige AWA eine globale“ L¨osung. Gen¨ugt f (t, x) dar¨uberhinaus ” einer Lipschitz-Bedingung, so ist die L¨osung eindeutig. Beweis: F¨ ur die durch den Peanoschen Satz gelieferte lokale L¨osung u auf einem Intervall I = [t0 , t0 + T ] gilt aufgrund der Wachstumsbeschr¨ankung an f (t, x) Z t ku(t)k ≤ ku0 k + {α(s)ku(s)k + β(s)} ds , t ∈ I . t0
Mit Hilfe des Gronwallschen Lemmas folgt die Absch¨atzung Z t hZ t in o ku(t)k ≤ exp α(s) ds ku0 k + β(s) ds , t0
t0
t∈I,
d.h.: ku(t)k bleibt auf jedem Existenzintervall unterhalb einer nur von T und den Funktionen α(t), β(t) abh¨angigen Schranke. Nach Satz 1.2 l¨aßt sich der Graph von u aber bis zum Rand von D fortsetzen. Folglich existiert u f¨ ur alle t ≥ t0 . Die Eindeutigkeitsaussage ergibt sich direkt aus Satz 1.4. Q.E.D. Aus Satz 1.6 folgt insbesondere, daß eine (global) L-stetige AWA kf (t, x)k ≤ kf (t, x) − f (t, 0)k + kf (t, 0)k ≤ Lkxk + kf (t, 0)k, eine eindeutige, globale L¨osung besitzt. Durch Spezialisierung dieser Aussage erh¨alt man die Existenz einer globalen und eindeutigen L¨osung der allgemeinen linearen AWA u′ (t) = A(t)u(t) + b(t) ,
t ≥ t0 ,
u(t0 ) = u0 ,
(1.1.13)
mit stetiger Matrix A(t) ∈ Rd×d und Vektor b(t) ∈ Rd . Globale Stabilit¨ at Wir wenden uns nun der Frage nach der globalen“ Stabilit¨at von L¨osungen von AWAn ” zu. Neben der Lipschitz-Bedingung (L) wird dazu noch eine weitere Struktureigenschaft der Nichtlinearit¨at f (t, x) ben¨otigt. Definition 1.3 (Monotone AWA): Die Funktion f (t, x) gen¨ugt einer Monotoniebe” dingung“, wenn mit einer Konstante λ := inf t∈I λ(t) > 0 gilt: −(f (t, x) − f (t, y), x − y) ≥ λ(t)kx − yk2 ,
(t, x) , (t, y) ∈ D.
(1.1.14)
1.1 Aus der Theorie der Anfangswertaufgaben
21
Die Bedingung (1.1.14) ist eine direkte Verallgemeinerung der skalaren Eigenschaft monoton fallend f¨ ur vektorwertige Funktionen. F¨ ur eine skalare Funktion g(x) ist die Beziehung −(g(x) − g(y))(x − y) ≥ λ|x − y|2 f¨ ur beliebige x, y gleichbedeutend mit (g(x) − g(y))/(x − y) ≤ −λ , bzw. g ′ ≤ −λ, wenn g differenzierbar ist. Im Falle einer linearen Funktion f (t, x) = A(t)x + b(t) ist (1.1.14) gleichbedeutend mit der negativen Definitheit der Matrix A(t) auf dem Zeitintervall I. Der einfachste Spezialfall ist die skalare Funktion f (t, x) = qx, f¨ ur die (1.1.14) gerade q ≤ −λ < 0 bedeutet.
Eine AWA, die einer Lipschitzbedingung bzw. einer Monotoniebedingung gen¨ ugt nennen wir kurz L-stetig“ und (stark) monoton“. Ihre L¨osungen haben besonders starke ” ” Stabilit¨atseigenschaften.
Definition 1.4 (Exponentielle Stabilit¨ at): Eine globale L¨osung u(t) einer AWA wird exponentiell stabil“ genannt, wenn es positive Konstanten δ , α , A gibt, so daß folgendes ” gilt: Zu jedem Zeitpunkt t∗ ≥ t0 und zu jedem w∗ ∈ Rd mit kw∗ k < δ hat die gest¨orte AWA v ′ (t) = f (t, v(t)) ,
t ≥ t∗ ,
v(t∗ ) = u(t∗ ) + w∗ ,
(1.1.15)
eine ebenfalls globale L¨osung v(t) , und es gilt kv(t) − u(t)k ≤ A e−α(t−t∗ ) kw∗ k ,
t ≥ t∗ .
(1.1.16)
Neben dem Begriff der exponentiellen“ Stabilit¨at findet man in der Literatur noch ” eine Reihe anderer (schw¨acherer) Stabilit¨atsdefinitionen, z.B.: asymptotische“ Stabilit¨at. ” Satz 1.7 (Globaler Stabilit¨ atssatz): Alle L¨osungen einer L-stetigen und (stark) monotonen AWA sind global und exponentiell stabil mit δ beliebig und α = λ , A = 1 . Im Falle supt>0 kf (t, 0)k < ∞ sind alle L¨osungen gleichm¨aßig beschr¨ankt. Beweis: (i) Wegen der angenommenen (globalen) L-Stetigkeit existieren sowohl f¨ ur die ungest¨orte RWA u′ (t) = f (t, u(t)), t ≥ t0 , u(t0 ) = u0 , als auch f¨ ur jede gest¨orte AWA v ′ (t) = f (t, v(t)), t ≥ t∗ , v(t∗ ) = u(t∗ ) + w∗ , eindeutige, globale L¨osungen. Subtraktion der beiden Gleichungen und skalare Multiplikation mit w(t) := v(t) − u(t) ergibt 1d kw(t)k2 − (f (t, v(t)) − f (t, u(t)), w(t)) = 0 2 dt und, unter Ausnutzung der Monotonieeigenschaft, 1d kw(t)k2 + λkw(t)k2 ≤ 0 . 2 dt
22
Anfangswertaufgaben
Wir multiplizieren dies mit e2λ(t−t∗ ) und erhalten i d h 2λ(t−t∗ ) e kw(t)k2 ≤ 0, dt
bzw. nach Integration u ¨ber [t∗ , t] ,
kw(t)k ≤ e−λ(t−t∗ ) kw∗ k ,
t ≥ t∗ .
(ii) Schließlich zeigen wir die gleichm¨aßige Beschr¨anktheit der L¨osung. Dazu multiplizieren wir die Ungleichung 1 d ku(t)k2 + λku(t)k2 ≤ kf (t, 0)k2 dt λ λ(t−t0 ) mit e und erhalten i d h λ(t−t0 ) 1 e ku(t)k2 ≤ eλ(t−t0 ) kf (t, 0)k2. dt λ Integration u ¨ber [t0 , t] ergibt λ(t−t0 )
e
1 ku(t)k ≤ ku0 k + λ 2
2
Z
t0
und folglich 2
−λ(t−t0 )
ku(t)k ≤ e
eλ(s−t0 ) kf (s, 0)k2 ds,
1 ku0k + max kf (s, 0)k2e−λ(t−t0 ) λ s∈[t0 ,t]
Wegen −λ(t−t0 )
e
t
2
Z
t
eλ(s−t0 ) ds = t0
Z
t
eλ(s−t0 ) ds. t0
1 1 − e−λ(t−t0 ) , λ
erhalten wir schließlich die gew¨ unschte Absch¨atzung ku(t)k2 ≤ e−λ(t−t0 ) ku0k2 +
1 max kf (s, 0)k2, 2 λ s∈[t0 ,t]
t ≥ t0 .
(1.1.17) Q.E.D.
Die meisten praktisch relevanten AWAn sind leider nicht von monotonem Typ. Trotzdem k¨onnen ihre L¨osungen durchaus exponentiell stabil in dem etwas schw¨acheren Sinne unserer Definition oder auch nur asymptotisch stabil“ sein. ” Zum Abschluß stellen wir noch den folgenden Satz u ¨ ber die Grenzwerte exponentiell stabiler L¨osungen f¨ ur t → ∞ bereit. Satz 1.8 (Station¨ are Limiten): Die AWA sei L-stetig und autonom“, d.h. f (t, x) ≡ ” f (x) , und besitze eine L¨osung u(t) . Ist diese dann exponentiell stabil mit Stabilit¨atspa-
1.1 Aus der Theorie der Anfangswertaufgaben
23
rametern δ, α, A , so existiert eine L¨osung u∞ der Gleichung f (u∞ ) = 0 , und es gilt ku(t) − u∞ k = O(e−αt )
(t → ∞) .
(1.1.18)
Beweis: Unter den gegebenen Voraussetzungen ist die L¨osung u(t) gleichm¨aßig stetig auf I = [t0 , ∞) . Es gibt also ein h0 > 0 , so daß f¨ ur h ≤ h0 stets ku(t + h) − u(t)k < δ ist. h Die verschobene“ Funktion u (t) = u(t + h) gen¨ ugt ebenfalls der Differentialgleichung ” u˙ h (t) = f (uh (t)) . Betrachtet man f¨ ur ein beliebiges h ≤ h0 die Differenz u(t0 + h) − u(t0 ) als St¨orung von u(t0 ) , so folgt aufgrund der exponentiellen Stabilit¨at von u(t) ˜ −αt , ku(t + h) − u(t)k ≤ A e−α(t−t0 ) δ =: Aδe
(t ≥ t0 ) .
(1.1.19)
F¨ ur beliebige n, m ∈ N , n > m , gilt also ku(t + nh) − u(t + mh)k ≤
n−1 X
ν=m
ku(t + [ν + 1]h) − u(t + νh)k
˜ −αt ≤ Aδe
n−1 X
(1.1.20) e−ανh ,
ν=m
d.h.: (u(t + nh))n∈N ist Cauchy-Folge f¨ ur jedes t ≥ t0 , und es existiert uh∞ (t) := lim u(t + nh) . n→∞
Setzt man m = 0 in (1.1.20) und l¨aßt n → ∞ , so folgt kuh∞ (t) − u(t)k ≤
˜ Aδ e−αt . αh
(1.1.21)
Mit n = m + 1 folgt analog uh∞ (t + h) = uh∞ (t) , d.h.: uh∞ (t) ist periodisch. F¨ uhrt man diesen Konstruktionsprozeß f¨ ur zwei verschiedene hi ≤ h (i = 1, 2) durch, so sind die sich ergebenden Limesfunktionen ui∞ (t) jeweils hi -periodisch und stimmen daher wegen ( ) ˜ ˜ Aδ Aδ ku1∞ (t) − u2∞ (t)k ≤ ku1∞ (t) − u(t)k + ku(t) − u2∞ (t)k ≤ e−αt + αh1 αh2 notwendig u ur alle h ≤ h0 . Da h ¨ berein. Wir k¨onnen also schreiben u∞ (t) = uh∞ (t) f¨ beliebig klein gew¨ahlt werden kann, muß u∞ (t) ≡ u∞ konstant sein. Schließlich folgt durch Grenz¨ ubergang n → ∞ in u(t + [n + 1]h) = u(t + nh) +
Z
t+(n+1)h
t+nh
die Beziehung f (u∞) = 0 .
{f (u(s)) − f (u∞ )} ds + hf (u∞ ) Q.E.D.
24
Anfangswertaufgaben
Wir haben den vorausgegangenen Satz vor allem bereit gestellt, um f¨ ur sp¨atere Zwecke folgendes Korollar zur Verf¨ ugung zu haben. Korollar 1.2 (Monotone Gleichungen): Die nichtlineare Abbildung g(·) : Rd → Rd sei L-stetig kg(x) − g(y)k ≤ Lkx − yk,
x, y ∈ Rd ,
(1.1.22)
und strikt monoton im Sinne (g(x) − g(y), x − y) ≥ γkx − yk2,
x, y ∈ Rd .
(1.1.23)
Dann besitzt die Gleichung g(x) = c
(1.1.24)
f¨ur jede rechte Seite c ∈ Rd eine eindeutig bestimmte L¨osung x ∈ Rd . Beweis: Wir geben zwei Beweisvarianten. Die erste verwendet das Resultat von Satz 1.8, w¨ahrend die zweite davon unabh¨angig ist und auf dem Banachschen Fixpunktsatz fußt. (i) Wir betrachten die autonome AWA v ′ (t) = c − g(v(t)) ,
t ≥ 0,
v(0) = 0 .
(1.1.25)
Nach Konstruktion ist die Abbildung c − g(·) L-stetig und strikt monoton, so daß gem¨aß Satz 1.7 die L¨osung v(t) von (1.1.25) f¨ ur alle t ≥ 0 existiert und exponentiell stabil ist. Nach Satz 1.8 existiert dann x¯ = v∞ mit c − g(¯ x) = 0 . Die Eindeutigkeit dieser L¨osung folgt dann direkt aus der strikten Monotonieeigenschaft von g(·) . (ii) Wir betrachten die zur gestellten Gleichung ¨aquvalente Fixpunktgleichung G(x) := x − θ(g(x) − c) = x mit einem noch geeignet zu w¨ahlendem Parameter θ > 0. Wir wollen zeigen, daß die Abbildung G : Rd → Rd f¨ ur hinreichend kleines θ eine Kontraktion ist. Dann folgt u ¨ber den Banachschen Fixpunktsatz die Existenz eines eindeutig bestimmten Fixpunktes x¯ , der nach Konstruktion auch L¨osung der Aufgabe g(¯ x) = c ist. F¨ ur beliebige x, y ∈ Rd betrachten wir kG(x) − G(y)k2 = kx − θg(x) − y + θg(y)k2 = kx − yk2 − 2θ(x − y, g(x) − g(y)) + θ2 kg(x) − g(y)k2 ≤ (1 − 2γθ + L2 θ2 )kx − yk2 . F¨ ur jedes θ ∈ (0, 2γ/L2) ist also G eine Kontraktion.
Q.E.D.
¨ 1.2 Ubungsaufgaben
25
¨ 1.2 Ubungsaufgaben Aufgabe 1.2.1: Man forme das System von Differentialgleichungen 4. Ordnung v (iv) (x) − a(x) u“(x) = f (x), u“(x) + b(x) v(x) = g(x) in ein ¨aquivalentes System erster Ordnung um.
Aufgabe 1.2.2: Gegeben sei die d-dimensionale Anfangswertaufgabe u′ (x) = f (t, u(t)), 0 ≤ t ≤ T,
u(0) = u0 ,
mit einer stetigen Funktion f (t, x), welche bzgl. des zweiten Arguments x global Lipschitzstetig mit Lipschitz-Konstante L ist, d.h.: kf (t, x) − f (t, y)k ≤ L kx − yk,
x, y ∈ Rd , t ∈ [0, T ].
Man verifiziere, daß die Anfangswertaufgabe ¨aquivalent ist zur Integralgleichung Z t u(t) = Ku(t) := u0 + f (s, u(s)) ds, 0 ≤ t ≤ T. 0
Der so definierte Integraloperator K : C[0, T ] → C[0, T ] ist im Falle T < 1/L eine Kontraktion. Der Banachsche Fixpunktsatz garantiert folglich die Existenz eines (eindeutig bestimmten) Fixpunktes u ∈ C[0, T ], der dann auch L¨osung der AWA ist.
Aufgabe 1.2.3: In Aufgabe 2 erh¨alt man als Nebenprodukt des Banachschen Fixpunktsatzes auch die gleichm¨aßige Konvergenz (d.h. Konvergenz in C[0, T ] ) der sukzessiven Approximation Z t k u (t) = u0 + f (s, uk−1(s)) ds, 0 ≤ t ≤ T, k = 1, 2, . . . , 0
etwa f¨ ur die Startfunktion u0 ≡ 0 . Man gebe f¨ ur diese Konvergenz eine a priori Fehlerabsch¨atzung an (siehe etwa Skriptum Einf¨ uhrung in die Numerik“). ”
Aufgabe 1.2.4: Man berechne n¨aherungsweise den Wert u(1) der L¨osung u(t) = tan(t) der AWA u′ (t) = f (u(t)) = 1 + u(t)2 , t ≥ 0, u(0) = 0, mit Hilfe der
26
Anfangswertaufgaben
1. Methode der sukzessiven Approximation“ (mit k hinreichend groß) ” Z t k u (t) = u0 + f (uk−1(s)) ds, 0 ≤ t ≤ 1, k = 1, 2, . . . , u0 ≡ 0; 0
2. Taylor-Methode“ (mit Schrittweite H = 1 und R hinreichend groß) ” R d r X H r−1 (r−1) f. f (u0 ), u0 ≡ 0, f (r) := u1 = u0 + H r! dt r=1 3. Polygonzugmethode (mit hinreichend kleiner Schrittweite h ) un+1 = un + hf (un ), n ≥ 0,
u0 = 0.
Man vergleiche den jeweils erforderlichen Aufwand zur Erreichung eines relativen Fehlers von weniger als 10−r f¨ ur r = 1, 2, 3, 4.
Aufgabe 1.2.5: Man gebe exakte L¨osungen f¨ ur die folgenden AWAn an: a) b)
u′(t) = −u(t)2 ,
t ≥ 0,
u′ (t) = u(t)1/4 , t ≥ 0,
u(0) = 1; u(0) = 1.
Es stellt sich die Frage, ob dies die einzigen L¨osungen sind. Man versuche zu begr¨ unden, daß dies tats¨achlich der Fall ist. Wird aber im Beispiel (b) die Anfangsbedingung zu u(0) = 0 g
Aufgabe 1.2.6: Man untersuche mit Hilfe der Resultate aus der Vorlesung die L¨osbarkeitseigenschaften (eindeutig, global, beschr¨ankt) der folgenden skalaren AWAn: a) b) c) d)
u′ (t) = u(t)2 , t ≥ 0, u(0) = 1; u′ (t) = −u(t)2 , t ≥ 0, u(0) = 1;
u′ (t) = u(t)1/2 , t ≥ 0, u(0) = 1; u′ (t) = cos(u(t)) − 2u(t), t ≥ 0, u(0) = 1.
Aufgabe 1.2.7: Der in der Vorlesung skizzierte konstruktive Beweis des Existenzsatzes von Peano sichert die gleichm¨aßige Konvergenz der diskreten“ Funktionen uh (Polygon” zugmethode) gegen eine L¨osung u der AWA f¨ ur eine Teilfolge (hi )i∈N . a) Man zeige durch ein Widerspruchsargument, daß im Falle der Eindeutigkeit der L¨osung der AWA die gesamte Folge der uh gegen u konvergiert.
¨ 1.2 Ubungsaufgaben
27
b) In der Kontrolltheorie hat man es h¨aufig mit AWAn zu tun, bei denen die Funktion f (t, x) bzgl. des Arguments t (endlich viele) Unstetigkeitsstellen hat. Man begr¨ unde, daß der Peanosche Satz in diesem Fall seine G¨ ultigkeit beh¨alt
Aufgabe 1.2.8: In der Vorlesung wurde f¨ ur die AWA u′ (t) = f (t, u(t)), t ≥ t0 ,
u(t0 ) = u0 ,
unter der Voraussetzung kf (t, x)k ≤ α(t)kxk + β(t),
(t, x) ∈ R1 × Rd ,
mit stetigen, gleichm¨aßig beschr¨ankten Funktionen α(t), β(t) , mit Hilfe des Fortset” zungssatzes“ die Existenz von globalen L¨osungen begr¨ undet. Man u ur ¨berlege sich, daß f¨ diesen Schluß die Beschr¨anktheit der Funktionen α(t), β(t) nicht unbedingt ben¨otigt wird.
Aufgabe 1.2.9: a) Man berechne N¨aherungsl¨osungen f¨ ur die AWA u′ (t) = −200 t u(t)2,
−3 ≤ t ≤ 3,
u(−3) =
1 , 901
mit Hilfe der expliziten Polygonzugmethode“ ” yn = yn−1 + hf (tn−1 , yn−1 ) f¨ ur die (konstanten) Schrittweiten h = 2−i , i = 1, . . . , 8 . Man vergleiche die berechneten Werte zum Zeitpunkt t = 3 mit dem Wert u(3) der exakten L¨osung u(t) = (1+100t2 )−1 . b) Man wiederhole die Rechnung mit der impliziten Trapezregel 1 yn = yn−1 + h f (tn , yn ) + f (tn−1 , yn−1 ) 2
und vergleiche die beobachteten Konvergenzordnungen“: ” ku(3) − yN k = O(hp ).
c) Man untersuche die Konvergenz der folgenden, aus den mit der Trapezregel gewonnenen (i) Werte yN zur Schrittweite hi gebildeten Approximationen (i)
yN :=
1 (i) (i−1) , 4yN − yN 3
i = 2, ..., 8.
Die beobachteten Ph¨anomene werden im Verlauf der Vorlesung erkl¨art werden.
28
Anfangswertaufgaben
2 Einschrittmethoden 2.1 Die Eulersche Polygonzugmethode Wir betrachten eine AWA der Form u′ (t) = f (t, u(t)) ,
t ∈ I = [t0 , t0 + T ] ,
u(t0 ) = u0 .
(2.1.1)
Die Funktion f (t, x) sei stetig auf I ×Rd und gen¨ uge einer globalen Lipschitz-Bedingung kf (t, x) − f (t, y)k ≤ Lf kx − yk ,
(t, x), (t, y) ∈ I × Rd .
(2.1.2)
Dann existiert eine eindeutig bestimmte L¨osung u(t) von (2.1.1) f¨ ur alle t ≥ 0 . Diese L¨osung sei ferner hinreichend glatt. Gelegentlich werden wir auch den Fall T → ∞, d.h. I = [t0 , ∞), betrachten. Zur Approximation der AWA w¨ahlt man zun¨achst eine Folge von diskreten Zeitpunkten t0 < t1 < . . . < tn < . . . < tN = t0 + T und setzt In := [tn−1 , tn ],
hn := tn − tn−1 ,
h := max hn . 1≤n≤N
Die Eulersche Polygonzugmethode erzeugt nun ausgehend von einem Startwert y0h ∈ Rd eine Folge (ynh )n∈N durch die rekursive Vorschrift h h ynh = yn−1 + hn f (tn−1 , yn−1 ),
n = 1, . . ., N.
(2.1.3)
Wir schreiben dies auch in Form einer Differenzengleichung (Lh y h )n = 0,
n = 1, . . ., N,
(2.1.4)
mit dem Differenzenoperator” ” h h (Lh y h )n := h−1 (ynh − yn−1 ) − f (tn−1 , yn−1 ),
(2.1.5)
f¨ ur Gitterfunktionen” y h = {ynh }n=1,...,N . ” Als Nebenprodukt unseres Beweises des Existenzsatzes von Peano (Satz 1.1) haben wir gesehen, daß die Werte ynh f¨ ur h → 0 gegen die Funktionswerte u(tn ) konvergieren (vorausgesetzt y0h konvergiert gegen u0 ): max kynh − u(tn )k → 0 (h → 0).
0≤n≤N
(2.1.6)
Zur Absch¨atzung der Geschwindigkeit der Konvergenz des Diskretisierungsverfahrens (2.1.3) f¨ uhren wir den Abschneidefehler (auch lokaler Diskretisierungsfehler genannt) ein: h h h τnh := (Lh uh )n = h−1 n {un − un−1 } − f (tn−1 , un−1 ),
mit der Gitterfunktion uh = (uhn )0≤n≤N . F¨ ur den Abschneidefehler gilt offenbar wegen 29
30
Einschrittmethoden
u′ (t) = f (t, u) die Beziehung Z Z tn ′ ′ −1 h −1 u (t) dt − u (tn−1 ) = hn τn = hn
tn
tn−1
tn−1
(tn − t)u′′ (t) dt
und folglich kτnh k ≤ 21 hn max ku′′(t)k .
(2.1.7)
t∈In
Man spricht hier von einer Diskretisierung erster Ordnung. Wenn Mißverst¨andnisse ausgeschlossen sind, schreiben wir im folgenden einfach yn f¨ ur h und entsprechend τn f¨ ur τn . Unter Verwendung dieser Notation gen¨ ugt die exakte L¨osung u der gest¨orten Differenzengleichung ynh
un = un−1 + hn f (tn−1 , un−1 ) + hn τn .
(2.1.8)
Die Absch¨atzung des globalen Diskretisierungsfehlers en = yn − un erfolgt u ¨ ber einen Stabilit¨atssatz f¨ ur das Differenzenverfahren in Analogie zum Stabilit¨atssatz f¨ ur die AWA (Satz 1.3). Vergleich von (2.1.8) mit (2.1.3) ergibt en = en−1 + hn f (tn−1 , yn−1) − f (tn−1 , un−1) − hn τn , und unter Ausnutzung der L-Stetigkeit von f (t, x) ,
ken k ≤ ken−1 k + hn Lken−1 k + hn kτn k.
(2.1.9)
Durch sukzessive Anwendung dieser Beziehung erh¨alt man die diskrete Integralungleichung ( Summenungleichung”) ” ken k = ke0 k + L
n−1 X ν=0
hν+1 keν k +
n X ν=1
hν kτν k .
(2.1.10)
Zur weiteren Absch¨atzung ben¨otigen wir die folgende diskrete Version des Gronwallschen Lemmas (Hilfssatz 1.2). Hilfssatz 2.1 (Diskretes Gronwallsches Lemma): Es seien (wn )n≥0 , (an )n≥0 und (bn )n≥0 Folgen nichtnegativer Zahlen, f¨ur die gilt w0 ≤ b0 und wn ≤
n−1 X
aν wν + bn ,
ν=0
n ≥ 1.
Ist die Folge (bn )n≥0 nichtfallend, so gilt die Absch¨atzung ! n−1 X wn ≤ exp aν bn , n ≥ 1 . ν=0
(2.1.11)
(2.1.12)
2.1 Die Eulersche Polygonzugmethode
31
Beweis: Der Beweis k¨onnte durch R¨ uckf¨ uhrung auf das kontinuierliche Gronwallsche Lemma (f¨ ur st¨ uckweise konstante Funktionen) bewiesen werden. Wir wollen hier aber lieber einen einfachen, direkten Beweis geben. Dazu definieren wir Zahlen dn ≥ 0 und Sn durch n−1 X S0 := w0 + d0 = b0 , Sn := wn + dn = aν wν + bn . ν=0
Es gilt dann
Sn − Sn−1 = an−1 wn−1 + bn − bn−1 ,
n ≥ 1.
Hieraus wollen wir durch Induktion nach n erschließen, daß " n−1 # X Sn ≤ exp aν bn , n ≥ 0 ,
(2.1.13)
ν=0
wobei wie u ¨blich im Fall n = 0 die Summation leer” ist, d.h. S0 ≤ b0 . Zun¨achst ist nach ” Definition S0 ≤ b0 . Sei (2.1.13) nun als richtig angenommen f¨ ur n − 1 . Dann gilt wegen bn ≥ bn−1 Sn ≤ Sn−1 + an−1 wn−1 + bn − bn−1 ≤ (1 + an−1 )Sn−1 + bn − bn−1 " n−2 # X ≤ (1 + an−1 ) exp aν bn−1 + bn − bn−1 ≤ ean−1 exp
" n−2 X ν=0
ν=0
#
aν {bn−1 + bn − bn−1 } ≤ exp
" n−1 X ν=0
Dies impliziert wegen wn ≤ Sn die Behauptung.
#
aν bn . Q.E.D.
Im Zusammenhang mit impliziten Verfahren, wie z.B. dem impliziten Euler-Schema” ” yn = yn−1 + hn f (tn , yn ),
(2.1.14)
wird eine versch¨arfte Variante des diskreten Gronwallschen Lemmas ben¨otigt, bei der eine implizite Differenzenungleichung der Form wn ≤
n X ν=0
aν wν + bn ,
n ≥ 1.
(2.1.15)
angenommen wird. Unter der Annahme, daß an < 1 wird diese durch Elimination des f¨ uhrenden Summanden auf der rechten Seite in die folgende explizite Form u uhrt: ¨berf¨ σn−1 wn
≤
n−1 X ν=0
σν aν σν−1 wν + bn ,
n ≥ 1,
mit den Parametern σν := (1 − aν )−1 . Anwendung von (2.1.12) auf diese Situation liefert
32
Einschrittmethoden
die Ungleichung σn−1 wn ≤ exp
" n−1 X
#
σν aν bn ,
ν=0
n ≥ 1,
und bei Beachtung von σn = 1 + σn an ≤ exp(σn an ) schließlich das Endresultat " n # X wn ≤ exp σν aν bn , n ≥ 1 . (2.1.16) ν=0
Wir fahren nun mit unserer Fehleranalyse f¨ ur das Euler-Verfahren fort. Aus (2.1.10) erschließen wir mit dem diskreten Gronwallschen Lemma die a priori Fehlerabsch¨atzung L(tn −t0 )
ken k ≤ e
n n o X ke0 k + hν kτν k , ν=1
n ≥ 1,
(2.1.17)
bzw. n o max ken k ≤ eLT ke0 k + T max kτn k . 1≤n≤N
1≤n≤N
(2.1.18)
Bei Ber¨ ucksichtigung der Absch¨atzung (2.1.7) f¨ ur τν folgt also f¨ ur den globalen Diskretisierungsfehler der Eulerschen Polygonzugmethode LT ′′ 1 ke0 k + 2 T max {hn max ku (t)k} , max ken k ≤ e (2.1.19) 1≤n≤N
1≤n≤N
t∈In
d.h.: Die globale” Konvergenzordnung ist (mindestens) gleich der lokalen” Konsistenz” ” ordnung. Man beachte den exponentiellen Faktor in der Absch¨atzung (2.1.19). Wegen ihrer geringen Genauigkeit hat die Eulersche Polygonzugmethode in der Praxis keine Bedeutung. Die Herleitung der Absch¨atzung (2.1.19) ist aber exemplarisch f¨ ur eine große Klasse von Methoden.
2.2 Allgemeine Einschrittmethoden Der naheliegendste Weg zur Konstruktion von Differenzenformeln h¨oherer Ordnung ist der u ¨ber die Taylor-Entwicklung (skalarer Fall d = 1): u(t) =
R X hr r=0
r!
u(r) (t − h) +
hR+1 (R+1) u (ξ) , (R + 1)!
ξ ∈ [t − h, t] .
Da u der Differentialgleichung u′ = f (t, u) gen¨ ugt, gilt (r)
u (t) =
d dt
r−1
f (t, u(t)) =: f r−1 (t, u(t)) .
2.2 Allgemeine Einschrittmethoden
33
Die (R-stufige) Taylor-Verfahren” lautet dann ” yn = yn−1 + hn
R X hr−1 n
r=1
r!
f (r−1) (tn−1 , yn−1 ) ,
n ≥ 1.
(2.2.20)
Wir schreiben dies in der allgemeinen Form eines sog. Einschrittverfahrens yn = yn−1 + hn F (hn ; tn−1 , yn , yn−1) ,
(2.2.21)
(Lh y h )n := h−1 n (yn − yn−1 ) − F (hn ; tn−1 , yn , yn−1 ) = 0 ,
(2.2.22)
bzw.
mit der sog. Verfahrensfunktion F (h; t, y, x) :=
R X hr−1 r=1
r!
f (r−1) (t, x) .
Die Bezeichnung Einschrittverfahren erkl¨art sich dabei selbst. Da hier die Verfahrensfunktion nur von der unmittelbar vorausgehenden N¨aherung yn−1 abh¨angt, wird diese Methode explizit genannt. Zur Durchf¨ uhrung expliziter Differenzenverfahren ist in jedem Zeitschritt lediglich eine Funktionsauswertung F (hn ; tn−1 , yn−1 ) durchzuf¨ uhren, w¨ahrend implizite Formeln die L¨osung i.allg. nichtlinearer Gleichungssysteme erfordern. Wir werden uns daher zun¨achst haupts¨achlich mit expliziten Verfahren besch¨aftigen. Den Abschneidefehler der Formel (2.2.22) definiert man analog zu (2.1.7) durch τn : = (Lh uh )n = h−1 n {un − un−1 } − F (hn ; tn−1 , un , un−1 ) .
Definition 2.1 (Konsistenz): Die Einschrittmethode (2.2.22) heißt konsistent (mit ” der AWA)” bzw. konsistent mit Konsistenzordnung m”, wenn ” max kτn k → 0 tn ∈I
bzw.
max kτn k = O(hm ) tn ∈I
(h → 0) .
(2.2.23)
Offenbar hat die R-stufige Taylor-Formel f¨ ur skalare AWA gerade die Konsistenzordnung m = R . Zur Auswertung dieser Formel m¨ ussen Ableitungen von f (t, x) berechnet werden, z.B.: ft := ∂f /∂t , fx := ∂f /∂x f (1) (t, x) = [ft + fx f ](t, x) ,
f (2) (t, x) = [ftt + 2ftx f + ft fx + fxx f 2 + fx2 f ](t, x) .
In der Praxis kann dies sehr aufwendig sein; man berechne z.B. f (3) (t, x) f¨ ur f (t, x) = (t+ x2 )1/2 arctan(t+ x) . Zur Vermeidung dieses Nachteils k¨onnen die Ableitungen f (r−1) (t, u) durch Differenzenquotienten ersetzt werden, bei denen nur Auswertungen von f (t, u)
34
Einschrittmethoden
auftreten. Z.B. ist f¨ ur die Taylor-Formel der Stufe R = 2 f (1) (t, u(t)) ≈ h−1 f (t + h, u(t + h)) − f (t, u(t)) , ≈ h−1 f (t + h, u(t) + hf (t, u(t)) − f (t, u(t)) , was auf die folgende Formel f¨ uhrt:
yn = yn−1 + hn f (tn−1 , yn−1 ) + 21 hn f (tn , yn−1 + hn f (tn−1 , yn−1)) − f (tn−1 , yn−1) = yn−1 + hn 21 f (tn−1 , yn−1 ) + 12 f (tn , yn−1 + hn f (tn−1 , yn−1 )) .
Wenn man bei den obigen Entwicklungsschritten die Restglieder verfolgt, findet man, daß diese Differenzenformel die Konsistenzordnung m = 2 besitzt, genau wie die zugeh¨orige Taylor-Formel. Allgemein haben die so entstehenden sog. (expliziten) Runge-Kutta” Verfahren” die Form R X F (h; t, x) = cr kr (h; t, x) r=1
k1 = f (t, x) ,
kr = f (t + har , x + h
r−1 X
brs ks ) ,
r = 2, . . . , R ,
s=1
mit geeignet gew¨ahlten Konstanten ar , cr , brs . Diese werden so bestimmt, daß mit einem m¨oglichst großen m (im Idealfall m = R ) gilt: R X r=1
cr kr (h; t, u(t)) =
R X hr−1 r=1
r!
f (r−1) (t, u(t)) + O(hm ) .
Die Konsistenzordnung der entsprechenden Runge-Kutta-Formel ist dann konstruktionsgem¨aß gerade m .
Beispiel 2.1: Runge-Kutta-Methoden der Stufen R = 1, 2, 3, 4: – R = 1 : Eulersche Polygonzugmethode – R = 2 : Durch Taylor-Entwicklung und Koeffizientenvergleich erh¨alt man aus der Bedingung (setze f = f (t, u) , ft = ft (t, u) , u.s.w.) c1 f + c2 f (t + ha2 , u + hb21 f ) = (c1 + c2 )f + c2 a2 hft + c2 b21 hf fx + O(h2) = f + 21 h{ft + fx f } + O(h2 ) die Bestimmungsgleichungen c1 + c2 = 1 und c2 a2 = c2 b21 = L¨osungen ergeben sich z.B.:
1 2
. Als m¨ogliche
• c1 = c2 = 12 , a2 = b21 = 1 ( Heunsches Verfahren 2-ter Ordnung”): ” yn = yn−1 + 21 hn {f (tn−1 , yn−1 ) + f (tn , yn−1 + hn f (tn−1 , yn−1 ))},
2.2 Allgemeine Einschrittmethoden
• c1 = 0 ,
c2 = 1, a2 = b21 =
35 1 2
( modifiziertes Euler-Verfahren”): ”
yn = yn−1 + hn f (tn−1/2 , yn−1 + 12 hn f (tn−1 , yn−1)). – R = 3 : F¨ ur die 8 freien Parameter ergeben sich die 6 Gleichungen c1 + c2 + c3 = 1 , c2 a2 + c3 a3 = 12 , c2 a22 + c3 a23 = 13 , c3 a2 b32 = 61 , b21 − a2 = 0 , b31 − a3 + b32 = 0 . Als m¨ogliche L¨osungen ergeben sich z.B.: • c1 = 41 , c2 = 0, c3 = 43 , a2 = 13 , a3 = ( Heunsches Verfahren 3. Ordnung”) ”
2 , 3
b21 =
1 , 3
b31 = 0, b32 =
2 : 3
yn = yn−1 + 14 hn {k1 + 3k3 }, k1 = f (tn−1 , yn−1), k2 = f (tn−2/3 , yn−1 + 31 hn k1 ), k3 = f (tn−1/3 , yn−1 + 23 hn k2 ). • c1 = 61 , c2 = 32 , c3 = 16 , a2 = 21 , a3 = 1, b21 = ( Kuttasches Verfahren 3. Ordnung”) ”
1 , 2
b31 = −1, b32 = 2:
yn = yn−1 + 61 hn {k1 + 4k2 + k3 }, k1 = f (tn−1 , yn−1), k2 = f (tn−1/2 , yn−1 + 21 hn k1 ), k3 = f (tn , yn−1 − hn k1 + 2hn k2 ) . – R = 4 : In diesem Fall stehen 13 freie Parameter zur Verf¨ ugung, mit denen zur Konstruktion einer Formel 4-ter Ordnung 11 Bestimmungsgleichungen zu erf¨ ullen sind. Eine der L¨osungen f¨ uhrt auf die klassische Runge-Kutta-Verfahren 4-ter Ordnung: yn = yn−1 + 16 hn {k1 + 2k2 + 2k3 + k4 }, k1 = f (tn−1 , yn−1 ), k2 = f (tn−1/2 , yn−1 + 21 hn k1 ), k3 = f (tn−1/2 , yn−1 + 12 hn k2 ), k4 = f (tn , yn−1 + hn k3 ). Die betrachteten Differenzenformeln sind prinzipiell auch auf Systeme anwendbar. Bei der Methode der Taylor-Entwicklung ist dabei zu ber¨ ucksichtigen, daß die zeitlichen Ab(i) leitungen f (t, x) f¨ ur Systeme wesentlich komplizierter aussehen; z.B.: f (1) = ft + fx · f mit der Jacobi-Matrix fx (t, x) der Vektorfunktion f (t, x) bzgl. der variablen x. Die Runge-Kutta-Formeln sind nicht ohne weiteres auf Systeme u ¨bertragbar, da zum Ab(i) gleich der in f auftretenden Ableitungen unter Umst¨anden mehr Parameter notwendig sind, als zur Verf¨ ugung stehen. Im allgemeinen gilt, daß eine Runge-Kutta-Methode der Ordnung m ≤ 4 f¨ ur eine skalare Gleichung dieselbe Ordnung auch f¨ ur Systeme hat; im Falle m ≥ 5 ist ihre Ordnung f¨ ur Systeme in der Regel reduziert. Einfache implizite Verfahren sind neben dem impliziten Euler-Verfahren die Trapez”
36
Einschrittmethoden
regel” yn = yn−1 + 21 hn f (tn , yn ) + f (tn−1 , yn−1) ,
(2.2.24)
und die dazu sehr ¨ahnliche Mittelpunktregel” ”
yn = yn−1 + hn f (tn + 21 hn , 12 (yn + yn−1 )).
(2.2.25)
Beide Verfahren sind konsistent von zweiter Ordnung. Implizite Verfahren h¨oherer Ordnung vom Typ der Runge-Kutta-Verfahren werden sp/¨ater betrachtet. 2.2.1 Lokale Konvergenz und Fehlerabsch¨ atzungen Analog zum Polygonzugverfahren wollen wir nun die Konvergenz des allgemeinen Einschrittverfahrens (2.2.22) beweisen. Dazu dient die folgende fundamentale Bedingung: Definition 2.2 (L-Stetigkeit): Eine Einschrittformel heißt Lipschitz-stetig (oder kurz L-stetig), wenn ihre Verfahrensfunktion einer (gleichm¨aßigen) Lipschitz-Bedingung gen¨ ugt: kF (h; t, x, y) − F (h; t, x˜, y˜)k ≤ L{kx − x˜k + ky − y˜k} ,
(2.2.26)
f¨ur beliebige Argumente (t, x), (t, x˜), (t, y), (t, y˜) ∈ I × Rd . Satz 2.1 (Diskreter Stabilit¨ atssatz): Eine Lipschitz-stetige Differenzenformel (2.2.22) ist (diskret) stabil”, d.h.: F¨ur beliebige Gitterfunktionen y h = {yn }n≥0 , z h = {zn }n≥0 gilt ” f¨ur hinreichend kleine Schrittweite h < 21 L−1 die Absch¨atzung 4L(tn −t0 )
kyn − zn k ≤ e
n
ky0 − z0 k +
n X ν=1
o hν k(Lh y h − Lh z h )ν k ,
(2.2.27)
mit der Lipschitz-Konstante L der Verfahrensfunktion F (h; t, x, y) . F¨ur eine explizite Methode kann die Schrittweitenbedingung entfallen. Beweis: F¨ ur zwei beliebige Gitterfunktionen {yn }n≥0 , {zn }n≥0 gilt yn − zn = yn−1 − zn−1 + hn F (h; tn , yn , yn−1) − F (h; tn , zn , zn−1 ) + (Lh y h − Lh z h )n , und folglich
kyn −zn k ≤ kyn−1 −zn−1 k + hn L kyn −zn k + kzn−1 −zn−1 k + hn k(Lh y h −Lh z h )n k.
Rekursive Anwendnung dieser Ungleichung f¨ ur ν = n, ..., 1 ergibt dann kyn −zn k ≤ ky0 −z0 k + 2L
n X ν=0
hν kyν −zν k +
n X ν=1
hν k(Lh y h −Lh z h )ν k .
2.2 Allgemeine Einschrittmethoden
37
Mit Hilfe des diskreten Gronwallschen Lemmas 2.1 erschließen wir hieraus die Behauptung. Q.E.D.
Satz 2.2 (Konvergenzsatz): Die Differenzenformel (2.2.22) sei Lipschitz-stetig und konsistent mit der AWA. Im Falle ky0 − u0k → 0 konvergiert dann max kyn − u(tn )k → 0 tn ∈I
(h → 0),
(2.2.28)
und f¨ur hinreichend kleine Schrittweite h < 21 L−1 gilt die a priori Fehlerabsch¨atzung n n o X kyn − u(tn )k ≤ e4L(tn −t0 ) ky0 − u0 k + hν kτν k , ν=1
0 ≤ n ≤ N.
(2.2.29)
F¨ur eine explizite Methode kann die Schrittweitenbedingung entfallen. Beweis: Es gelten die Beziehungen Lh y h = 0 ,
Lh uh = τ h ,
so daß der diskrete Stabilit¨atssatz 2.1 unmittelbar die Behauptung impliziert.
Q.E.D.
Satz 2.2 besagt, daß f¨ ur eine Lipschitz-stetige Einschrittformel die Konvergenzordnung (mindestens) gleich der lokalen Konsistenzordnung ist. Dies gilt also z.B. f¨ ur die TaylorVerfahren und ebenso f¨ ur die Runge-Kutta-Verfahren, die ja f¨ ur L-stetiges f (t, x) automatisch der Bedingung (2.2.26) gen¨ ugen und auch konsistent sind unter der Bedingung P R ¨ c = 1 ( Ubungsaufgabe). Dasselbe gilt nat¨ urlich f¨ ur das impliziten Euler-Verfahren, r=1 r die Trapezregel sowie die Mittelpunktregel. Bemerkung 2.1: Wir haben bisher der Einfachheit halber angenommen, daß die Funktion f (t, x) einer globlen Lipschitz-Bedingung gen¨ ugt, d.h.: Die L-Konstante kann gleichm¨aßig ′ d f¨ ur alle x, x ∈ R gew¨ahlt werden. Dies schließt z.B. F¨alle wie f (t, x) = x2 aus. Von ¨ dieser Restriktion kann man sich durch folgende Uberlegung befreien: Die AWA habe eine eindeutige L¨osung auf einem Intervall I = [t0 , t0 + T ] , und die Funktion f (t, x) gen¨ uge einer L-Bedingung auf dem Streifen” ” n o Uρ := (t, x) ∈ I × Rd | kx − u(t)k ≤ ρ um die L¨osung u(t) . Die Funktion f (t, x) wird nun so von Uρ auf U∞ = I × Rd fortgesetzt, daß die Fortsetzung f¯(t, x) global L-stetig ist. Dazu sei f¨ ur (t, x) ∈ I × Rd xρ σ := σρ
x−u(t) + u(t) , kx−u(t)k
38
Einschrittmethoden
und f¯(t, x)σ := σ
(
f (t, x)
,
f (t, xρ ) ,
(t, x) ∈ Uρ
(t, x) ∈ U∞ \ Uρ
.
¨ Wegen der Beziehung (Ubungsaufgabe) x y kxk − kyk ≤ kx − yk
f¨ ur x, y ∈ Rd , mit kxk ≥ 1, kyk ≥ 1 ist offenbar f¯(t, x) auf I × Rd gleichm¨aßig L-stetig ˆ . Sei nun (¯ (bzgl. x) mit derselben L-Konstante L yn )n die durch ein Einschrittverfahren y¯n = y¯n−1 + hn F¯ (hn ; tn−1 , y¯n , y¯n−1 ) gelieferte diskrete L¨osung. Nach Satz 2.2 gilt dann max k¯ yn − u(tn )k → 0 (h → 0) . tn ∈I
F¨ ur hinreichend kleines h ist dann aber {(tn , y¯n ) , t0 ≤ tn ≤ t0 + T } ⊂ Uρ , d.h.: y¯n ≡ yn . 2.2.2 Globale Konvergenz Die a priori Absch¨atzung (2.3.45) liefert eine realistische Fehlerschranke nur auf relativ kleinen Intervallen I = [t0 , t0 + T ] ; die Gr¨oße exp(LT ) w¨achst extrem schnell mit T → ∞ , und die Lipschitz-Kontstante L ist i.allg. nur sehr grob sch¨atzbar. Es erhebt sich also die Frage, unter welchen Bedingungen eine Absch¨atzung vom Typ (2.3.45) mit einer von T unabh¨angigen Konstante gilt. Wir betrachten zun¨achst wieder als Modellfall die Eulersche Polygonzugmethode und wenden es an auf eine AWA, die im folgenden Sinne L-stetig und monoton ist: kf (t, x) − f (t, x′ )k ≤ L(t) kx − x′ k ,
(2.2.30)
−(f (t, x) − f (t, x′ ) , x − x′ ) ≥ λ(t) kx − x′ k2 ,
(2.2.31)
f¨ ur alle (t, x), (t, x′ ) ∈ I × Rd , mit Funktionen L(t) ≥ 0 , λ(t) ≥ 0 . Wir setzen L := maxI L(t) und λ := minI λ(t) . Ist die AWA homogen”, d.h.: f (t, 0) = 0 , so erh¨alt man ” durch Multiplikation mit yn in der Gleichung yn = yn−1 +hn f (tn−1 , yn−1 ) und Beachtung von 2kyn k2 − 2(yn−1, yn ) = kyn k2 + kyn − yn−1 k2 − kyn−1 k2 die Identit¨at kyn k2 + kyn − yn−1 k2 = kyn−1 k2 + 2hn (f (tn−1 , yn−1), yn−1) + (f (tn−1 , yn−1 ), yn − yn−1 ) . Unter Ausnutzung der Eigenschaften (2.2.30), (2.2.31) folgt dann mit den Abk¨ urzungen
2.2 Allgemeine Einschrittmethoden
39
Ln := L(tn ) und λn := λ(tn ) kyn k2 + kyn − yn−1k2 ≤ kyn−1k2 − 2λn−1 hn kyn−1 k2 + 2hn Ln−1 kyn−1 kkyn − yn−1k ≤ kyn−1k2 − 2λn−1 hn kyn−1 k2 + h2n L2n−1 kyn−1k2 + kyn − yn−1k2 , bzw. kyn k2 ≤ (1 + h2n L2n−1 − 2λn−1 hn )kyn−1k2 .
(2.2.32)
Die Approximationen yn bleibt also beschr¨ankt bzgl. n, wenn 1 + h2n L2n−1 −2λn−1 hn ≤ 1 , d.h. wenn die Schrittweiten hn der folgenden Bedingung gen¨ ugen: hn ≤
2λn−1 , L2n−1
n ≥ 1.
(2.2.33)
Mit Hilfe einer Verfeinerung des obigen Argumentes l¨aßt sich die Stabilit¨atsaussage (2.2.32) unter der Bedingung, daß die Schrittweitenbedingung (2.2.33) gleichm¨aßig bzgl. n im strikten Sinne erf¨ ullt ist, erweitern zu einer globalen Fehlerabsch¨atzung der Form ( y0 = u0 ) kyn − u(tn )k ≤ c max {hν max ku′′ k} . 1≤ν≤n
(2.2.34)
Iν
Da der Beweis dieser Aussage f¨ ur die Polygonzugmethode verh¨altnism¨aßig kompliziert ist, verzichten wir hier auf die Details und untersuchen lieber die analoge Situation f¨ ur das implizite Gegenst¨ uck. Wir nehmen im Folgenden zur Vereinfachung an, daß stets y0 = u0 . Satz 2.3 (Globale Konvergenz des impliziten Euler-Verfahrens): Die AWA sei Lstetig und monoton im Sinne von (2.2.30) und (2.2.31). Dann sind die L¨osungen des implizite Euler-Verfahrens yn = yn−1 + hn f (tn , yn ),
n ≥ 1,
y0 = u0 ,
(2.2.35)
wohl definiert und es gilt die globale Fehlerabsch¨atzung kyn − u(tn )k ≤ 21 min{tn −t0 , λ−1 } max {hν max ku′′ k}, 1≤ν≤n
Iν
tn ≥ t0 ,
(2.2.36)
mit der offensichtlichen Interpretation f¨ur λ = 0 . Beweis: (i) In jedem Schritt des impliziten Euler-Verfahrens ist ein Gleichungssystem yn − hn f (tn , yn ) = yn−1
(2.2.37)
zu l¨osen. Wegen der angenommenen Eigenschaften (2.2.30) und (2.2.31) ist die Abbildung g(x) := x − hn f (tn , x) L-stetig und strikt monoton im Sinne (g(x) − g(y), x − y) ≥ γkx − yk2 ,
x, y ∈ Rd ,
40
Einschrittmethoden
mit einer festen Konstante γ > 0 . Mit Korollar 1.2 folgt dann, daß (2.2.37) eine eindeutige L¨osung besitzt. (ii) F¨ ur den Fehler en = yn − un gilt wieder die Differenzengleichung en = en−1 + hn {f (tn , yn ) − f (tn , un )} − hn τn , mit dem Abschneidefehler τn des impliziten Euler-Verfahrens kτn k ≤ 21 hn max ku′′ k. In
Wir multiplizieren mit ken k−1 en und erhalten wieder unter Ausnutzung der Monotonie ken k ≤ ken k−1 (en−1 , en ) − λn hn ken k + hn ken k−1 (τn , en ). Dies ergibt (1 + λn hn )ken k ≤ ken−1 k + hn kτn k. bzw. ken k ≤
1 hn ken−1 k + kτn k. 1 + λn hn 1 + λn hn
(2.2.38)
(iii) Im Falle λ ≥ 0 (schwache Monotonie) summieren wir (2.2.38) u ¨ber ν = 1, ..., n und erhalten unter Beachtung von e0 = 0 die T -abh¨angige Absch¨atzung ken k ≤
n X ν=1
hν kτν k ≤
n X
hν
ν=1
max kτν k ≤ 21 (tn −t0 ) max {hν max ku′′k}. 1≤ν≤n
1≤ν≤n
Iν
(iv) Im Falle λ > 0 (strikte Monotonie) erschließen wir mit Induktion aus (2.2.38) die Absch¨atzung ken k ≤ λ−1 max kτν k 1≤ν≤n
bzw. ken k ≤ 21 λ−1 max {hν max ku′′ k}. 1≤ν≤n
Iν
F¨ ur n = 1 gilt trivialerweise ke1 k ≤
h1 1 kτ1 k ≤ kτ1 k. 1 + λh1 λ
Sei die Behauptung nun richtig f¨ ur n − 1 . Dann folgt mit (2.2.38): 1 hn ken−1 k + kτn k 1 + λhn 1 + λhn hn 1 1 λ−1 max kτν k + kτn k ≤ max kτν k. ≤ 1≤ν≤n−1 1 + λhn 1 + λhn λ 1≤ν≤n
ken k ≤
Dies vervollst¨andigt den Beweis.
Q.E.D.
2.2 Allgemeine Einschrittmethoden
41
Die Argumentation im Beweis von Satz 2.3 l¨aßt sich direkt auf solche Einschrittverfahren u ¨bertragen, deren Verfahrensfunktion Bedingungen vom Typ (2.2.30) und (2.2.31) gen¨ ugen. Leider ist dies bei der Approximation monotoner AWAn mit Verfahren h¨oherer Ordnung in der Regel nicht der Fall. Wir werden also einen anderen Zugang zur globalen Fehlersch¨atzung bei allgemeinen Einschrittverfahren finden m¨ ussen. Der Ausgangspunkt dazu ist die Beobachtung, daß montone, L-stetige AWAn exponentiell stabile L¨osungen haben. Ein vern¨ unftiges” Verfahren sollte nun in der Lage sein, jede ” exponentiell stabile L¨osung global zu approximieren, unabh¨angig davon, ob das Problem selbst monoton ist oder nicht. Die Frage ist also: Lassen sich globale Fehlerabsch¨atzungen der Art (2.2.34) herleiten allein aus der (angenommenen) exponentiellen Stabilit¨at der L¨osung u(t) und ohne weitere Voraussetzungen an die Struktur der AWA? Dies ist tats¨achlich der Fall, wie der folgende Satz zeigt. Satz 2.4 (Globale Konvergenz): Die L-stetige AWA habe eine (globale) exponentiell stabile L¨osung u(t) mit Stabilit¨atsparametern δ, A, α . F¨ur jedes Einschrittverfahren, welches mit der (AWA) konsistent ist und einer Lipschitz-Bedingung gen¨ugt, gibt es dann positive Konstanten h0 und K unabh¨angig von T , so daß f¨ur h := supI hn ≤ h0 gilt: max kyn − u(tn )k ≤ K max k¯ τn k . tn ∈I
tn ∈I
(2.2.39)
Dabei bezeichnet τ¯n das Maximum des Abschneidefehlers f¨ur alle m¨oglichen L¨osungen der Differentialgleichung, die in der Umgebung UδA = {(t, x) ∈ I ×Rd , kx − u(t)k ≤ δA} des Graphen von u verlaufen. Beweis: Wir f¨ uhren den Beweis durch Induktion nach t . Zun¨achst wird ein ∆ ≥ h so gew¨ahlt, daß A e−α(∆−h) ≤ 12 .
(2.2.40)
Die lokale Konvergenzaussage (2.2.29) liefert f¨ ur alle tn ∈ [t0 , t0 + ∆] die Absch¨atzung τν k . kyn − un k ≤ ∆eL∆ max k¯
(2.2.41)
K := 2∆eL∆
(2.2.42)
t1 ≤tν ≤tn
Wir setzen nun
und w¨ahlen dann h0 hinreichend klein, so daß f¨ ur tn ≥ t1 aus τν k , kyn − un k ≤ K max k¯ t1 ≤tν ≤tn
f¨ ur h ≤ h0 , notwendig kyn − un k < δ folgt. Nach diesen Vorbereitungen sei nun angenommen, daß die Behauptung (2.2.39) richtig ist f¨ ur alle tν ∈ (t0 , tn ] mit irgendeinem tn ≥ t0 + ∆ . Dann betrachten wir w⋆ = yn − un
42
Einschrittmethoden
als St¨orung von u(t) zum Zeitpunkt t⋆ = tn . F¨ ur h ≤ h0 ist automatisch kw⋆ k < δ , und die Stabilit¨atseigenschaft von u(t) liefert f¨ ur die gest¨orte L¨osung v(t) die Absch¨atzung kv(t) − u(t)k ≤ A e−α(t−tn ) kyn − un k ,
t ≥ tn .
(2.2.43)
Wir fassen nun yν f¨ ur tν ≤ tn als N¨aherung von v(tν ) auf und k¨onnen wegen kv(t) − u(t)k ≤ Aδ ,
t ≥ tn
den lokalen Konvergenzsatz wie folgt anwenden: max
tn ≤tν ≤tn+m
kyν − vν k ≤ ∆eL∆
max
tn ≤tν ≤tn+m
k¯ τν k ,
(2.2.44)
wobei m ∈ N, so daß tn+m ≤ tn + ∆ ≤ tn+m+1 . Dann folgt f¨ ur h ≤ h0 : kyn+m − un+m k ≤ kyn+m − vn+m k + kvn+m − un+mk ≤ ∆eL∆
max
tn ≤tν ≤tn+m
k¯ τν k + Ae−α(∆−h) kyn − un k ,
bzw. wegen (2.2.40) und der Induktionsannahme, kyn+m − un+m k ≤ ∆eL∆ + 21 K Mit unserer Definition von K ergibt dies kyn+m − un+m k ≤ K
max
t1 ≤tν ≤tn+m
max
t1 ≤tν ≤tn+m
k¯ τν k .
k¯ τν k ,
was den Schluß von tn nach tn + ∆ vervollst¨andigt.
Q.E.D.
2.3 Schrittweitenkontrolle Das Hauptproblem bei der Durchf¨ uhrung von Differenzenverfahren zur L¨osung einer AWA ist die Bestimmung geeigneter Schrittweiten hn zur Gew¨ahrleistung einer vorgeschriebenen Approximationsg¨ ute. Die im Konvergenzsatz 2.2 angegebene Fehlerabsch¨atzung erlaubt es, aus Schranken f¨ ur den lokalen” Abschneidefehler τn auf das Verhalten des ” globalen” Diskretisierungsfehlers en = yn − u(tn ) zu schließen. Unter Annahme exak” ter (d.h. rundungsfehlerfreier) Arithmetik gilt bei Verwendung fehlerfreier Startwerte auf dem Intervall I = [t0 , t0 + T ] die a priori Fehlerabsch¨atzung X max ken k ≤ K hn kτn k ≤ KT max kτn k , (2.3.45) tn ∈I
tn ∈I
tn ∈I
mit einer Konstante K = K(T ) ≈ exp(LT ). Obwohl im Extremfall K exponentiell mit der Intervall¨ange T w¨achst, nehmen wir im Folgenden an, daß K von moderater Gr¨oße ist. Wir haben gesehen, daß diese Annahme z.B. f¨ ur monotone AWAn berechtigt ist.
2.3 Schrittweitenkontrolle
43
Zur praktischen Auswertung der a priori Fehlerabsch¨atzung (2.3.45) ben¨otigt man m¨oglichst scharfe Schranken f¨ ur kτn k . Bei den Taylor-Verfahren m-ter Ordnung gilt z.B. kτn k ≤
1 (m+1)!
hm max kum+1 (t)k , t∈In
und es w¨aren somit h¨ohere Ableitungen der unbekannten exakten L¨osung u(t) abzusch¨atzen. Dies ist aber selbst bei Ausnutzung der Beziehung u(m+1) (t) = f (m) (t, u(t)) und Kenntnis von Schranken f¨ ur u(t) kaum mit vertretbarem Aufwand m¨oglich. Daher werden in der Praxis meist a posteriori Sch¨atzungen f¨ ur die Abschneidefehler verwendet, die man aus den berechneten N¨aherungswerten f¨ ur u(t) erh¨alt. Die zugeh¨orige Theorie ist naturgem¨aß stark heuristisch gepr¨agt. Allgemein f¨ ur Differenzenverfahren anwendbar ist die sog. Methode der Schrittweitenhalbierung”, die im folgenden beschrieben wird. Sie ” entspricht dem u ¨blichen Vorgehen zur Fehlersch¨atzung bei der numerischen Quadratur. Wir beschr¨anken die Diskussion der Einfachheit halber auf explizite Methoden. Ausgangspunkt ist eine Darstellung des Abschneidefehlers τn = τ (tn ) auf dem Intervall [tn−1 , tn ] zur Schrittweite hn in der Form m+1 τn = τ m (tn ) hm ) n + O(hn
(2.3.46)
mit einer von hn unabh¨angigen Funktion τ m (t) , der Hauptabschneidefehler”, und einem ” Restglied h¨oherer Ordnung. Bei den Taylor-Verfahren ist z.B. τ m (tn ) =
1 (m+1)!
u(m+1) (tn−1 ) .
¨ Ahnliche Darstellungen gelten auch f¨ ur die Runge-Kutta-Verfahren. Wir wollen nun Strategien angeben, mit deren Hilfe w¨ahrend der Rechnung die Schrittweiten hn so gew¨ahlt werden, daß zu einer vorgegebenen Fehlertoleranz T OL > 0 auf dem Intervall I die Schranke max ken k ≤ T OL , tn ∈I
(2.3.47)
realisiert wird. Die Toleranz T OL sollte dabei deutlich gr¨oßer als die Maschinengenauig¨ keit eps gew¨ahlt sein, genauer (siehe Ubungsaufgabe): T OL > max h−1 n kyn−1 k eps . tn ∈I
Ausgangspunkt ist die a priori Fehlerabsch¨atzung (2.3.45). Wir setzen K = 1 und nehmen an, daß Sch¨atzungen f¨ ur die lokalen Abschneidefehler τn bzw. f¨ ur die Hauptabschneidefunktion τnm = τ m (tn ) bekannt sind. Wie solche zu berechnen sind, wird anschließend diskutiert. Es bieten sich nun zwei Strategien zur Schrittweitensteuerung an: Strategie I: Die Schrittweiten hn werden gem¨aß m Khm n kτn k
T OL ≈ T
T OL 1/m bzw. hn ≈ KT kτnm k
44
Einschrittmethoden
gew¨ahlt, so daß wie gew¨ unscht folgt: max ken k ≈ K tn ∈I
X
tn ∈I
T OL X m hn hm hn = T OL. kτ k ≈ n n T t ∈I n
Die Anzahl der durchzuf¨ uhrenden Zeitschritte ergibt sich dann zu N=
X
tn ∈I
hn h−1 n ≈
X
hn
tn ∈I
KT kτ m k 1/m n
T OL
=
KT 1/m X hn kτnm k1/m . T OL t ∈I n
Unter Ber¨ ucksichtigung der Beziehung τnm ≈ u(m+1) (tn−1 ) folgt also in etwa, daß KT 1/m Z kum+1 k1/m dt . N≈ T OL I Strategie II: Die Schrittweiten hn werden gem¨aß Khm+1 kτnm k ≈ n
T OL N
bzw. hn ≈
T OL 1/(m+1) KNkτnm k
gew¨ahlt mit der (noch unbekannten) Gesamtzahl N der durchzuf¨ uhrenden Zeitschritte, so daß ebenfalls folgt: max ken k ≤ K tn ∈I
X T OL X hm+1 kτnm k ≈ 1 = T OL. n N t ∈I t ∈I n
n
Die Anzahl N ergibt sich dann analog wie oben zu N≈
X
tn ∈I
hn
KNkτ m k 1/(m+1) n
T OL
=
KN 1/(m+1) X T OL
tn ∈I
hn kτnm k1/(m+1) .
Unter Ber¨ ucksichtigung der Beziehung τnm ≈ u(m+1) (tn−1 ) ergibt sich diesmal K 1/(m+1) Z m/(m+1) 1−1/(m+1) N =N ≈ kum+1 k1/(m+1) dt , T OL I und folglich
(m+1)/m K 1/m Z m+1 1/(m+1) N≈ ku k dt . T OL I
Da N a priori nicht bekannt ist, muß es zun¨achst gesch¨atzt und dann im Verlaufe von mehreren Durchl¨aufen angepaßt werden. Diese Schrittweitenstrategie erscheint also aufwendiger als die erste. Beide beschriebenen Strategien zur Schrittweitenwahl sind asymptotisch gleich effizient, d.h.: Die globale Fehlertoleranz T OL wird mit N ≈ T OL−1/m Zeitschritten erreicht. Allerdings ergeben sich leichte Unterschiede bei den Konstanten. Wir wollen deren Bedeutung f¨ ur m = 1 (Eulersche Polygonzugmethode) diskutieren. F¨ ur Strategie I gilt
2.3 Schrittweitenkontrolle
45
dann
KT N≈ T OL
Z
I
ku′′ k dt ,
und f¨ ur Strategie II entsprechend Z 2 Z K KT ′′ 1/2 N≈ ku k dt ≤ ku′′k dt . T OL T OL I I Der Unterschied besteht also im wesentlichen darin, wie die Regularit¨at der exakten L¨osung in die Schrittzahl eingeht. Strategie II ist hinsichtlich der Anzahl der erzeugten Zeitschritte offenbar dann ¨okonomischer als Strategie I, wenn 2 Z Z ′′ 1/2 ku k dt << T ku′′ k dt . I
I
Dies ist etwa der Fall f¨ ur singul¨are L¨osungen, deren zweite Ableitungen nicht integrabel sind; z.B.: u(t) = (1 − t)1/2 .
2.3.1 Sch¨ atzung des Abschneidefehlers Wichtigster Bestandteil der obigen Schrittweitenstrategien sind gute Sch¨atzungen f¨ ur die m Hauptabschneidefehler τn . Diese kann man etwa mit Hilfe des im folgenden beschriebenen Prozesses gewinnen. Sei zum Zeitpunkt tn die N¨aherung yn berechnet, so daß max kyν − u(tν )k ≤ T OL .
tν ∈[t0 ,tn ]
m Zur Bestimmung von τn+1 und damit der neuen Schrittweite hn+1 w¨ahlen wir zun¨achst eine Sch¨atzschrittweite H (etwa H = 2hn ) . Anwendung des Einschrittverfahrens zum Startwert yn mit den Schrittweiten H (ein Schritt) und H/2 (zwei Schritte) ergibt zum H/2 H vorl¨aufigen Zeitpunkt tn+1 := tn +H N¨aherungen yn+1 bzw. yn+1 . F¨ ur die Fehler gilt H H yn+1 − u(tn+1 ) = en + H {F (H; tn , yn ) − F (H; tn , un )} − Hτn+1 m = (1 + O(H)) en − H m+1 τn+1 + O(H m+2) H/2
sowie analog f¨ ur yn+1/2 − u(tn+1/2 ) . Wir erhalten weiter
n H/2 H/2 H/2 yn+1 − u(tn+1 ) = yn+1/2 − u(tn+1/2 ) + 21 H F ( 21 H; tn+1/2 , yn+1/2 ) o H/2 − F ( 21 H; tn+1/2 , u(tn+1/2 )) − 21 H τn+1 n o H/2 m + O(H m+2) = (1 + O(H)) yn+1/2 − u(tn+1/2 ) − ( 21 H)m+1 τn+1 m + O(H m+2 ) = (1 + O(H)) (1 + O(H))en − ( 21 H)m+1 τn+1/2 m + O(H m+2) − ( 21 H)m+1 τn+1
46
Einschrittmethoden
und folglich H/2
m + O(H m+2 ). yn+1 − u(tn+1 ) = (1 + O(H))en − 2( 21 H)m+1 τn+1
Dabei wurde ausgenutzt, daß sich die Hauptabschneidefunktion gem¨aß m m τn+1/2 = τn+1 + O(H)
entwickeln l¨aßt. Subtraktion dieser beiden Gleichungen ergibt 1 m+1 H/2 H m yn+1 − yn+1 = O(H)en − τn+1 2( 2 H) − H m+1 + O(H m+2) bzw.
H/2
m τn+1
H yn+1 − yn+1 = m+1 + O(H) + O(H −m)en . H (1 − 2−m )
(2.3.48)
Bis hierin war die Analyse noch mathematisch korrekt. Nun wird postuliert, daß die beiden O”-Terme rechts in (2.3.48) klein genug sind, um mit ” H/2
m τ˜n+1
H yn+1 − yn+1 := m+1 H (1 − 2−m )
(2.3.49)
m eine brauchbare N¨aherung f¨ ur τn+1 zu erhalten. Dazu wird oft en = 0 angenommen, d.h.: Man betrachtet den Abschneidefehler entlang der diskreten Approximation (yn )n anstatt entlang der richtigen” L¨osung u(t) . Alternativ kann man sich auch auf die Annahme ” einer h¨oheren Approximationsordnung en = O(H m+1 ) abst¨ utzen, was durch die folgende Diskussion nahegelegt wird.
2.3.2 Adaptive Schrittweitensteuerung m Mit der obigen Sch¨atzung f¨ ur τn+1 wird nun gem¨aß einer der oben angegebenen Strategien eine neue Schrittweite hn+1 bestimmt, also etwa als (Strategie I):
hn+1 =
T OL m KT k˜ τn+1 k
1/m
.
(2.3.50)
Zur Kontrolle wird noch u uft, daß nicht hn+1 ≪ H , was die Brauchbarkeit der ¨berpr¨ m Sch¨atzung τ˜n+1 in Frage stellen w¨ urde. Insgesamt ergibt sich also der folgende Algorithmus zur adaptiven Schrittweitenwahl und Fehlerkontrolle: (i) Sei die N¨aherung yn ∼ u(tn ) berechnet, mit der letzten Schrittweite hn . W¨ahle H = 2hn und setze probeweise tn+1 := tn + H. H/2
H (ii) Berechne yn+1 und yn+1 , und bestimme hn+1 etwa aus (2.3.50).
¨ (iii) Uberpr¨ ufe, ob hn+1 ≪ 12 H = hn (z.B.: hn+1 ≤ 41 H).
2.3 Schrittweitenkontrolle
47
m a) Wenn ja: Die Sch¨atzung f¨ ur τn+1 ist zu grob. Wiederhole Schritt (i) mit H = 2hn+1 . (Beende die Rechnung, falls H < hmin !). b) Wenn nein: Setze hn+1 = H , tn+1 = tn +H und akzeptiere die beste verf¨ ugbare H/2 N¨aherung yn+1 := yn+1 zu u(tn+1 ) .
Eine noch bessere N¨aherung zu u(tn+1 ) erh¨alt man durch eine Linearkombination der H/2 H beiden Werte yn+1 und yn+1 (” Prinzip der Extrapolation zum Limes H = 0”): H/2
H 2m yn+1 − yn+1 + O(H m+1 ) . u(tn+1 ) = 2m − 1
Heuristische Grundlage dieses Schritts ist die postulierte asymptotische” Entwicklung ” H vyn+1 = u(tn+1 ) + am (tn+1 )H m + O(H m+1 )
(2.3.51)
mit einer H-unabh¨angigen Funktion am (t) . Wir werden uns sp¨ater noch eingehender mit der Extrapolation bei der L¨osung von AWAn befassen. Bemerkung: Die Schrittweitenkontrolle durch Schrittweitenhalbierung ist prinzipiell f¨ ur jede Einschrittmethode anwendbar. Sie ist orientiert am lokalen Abschneidefehler, n o τn := h−1 u(t ) − u(t ) − F (hn ; tn−1 , u(tn−1 )) , n n−1 n
den man durch Einsetzen der exakten L¨osung u in die Differenzengleichung erh¨alt, und basiert auf der diskreten Stabilit¨at des L-stetigen Differenzenoperators. Dieser Ansatz f¨ uhrt zun¨achst auf a priori Fehlerabsch¨atzungen, die erst danach durch Sch¨atzung des Abschneidefehlers τn in verwendbare a posteriori Fehlerabsch¨atzungen umgewandelt werden. Die Methode zur Schrittweitenwahl durch lokale Extrapolation ist im Prinzip auch ¨ f¨ ur implizite Einschrittformeln anwendbar (Ubungsaufgabe). Ein alternativer Zugang bedient sich des Residuums der diskreten L¨osung {yn }n , welches man durch Einsetzen einer geeigneten Interpolierenden y h (etwa st¨ uckweise linear) von {yn }n in die Differentialgleichung erh¨alt: R(y h ) := y h′ − f (t, y h ) ,
t∈I.
Damit gen¨ ugt y h der gest¨orten Gleichung y h′ = f (t, y h) + R(y h ) ,
t∈I,
und man erh¨alt u ¨ber die Stabilit¨at des Differentialoperators (Satz 1.4) direkt eine a posteriori Absch¨atzung f¨ ur den Fehler e := y h − u durch das bekannte Residuum R(y h ): h h h Lf T ky0 − u0 k + T max kR(y )k . (2.3.52) max ky (t) − u(t)k ≤ e t∈I
t∈I
Hierbei besteht aber das Problem, daß unter Umst¨anden, insbesondere bei Verfahren h¨oherer Ordnung, das heuristisch gebildete Residuum nicht mit der richtigen Ordnung
48
Einschrittmethoden
gegen Null geht und der Fehler somit grob u ¨bersch¨atzt wird. Diesen Zugang zur Fehlersch¨atzung werden wir sp¨ater im Zusammenhang mit den sog. Galerkin-Verfahren zur L¨osung von AWAn weiter verfolgen. 2.3.3 Numerischer Test F¨ ur die AWA u′ (t) = −200 t u(t)2 ,
t ≥ −3 ,
u(−3) = 1/901 ,
mit der L¨osung u(t) = (1 + 100 t2 )−1 wurde der Wert u(0) = 1 approximiert mit – dem Runge-Kutta-Verfahren 2. Ordnung yn = yn−1 + 12 hn {k1 + k2 } ,
k1 = f (tn−1 , yn−1) ,
k2 = f (tn , yn−1 + hn k1 ) .
– mit dem klassischen” Runge-Kutta-Verfahren 4. Ordnung ” yn = yn−1 + 61 hn {k1 + 2k2 + 2k3 + k4 }, k1 = f (tn−1 , yn−1 ), k2 = f (tn−1/2 , yn−1 + 21 hn k1 ), k3 = f (tn−1/2 , yn−1 + 12 hn k2 ), k4 = f (tn , yn−1 + hn k3 ). Die Schrittweitensteuerung erfolgte dabei gem¨aß der obigen Strategie H/2
hm n+1
H yn+1 − yn+1 |yn | . ∼ T OL = eps m+1 −m H (1 − 2 ) hn+1
Bei 17-stelliger Rechnung ergaben sich folgende Resultate: Rechnung mit variabler Schrittweite Ordnung m=2
m=4
eps
hmin
hmax
Fehler
# Auswertungen
10−9
2, 5 · 10−4
3, 8 · 10−3
1, 3 · 10−6
∼ 16.000
10−13
7, 3 · 10−6
1, 2 · 10−4
2, 7 · 10−6
∼ 384.000
10−9 10−17
6, 6 · 10−4 1, 9 · 10−4
1, 0 · 10−1 2, 9 · 10−3
2, 9 · 10−6 1, 7 · 10−10
Rechnung mit fester Schrittweite Ordnung
h
Fehler
# Auswertungen
m=2
5 · 10−5
3 · 10−6
∼ 120.000
m=4
5 · 10
−3
3 · 10
−6
∼ 2.000
∼ 1.200 ∼ 2.000
¨ 2.4 Ubungsaufgaben
49
¨ 2.4 Ubungsaufgaben Aufgabe 2.4.1: Man gebe die Konsistenzordnung der folgenden Differenzenformeln an: 1) Modifiziertes Euler-Verfahren: yn = yn−1 + hn f tn−1 + 12 hn , yn−1 + 12 hn f (tn−1 , yn−1) ;
2) 3-stufiges Runge-Kutta-Verfahren:
1 h {k1 + 5k2 + 4k3 }, 10 n tn−1 + 31 hn , yn−1 + 31 hn k1 ,
yn = yn−1 +
k1 = f (tn−1 , yn−1 ),
k2 = f
k3 = f tn−1 + 56 hn , yn−1 −
5 h k 12 n 1
+ 45 hn k2 .
Aufgabe 2.4.2: Man beweise mit den Mitteln der Vorlesung f¨ ur das implizite EulerVerfahren yn = yn−1 + hn f (tn , yn ), tn ≥ t0 , y0 = u0 , die a priori Fehlerabschtzung (mit einem geeigneten γ > 0 ) n γL(tn −t0 ) ky0 − u0 k + 21 T max hm kyn − u(tn )k ≤ e 1≤m≤n
max
t∈[tm−1 ,tm ]
o ku (t)k . ′′
Aufgabe 2.4.3: Bei der Durchf¨ uhrung einer expliziten (L-stetigen) Einschrittmethode wird wegen des unvermeidbaren Rundungsfehlers eine gest¨orte Rekursion y˜n = y˜n−1 + hn F (hn ; tn−1 , y˜n−1) + εn ,
n ≥ 1,
gel¨ost. Die lokalen” Fehler verhalten sich dabei wie kεn k ∼ eps kyn k , wobei eps die sog. ” Maschinengenauigkeit” (maximaler relativer Rundungsfehler) bezeichnet. O.B.d.A. sei ” e0 = 0 angenommen. Man beweise die Absch¨atzung n o −1 k˜ yn − u(tn )k ≤ K(tn ) max kτm k + eps max hm kym k . 1≤m≤n
1≤m≤n
Bemerkung: Dies zeigt, daß bei einer Verkleinerung der Schrittweiten hn u ¨ ber eine gewisse Grenze hinaus der Gesamtfehler wieder anwachsen wird. Ferner wird die Wahl der Fehlertoleranz ε ∼ eps kyn k/hn bei der automatischen a posteriori Schrittweitenkontrolle nahegelegt. Aufgabe 2.4.4: Man zeige exemplarisch f¨ ur das Heunsche Verfahren 2. Ordnung, daß der Abschneidefehler einer expliziten Runge-Kutta-Formel m-ter Ordnung eine Darstellung der Form τn = τ m (tn )hm + O(hm+1 ) erlaubt, wobei der Hauptabschneidefehler” τ m (t) von der Schrittweite h unabh¨angig ” ist.
50
Einschrittmethoden
Aufgabe 2.4.5: Man berechne N¨aherungsl¨osungen f¨ ur die AWA u′ (t) = sin(u(t)),
t ≥ 0,
u(0) = 1,
mit Hilfe 1. der Eulerschen Polygonzugmethode, 2. des modifizierten Euler-Verfahrens, 3. des klassischen” Runge-Kutta-Verfahrens 4. Ordnung f¨ ur die (konstanten) Schritt” −i weiten hi = 2 , i = 1, ..., 8 . Man bestimme experimentell” die Konvergenzordnungen p der Verfahren f¨ ur die Ap” (i) proximation des L¨osungswertes u(10) aus den berechneten N¨aherungen yN ∼ u(10) zu Schrittweiten hi nach der Formel y i − y i−1 1 N N p=− log i−1 i−2 . log(2) yN − yN Man versuche, diese Formel zu begr¨ unden Aufgabe 2.4.6: Das allgemeine (explizite oder implizite) Runge-Kutta-Verfahren hat die Form yn = yn−1 + hn F (hn ; tn−1 , yn−1 ) mit der Verfahrensfunktion F (h; t, x) =
R X r=1
cr kr (h; t, x),
R X brs ks , kr (h; t, x) = f t + har , x + h s=1
mit Konstanten cr , ar , brs . Im Fall brs = 0 f¨ ur s ≥ r ist das Schema explizit. Man zeige: a) Dieses Verfahren gen¨ ugt der Lipschitz-Bedingung (Lh )
kF (h; t, x) − F (h; t, x˜)k ≤ Lkx − x˜k, wenn die Funktion f (t, x) (bzgl. x ) Lipschitz-stetig ist. PR b) Das Verfahren ist genau dann konsistent, wenn r=1 cr = 1 ist.
Aufgabe 2.4.7: Man beweise die Ungleichung
x y
kxk − kyk ≤ kx − yk
f¨ ur Punkte x, y ∈ Rd mit kxk ≥ 1, kyk ≥ 1 . (Hinweis: Man quadriere die Ungleichung und verwende die Eigenschaften des euklidischen Skalarprodukts.)
¨ 2.4 Ubungsaufgaben
51
Aufgabe 2.4.8: Gegeben sei die lineare AWA u′ (t) = Au(t) + b,
t ≥ 0,
u(0) = u0 ,
mit negativ definiter Matrix A ∈ Rd×d . Man zeige:
a) Die AWA besitzt eine eindeutige, f¨ ur t → ∞ gleichm¨aßig beschr¨ankte L¨osung u(t) .
b) F¨ ur jede konstante Schrittweite h > 0 erzeugen das explizite sowie das implizite Euler-Verfahren, ersteres f¨ ur hinreichend kleines h , gleichfalls eindeutige, f¨ ur n → ∞ beschr¨ankte N¨aherungsl¨osungen (yn )n∈N . (Hinweis: Man multipliziere die Differentialgleichung mit u(t) und integriere u ¨ ber t .) Aufgabe 2.4.9: Man zeige, daß die in der Vorlesung angegebene Methode der Schritt” weitenhalbierung” zur Sch¨atzung des Abschneidefehlers auch f¨ ur implizite Einschrittverfahren yn = yn−1 + hn F (hn ; tn−1 , yn−1 , yn ) mit L-stetiger Verfahrensfunktion F (h; t, ·, ·) anwendbar ist. Aufgabe 2.4.10: Man berechne eine N¨aherungsl¨osung f¨ ur die AWA u′ (t) = −200 t u(t)2,
t ≥ −3,
u(−3) =
1 , 901
auf dem Intervall I = [−3, 3] mit Hilfe der Heunschen Formel 2. Ordnung unter Verwendung der Strategie zur Schrittweitensteuerung aus der Vorlesung. Als angestrebte Fehlertoleranz w¨ahle man ε = 10−5 , als Fehlerkonstante K = 10 und als Startschrittweite h0 = 10−2 . Man beurteile die G¨ ute der Schrittweitensteuerung durch Vergleich mit 2 −1 der exakten L¨osung u(t) = (1 + 100t ) . F¨ ur welche konstante Schrittweite w¨ urde man dieselbe Genauigkeit erzielen, und wieviele Funktionsauswertungen f (t, x) sind jeweils erforderlich?
52
Einschrittmethoden
3 Numerische Stabilit¨ at 3.1 Modellproblemanalyse Eine Lipschitz-stetige und (strikt) monotone AWA u′ (t) = f (t, u(t)) ,
t ≥ t0 ,
u(t0 ) = u0 ,
(3.1.1)
hat im Falle supt>0 kf (t, 0)k < ∞ eine globale, gleichm¨aßig beschr¨ankte L¨osung. Ist f (t, 0) ≡ 0 , so f¨allt diese L¨osung sogar exponentiell gegen Null ab. Seien L(t) die Lipschitz-Konstante und λ(t) die Monotonie-Konstante der Funktion f (t, ·) . Wir haben gesehen, daß das Polygonzugverfahren eine analoge Eigenschaft besitzt, wenn die strikte Schrittweitenbedingung hn < 2
λn−1 , L2n−1
tn ≥ t0 ,
(3.1.2)
erf¨ ullt ist. F¨ ur solche Schrittweiten ist das Verfahren also numerisch stabil“. Anhand der ” skalaren Testgleichung u′ (t) = λu(t),
λ ∈ C,
(3.1.3)
(L = |λ|) sieht man, daß die Bedingung (3.1.2) i.allg. scharf ist. F¨ ur λ ∈ R, λ < 0, gilt yn = (1 + hλ)yn−1 = ... = (1 + hλ)n y0 , d.h.: F¨ ur h > 2|λn−1 |/L2n−1 = 2/|λ| w¨achst die diskrete L¨osung exponentiell. Zur Illustration betrachten wir folgendes Beispiel u′ (t) = −200 t u(t)2 ,
t ≥ 0,
u(0) = 1 ,
mit der L¨osung u(t) = (1 + 100t2 )−1 . Tabelle 3.1: Beispiel numerischer Instabilit¨at. N
h
|yN − u(3)| ∼ 2 · 10−8
50 0.06
∼ 2 · 10−6
25 0.12
∼ 7 · 10−5
20 0.15 15 0.2
overflow (1038 ) ∼ 7 · 10−5
20 0.1538
19 0.1579 overflow (1038 )
53
54
Numerische Stabilit¨ at
Es soll der Wert u(3) = 1/901 mit Hilfe des klassischen Runge-Kutta-Verfahrens approximiert werden. Nach den Ergebnissen zur Konvergenz dieses Verfahrens d¨ urften dabei keine Probleme auftreten, insbesondere da die L¨osung u(t) f¨ ur t → ∞ sehr glatt gegen Null abf¨allt. Man ist daher versucht, mit relativ großen Schrittweiten zu rechnen. Bei 17-stelliger Rechnung erh¨alt man jedoch das in folgender Tabelle wiedergegebene bedenkliche Resultat (N = Schrittzahl). Offensichtlich zeigt das ansonsten sehr gutartige Runge-Kutta-Verfahren bei diesem Problem eine numerische Instabilit¨at, wenn die Schrittweite zu grob ist. Im folgenden wollen wir uns mit der Analyse und Kontrolle solcher gef¨ahrlichen Instabilit¨aten besch¨aftigen. Lineare Stabilit¨ atsanalyse Wir nennen zun¨achst intuitiv ein Differenzenverfahren numerisch stabil“ f¨ ur festes h , ” wenn im Falle supt>0 ku(t)k < ∞ auch supn≥0 kyn k < ∞ . Zur Illustration sei das einfache Testproblem (3.1.3) betrachtet. Das Verhalten der L¨osung u(t) = u0 eλt f¨ ur t → ∞ ist charakterisiert durch das Vorzeichen von Re λ : Re λ < 0 →0 Re λ (3.1.4) ≡ |u0 | ⇒ |u(t)| = |u0|e Re λ = 0 →∞ Re λ > 0 Definition 3.1 (Absolute Stabilit¨ at): Eine Einschrittmethode heißt absolut stabil“ ” f¨ur ein λh 6= 0 , wenn sie angewendet auf das skalare Testproblem (3.1.3) f¨ur Re λ ≤ 0 beschr¨ankte N¨aherungen erzeugt: supn≥0 |yn | < ∞ .
F¨ ur die Polygonzugmethode liegt also absolute Stabilit¨at genau dann vor, wenn f¨ ur den sog. Verst¨arkungsfaktor“ ω = ω(λh) := 1 + λh gilt |ω| ≤ 1 . Wir nennen allgemein ” SG = {z = λh ∈ C : |ω(z)| ≤ 1} das Gebiet absoluter Stabilit¨at“ (kurz Stabilit¨atsgebiet“) einer Einschrittformel. Das ” ” Stabilit¨atsgebiet der Polygonzugmethode ist in Bild 3.1 dargestellt.
Im z i
1
−1
Re z
−i
Abbildung 3.1: Stabilit¨atsgebiet der Polygonzugmethode.
3.1 Modellproblemanalyse
55
F¨ ur ein festes λ mit Re λ ≤ 0 muß die Schrittweite h so bemessen sein, daß λh ∈ SG ist. Andernfalls w¨achst die N¨aherungsl¨osung yn f¨ ur n → ∞ exponentiell an, obwohl die exakte L¨osung beschr¨ankt ist oder sogar exponentiell abf¨allt. Wir wollen nun die numerische Stabilit¨at der Taylor- und der Runge-Kutta-Formeln untersuchen. F¨ ur das Testproblem (3.1.3) erh¨alt die Taylor-Methode der Stufe R die Gestalt R R X X hr−1 r hr−1 r−1 f (tn−1 , yn−1 ) = yn−1 + h λ yn−1. yn = yn−1 + h r! r! r=1 r=1
Der Verst¨arkungsfaktor ist also ω=
R X (λh)r . r! r=0
(3.1.5)
Da die Bestimmung des vollen Stabilit¨atsgebietes SG = {z ∈ C : |ω(z)| ≤ 1} schwierig ist, beschr¨anken wir uns hier auf die Betrachtung des Stabilit¨atsintervalls“ ” SI = {z ∈ R : |ω(z)| ≤ 1}. Wir finden [−2, 0] [−2, 0] SI = [−2.51 . . . , 0] [−2.78 . . . , 0]
, R=1 , R=2 , R=3 , R=4
Abbildung 3.2: Stabilit¨atsgebiete der (expliziten) Taylor- und Runge-Kutta-Methoden.
56
Numerische Stabilit¨ at
Sei F (h; t, x) die Verfahrensfunktion einer R-stufigen Runge-Kutta-Methode der Ordnung m = R ≤ 4 . Nach Konstruktion der Runge-Kutta-Formeln gilt dann R X hr−1 (r−1) F (h; t, u) = f (t, u) + O(hR ) . r! r=1
F¨ ur das Testproblem ist F (h; t, u) =
R X
cr kr (h; t, u)
r=1
offenbar ein Polynom in h der Ordnung R − 1 . Folglich gilt in diesem Fall R X hr−1 (r−1) f (t, u) , F (h; t, u) = r! r=1
d.h.: Der Verst¨arkungsfaktor ω der Runge-Kutta-Formeln der Ordnung (m = R ≤ 4) ist derselbe wie der der entsprechenden Taylor-Formeln. Also sind durch die obige Abbildung f¨ ur R ≤ 4 auch die Stabilit¨atsintervalle der R-stufigen Runge-Kutta-Formeln der Ordnung m = R gegeben. Der obigen Stabilit¨atsanalyse entnehmen wir, daß f¨ ur Re λ ≪ −1 die Stabilit¨at der durch die Runge-Kutta-Methoden erzeugten L¨osungen die Verwendung einer entsprechend kleinen Schrittweite h erfordert. In diesem Fall w¨are daher die Verwendung einer Formel mit einem in der komplexen Ebene m¨oglichst weit nach links reichendem Stabilit¨atsgebiet. Die in dieser Hinsicht optimalen“ Methoden haben die folgende Eigenschaft: ” Definition 3.2: Eine Differenzenmethode heißt A-stabil“, wenn f¨ur ihr Stabilit¨atsgebiet ” gilt {z ∈ C | Re z ≤ 0} ⊂ SG.
(3.1.6)
Man kann zeigen, daß explizite Methoden nicht A-stabil sein k¨onnen. Wir werden sp¨ater sehen, daß die implizite Euler-Methode sowie die Trapezregel yn + yn−1 + 21 {f (tn , yn ) + f (tn−1 , yn−1)} A-stabil sind. Die direkte Anwendung der anhand des Testproblems (3.1.3) gewonnenen Erkenntnisse zur absoluten Stabilit¨at einer Differenzenformel setzt folgendes voraus: Hypothese: Ein Differenzenverfahren mit einem Stabilit¨atsgebiet SG ⊂ C ist nume” risch stabil“ f¨ur eine allgemeine AWA, wenn die Schrittweiten hn so gew¨ahlt werden, daß mit den Eigenwerten λ(t) der Jacobi-Matrix fx (t, u(t)) mit Re λ(t) ≤ 0 gilt: hn λ(tn ) ∈ SG ,
n ≥ 0.
(3.1.7)
3.1 Modellproblemanalyse
57
Die Berechtigung dieser Annahme ist in allgemeinen Situationen schwer zu kl¨aren. Anhand von Beispielen zeigt sich, daß sie falsch sein kann, wenn die Jacobi-Matrix fx (t, u(t)) nicht diagonalisierbar ist, d.h. kein vollst¨andiges System von Eigenvektoren besitzt. Bei einer numerischen Stabilit¨atsanalyse wird die nichtlineare Gleichung zun¨achst durch das entlang der L¨osung u(t) linearisierte System v ′ (t) = fx′ (t, u(t))v(t) ,
t ≥ t0 ,
(3.1.8)
ersetzt. Dieses beschreibt im Rahmen einer (lokalen) differentiellen Stabilit¨atsanalyse bei t0 das (exponentielle) Anwachsen oder Abfallen von St¨orungen. Man beachte, daß kfx′ (t, u(t))k ein Maß f¨ ur die lokale Lipschitz-Stetigkeit von f (t, x) ist. Nach Einfrieren“ ” des Koeffizienten in einem Punkt t⋆ ≥ t0 erh¨alt man das autonome, lineare System v ′ (t) = fx′ (t⋆ , u(t⋆ ))v(t) ,
t ≥ t⋆ .
(3.1.9)
Ist nun A := fx′ (t⋆ , u(t⋆ )) diagonalisierbar, so existiert eine regul¨are Matrix Q , so daß QAQ−1 = D = diag(λi )
(3.1.10)
mit den Eigenwerten λi ∈ C (i = 1, . . . , d) von A . Die Funktion v¯(t) := Qv(t) ist dann L¨osung von v¯′ (t) = QAQ−1 v¯(t) = D¯ v(t) ,
t ≥ t⋆ .
(3.1.11)
Dieses Diagonalsystem zerf¨allt in die d skalaren Gleichungen v¯i′ (t) = λi v¯i (t) ,
t ≥ t⋆ ,
i = 1, . . . , d .
(3.1.12)
Das Verhalten der einzelnen Komponenten v¯i f¨ ur t → ∞ ist wieder charakterisiert durch die Realteile von λi . Wegen der Regularit¨at von Q folgt die Beziehung Re λi ≤ 0 (i = 1, . . . , d)
⇔
kv(t)k ≤ ckv(t⋆ )k ,
t ≥ t⋆ .
(3.1.13)
Die Stabilit¨at des diagonalisierbaren Systems (3.1.9) wird also vollst¨andig durch die Ei¨ genwerte λi von A beschrieben. Uber die skizzierte Argumentationskette wird die Stabilit¨atsanalyse f¨ ur eine allgemeine AWA lokal auf die Untersuchung der Eigenwerte der Jacobi-Matrix A = fx′ (t⋆ , u(t⋆ )), zur¨ uckgef¨ uhrt. Die numerische Stabilit¨atsanalyse verl¨auft analog in umgekehrter Richtung. Wir dis¨ kutieren hier nur den Ubergang vom skalaren Modellproblem zum allgemeinen linearen System. Alle betrachteten Einschrittverfahren haben f¨ ur das System (3.1.9) die Form yn = g(hA)yn−1 mit einer rationalen Funktion g(z) . Z.B. ist bei den Taylor-Formeln (und bei den RungeKutta-Formeln mit m = R ≤ 4)
58
Numerische Stabilit¨ at
R X zr g(z) = . r! r=0
Sei die Matrix A wieder als diagonalisierbar angenommen. Wir setzen y¯n = Qyn und finden y¯n = Qyn = Qg(hA)yn−1 = Qg(hA)Q−1 y¯n−1 . Aufgrund eines allgemeinen Satzes u ¨ ber analytische Matrizenfunktionen ist Qg(hA)Q−1 ≡ g(hQAQ−1 ) = g(hD) , und folglich y¯n = g(hD)¯ yn−1 = g(hD)n y¯0 , bzw. y¯n,i = g(hλi)n y¯0,i ,
i = 1, . . . , d .
Wegen der eindeutigen Kopplung y¯n ≡ Qyn k¨onnen wir uns bei der Stabilit¨atsbetrachtung also auf die skalare Differentialgleichung u′ (t) = λu(t) beschr¨anken, wobei der Parameter λ ∈ C die Eigenwerte der Matrix A durchl¨auft. Es sei betont, daß die entscheidende Vor¨ aussetzung f¨ ur die G¨ ultigkeit dieser Uberlegung die angenommene Diagonalisierbarkeit der Matrix A , d.h. im allgemeinen Fall der Jacobi-Matrix des Systems, ist. Andernfalls ¨ kann, wie Gegenbeispiele zeigen, die vereinfachte skalare Analyse beim Ubergang zu Systemen zu Fehleinsch¨atzungen f¨ uhren. Die ebenfalls vorgenommene lokale Linearisierung sowie das Einfrieren“ der Koeffizienten ist dagegen weniger kritisch. ” Beispiel 3.1: Bei dem nichtlinearen Problem vom Anfang dieses Kapitels u′ (t) = −200 t u(t)2 ,
t ∈ [0, 3] ,
u(0) = 1 ,
gilt entlang der L¨osungstrajektorie fx (t, u(t)) = −400tu(t) = −
400t , 1 + 100t2
min fx (t, u(t)) = −20.
t∈[0,3]
F¨ ur das klassische Runge-Kutta-Verfahren mit dem Stabilit¨atsintervall SI ≈ [−2.78, 0] impliziert dies die Schrittweitenbeschr¨ankung h < 2.78/20 = 0.139. Da die L-Konstante bei diesem nichtlinearen Problem außerhalb des relativ kleinen Intervalls [0, 51 ] u ¨berall < 16 ist, wird die Instabilit¨at im Bereich h ∼ 0.14 nur schwach in Erscheinung treten. Tats¨achlich beobachten wir die Explosion“ erst bei h ∼ 0.158 . ” Gegenbeispiel zur skalaren“ Stabilit¨ atsanalyse ” Der Vollst¨andigkeit halber geben wir ein Beispiel an, welches zeigt, daß die der auf Linearisierung beruhenden numerischen Stabilit¨atsanalyse zugrundeliegende Hypothese auch
3.1 Modellproblemanalyse
59
falsch sein kann. F¨ ur Parameter µ < 0, ε > 0 , α ∈ R betrachte man das System ˜ u′ (t) = A(t)u(t) , A˜ = ε−1 U ⋆ (t)AU(t) ,
A=
"
−1 0
µ −1
u(0) = u0 , #
,
U(t) =
(3.1.14) "
cos αt
sin αt
− sin αt cos αt
#
.
Die zeitabh¨angige Matrix U(t) ist unit¨ar, U(t)U ⋆ (t) = I (Drehung um den Winkel −αt ˜ im R2 ). Der Vollst¨andigkeit halber wollen wir die Matrix A(t) ausrechnen: " # " # " # c −s −1 µ c s 1 ˜ = U ⋆ (t)AU(t) = A(t) · · ε s c 0 −1 −s c " #! − sin αt cos αt cos2 αt 1 −I + µ . = ε − sin2 αt sin αt cos αt Anwendung der A-stabilen Trapezregel auf (3.1.14) ergibt ˜ n )]−1 [I + 1 h A(t ˜ n−1 )]yn−1 . yn = [I − 21 h A(t 2
(3.1.15)
F¨ ur transformierte Variable v(t) = U(t)u(t) gilt v ′ (t) = U ′ (t)u(t) + U(t)u′ (t) = [U ′ (t)U ⋆ (t) + ε−1 U(t)U ⋆ (t)A]U(t)u(t) = [U ′ (t)U ⋆ (t) + ε−1 A]v(t) und somit ′
v (t) = B v(t) ,
B=
"
−1/ε µ/ε + α −α
−1/ε
#
.
(3.1.16)
Das System (3.1.16) hat die allgemeine L¨osung v(t) = c1 eλ1 t + c2 eλ2 t
(3.1.17)
mit den folgenden Eigenwerten und zugeh¨origen Eigenvektoren der Matrix B : " p # p ± α + µ/ε . λ1,2 = −ε−1 ± −α(α + µε−1), c1,2 = √ −α Einschub: Setze α = −3 ,
µ = 3,
λ1 = −3 +
p
ε = 31 . Dann wird √ 3(9 − 3) = 3( 2 − 1) > 1.2 ,
d.h.: Die L¨osung v(t) von (3.1.16) w¨achst f¨ ur t → ∞ wie e1.2t , obwohl die Eigenwerte des aquivalenten“ Systems (3.1.14) alle negativ sind. ”
60
Numerische Stabilit¨ at
Wir schreiben (3.1.15) in der Form ˜ n )yn + A(t ˜ n−1 )yn−1 ] . yn − yn−1 = 21 h [A(t
(3.1.18)
F¨ ur die transformierte diskrete Variable zn = U(tn )yn gilt dann wegen [I − 21 ε−1 hU ⋆ (tn+1 )AU(tn+1 ]yn+1 = [I + 12 ε−1 hU ⋆ (tn )AU(tn )]yn U ⋆ (tn+1 )[I − 21 ε−1 hA]U(tn+1 )yn+1 = U ⋆ (tn )[I + 12 ε−1 hA]U(tn )yn auch zn+1 = [I − 12 ε−1 hA]−1 U(tn+1 )U ⋆ (tn )[I + 21 ε−1 hA]zn bzw. zn+1 = [I − 12 ε−1 hA]−1 U(h)[I + 12 ε−1 hA]zn = M zn .
(3.1.19)
Hierbei wurde ber¨ ucksichtigt, daß (geometrisches Argument) # " # " cos αt sin αt cos αt − sin αt n n n+1 n+1 U(tn+1 )U ⋆ (tn ) = · − sin αtn+1 cos αtn+1 sin αtn cos αtn " # cos αtn+1 cos αtn + sin αtn+1 sin αtn − cos αtn+1 sin αtn + sin αtn+1 cos αtn = − sin αtn+1 cos αtn + cos αtn+1 sin αtn sin αtn+1 sin αtn + cos αtn+1 cos αtn " # cos αh sin αh = = U(h). − sin αh cos αh Beachte, daß M auch unabh¨angig von t ist. Da U(t) unit¨ar ist, kU(t)xk = kxk , gilt f¨ ur die L¨osung yn von (3.1.15) f¨ ur t0 = 0 : kyn k = kU ⋆ (tn )zn k = kU ⋆ (tn )M n U(t0 )y0 k = kU ⋆ (tn )M n U(0)y0 k = kM n y0 k . Wir berechnen nun die Eigenwerte von M , um entscheiden zu k¨onnen, ob die diskreten L¨osungen yn anwachsen oder abnehmen. Setze τ = −αh , α < 0 , ε = − 41 αh2 . Dann erhalten wir durch Taylor-Entwicklung " # cos(−τ ) sin(−τ ) −1 · [ 21 τ I + A] M = [ 12 τ I − A] · − sin(−τ ) cos(−τ ) " # 0 −1 = [ 12 τ I − A]−1 [I + τ J + O(τ 2 )][ 21 τ I + A] , J = 1 0 = [ 12 τ I − A]−1 [ 21 τ I + A] − τ A−1 JA + O(τ 2 )
= [ 21 τ A−1 − I]−1 [ 21 τ A−1 + I] − τ A−1 JA + O(τ 2 ) = −I − τ A−1 [I + JA] + O(τ 2 ) .
3.1 Modellproblemanalyse
61
Nun ist −1
A
=
"
−1 −µ 0
−1
und somit M = −I − τ
"
#
,
I + JA =
"
1
−1 1 + µ
−1 + µ −(1 + µ + µ2 ) 1
1
−1 − µ
#
#
+ O(τ 2 ) .
Die Eigenwerte von M sind n¨aherungsweise mit den Wurzeln λ1,2 des (gest¨orten) charakteristischen Polynoms χ(λ) = λ2 + 2λ + µ + 2 gegeben als µ1,2 = −1 − τ λ1,2 + O(τ 2 ) , wobei √
λ1,2 = −1 ±
p
−1 − µ .
ur Die Wurzel λ1 = −1 + −1 − µ ist positiv, wenn µ < −2 . In diesem Fall wird (f¨ hinreichend kleines τ = −αh ) |µ1 | > 1 . Die A-stabile Trapezregel erzeugt dann exponentiell anwachsende N¨aherungen yn = U ⋆ (tn )zn zu der exponentiell abfallenden L¨osung u(tn ) . Dieses Beispiel zeigt, daß zur Behandlung nicht diagonalisierbarer“ Systeme die nu” merische Stabilit¨atstheorie der skalaren Gleichungen nicht ausreicht. 3.1.1 Steife Probleme Die numerischen Stabilit¨atseigenschaften einer Differenzenformel sind von essentieller Bedeutung f¨ ur die Integration sog. steifer“ Probleme. ” Definition 3.3 (Steifheit): Eine AWA heißt steif“ (entlang einer L¨osung u(t)), wenn ” f¨ur die Eigenwerte λ(t) der Jacobi-Matrix fx′ (t, u(t)) gilt: κ(t) :=
maxRe λ(t)<0 |Re λ(t)| ≫ 1. minRe λ(t)<0 |Re λ(t)|
(3.1.20)
Die Gr¨oße κ(t) wird Steifigkeitsrate“ genannt. ” Es ist zu beachten, daß bei der Bestimmung der Steifigkeitsrate nur die Eigenwerte mit negativem Realteil ber¨ ucksichtigt werden. Diejenigen mit positivem Realteil geh¨oren zu exponentiell wachsenden L¨osungskomponenten und bedingen auf jeden Fall eine entsprechende Schrittweitenrestriktion. Steife Probleme zeichnen sich demnach durch L¨osungskomponenten mit stark unterschiedlichem Abklingverhalten aus. Es ist aber nicht gerechtfertigt, eine skalare AWA als steif“ zu bezeichnen, nur weil ihre Lipschitz-Konstante L ”
62
Numerische Stabilit¨ at
sehr groß ist. Denn in diesem Fall m¨ ußte ja des Diskretisierungsfehlers wegen sowieso mit einer entsprechend reduzierten Schrittweite gerechnet werden.
Beispiel 3.2:
′
u (t) = Au(t) ,
T
u(0) = (1, 0, −1) ,
A=
−21
19 −20
20 , 40 −40 −40 19 −21
Die Eigenwerte von A sind λi = −2 , λ2,3 = −40 ± 40i . Die L¨osung des Systems ist u1 (t) = 21 e−2t + 21 e−40t [cos 40t + sin 40t] u2 (t) = 21 e−2t − 21 e−40t [cos 40t + sin 40t] u3 (t) = −e−40t [cos 40t − sin 40t]. Im Bereich 0 ≤ t ≤ 0.1 variieren alle drei L¨osungskomponenten schnell, so daß die Notwendigkeit einer kleineren Schrittweite h ≪ 0.1 plausibel ist. F¨ ur t > 0.1 sind dagegen u1 ∼ u2 nahezu identisch und variieren sehr langsam, w¨ahrend u3 ∼ 0 ist. Dies Verhalten legt die Wahl einer gr¨oberen Schrittweite h ≥ 0.1 in diesem Bereich nahe. F¨ ur die explizite Euler-Methode erzwingt jedoch die Stabilit¨atsbedingung |1 + 40h| < 1 die globale Schrittweite h < 0.025 . Tats¨achlich erhalten wir bei Verwendung von h = 0.04 eine oszillierende Approximation von u1 (“ • “) im Bild.
Abbildung 3.3: L¨osungskomponenten einer steifen“ AWA und instabile numerische Ap” proximation •“. ” Beispiel 3.3: Bei ¨ortlicher Diskretisierung der (1-dim.) W¨armeleitungsgleichung ∂2v ∂v (x, t) = (x, t) , ∂t ∂x2
v(0, t) = v(1, t) = 0 v(x, 0) = v 0 (x)
3.1 Modellproblemanalyse
63
mittels des zentralen Differenzenquotionten zweiter Ordnung ∂2v 1 (x, t) ∼ [ v(x + ∆x, t) − 2v(x, t) + v(x − ∆x, t) ] 2 ∂x ∆x2 entsteht ein System von d = kannten ui (t) ∼ v(xi , t) : u′i (t) =
1 ∆x
− 1 gew¨ohnlichen Differentialgleichungen in den Unbe-
1 [ ui+1(t) − 2ui (t) + ui−1 (t) ] , ∆x2
i = 1, . . . , d (u0 = ud+1 = 0) .
Die zugeh¨orige Koeffizientenmatrix −2 1 0 1 −2 1 .. .. .. A= . . . ∆x2 −2 1 0 1 −2
hat die Eigenwerte
sin(jπ∆x/2) 2 , λj = − ∆x/2
j = 1, . . . , d ,
∈ Rd×d
λmax ∼ −
4 , ∆x2
λmin ∼ −π 2 .
Das System ist also umso steifer, je feiner die Ortsvariable diskretisiert wird. F¨ ur das explizite Euler-Verfahren erzwingt die Stabilit¨atsbedingung dann die Schrittweitenrelation h < 21 ∆x2 .
Zur Integration eines steifen Systems mit nicht bekannter Steifigkeitsrate werden Differenzenformeln mit m¨oglichst guten numerischen Stabilit¨atseigenschaften ben¨otigt, d.h. m¨oglichst A-stabile Methoden. Da explizite Formeln nicht A-stabil sein k¨onnen, werden zur Integration steifer Systeme fast ausschließlich implizite Methoden verwendet. Das allgemeine implizite Einschrittverfahren hat die Gestalt yn = yn−1 + hn F (hn ; tn−1 , yn−1, yn ) ,
n ≥ 1.
(3.1.21)
Von großer praktischer Bedeutung sind die sog. impliziten Runge-Kutta-Formeln“ ” yn = yn−1 +
R X
cr kr (hn ; tn−1 , yn−1) ,
r=1
kr (hn ; tn−1 , yn−1) = f (tn−1 + hn ar , yn−1 + hn
R X s=1
n ≥ 1,
brs ks (hn ; tn−1 , yn−1)),
(3.1.22) r = 1, . . . , R.
64
Numerische Stabilit¨ at
Diese Formeln sind trotz ihrer scheinbar expliziten Form nat¨ urlich implizit, da die kr als L¨osungen eines i.allg. nichtlinearen Gleichungssystems bestimmt sind. Der einfachste Vertreter f¨ ur R = 1 ist die implizite Euler-Methode“ ” yn = yn−1 + hn f (tn , yn ),
n ≥ 1.
(3.1.23)
F¨ ur das Testproblem (3.1.3) ergibt sie yn = (1 − λh)−n y0 , mit dem Verst¨arkungsfaktor ω = (1 − λh)−1 . Das Stabilit¨atsgebiet ist also das Komplement der offenen Kreisscheibe {z ∈ C : |1 − z| < 1} , d.h.: Die implizite Euler-Methode ist A-stabil. F¨ ur Re λ > 0 ist sie allerdings auch f¨ ur |1 − λh| ≥ 1 absolut-stabil; sie kann also Beschr¨anktheit der L¨osung u(t) vorgaukeln, auch wenn u(t) exponentiell w¨achst. In letzterem Fall (f¨ ur Im λ = 0 !) ist jedoch (1 − λh)−1 < 0 , d.h.: Die N¨aherungswerte yn haben oszillierende Vorzeichen f¨ ur n → ∞ , was immer ein Zeichen f¨ ur irgendwelche numerische Instabilit¨at ist.
Abbildung 3.4: Stabilit¨atsgebiet der impliziten Euler-Methode. Aufgrund der gr¨oßeren Anzahl von freien Parametern der impliziten Runge-KuttaFormeln l¨aßt sich bei gegebener Stufenzahl R eine h¨ohere Ordnung erzielen als mit expliziten Formeln dieser Art. Insbesondere lassen sich implizite Runge-Kutta-Formeln beliebig hoher Ordnung konstruieren, die gleichzeitig noch A-stabil sind. Beispiel 3.4: Die 3-stufige Formel yn = yn−1 + 61 h{k1 + 4k2 + k3 }, k1 = f (tn−1 , yn−1 ) , k2 = f (tn−1 + 21 h, yn−1 + 14 hk1 + 14 hk2 ), k3 = f (tn−1 + h , yn−1 + hk2 ) , hat die Ordnung m = 4 . Ihr Verst¨arkungsfaktor ist ω=
¯+ 1 + 21 h ¯+ 1 − 12 h
und ihr Stabilit¨atsintervall SI = (−∞, 0] .
1 ¯2 h 12 1 ¯2 h 12
,
¯ = hλ , h
3.1 Modellproblemanalyse
65
Ein Nachteil dieser optimalen“, impliziten Runge-Kutte-Formeln ist, daß bei ihrer ” Anwendung in jedem Zeitschritt Gleichungssysteme der Dimension Rd gel¨ost werden m¨ ussen. Um dies zu vermeiden verwendet man in der Regel sog. diagonal-implizite“ ” Runge-Kutta-Formeln (sog. DIRK“), welche zwar eine etwas geringere Ordnung haben, ” aber wegen ihrer speziellen Struktur nur die L¨osung von Sytemen der Dimension d erfordern. Dies wird dadurch erreicht, daß die in der Darstellung (3.1.22) die Koeffizienten brs = 0, s > r, gew¨ahlt werden. Beispiel 3.5: Die allgemeine 3-stufige, diagonal-implizite Runge-Kutta-Formel yn = yn−1 + h{c1 k1 + c2 k2 + c3 k3 }, k1 = f (tn−1 , yn−1) , k2 = f (tn−1 + a2 h, yn−1 + hb21 k1 + hb22 k2 ), k3 = f (tn−1 + a3 h, yn−1 + hb31 k1 + hb32 k2 + hb33 k3 ), hat die maximale Ordnung m = 3 . Ihr Stabilit¨atsintervall ist ebenfalls SI = (−∞, 0] . Das Hauptproblem bei der Anwendung impliziter Differenzenverfahren ist die L¨osung der auftretenden, i.allg. nichtlinearen Gleichungssysteme. In den einzelnen Zeitschritten hat man bei den allgemeinen R-stufigen impliziten Runge-Kutta-Methoden Gleichungssysteme der Dimension Rd zu l¨osen, bei den diagonal-impliziten Runge-Kutta-Formeln Systeme der Dimension d . Bei großen Systemen, d ≫ 1 , ist dies ein betr¨achtlicher Aufwand, der nur im Fall hochgradiger Steifheit des Problems gerechtfertigt ist. Die Fragen nach der Existenz der diskreten N¨aherungen yn und ihrer tats¨achlichen Berechnung wollen wir exemplarisch anhand der impliziten Euler-Methode behandeln. Der Schritt von tn−1 nach tn erfordert hier die L¨osung der Fixpunktgleichung y = g(y) := yn−1 + hn f (tn , y) .
(3.1.24)
Die Abbildung g : Rd → Rd ist unter der Bedingung hn L =: q < 1
(3.1.25)
mit der Lipschitz-Konstante L von f (t, ·) eine Kontraktion: kg(y) − g(y ′)k ≤ hn kf (tn , y) − f (tn , y ′)k ≤ hn Lky − y ′k Nach dem Banachschen Fixpunktsatz existiert dann genau ein Fixpunkt y = yn von g , der mit Hilfe der sukzessiven Approximation“ ” y (k+1) = g(y (k)) ,
k = 0, 1, 2, . . . ,
(3.1.26)
berechnet werden kann. Deren Konvergenz ist aber leider nur garantiert, wenn die Schrittweitenbedingung (3.1.25) erf¨ ullt ist. Bei einem steifen Problem mit L ≫ 1 ist diese Forderung aber meist zu restriktiv. In diesem Fall ben¨otigt man f¨ ur den Nachweis der Existenz der Approximationen yn zus¨atzliche Struktureigenschaften der AWA. Wir diskutieren hier nur den einfachsten Fall einer semi-monotonen“ Nichtlinearit¨at. ”
66
Numerische Stabilit¨ at
Satz 3.1 (Monotone steife AWA): Die rechte Seite f (t, ·) der AWA sei L-stetig mit Konstante L und semi-monoton, −(f (t, x) − f (t, y) , x − y) ≥ 0 ,
(t, x) , (t, y) ∈ I × Rd .
(3.1.27)
Dann existieren f¨ur beliebig gew¨ahlte Schrittweiten hn stets die Approximationen yn . Ferner konvergiert f¨ur jedes hinreichend kleine θ y (k) = y (k−1) − θ y (k−1) − hf (tn , y (k−1) ) − yn−1 , y (0) := yn−1, (3.1.28) gegen diese L¨osung yn . Die Konvergenz ist am schnellsten f¨ur θ = (1 + h2 L2 )−1 , wobei die a priori Fehlerabsch¨atzung gilt: ky (k) − yn k ≤ 1 −
k/2 1 ky (1) − y (0) k, 1 + h2 L2
k ≥ 1.
(3.1.29)
Beweis: (i) Wir haben zu zeigen, daß f¨ ur jedes feste h > 0 stets ein eindeutig bestimmtes yn ∈ Rd existiert, so daß yn − hf (tn , yn ) = yn−1 .
(3.1.30)
Die Monotonie der Funktion f (t, ·) impliziert, daß die Abbildung g : Rd → Rd ,
g(x) := x − hf (tn , x)
strikt monoton ist mit der Monotoniekonstante γ = 1 . Gem¨aß Korollar 1.2 existiert daher eine eindeutig bestimmte L¨osung yn ∈ Rd der Gleichung g(yn ) = yn−1 . Der Beweis dieses Resultats verwendete die Tatsache, daß die Fixpunktabbildung Gθ (x) := x − θ g(x) − yn−1
f¨ ur 0 < θ < 2(1 + h2 L2 )−1 wegen
kGθ (x) − Gθ (y)k2 = kx − θg(x) − yn−1 − y + θg(y) + yn−1 k2 = k(1−θ)(x−y) + θh(f (tn , x))−f (tn , y))k2 = (1−θ)2 kx − yk2 + 2(1−θ)θh(x − y, f (tn , x) − f (tn , y)) + θ2 h2 kg(x) − g(y)k2 ≤ {(1−θ)2 + θ2 h2 L2 )}kx − yk2 eine Kontraktion ist. Deren Lipschitz-Konstante wird minimal f¨ ur θ := (1 + h2 L2 )−1 : q = {(1−θ)2 + θ2 h2 L2 )}1/2 = 1 −
1/2 1 < 1. 1+h2 L2
In diesem Fall konvergiert dann die Fixpunktiteration
y (k+1) = Gθ (y (k)) = y (k) − θ y (k) − hf (tn , y (k) ) − yn−1
3.1 Modellproblemanalyse
67
gegen die L¨osung von (3.1.30), wobei bekanntlich die behauptete a priori Fehlerabsch¨atzung gilt. Q.E.D. Das implizite Euler-Verfahrens l¨aßt sich f¨ ur steife“ AWAn mit semi-monotoner rechter ” Seite also im Prinzip f¨ ur beliebige Schrittweite hn durchf¨ uhren. Allerdings konvergiert in diesem Fall wegen hn L ≫ 1 die einfache Fixpunktiteration (3.1.28) nur sehr langsam. Wir betrachten daher in diesem Fall als Alternative das Newton-Verfahren zur L¨osung der Gleichung (3.1.24) in Form einer Nullstellengleichung“: ” g(yn ) := yn − hn f (tn , yn ) − yn−1 = 0.
(3.1.31)
N(y (k) )y (k+1) = N(y (k) )y (k) − g(y (k)) ,
(3.1.32)
Dieses hat die Gestalt
mit der Newton-Matrix N (k) N(y (k) ) := I − hn fx′ (tn , y (k)). Wenn N(yn ) regul¨ar ist und der Startwert y (0) hinreichend nahe bei yn liegt, konvergieren (unter weiteren Bedingungen an f ) die Newton-Iterierten y (k) → yn (k → ∞) quadratisch: k
ky (k) − yn k ≤ cq (2 ) ,
k ≥ 1,
(3.1.33)
mit gewissen Konstanten c > 0 und q ∈ (0, 1) . Wir wollen die Abh¨angigkeit dieser Konvergenz von der Lipschitz-Konstante L genauer untersuchen. Dazu ben¨otigen wir Ergebnisse aus der Theorie des Newton-Verfahrens, welche im folgenden in einem allgemeineren Rahmen entwickelt werden. Sei g : D ⊂ Rd → Rd eine differenzierbare Abbildung, f¨ ur die eine Nullstelle x∗ gesucht ist. Die Jacobi-Matrix g ′(·) sei auf der Niveaumenge D := {x ∈ Rd | kg(x)k ≤ kg(z)k} zu einem (beliebigen) festen Punkt z ∈ Rd regul¨ar mit gleichm¨aßig beschr¨ankter Inverser: kg ′(x)−1 k ≤ β,
x ∈ D.
Ferner sei g ′(·) auf D gleichm¨aßig L-stetig: kg ′(x) − g ′ (y)k ≤ γkx − yk,
x, y ∈ D.
Mit diesen Bezeichnungen haben wir den folgenden Satz. Satz 3.2 (Newton-Kantorovich): Unter den vorausgehenden Voraussetzungen gelte f¨ ur (0) ′ (0) −1 (0) den Startpunkt x ∈ D mit α := kg (x ) g(x )k die Bedingung
68
Numerische Stabilit¨ at
q := 21 αβγ < 1. Dann erzeugt die Newton-Iteration g ′ (x(k) )x(k+1) = g ′ (x(k) )x(k) − g(x(k) ),
k ≥ 1,
eine Folge (x(k) )k∈N ⊂ D , welche quadratisch gegen eine Nullstelle x∗ ∈ D von g konvergiert, mit der a priori Fehlerabsch¨atzung k −1)
kx(k) − x∗ k ≤ αq (2
,
k ≥ 1.
(3.1.34)
Beweis: Zum Startpunkt x(0) geh¨ort die abgeschlossene, nicht leere Niveaumenge D0 := {x ∈ Rd | kg(x)k ≤ kg(x(0) )k} ⊂ D. Wir betrachten die stetige Abbildung G : D0 → Rd : G(x) := x − g ′(x)−1 g(x). (i) Wir wollen zun¨achst einige Hilfsresultate ableiten. F¨ ur x ∈ D0 sei xr := x − rg ′ (x)−1 g(x), r ≥ 0. F¨ ur die Vektorfunktion h(r) := g(xr ) gilt h′ (r) = −g ′ (xr )g ′ (x)−1 g(x),
h′ (0) = −h(0).
F¨ ur 0 ≤ r ≤ R := max{r ≥ 0| kg(xs )k ≤ α, 0 ≤ s ≤ r} ergibt dies: kg(xr )k − (1−r)kg(x)k ≤ kg(xr ) − (1−r)g(x)k = kh(r) − (1−r)h(0)k Z r Z r ′ =k h (s) ds − rh(0)k = k {h′ (s) − h′ (0)} ds 0 Z r0 ≤ kh′ (s) − h′ (0)k ds, 0
und ferner wegen xs − x = −sg ′ (x)−1 g(x) : kh′ (s) − h′ (0)k = k{g ′ (xs ) − g ′ (x)}g ′ (x)−1 g(x)k ≤ γkxs − xkkg ′(x)−1 g(x)k ≤ γskg ′ (x)−1 g(x)k2 . Dies ergibt kg(xr )k − (1−r)kg(x)k ≤
1 2 r γkg ′(x)−1 g(x)k2 . 2
Mit der Gr¨oße αx := kg ′(x)−1 g(x)k folgt kg(xr )k ≤ (1 − r + 21 r 2 αx βγ)kg(x)k.
(3.1.35)
3.1 Modellproblemanalyse
69 1 αβγ 2
Im Falle αx ≤ α gilt dann wegen der Voraussetzung
< 1:
kg(xr )k ≤ (1 − r + r 2 )kg(x)k. Folglich ist in diesem Fall R ≥ 1 und somit G(x) ∈ D0 . F¨ ur solche x ∈ D0 gilt weiter kG(x) − G2 (x)k = kG(x) − G(x) + g ′(G(x))−1 g(G(x))k ≤ βkg(G(x))k. Mit Hilfe der Absch¨atzung (3.1.35) f¨ ur r = 1 folgt bei Beachtung von G(x) = x1 : kG(x) − G2 (x)k ≤ 21 βγkg ′(x)−1 g(x)k2 = 21 βγkx − G(x)k2 .
(3.1.36)
(ii) Nach diesen Vorbereitungen kommen wir nun zum Beweis des Satzes. F¨ ur eine Newton(k) (k) (k) Iterierte x ∈ D mit der Eigenschaft kx − G(x )k ≤ α gilt
kx(k+1) − G(x(k+1) )k = kG(x(k) ) − G2 (x(k) )k ≤ 21 βγkx(k) − G(x(k) )k2 ≤ 21 α2 βγ ≤ α. Also gilt f¨ ur alle Iterierte kx(k) − G(x(k) )k ≤ α . Hiermit erhalten wir kx(k+1) − x(k) k = kG2 (x(k−1) ) − G(x(k−1) )k
≤ 21 βγkG(x(k−1) ) − x(k−1) k2 = 21 βγkx(k) − x(k−1) k2 ,
und bei Iteration dieser Absch¨atzung: kx(k+1) − x(k) k ≤ 21 βγ
1 βγkx(k−1) − 2 (22 −1) (k−1)
≤ ( 21 βγ)
2
2)
kx
− x(k−2) k(2
kx
−x
2 (k−2) (k−3) 2 (2 ) 1 βγkx − x k 2 (23 −1) (k−2) (k−3) (23 ) 2 −1)
≤ ( 21 βγ)(2 = ( 21 βγ)
x(k−2) k2
k
.
Fortsetzung der Iteration bis k = 0 ergibt mit q = 21 αβγ : k −1)
kx(k+1) − x(k) k ≤ ( 21 βγ)(2
k
k −1)
kx(1) − x(0) k(2 ) ≤ ( 21 βγ)(2
k
k −1)
α(2 ) ≤ αq (2
.
F¨ ur beliebiges m ∈ N folgt damit wegen q < 1 : kx(k+m) − x(k) k ≤ kx(k+m) − x(k+m−1) k + · · · + kx(k+2) − x(k+1) k + kx(k+1) − x(k) k k+m−1 −1)
≤ αq (2
k+1 −1)
+ · · · + αq (2
k −1)
+ αq (2
(2k ) (2m−1 −1) k (q ) + · · · + q (2 ) + 1 k ∞ X αq (2 −1) (2k ) j (2k −1) . (q ) ≤ ≤ αq 1 − q (2k ) j=0 k −1)
≤ αq (2
70
Numerische Stabilit¨ at
Dies besagt, daß (x(k) )k∈N ⊂ D eine Cauchy-Folge ist. Deren Limes x∗ ∈ D ist dann notwendig ein Fixpunkt von G bzw. Nullstelle von g : x∗ = lim x(k) = lim G(x(k−1) ) = G(x∗ ). k→∞
k→∞
Durch Grenz¨ ubergang m → ∞ erhalten wir auch die Fehlerabsch¨atzung k −1)
kx∗ − x(k) k ≤ αq (2
. Q.E.D.
In der obigen Situation des impliziten Euler-Schrittes ist g(x) := x − hf (tn , x) − yn−1 und damit g ′ (x) = I − hfx (tn , x). Aufgrund der angenommenen Semi-Monotonie von f (t, ·) gilt (g ′ (x)y, y) = kyk2 − h(fx (tn , x)y, y) ≥ kyk2.
Folglich ist g ′ (x) regul¨ar, und es gilt kg ′ (x)−1 k2 = ≤
(g ′ (x)g ′ (x)−1 y, g ′(x)−1 y) kg ′(x)−1 yk2 ≤ sup kyk2 kyk2 y∈Rd \{0} y∈Rd \{0} sup
kg ′ (x)−1 yk = kg ′(x)−1 k, kyk d y∈R \{0} sup
bzw. kg ′ (x)−1 k ≤ 1 . In diesem Fall haben wir also stets β := sup kg ′(x)−1 k ≤ 1, x∈Rd
α ≤ kg(x(0) )k.
Allerdings ist nach wie vor kg ′(x) − g ′ (y)k = hkfx (tn , x) − fx (tn , y)k ≤ hL′ kx − yk mit der Lipschitz-Konstante L′ von fx (tn , ·) . Dies f¨ uhrt zu folgendem Resultat. Korollar 3.1 (Newton-Verfahren): Unter den vorausgehenden Voraussetzungen gelte f¨ur den Startpunkt y (0) ∈ Rd : q := 21 αhL′ < 1,
α := ky (0) −hf (tn , y (0) )−yn−1k.
Dann erzeugt die Newton-Iteration (3.1.32) eine Folge (y (k))k∈N , welche quadratisch gegen yn konvergiert mit der a priori Fehlerabsch¨atzung k −1)
ky (k) − yn k ≤ αq (2
,
k ≥ 1.
(3.1.37)
3.1 Modellproblemanalyse
71
Wir sehen, daß das Newton-Verfahren im Fall einer steifen, semi-momotonen AWA zwar f¨ ur alle Schrittweiten hn quadratisch konvergiert, aber der Einzugsbereich der Konvergenz proportional zu (hL′ )−1 schrumpft. Da f¨ ur eine steife AWA im allg. L′ ∼ L ≫ 1 , ist damit das Konvergenzproblem praktisch nur verschoben worden. Im n¨achsten Schritt wollen wir versuchen, das Newton-Verfahren zu globalisieren“, d.h. den Einzugsbereich ” der Konvergenz auf ganz Rd zu erweitern. Dazu gehen wir wieder in den oben definierten abstrakten Rahmen zur¨ uck und betrachten zur L¨osung der Gleichung g(x) = 0 mit der Abbildung g : Rd → Rd das sog. ged¨ampfte“ Newton-Verfahren ” g ′ (x(k) )x(k+1) = g ′ (x(k) )x(k) − λk g(x(k) ),
k ≥ 1,
(3.1.38)
mit Parametern λk−1 ∈ (0, 1] . Daf¨ ur haben wir folgendes Resultat. Satz 3.3 (ged¨ ampftes Newton-Verfahren): Unter den vorausgehenden Voraussetzungen erzeugt f¨ur jeden Startpunkt x(0) ∈ D die ged¨ampfte Newton-Iteration (3.1.38) mit λk := min 1,
1 , αk βγ
αk := kg ′(x(k) )−1 g(x(k) )k,
eine Folge (x(k) )k∈N , f¨ur welche nach k∗ Schritten q∗ := 21 αk∗ βγ < 1 erf¨ullt ist, so daß ab dann x(k) quadratisch konvergiert, mit der a priori Fehlerabsch¨atzung k −1)
kx(k) − x∗ k ≤ αq∗(2
,
k ≥ k∗ .
(3.1.39)
Beweis: Wir verwenden wieder die Bezeichnungen aus dem Beweis von Satz 3.2. F¨ ur ein ′ −1 x ∈ D0 gilt mit αx := kg (x) g(x)k die Absch¨atzung kg(xr )k ≤ (1 − r + 21 r 2 αx βγ)kg(x)k,
0 ≤ r ≤ R.
Der Vorfaktor wird minimal f¨ ur r∗ = min 1,
Bei Wahl von
1 >0 : αx βγ
1 − r∗ + 21 r∗2 αx βγ ≤ 1 −
rk := min 1,
1 < 1. 2αx βγ
1 αk βγ
ist also (x(k) )k∈N ⊂ D0 , und die Norm kg(x(k) )k f¨allt streng monoton: kg(x(k+1) )k ≤ 1 −
1 kg(x(k) )k. 2αk βγ
Nach endlich vielen, k∗ ≥ 1 , Iterationsschritten ist dann 21 αk∗ βγ < 1 , und die quadratiQ.E.D. sche Konvergenz der weiteren Folge (x(k) )k≥k∗ folgt aus Satz 3.2.
72
Numerische Stabilit¨ at
Aus Satz 3.3 erhalten wir das folgende Korollar f¨ ur die vorliegende, spezielle Situation. Korollar 3.2 (Ged¨ ampftes Newton-Verfahren): Unter den vorausgehenden Voraussetzungen erzeugt f¨ur jeden Startpunkt y (0) ∈ Rd die ged¨ampfte Newton-Iteration N(y (k) )y (k+1) = N(y (k) )y (k) − λk d(k) , mit
λk := min 1,
1 , αk hL′
(3.1.40)
αk := kg ′(x(k) )−1 g(x(k) )k,
eine Folge (y (k))k∈N , f¨ur welche nach k∗ ≈ | log(hL′ )| Schritten q∗ := 21 αk∗ hL′ < 1, k ≥ k∗ , erf¨ullt ist, so daß ab dann y (k) quadratisch konvergiert, mit der a priori Fehlerabsch¨atzung k −1)
ky (k) − yn k ≤ αq∗(2
,
k ≥ k∗ .
(3.1.41)
Beweis: Aus dem Beweis von Satz 3.3 entnehmen wir die Absch¨atzung kg(y (k+1))k ≤ 1 −
1 kg(y (k))k. 2αk βγ
Im vorliegenden Fall gilt wegen β = kg ′ (x)−1 k ≤ 1 :
αk = kg ′(x(k) )−1 g(x(k) )k ≤ kg(x(k) )k ≤ kg(x(0) )k := α0 . Mit γ = hL′ erhalten wir also 1−
1 1 ≤ 1− < 1. 2αk βγ 2α0 hL′
ullt f¨ ur Die Bedingung q := 21 αk βγ < 1 ist dann erf¨
bzw.
1 1 k 1− α0 hL′ < 1 2 2α0 hL′ k >
⇔
log(4σ) ≈ | log(hL′ )|, log(1−σ)
1−
1 k 2 < , ′ 2α0 hL α0 hL′ σ :=
1 . 2α0 hL′ Q.E.D.
Die bisher f¨ ur das implizite Euler-Verfahren abgeleiteten Resultate basieren im wesentlichen auf der Semi-Monotonie der Funktion f (t, ·) . Sie lassen sich direkt auf andere, implizite Verfahren u ¨bertragen, wenn entsprechend die jeweilige Verfahrensfunktion F (h; t, z, ·) semi-monoton ist. Dies ist automatisch der Fall z.B. f¨ ur die Trapezregel und f¨ ur die sp¨ater betrachteten R¨ uckw¨artsdifferenzenformeln“ (implizite, lineare Mehrschrittme” thoden). Im allgemeinen, nicht-monotonen Fall kommt man um restriktive Bedingungen an die Qualit¨at der Startpunkte y (0) bzw. an die Schrittweiten hn nicht herum.
¨ 3.2 Ubungsaufgaben
73
¨ 3.2 Ubungsaufgaben Aufgabe 3.2.1: Man gebe die Stabilit¨atsintervalle der folgenden Einschrittformeln an: a) yn+1 = yn + 12 h f (tn+1 , yn+1) + f (tn , yn ) , b) yn+1 = yn + hf tn + 12 h, yn + 21 hf (tn , yn ) , c) yn+1 = yn + 61 h 2f (tn+1 , yn+1 + 4f (tn , yn ) + hf (1) (tn , yn ) , wobei f (1) (t, x) = ft′ (t, x) + f (t, x)fx′ (t, x) .
Aufgabe 3.2.2: Aus einer Differentialgleichung 2-ter Ordnung u“(t) = f (t, u(t), u′(t)) gewinnt man durch Einf¨ uhrung der Hilfsfunktionen u1 := u, u2 := u′ ein System von Gleichungen 1-ter Ordnung. Man zeige, daß dessen Jacobi-Matrix im Falle ∂f ≥0 ∂u nur reelle Eigenwerte hat. Welche Konsequenzen hat dies f¨ ur die Approximierbarkeit dieses Problems mit Differenzenformeln? Aufgabe 3.2.3: Sei g(·) : D ⊂ Rd×d → Rd×d eine analytische, d.h. durch eine konvergente Potenzreihe darstellbare, Matrixfunktion: g(A) =
∞ X
ai Ai .
i=0
Man zeige, da dann mit jeder regul¨aren Matrix Q ∈ Rd×d gilt: Qg(A)Q−1 = g(QAQ−1 ). Wenn die Argumentation f¨ ur eine allgemeine, analytische Funktion g(·) zu schwierig erscheint, beschr¨anke man sich auf den Fall einer rationalen Funktion. Aufgabe 3.2.4: Man zeige, daß die semi-implizite Runge-Kutta-Formel 2-ter Ordnung 1 yn = yn−1 + h k1 + k2 , 2
k1 = f (tn−1 , yn−1 ), k2 = f (tn , yn−1 + 12 hk1 + 21 hk2 ),
A-stabil ist. Man vergleiche den Rechenaufwand (pro Zeitschritt) f¨ ur diese Methode mit dem f¨ ur die gleichfalls A-stabile Trapezregel, wenn zur Aufl¨osung der impliziten Gleichungen das Newton-Verfahren verwendet wird.
74
Numerische Stabilit¨ at
Aufgabe 3.2.5: a) Man berechne eine N¨aherungsl¨osung f¨ ur die AWA u′ (t) = −200 t u(t)2,
t ≥ −3,
u(−3) =
1 , 901
mit Hilfe der Trapezregel f¨ ur die (konstanten) Schrittweiten h = 0, 2 · 2−i , i = 1, . . . , 5 . Man vergleiche die berechneten Werte zum Zeitpunkt t = 3 mit dem Wert u(3) der exakten L¨osung u(t) = (1+100t2)−1 und den mit der modifizierten Euler-Formel erhaltenen Ergebnissen. b) Man f¨ uhre denselben Vergleich f¨ ur die AWA u′ (t) = −10u(t) + 9v(t),
v ′ (t) = 9u(t) − 10v(t),
u(0) = 1, v(0) = 1,
durch und interpretiere die Ergebnisse. c) Man berechne die L¨osung mit einem relativen Fehler kleiner als 10−4 mit Hilfe einer geeignet erscheinenden Methode aus der Vorlesung. Dabei soll der numerische Aufwand (Zahl der Auswertungen der Funktion f ) m¨oglichst gering sein. Aufgabe 3.2.6: Jede der in der Vorlesung betrachteten Einschrittmethoden nimmt angewendet auf ein lineares (autonomes) System u′(t) = Au(t) die Form yn = g(hA)yn−1 an, mit einer rationalen Funktion g(·) . a) F¨ ur den Fall, daß die Matrix A symmetrisch ist, zeige man bzgl. der euklidischen Norm die Absch¨atzung kyn k ≤ max |g(hλi)|n ky0 k 1≤i≤d
mit den Eigenwerten λi von A . (Hinweis: Symmetrische Matrizen besitzen ein Orthonormalsystem von Eigenvektoren.) b) Man bestimme mit Hilfe von (a) die maximale Schrittweite h , f¨ ur die das klassische“ ” 4-stufige Runge-Kutta-Verfahren das System u′ (t) = −10u(t) + 9v(t),
v ′ (t) = 9u(t) − 10v(t)
noch numerisch stabil integriert. Aufgabe 3.2.7: Man beweise, daß die Trapezregel 1 yn = yn−1 + hn {f (tn , yn ) + f (tn−1 , yn−1)} 2 A-stabil ist, d.h.: Ihr Stabilit¨atsgebiet ist gerade die negative komplexe Halbebene: SG = {z ∈ C | Rez ≤ 0}. (Hinweis: Die Beziehung SI = {z ∈ R | z ≤ 0} ist evident. Die st¨arkere Aussage f¨ ur das ganze Stabilit¨atsgebiet SG kann man durch direkte Rechnung ableiten.)
¨ 3.2 Ubungsaufgaben
75
Aufgabe 3.2.8: F¨ ur die Newton-Iteration zur L¨osung der nichtlinearen Gleichungen bei der Durchf¨ uhrung des impliziten Euler-Verfahrens ist in der Vorlesung die Schrittweitenstrategie 1 , αk := kg ′ (y (k))−1 g(y (k))k, λk = min 1, αk hL entwickelt worden. Man entwickle eine entsprechende Strategie f¨ ur die Newton-Iteration bei dem impliziten Runge-Kutta-Verfahren 1 yn = yn−1 + h k1 + k2 , 2
k1 = f (tn−1 , yn−1 ), k2 = f (tn , yn−1 + 12 hk1 + 21 hk2 ).
Aufgabe 3.2.9: Die in der Vorlesung entwickelte Theorie des Newton-Verfahrens basiert auf der Annahme der Semi-Monotonie der Verfahrensfunktion F (h; t, x, y) bzgl. des impliziten“ Arguments y : ” − F (h; t, x, y1 ) − F (h; t, x, y2), y1 − y2 ≥ 0, y1 , y2 ∈ Rd . Man untersuche, ob die Verfahrensfunktion des impliziten Runge-Kutta-Verfahrens 1 yn = yn−1 + h{k1 + k2 }, 2
k1 = f (tn−1 , yn−1), k2 = f (tn , yn−1 + 21 hk1 + 21 hk2 )
semi-monoton ist, wenn es die rechte Seite f (t, ·) ist. Aufgabe 3.2.10: Man l¨ose die 3-dimensionale, steife AWA
mit der L¨osung
u′(t) = Au(t), t ≥ 0, u(0) = (1, 0, −1)T , −21 19 −20 A= 19 −21 20 40 −40 −40 1 1 u1 (t) = e−2t + e−40t {cos(40t) + sin(40t)}, 2 2 1 −2t 1 −40t u2 (t) = e − e {cos(40t) + sin(40t)}, 2 2 1 u3 (t) = − e−40t {cos(40t) − sin(40t)} 2
mit Hilfe a) des klassischen (expliziten) Runge-Kutta-Verfahrens 4. Ordnung, b) der (impliziten) Trapezregel 2. Ordnung mit direkter“ Gleichungssysteml¨osung. ” Zu berechnen ist der Wert u(2) auf 6 wesentliche Dezimalstellen. Man versuche, in beiden F¨allen m¨oglichst sparsam zu arbeiten. Mit welchem Verfahren l¨aßt sich diese Aufgabe am effizientesten, d.h. in geringster Zeit, l¨osen?
76
Numerische Stabilit¨ at
4 Galerkin-Verfahren Bisher haben wir zur L¨osung von AWAn sog. Differenzenverfahren“, genauer Einschritt” ” Differenzenverfahren“, betrachtet. In diesem Rahmen stehen mit den Runge-Kutta-Verfahren Methoden jeder gew¨ unschten Ordnung zur Verf¨ ugung, wobei in jedem Zeitschritt lediglich Funktionsauswertungen der rechten Seite f (t, x) erforderlich sind. Mit den Astabilen impliziten Runge-Kutta-Schemata lassen sich auch steife Probleme behandeln. Die dabei in jedem Zeitschritt auftretenden, schlecht konditionierten, nichtlinearen Systeme werden mit Hilfe des Newton-Verfahrens gel¨ost. Es ist daher w¨ unschenswert, daß sich Monotonie-Eigenschaften der AWA auf entsprechende Eigenschaften der Verfahrensfunktion F (h; t, x, y) u ¨bertragen. Dies ist bei allgemeinen impliziten Runge-Kutta-Verfahren aber nicht notwendig der Fall. Bei allen betrachteten Einschrittverfahren kann die Zeitschrittweite auf der Basis von heuristischen Sch¨atzungen des Abschneidefehlers gew¨ahlt werden. Dahinter steht als Rechtfertigung“ die a priori Fehlerabsch¨atzung mit einer al” lerdings unbestimmten Fehlerkontante, welche im schlimmsten Fall exponentiell mit der Zeit wachsen kann. Insbesondere bei steifen Problemen mit inh¨arent großen LipschitzKonstanten ist diese Begr¨ undung ungen¨ ugend. W¨ unschenswert w¨are also eine Schrittweitenkontrolle auf der Basis auswertbarer a posteriori Fehlerabsch¨atzungen. Dies f¨ uhrt auf die Frage nach der Konstruktion von Einschrittverfahren beliebig hoher Ordnung, welche – nur Funktionsauswertungen der rechten Seite erfordern, – zur Integration steifer“ Probleme geeignet sind, ” – dieselben Monotonie-Eigenschaften wie die gegebene AWA besitzen, – eine a posteriori Fehleranalyse mit auswertbaren Fehlerabsch¨atzungen zul¨aßt, – eine verl¨aßliche Schrittweitenkontrolle erlaubt. Wir werden im Folgenden mit den sog. Galerkin-Verfahren“ einen f¨ ur AWAn neuartigen ” Diskretisierungsansatz betrachten, welcher diesen Anforderungen wenigstens im Prinzip gerecht wird.
4.1 Variationelle Formulierung der Anfangswertaufgaben Die bisher betrachteten L¨osungsmethoden f¨ ur AWAn u′ = f (t, u) ,
t ≥ t0 ,
u(t0 ) = u0 ,
(4.1.1)
waren alle Differenzenverfahren. Bei diesen wird typischerweise die linke Seite in (4.1.1) durch Differenzenquotienten approximiert und die zugeh¨orige N¨aherungsl¨osung Un ≈ u(tn ) in diskreten Zeitpunkten tn bestimmt. Wir betrachten nun einen Ansatz, der eine mehr globale Sichtweise hat, das sog. Galerkin-Verfahren“. Die AWA wird der Einfachheit ” halber wieder als (global) Lipschitz-stetig angenommen, und die Notation ist so gehalten, 77
78
Galerkin-Verfahren
daß auch allgemeine d-dimensionale Systeme von Gleichungen erfaßt werden, d.h.: Auftretende Funktionen sind gegebenenfalls vektorwertig, und (·, ·) bedeutet dann wieder das zugeh¨orige euklidische Skalarprodukt. Ausgangspunkt ist eine integrale Formulierung der AWA u ¨ ber einem vorgegebenen 1 d Zeitintervall I = [t0 , t0 + T ] . F¨ ur eine Funktion u ∈ C (I) mit u(t0 ) = u0 ist (4.1.1) ¨aquivalent zu Z (u′ − f (t, u), ϕ) dt = 0 ∀ϕ ∈ C(I)d . (4.1.2) I
Jede (klassische) L¨osung von (4.1.1) erf¨ ullt offensichtlich (4.1.2). Die Umkehrung zeigt man etwa, indem f¨ ur jeden festen Zeitpunkt t ∈ I als Testfunktionen approximierende Dirac-Funktionen δε (t; ·) zum Aufpunkt t eingesetzt werden und der Grenz¨ ubergang ε → 0 durchgef¨ uhrt wird (Fundamentalsatz der Variationsrechnung): Z 0 = (u′i − fi (s, u))δε (t; s) ds → u′i (t) − fi (t, u(t)) (ε → 0). (4.1.3) I
Wir verzichten auf die Beweisdetails, da dies f¨ ur das Folgende nicht wichtig ist. Wenn Mißverst¨andnisse ausgeschlossen sind, wird die explizite Erw¨ahnung der t-Abh¨angigkeit von Funktionen unter dem Integral weggelassen. Da die Funktionen ϕ in (4.1.2) beliebig variieren d¨ urfen, nennt man dies auch eine variationelle Formulierung“ der AWA (4.1.1). Sie besagt geometrisch ausgedr¨ uckt, daß ” das sog. Residuum“ der L¨osung u , ” R(u) := u′ − f (·, u), bzgl. des Skalarprodukts von L2 (I)d orthogonal zu allen Testfunktionen ϕ ∈ C(I)d ist.
4.2 Das unstetige“ Galerkin-Verfahren ” Ein allgemeines Galerkin-Verfahren zur Approximation von (4.1.1)+ restringiert die Gleichung (4.1.2) auf geeignete, endlich dimensionale Ansatzr¨aume, ganz analog zum Vorgehen etwa beim CG-Verfahren zur L¨osung von allgemeinen linearen Gleichungssystemen. Wir betrachten solche Galerkin-Verfahren mit st¨ uckweise polynomialen Ansatzfunktionen. Dazu seien t0 < t1 < . . . < tN = t0 + T eine Unterteilungen des Integrationsintervalls I in (hier nach links halboffene) Teilintervalle In = (tn−1 , tn ] . Wir setzen wieder hn = tn −tn−1 ,
h = max hn . n=1,...,N
4.2 Das unstetige“ Galerkin-Verfahren ”
79
Bzgl. einer solchen Unterteilung Th = {In , n = 1, . . . , N} wird zun¨achst der Raum V (I) von st¨ uckweise glatten Funktionen definiert durch V (I) = v : I → Rd : v(t0 ) ∈ Rd , v|In ∈ Cc1 (In )d , n = 1, . . . , N .
Dabei bezeichnet Cc1 (In ) den Raum der auf dem (halb offenen) Intervall In stetig differenzierbaren und stetig zum linken Randpunkt tn−1 fortsetzbaren Funktionen. Wir wollen die variationelle Formulierung (4.1.2) der AWA (4.1.1) zu einer ¨aquivalenten auf dem Raum V (I) erweitern, welche dann als Grundlage eines Diskretisierungsansatzes auch mit unstetigen Ansatzfunktionen dienen kann. F¨ ur Funktionen v ∈ V (I) werden die folgenden Bezeichnungen eingef¨ uhrt: vn+ = limt↓tn v ,
vn− = limt↑tn v ,
[v]n = vn+ − vn− .
Gesucht ist nun eine Funktion u ∈ V (I) mit den Eigenschaften u(t0 ) = u− 0 = u0 und N Z X n=1
′
In
(u − f (t, u), ϕ) dt +
([u]n−1, ϕ+ n−1 )
= 0,
(4.2.4)
f¨ ur alle ϕ ∈ V (I) . Man u ¨berlegt sich leicht, daß diese Formulierung in der Tat ¨aquivalent zu (4.1.2) bzw. zu (4.1.1) ist: Beweisargument: Durch Wahl von ϕε mit ϕ+ ur t 6= tn ε,n = 1 und ϕε (t) → 0 (ε → 0) f¨ folgt [u]n = 0 f¨ ur n ≥ 1 , d.h. die Stetigkeit von u bei tn , sowie u+ = u f¨ 0 ur n = 0 . 0 ′ Analog folgt das Bestehen der Gleichung u = f (·, u) auf In . Wegen der Stetigkeit von f (t, x) ergibt sich damit wieder, daß u notwendig auch stetig differenzierbar auf I sein muß und folglich mit der L¨osung von (4.1.1) u ¨bereinstimmt. (r)
Zur Diskretisierung von (4.2.4) f¨ uhren wir nun Teilr¨aume Sh (I) ⊂ V (I) (r ∈ N0 ) von st¨ uckweise polynomialen Funktionen ein: (r) Sh (I) = ϕ ∈ V (I) : ϕ(t0 ) ∈ Rd , ϕ|In ∈ Pr (In )d , n = 1, . . . , N .
Dabei bezeichnet Pr (In ) den Raum der Polynome vom Grad kleiner oder gleich r . Man (r) beachte, daß die Ansatzfunktionen ϕ ∈ Sh im Allg. unstetig sind und im Anfangszeitpunkt t0 einen Wert ϕ(t0 ) 6= limt↓t0 ϕ(t) annehmen k¨onnen. Der Fall stetiger Ansatzfunktionen wird unten kurz diskutiert werden. Der Galerkin-Ansatz zur L¨osung von (4.1.1) (r) besteht nun darin, daß eine Funktion U ∈ Sh (I) gesucht wird mit den Eigenschaften U0− = u0 und N Z X n=1
(r)
In
′
(U − f (t, U), ϕ) dt +
([U]n−1 , ϕ+ n−1 )
= 0,
(4.2.5)
f¨ ur alle ϕ ∈ Sh (I) . Aus offensichtlichem Grund wird dieses Verfahren unstetiges ” Galerkin-Verfahren (mit Ansatzgrad r )“ oder kurz dG(r)-Verfahren“ genannt. Die L¨os” barkeit des (endlich dimensionalen) Problems (4.2.5) wird sp¨ater diskutiert. Zun¨achst stellen wir fest, daß wegen der zugelassenen Unstetigkeit der Testfunktionen das globale
80
Galerkin-Verfahren
Problem auch als ein sukzessives Zeitschrittverfahren geschrieben werden kann. Durch Wahl einer Testfunktion in der Form ϕ ≡ 0 auf allen Im 6= In erh¨alt man aus (4.2.5) Z Z ′ + + − (U , ϕ) dt + (Un−1 , ϕn−1 ) = (f (t, U), ϕ) dt + (Un−1 , ϕ+ (4.2.6) n−1 ) , In
In
− f¨ ur alle ϕ ∈ Pr (In ) . Dabei spielt Un−1 die Rolle des Anfangswertes auf dem Intervall In . Der Anfangswert f¨ ur n = 1 ist nat¨ urlich U0− = u0 . Man beachte, daß die diskrete L¨osung U an den St¨ utzstellen tn nicht stetig zu sein braucht.
4.2.1 Beispiele Das scheinbar so andersartige dG(r)-Verfahren besitzt eine u ¨berraschend enge Verwandtschaft mit wohl bekannten Differenzenverfahren. Dazu betrachten wir den Fall d = 1 . (1) Fall r = 0: Wir setzen Un := Un− auf In = (tn−1 , tn ] und (4.2.6) reduziert sich auf Z f (t, Un ) dt . (4.2.7) Un − Un−1 = In
Dies ist eine Variante des impliziten Euler-Schemas, welches man durch Approximation des Integrals auf der rechten Seite mit der Boxregel erh¨alt: Z Un = Un−1 + f (t, Un ) dt ≈ Un−1 + hn f (tn , Un ). In
(2) Fall r = 1: Wir verwenden f¨ ur U(t) auf In die Lagrangesche Darstellung − −1 + U(t) = h−1 n (t − tn−1 )Un − hn (t − tn )Un−1 .
Setzt man dies in (4.2.6) ein und testet nacheinander mit den Basispolynomen ϕ ≡ 1 + und Un− das System und ϕ = h−1 ur die Funktionswerte Un−1 n (t − tn−1 ) , so ergibt sich f¨ Z Z − + −1 − − f (t, U)(t − tn−1 ) dt . (4.2.8) f (t, U) dt , Un − Un−1 = 2hn Un − Un−1 = In
In
Wenn man die Integrale mit der Trapezregel approximiert, Z + f (t, U) dt ≈ 12 hn {f (tn−1 , Un−1 ) + f (tn , Un− )}, In Z f (t, U)(t − tn−1 ) dt ≈ hn f (tn , Un− ) , 2h−1 n In
ergibt sich das implizite Runge-Kutta-Verfahren − Un− = Un−1 + 21 hn (k1 + k2 ) ,
k1 = f (tn−1 , Un− −hn k2 ),
k2 = f (tn , Un− ) .
(4.2.9)
4.2 Das unstetige“ Galerkin-Verfahren ”
81
¨ Dieses Differenzenverfahren ist von zweiter Ordnung (Nachrechnen als Ubungsaufgabe). Wir werden sp¨ater aber sehen, daß das exakte dG(1)-Verfahren in den diskreten Zeitpunkten tn sogar von dritter Ordnung ist. Beide Differenzenverfahren, (4.2.7) und (4.2.8), sind A-stabil. Sie geh¨oren zur Klasse der sog. subdiagonalen Pad´e-Verfahren“ und haben angewandt auf das u ¨ bliche Modellpro” ′ blem u = λu die Verst¨arkungsfaktoren dG(0)-Verfahren: dG(1)-Verfahren:
1 , 1 − hλ 6 − 2hλ . ω(λh) = 6 + 4hλ + h2 λ2 ω(λh) =
Das Differenzenschema (4.2.9) hat den Verst¨arkungsfaktor ω(λh) = (1 − hλ + 21 h2 λ2 )−1 . 4.2.2 Lo ¨sbarkeit der Galerkin-Gleichungen Wir untersuchen zun¨achst die Wohlgestelltheit der Galerkin-Gleichungen im Fall von Lstetigen (nicht-steifen) AWAn. Satz 4.1 (dG-Verfahren fu ¨r nicht-steife AWAn): Sei wieder L die globale LipschitzKonstante der Funktion f (t, x) . F¨ur jedes r ≥ 0 gibt es eine Konstante γ > 0 , so daß die Galerkin-Gleichung (4.2.5) unter der Bedingung h < γ/L eine eindeutige L¨osung (r) U ∈ Sh (I) besitzt. Beweis: Sei U bis zum Zeitpunkt tn−1 berechnet. Der Schritt nach tn erfordert die − . Die L¨osung U|In ist bestimmt durch die FixpunktgleiBestimmung von U|In aus Un−1 chung Z Z − ′ + + (f (t, U), ϕ) dt + (Un−1 , ϕ+ (4.2.10) (U , ϕ) dt + (Un−1 , ϕn−1 ) = n−1 ) , In
In
f¨ ur alle ϕ ∈ Pr (In ) . Wir werden zeigen, daß diese eine Fixpunktabbildung g : Pr (In ) → − Pr (In ) definiert (zu festem Un−1 ), welche f¨ ur h < γ/L eine Kontraktion ist. Seien dazu e e e , Ve ∈ Pr (In ) . Die Differenzen W := U −V U = g(U) und V = g(V ) f¨ ur zwei beliebige U f := U e − Ve gen¨ und W ugen dann der Relation Z Z ′ + + f kkϕk dt kW ∀ϕ ∈ Pr (In ). (W , ϕ) dt + (Wn−1 , ϕn−1) ≤ L In
In
Wir setzen hier zun¨achst ϕ = W und erhalten unter Verwendung der Identit¨at (W ′ , W ) = 1 d kW k2 und anschließender Integration die Beziehung 2 dt + f k sup kW k . kWn− k2 + kWn−1 k2 ≤ 2Lhn sup kW In
In
(4.2.11)
82
Galerkin-Verfahren
Als n¨achstes setzen wir ϕ = (t − tn−1 )W ′ ∈ Pr (In ) und erhalten Z Z ′ 2 fkkW ′ k(t − tn−1 ) dt kW kW k (t − tn−1 ) dt ≤ L In
In
bzw. unter Verwendung der Ungleichung ab ≤ 21 a2 + 12 b2 : Z Z ′ 2 2 f k2 . fk2 (t − tn−1 ) dt ≤ 1 L2 h2 sup kW kW kW k (t − tn−1 ) dt ≤ L n 2
In Hilfssatz 4.1 werden wir f¨ ur W ∈ Pr (In ) die folgende Absch¨atzung zeigen: o nZ ′ 2 − 2 2 2 kW k (t − tn−1 ) dt + kWn k , sup kW k ≤ κ In
(4.2.12)
In
In
In
(4.2.13)
In
mit einer von der Intervallbreite hn unabh¨angigen Konstante κ > 0 . Durch Kombination der vorausgehenden Absch¨atzungen (4.2.11) - (4.2.13) erhalten wir nZ o 2 2 ′ 2 − 2 sup kW k ≤ κ kW k (t − tn−1 ) dt + kWn k In In o n fk sup kW k fk2 + 2Lhn sup kW ≤ κ2 21 L2 h2n sup kW In
In
und schließlich
In
fk, sup kW k ≤ γ −1 Lhn sup kW In
In
mit einer festen Konstante γ > 0 . Hieraus folgt zun¨achst, daß die Abbildung g : Pr (In ) → ˜ = 0 , d.h. f¨ Pr (In ) wohl definiert ist, denn f¨ ur W ur verschwindende rechte Seite in (4.2.10), ist notwendig W = 0 , was wegen der Linearit¨at der linken Seite in (4.2.10) aufgrund ˜ ∈ Pr (In ) f¨ eines fundamentalen Satzes der linearen Algebra die Existenz von g(U) ur jedes Argument U˜ ∈ Pr (In ) impliziert. Weiter ist die Abbildung g(·) wie behauptet f¨ ur hn < γ/L eine Kontraktion. Der Banachsche Fixpunktsatz liefert dann die Existenz einer (eindeutig bestimmten) L¨osung der Galerkin-Gleichung (4.2.10). Q.E.D.
Hilfssatz 4.1 (Diskrete Sobolewsche Ungleichung): F¨ur Funktionen ϕ ∈ Pr (In ) gilt die diskrete Sobolewsche Ungleichung“ ” 1/2 Z 2 kϕ′ k2 (t−tn−1 ) dt + kϕ− k , (4.2.14) sup kϕk ≤ κ n In
In
mit einer von der Intervall¨ange hn unabh¨angigen Konstante κ > 0 . Beweis: Der Beweis verwendet ein sog. Skalierungsargument“. Da derartige Argumente ” in der Analyse von Galerkin-Verfahren h¨aufig vorkommen, wollen wir den Beweis hier vollst¨andig durchf¨ uhren. Ausgangspunkt ist die Feststellung, daß die Ungleichung (4.2.14)
4.2 Das unstetige“ Galerkin-Verfahren ”
83
f¨ ur Polynome ϕˆ ∈ Pr ((0, 1]) auf dem Einheitsintervall gilt mit einer Konstante κ ˆ > 0: Z 1 1/2 ′ 2ˆ ˆ 2 sup kϕk ˆ ≤κ ˆ kϕˆ k t dt + kϕ(1)k ˆ . (4.2.15) (0,1]
0
¨ Dies folgt direkt aufgrund der Aquivalenz aller Normen auf dem endlich dimensionalen Vektorraum Pr ((0, 1]) . Man u ucke auf der linken und ¨berzeugt sich leicht, daß die Ausdr¨ rechten Seite in (4.2.15) in der Tat Normen sind. Wir f¨ uhren nun eine (affin-lineare) Skalierungstransformation von (0, 1] auf In ein: χ : (0, 1] → In ,
t = χ(tˆ) := tn−1 + hn tˆ,
χ′ (tˆ) = hn .
Zu jedem Polynom ϕ ∈ Pr (In ) defieren wir damit ein zugeh¨origes Polynom ϕˆ ∈ Pr ((0, 1]) durch ϕ( ˆ tˆ) := ϕ(χ(tˆ)), tˆ ∈ (0, 1]. Dann gilt offenbar ϕˆ′ (tˆ) = ϕ′ (t)χ′ (tˆ) = ϕ′ (t)hn . Mit diesen Bezeichnungen erhalten wir durch Koordinatentransformation die folgenden Beziehungen: Z 1 1/2 2 ˆ ≤κ sup kϕk = sup kϕk kϕˆ′ k2 tˆdtˆ + kϕ(1)k ˆ In (0,1] 0 1/2 Z 2 ′ 2 −1 −1 − 2 hn kϕ k hn (t−tn−1 ) hn dt + kϕn k . =κ In
Dies beweist die G¨ ultigkeit der behaupteten Ungleichung mit derselben Konstante κ = κ ˆ auf dem Intervall In . Q.E.D. ¨ Wir bemerken, daß es eine interessante Ubungsaufgabe ist, die Absch¨atzung (4.2.14) direkt ohne Verwendung des Skalierungsarguments zu beweisen und dabei auch die beste“ ” Konstante κ = κ(r) zu bestimmen. Man beachte, daß (4.2.14) nicht gleichm¨aßig f¨ ur ϕ ∈ C 1 (I¯n ) gilt. Als n¨achstes betrachten wir den Fall steifer“ AWAn unter der zus¨atzlichen Annahme, ” daß die rechte Seite f (t, ·) L-stetig ist und die strikte Monotonieeigenschaft −(f (t, x) − f (t, y), x − y) ≥ γkx − yk2,
t ∈ I, x, y ∈ Rd ,
(4.2.16)
besitzt mit einer Konstante γ > 0 . Dies ist z.B. der Fall f¨ ur f (t, x) = A(t)x + b(t) mit einer (gleichm¨aßig bzgl. t ) negativ definiten Matrix A(t) . Satz 4.2 (dG-Verfahren fu ¨r steife AWAn): Die AWA habe eine L-stetige und strikt monotone rechte Seite f (t, x) . Die Galerkin-Gleichung (4.2.5) besitzt dann unabh¨angig (r) von der Schrittweite eine eindeutige L¨osung U ∈ Sh (I) , welche mit dem NewtonVerfahren berechnet werden kann.
84
Galerkin-Verfahren
Beweis: Ausgangspunkt ist die lokale Galerkin-Gleichung Z + − + (U ′ − f (t, U), ϕ) dt + (Un−1 , ϕ+ n−1 ) = (Un−1 , ϕn−1 ) ∀ϕ ∈ Pr (In ).
(4.2.17)
In
Dies ist ¨aquivalent zu einer nichtlinearen Gleichung g(U) = F mit F|In ≡ 0 und − − = Un−1 . Wir wollen zeigen, daß die Abbildung g(·) strikt monoton ist. Die (einFn−1 − deutige) L¨osbarkeit der Gleichung (4.2.17) f¨ ur beliebigen Anfangswert Un−1 wird dann durch Korollar 1.2 garantiert. F¨ ur zwei Funktionen U, V ∈ Pr (In ) und ihre Differenz W := U −V gilt Z + (W ′ − f (t, U) + f (t, V ), W ) dt + kWn−1 k2 . (g(U)−g(V ), W ) = In
Unter Verwendung der Monotonieeigenschaft von f (t, ·) ergibt sich Z 1 d + (g(U)−g(V ), W ) ≥ kW k2 + γkW k2 dt + kWn−1 k2 2 dt In Z − 2 + 2 1 1 kW k2 dt . = 2 kWn k + 2 kWn−1 k + γ In
Dies bedeutet, da alle Normen auf Pr (In ) ¨aquivalent sind, die behauptete starke Monotonie der Abbildung g(·) . Q.E.D.
Bemerkung: Wir bemerken, daß in Satz 4.2 f¨ ur r = 0 und r = 1 als Voraussetzung die einfache Semi-Monotonie der Funktion f (t, ·) ausreicht. In diesem Fall ist n¨amlich bereits 1/2 + |||W ||| := kWn− k2 + kWn−1 k2
eine Norm auf Pr (In ) , so daß γ = 0 sein darf. Ob dies auch richtig ist f¨ ur r ≥ 2 , ist eine (zum Zeitpunkt der Erstellung dieses Skriptums) noch offene Frage. Ein einfaches Beispiel f¨ ur eine steife AWA mit nur semi-monotoner rechter Seite ist das 4 × 4-System u′ (t) = Au(t), t ≥ 0, mit der Matrix
und der L¨osung
A=
−100 0 0 0
u(0) = (1, 0, 1, 1)T , 0
0
0
1
0
0 −1 0 0 0 0 −1
u1 (t) = e−100t , u2 (t) = sin(t), u3 (t) = cos(t), u4 (t) = e−t .
4.2 Das unstetige“ Galerkin-Verfahren ”
85
4.2.3 Andere Arten von Galerkin-Verfahren Neben dem impliziten Euler-Schema lassen sich auch einige der anderen bisher betrachteten einfachen Einschrittformeln als Varianten von Galerkin-Verfahren deuten. a) Verwendet man bei der Herleitung der variationellen Formulierung (4.2.4) ein Punktgitter {t0 , ..., tN } mit nach rechts halboffenen Teilintervallen In = [tn−1 , tn ), so erh¨alt man N Z X ′ − (˜ u − f (t, u ˜), ϕ) dt + ([˜ u]n , ϕn ) = 0 . n=1
In
Ein unstetiger Galerkin-Ansatz mit st¨ uckweise konstanten Funktionen ergibt dann die Rekursionsgleichungen Z f (t, U) dt , 1 ≤ n ≤ N . [U]n = In
Diese entsprechen offensichtlich einem expliziten Einschrittverfahren f¨ ur die Gr¨oßen Un := Un+ , welches im autonomen Fall, f (t, x) = f (x) , oder nach numerischer Integration mit der linksseitigen Boxregel mit der Polygonzugmethode (explizites Euler-Verfahren) Un = Un−1 + hn f (tn−1 , Un−1 ) u ¨bereinstimmt. b) Ausgehend von der variationellen Formulierung (4.2.4) kann man auf dem Gitter {t0 , ..., tN } stetige Ans¨atze f¨ ur U machen. Damit dies aber wieder ein Zeitschrittverfahren liefert, welches rekursiv von Zeitlevel zu Zeitlevel abgearbeitet werden kann, m¨ ussen die Testfunktionen als unstetig gew¨ahlt werden. Dies ergibt dann ein sog. Petrow-Galerkin” Verfahren“ im Gegensatz zum Galerkin-Verfahren“, bei dem Ansatz- und Testraum die” selben sind. Bei Wahl von st¨ uckweise linearen Ans¨atzen f¨ ur U und st¨ uckweise konstanten Testfunktionen ergibt sich wegen Un := Un+ = Un− das Schema Z {U ′ − f (t, U)} dt = 0 In
bzw. Un − Un−1 +
Z
In
−1 f (t, h−1 n (t − tn−1 )Un + hn (tn − t)Un−1 ) dt .
Dieses Schema stimmt f¨ ur eine lineare, autonome AWA mit f (t, x) = Ax + b oder bei Anwendung der Trapezregel auf das Integral offenbar mit der Trapezformel Un = Un−1 + 21 hn {f (tn , Un ) + f (tn−1 , Un−1 )} . u ¨berein. Die Resultate der folgenden Abschnitte zur a priori und a posteriori Fehleranalyse und Schrittweitensteuerung bei den unstetigen Galerkin-Verfahren gelten sinngem¨aß auch f¨ ur diese stetigen Petrow-Galerkin-Verfahren.
86
Galerkin-Verfahren
4.2.4 Galerkin-Orthogonalit¨ at In der folgenden a priori und a posteriori Fehleranalyse des dG-Verfahrens werden verschiedene, sog. Dualit¨atsargumente“ verwendet. Diese basieren auf einer kompakten va” riationellen Formulierung der Galerkin-Gleichungen (4.2.5). F¨ ur Funktionen im Raum (r) V (I) bzw. Sh (I) ⊂ V (I) definieren wir die Semi-Linearform A(W ; ϕ) :=
N Z X n=1
′
In
(W − f (t, W ), ϕ) dt +
N X
+ + ([W ]n−1, ϕ+ n−1 ) + (W0 , ϕ0 ),
n=2
welche bzgl. des zweiten Arguments ϕ (Argument nach dem Semikolon) linear ist. Die (r) Aufgabe (4.2.5) ist dann ¨aquivalent zur Bestimmung eines U ∈ Sh (I) mit der Eigenschaft (r)
A(U; ϕ) = (u0 , ϕ+ 0 ) ∀ϕ ∈ Sh (I).
(4.2.18)
Man beachte, daß in dieser Formulierung des Problems die Anfangsbedingung U0− = u0 implizit eingebaut ist. Da die kontinuierliche L¨osung u offensichtlich dieselbe Gleichung erf¨ ullt, (r) A(u; ϕ) = (u0 , ϕ+ 0 ) ∀ϕ ∈ Sh (I), ergibt sich durch Subtraktion die sog. Galerkin-Orthogonalit¨at“ ” (r)
A(u; ϕ) − A(U; ϕ) = 0 ∀ϕ ∈ Sh (I).
(4.2.19)
4.3 A priori Fehleranalyse Die dG(r)-Verfahren lassen a priori Fehlerabsch¨atzungen zu, welche eine ¨ahnliche Struktur wie diejenigen f¨ ur Differenzenverfahren haben. Sie stellen aber etwas geringere Anforderungen an die Regularit¨at der exakten L¨osung. Wir wollen diesen wichtigen Punkt zun¨achst anhand eines ganz einfachen Spezialfalles diskutieren. Betrachtet werde die triviale skalare AWA u′ (t) = f (t) , t ∈ I = [0, 1] ,
u(0) = 0 ,
(4.3.20)
deren L¨osung u(t) gerade die Stammfunktion der rechten Seite f (t) u ¨ber dem jeweiligen Intervall [0, t] ist. Die dG(0)-Verfahren nimmt angewendet auf diese AWA die folgende Gestalt an: Z − − + f (t) dt + Un−1 . (4.3.21) Un = Un−1 = In
Die exakte L¨osung u(t) erf¨ ullt offenbar dieselbe Gleichung, Z f (t) dt + un−1, un = In
4.3 A priori Fehleranalyse
87
− − − so daß der Fehler e = u − U zu den Zeiten t− n verschwindet: e0 = e1 = . . . = eN = 0 . In den Zwischenpunkten t ∈ In gilt Z tn Z tn ′ ′ u dt ≤ hn sup |u′ | , t ∈ In . e dt = |e(t)| = In
t
t
Dies impliziert die globale Fehlerabsch¨atzung
sup |e| ≤ max {hn sup |u′ |} , 1≤n≤N
I
(4.3.22)
In
welche f¨ ur st¨ uckweise konstante Approximation (r = 0) hinsichtlich der Konvergenzordnung und den Regularit¨atsanforderungen an die L¨osung u sicherlich optimal ist. Vergleicht man dieses Resultat mit dem entsprechenden f¨ ur das implizite Euler-Verfahren (f¨ ur die vorliegende semi-monotone AWA), sup |e| ≤ I
1 2
N X n=1
h2n sup |u“| ≤ 21 T max {hn sup |u“|} , 1≤n≤N
In
(4.3.23)
In
so fallen zwei Unterschiede auf: – Der Fehler in (4.3.23) w¨achst linear mit der Zeit T . – Die Absch¨atzung (4.3.23) erfordert eine Schranke f¨ ur die zweite Ableitung u“ . Dieser Unterschied ist verfahrenstypisch und tritt auch im Fall allgemeinerer AWA auf. Im betrachteten trivialen Fall w¨are die Folgerung f¨ ur die dG(0)-Verfahren, daß die Auswertung der Integrale in (4.3.21) statt mit der Box-Regel (wie beim impliziten EulerVerfahren) besser mit einer Quadraturformel 2. Ordnung, z.B. der Mittelpunktsregel, erfolgen sollte: Un = hn f (tn−1/2 ) + Un−1 , tn−1/2 = 12 (tn + tn−1 ) . F¨ ur dieses Differenzenverfahren erh¨alt man die Fehlerdarstellung Z tn 1 3 f (t) dt − hn f (tn−1/2 ) = en−1 + 24 en = en−1 + hn f“(ζn ) . tn−1
Hieraus folgt die Absch¨atzung sup |e| ≤ max I
1≤n≤N
hn sup |u′ | + In
1 24
T h2n sup |f“| .
(4.3.24)
In
Der bei Intergration u ¨ber große Zeitintervalle dominante Zeitfaktor T kann hier durch die erh¨ohte Potenz der Schrittweite hn kompensiert werden. Dies macht Sinn, wenn die h¨oheren Ableitungen der L¨osung nicht deutlich gr¨oßer als die niedrigen sind. Dies ist nat¨ urlich im vorliegenden Spezialfall kein allzu großer Fortschritt, aber das zugrunde liegende Prinzip ist auch in viel allgemeineren Situationen wirksam und f¨ uhrt zu neuartigen Ans¨atzen bei der Kontrolle des Diskretisierungsfehlers. Insbesondere erscheint in
88
Galerkin-Verfahren
der Absch¨atzung (4.3.24) der reine Verfahrensfehler (Approximation der Zeitableitung) separiert vom Quadraturfehler bei der Auswertung der rechten Seite f (t, ·) . Beim Differenzenverfahren werden dagegen beide Fehleranteile vermischt. Wir geben nun a priori Absch¨atzungen f¨ ur den Diskretisierungsfehler der dG(r)-Verfahren an.
Satz 4.3 (A priori Fehler - nicht-steif): Im Fall einer allgemeinen L-stetigen AWA gilt f¨ur das dG(r)-Verfahren f¨ur hinreichend kleine Schrittweiten hn < γ0 /L (siehe Satz 4.1) die a priori Fehlerabsch¨atzung (4.3.25) sup ku(r+1) k , sup kek ≤ K max hr+1 n 1≤n≤N
I
In
mit einer im allg. exponentiell von L und T abh¨angigen Konstante K = K(L, T ) .
Beweis: Wir f¨ uhren den Beweis in mehreren Schritten. (r) (i) Der exakten L¨osung u wird eine Approximierende U¯ ∈ Sh (I) zugeordnet durch die Vorschrift Z − ¯ − u)q dt = 0 ∀q ∈ Pr−1 (In )d , n = 1, ..., N. ¯ (U Un = u(tn ), In
Wir werden unten in Hilfssatz 4.2 zeigen, daß diese Approximierende lokal auf jedem Teilintervall In eindeutig bestimmt ist ( r + 1 Bestimmungsgleichungen f¨ ur r + 1 freie Parameter) und daß die Fehlerabsch¨atzung gilt: sup ku(r+1) k , sup ku − U¯ k ≤ cI hr+1 n
(4.3.26)
In
In
¯ gilt nach mit einer sog. Interpolationskonstante“ cI > 0 . F¨ ur diese Approximierende U ” ′ Konstruktion mit beliebigem ϕ ∈ Pr (In ) die folgende Beziehung (beachte ϕ ∈ Pr−1 (In ) ) Z Z ′ + + ¯ − , ϕ− ) ¯ , ϕ ) = − (U¯ , ϕ′ ) dt + (U (U¯ , ϕ) dt + (U n n n−1 n−1 In ZIn = − (u, ϕ′ ) dt + (un , ϕ− n) In Z (u′ , ϕ) dt + (un−1 , ϕ+ = n−1 ) In Z (f (t, u), ϕ) dt + (un−1, ϕ+ (4.3.27) = n−1 ) . In
(ii) Wir wollen eine rekursive Absch¨atzung f¨ ur den intervallweisen Fehlerterm En := supIn kek2 herleiten. Dazu wird aufgespalten e := e¯ + η mit e¯ := u − U¯ und η := U¯ − U. Im Hinblick auf (4.3.26) gen¨ ugt es, die Fehlerkomponente η abzusch¨atzen. Wir bedienen
4.3 A priori Fehleranalyse
89
uns dazu der diskreten“ Sobolewschen Ungleichung (4.2.14) f¨ ur η ∈ Pr (In ) : ” o nZ 2 2 kη ′ k2 (t−tn−1 ) dt + kηn− k2 . sup kηk ≤ κ In
(4.3.28)
In
Durch Subtraktion der Gleichungen (4.2.6) f¨ ur U und (4.3.27) f¨ ur U¯ erhalten wir Z Z − ′ + + (f (t, u) − f (t, U), ϕ) dt + (ηn−1 , ϕ+ (η , ϕ) dt + (ηn−1 , ϕn−1) = n−1 ) , In
In
f¨ ur beliebiges ϕ ∈ Pr (In ) . Wir w¨ahlen nun ϕ := η und erhalten Z Z − + ′ + 2 (f (t, u) − f (t, U), η) dt + (ηn−1 , ηn−1 ), (η , η) dt + kηn−1 k = In
In
bzw. bei Beachtung von (η ′ , η) = 1 kηn− k2 2
+
+ 1 kηn−1 k2 2
1 d kηk2 2 dt
≤L
Z
Dies ergibt kηn− k2
≤ 2L
In
Z
und anschließender Integration u ¨ber In :
− + kekkηk dt + 21 kηn−1 k2 + 21 kηn−1 k2 .
In
− kekkηk dt + kηn−1 k2 ,
und nach rekursiver Anwendung f¨ ur n, n−1, ..., 1 und Beachtung von η0− = 0 : kηn− k2
≤ 2L
n Z X ν=1
Iν
kekkηk dt .
(4.3.29)
Als n¨achstes setzen wir ϕ := η ′ (t−tn−1 ) ∈ Pr (In−1 ) und erhalten Z Z Z ′ ′ 2 kekkη ′ k(t−tn−1 ) dt (f (t, u) − f (t, U), η )(t−tn−1 ) dt ≤ L kη k (t−tn−1 ) dt = In In In 1/2 1/2 Z Z kη ′ k2 (t−tn−1 ) dt kek2 (t−tn−1 ) dt ≤L In
In
bzw. Z
′ 2
In
2
kη k (t−tn−1 ) dt ≤ L
Z
In
kek2 (t−tn−1 ) dt .
Kombination der Absch¨atzungen (4.3.28), (4.3.29) und (4.3.30) ergibt 2
2
sup kηk ≤ κ In
L2 h2n
2
2
sup kek + 2κ L In
n X ν=1
hν sup kekkηk . Iν
(4.3.30)
90
Galerkin-Verfahren
¯ erschließen wir hieraus Unter Verwendung der Absch¨atzung (4.3.26) f¨ ur e¯ = u− U sup ku(r+1) k2 sup kek2 ≤ 2κ2 L2 h2n sup kek2 + 2cI h2r+2 n In
In
In
+ κ2 L
n X
sup ku(r+1) k2 hν 3 sup kek2 + 2cI h2r+2 ν
ν=1 n X
≤ 5κ2 L
ν=1
Iν
Iν
hν sup kek2 + 4κ2 LcI Iν
n X ν=1
h2r+2 sup ku(r+1) k2 , ν Iν
wobei o.B.d.A. κ2 L ≥ 1 und Lhn ≤ 1 angenommen wurde. Auf der Basis dieser Beziehung liefert nun die diskrete Gronwallsche Ungleichung (2.1.11) unter der Voraussetzung 5κ2 Lhν < 1 , daß sup kek2 ≤ exp In
n X ν=0
n X σν 5κ2 Lhν 4κ2 LcI h2r+3 sup ku(r+1) k2 , ν ν=1
(4.3.31)
Iν
wobei σν = (1 − 5κ2 Lhν )−1 . Dies impliziert die behauptete a priori Fehlerabsch¨atzung mit der Konstante γ0 := 1/(5κ2 ) . Q.E.D. Hilfssatz 4.2 (Interpolationssatz): Einer Funktion u ∈ C r+1 (I¯n ) wird durch die Vorschrift Z − (U¯ − u)q dt = 0 ∀q ∈ Pr−1 (In )d , (4.3.32) U¯n = u(tn ), In
¯ ∈ Pr (In ) zugeordnet. F¨ur diese gilt die Fehlerabsch¨atzung eindeutig eine Interpolierende U ¯ ≤ cI hr+1 sup ku(r+1) k, sup ku − Uk n
(4.3.33)
In
In
mit einer von hn unabh¨angigen sog. Interpolationskonstante“ cI = cI (r) . ” Beweis: (i) Auf dem Intervall In haben wir r + 1 lineare Bedingungen (4.3.32) zur ¯ ∈ Pr (In ) . Das resultierende Bestimmung der ebenfalls r + 1 freien Parameter in U lineare Gleichungssystem besitzt eine eindeutige L¨osung, da jedes Polynom p ∈ Pr (In ) mit den Eigenschaften Z − pq dt = 0 ∀q ∈ Pr−1 (In )d . pn = 0, In
notwendig das Nullpolynom p ≡ 0 ist. Um dies einzusehen, nehmen wir an, daß p 6≡ 0 ist. Seien {τi , i = 1, ..., m} die Nullstellen von p im Innern von In mit ungerader Vielfachheit. Dann gilt Z Z m m Y Y p˜(t) (t − τi )2s dt > 0 p(t) (t − τi ) dt = In
i=1
In
i=1
4.3 A priori Fehleranalyse
91
mit einem Polynom p˜ ohne Nullstelle in In . Da nun p orthogonal zu allen Polynomen in Pr−1 ist, muß also zwangsl¨aufig m ≥ r sein. Zusammen mit τr+1 := tn hat also p genau r + 1 (dann notwendig einfache) Nullstellen, und es ergibt sich der Widerspruch p ≡ 0 . ¯∈ (ii) Mit demselben Argument wie unter (i) erhalten wir, daß die Fehlerfunktion u − U r+1 C (In ) in In mindestens r + 1 (einfache) Nullstellen besitzt. Betrachten wir nun das Nullpolynom p ≡ 0 als Lagrange-Interpolierende in Pr (In ) von u− U¯ in diesen Punkten, so liefert die allgemeine Fehlerabsch¨atzung f¨ ur die Lagrange-Interpolation die folgende Absch¨atzung: sup ku − U¯ k ≤ In
1 1 hr+1 sup k(u − U¯ )(r+1) k = hr+1 sup ku(r+1) k . n (r+1)! (r+1)! n In In
Dies impliziert die Behauptung mit der Konstante cI :=
1 (r+1)!
.
Q.E.D.
F¨ ur das dG(r)-Verfahren l¨aßt sich mit einer ganz anderen als der in Satz 4.3 verwendeten Beweistechnik zeigen, daß der Fehler in den diskreten Zeitpunkten tn sogar mit der besseren Ordnung O(hr+2 ) konvergiert. Dieser sog. Superapproximationseffekt“ ” kann nat¨ urlich nicht auf dem ganzen Intervall I gelten, da allgemeine Funktionen durch Polynome vom Grad r global h¨ochstens mit der Ordnung O(hr+1 ) approximiert werden k¨onnen. utzSatz 4.4 (Superkonvergenz): Das dG(r)-Verfahren ist superkonvergent“ in den St¨ ” punkten tn , d.h.: F¨ur den Fehler e := u − U gilt: (r+1) ku k + K max kek2 , (4.3.34) sup max ke(tn )k ≤ K max hr+2 n 1≤n≤N
1≤n≤N
I
In
mit einer im Allg. exponentiell von L und T abh¨angigen Konstante K = K(L, T ) .
Beweis: Zum Beweis bedienen wir uns eines sog. (diskreten) Dualit¨atsarguments“. Sei ” wieder e := u − U gesetzt.
(i) Zun¨achst schreiben wir
f (t, u) − f (t, U) =
Z
1
0
d f (t, U +se) ds = ds
Z
1
fx (t, U +se)e ds =: B(t)e .
0
F¨ ur die Semi-Linearform A(·; ·) von oben gilt damit N Z X ′ (e , V ) − (f (t, u)−f (t, U), V ) ds dt A(u; V ) − A(U; V ) =
+ =
n=1 N X
In
n=1
In
+ + ([e]n−1 , Vn−1 ) + (e+ 0 , V0 )
n=2 N Z X
N X ′ + + ([e]n−1 , Vn−1 (e , V ) − (B(t)e, V ) dt + ) + (e+ 0 , V0 ) . n=2
92
Galerkin-Verfahren
Die rechte Seite definiert nun offenbar eine von u und U abh¨angige Bilinearform N N Z X X ′ + (W , V ) − (B(t)W, V ) dt + ([W ]n−1 , Vn−1 ) + (W0+ , V0+ ). L(u, U)(W, V ) := n=1
In
n=2
Mit dieser gilt wegen der Galerkin-Orthogonalit¨at: (r)
L(u, U)(e, V ) = A(u; V ) − A(U; V ) = 0,
V ∈ Sh (I).
F¨ ur die Form L(u, u)(W, V ) erhalten wir mit Z 1 fx (t, u+se) ds = fx (t, u) 0
durch partielle Integration und Umordnung von Termen: L(u, u)(W, V ) = =
N Z X
′
n=1 In N Z X n=1
In
(W − fx (t, u)W, V ) dt +
N X
+ ([W ]n−1 , Vn−1 ) + (W0+ , V0+ )
n=2 N −1 X
−(W, V ′ − fx (t, u)∗V ) dt −
− (Wn−1 , [V ]n−1 ) + (WN− , VN− ).
n=1
(r)
(ii) Sei nun Z ∈ Sh (I) die L¨osung des diskreten variationellen Problems (r)
L(u, u)(V, Z) = (VN− , e− N ) ∀V ∈ Sh (I).
(4.3.35)
Dies ist die dG(r)-Approximation des linearen dualen Problems“ ( R¨ uckw¨artsproblem“) ” ” z ′ + fx (t, u)∗ z = 0, tN ≥ t ≥ 0,
z(tN ) = e− N.
(4.3.36)
Diese AWA ist wohl gestellt, da sie nach der Transformation s = tN −t und z˜(s) := z(t) in die wohlgestellten Vorw¨artsaufgabe“ ” z˜′ − fx (s, u)∗z˜ = 0, 0 ≤ s ≤ tN ,
z˜(0) = e− N,
u ur die diskrete duale L¨osung“ Z gilt die a priori Absch¨atzung ¨bergeht. F¨ ” Z sup kZk + kZ ′ k dt ≤ cS,h ke− N k. I
(4.3.37)
I
mit einer sog. Stabilit¨atskonstante“ cS,h , die i. Allg. exponentiell von Schranken f¨ ur ” fx (t, x) , d.h. L, und T abh¨angt. ¯ − U , wobei U¯ ∈ S (r) (I) wieder die oben eingef¨ (iii) Wir setzen η := U uhrte Approh − ximation der exakten L¨osung u ist. Mit dieser gilt konstruktionsgem¨aß e− N = ηN . Wir ¯ . Dann ergibt sich mit Hilfe der setzen nun V := η := U¯ −U in (4.3.35) und e¯ := u − U
4.3 A priori Fehleranalyse
93
Definitionsgleichung von Z und der Galerkin-Orthogonalit¨at f¨ ur U : 2 ke− N k = L(u, u)(η, Z) = L(u, U)(η, Z) − (L(u, U)−L(u, u))(η, Z) = L(u, U)(e, Z) − L(u, U)(¯ e, Z) − (L(u, U)−L(u, u))(η, Z) = −L(u, U)(¯ e, Z) − (L(u, U)−L(u, u))(η, Z) ¯ −u, Z) − (L(u, U)−L(u, u))(η, Z) = −L(u, u)(¯ e, Z) + (L(u, U)−L(u, u))(U = −L(u, u)(¯ e, Z) − (L(u, U)−L(u, u))(e, Z).
Den zweiten Term auf der rechten Seite sch¨atzen wir nun wie folgt ab: Z N Z X 1 |(L(u, U)−L(u, u))(e, Z)| ≤ (fx (t, U +se)e, Z) ds − (fx (t, u)e, Z) dt n=1
In
0
≤ LT sup kek2 sup kZk ≤ cS,h LT sup kek2 ke− Nk . I
I
I
Zur weiteren Behandlung des ersten Terms auf der rechten Seite verwenden wir die Projektionseigenschaften von e¯ wie folgt: L(u, u)(¯ e, Z) = =
N Z X
n=1 In N Z X n=1
In
−(¯ e, Z ′ − fx (t, u)∗ Z) dt −
N −1 X
− (¯ e− e− n−1 , [Z]n−1 ) + (¯ N , ZN )
n=1
(¯ e, fx (t, u)∗ Z − P0 fx (t, u)∗ Z) dt
Hieraus folgt dann mit Hilfe der u ur e¯ und P0 : ¨blichen Fehlerabsch¨atzungen f¨ |L(u, u)(¯ e, Z)| ≤
N Z X
n=1 In N X
≤ cI
k¯ ekkfx (t, u)∗ Z − P0 fx (t, u)∗ Zk dt
hr+1 n
n=1
sup ku
(r+1)
In
k hn
Z
In
k(fx (t, u)∗ Z)′ k dt
N X r+1 (r+2) k ≤ cI max hn sup ku 1≤n≤N
In
n=1
Z
In
k(fx (t, u)∗ Z)′ k dt.
Durch Ausdifferenzieren sehen wir, daß auf jedem Zeilintervall In gilt: k(fx (t, u)∗ Z)′ (t)k ≤ c(u){kZ(t)k + kZ ′ (t)k}. Mit der obigen a priori Absch¨atzung f¨ ur Z folgt daher − (r+1) ku k keN k. sup |L(u, u)(¯ e, Z)| ≤ cI cS,h max hr+2 n 1≤n≤N
In
94
Galerkin-Verfahren
Kombination der bis hierhin abgeleiteten Absch¨atzungen ergibt nun r+2 hn sup ku(r+1) k + cS,h LT sup kek2 . ke− N k ≤ cI cS,h max 1≤n≤N
I
In
Q.E.D.
Bemerkung 4.1: Mit Hilfe einer Verfeinerung des vorangehenden Beweises l¨aßt sich zeigen, daß das dG(r)-Verfahren in den diskreten Zeitpunkten sogar eine noch h¨ohere Konvergenzordnung besitzt: (4.3.38) sup ku(r+1) k + K max kek2 , max ke(tn )k ≤ K max h2r+1 n 1≤n≤N
1≤n≤N
I
In
Dies bedeutet f¨ ur das dG(0)-Verfahren (implizites Euler-Verfahren) noch keine Verbesserung gegen¨ uber der Konvergenzordnung m = 1 , doch beim dG(1)-Verfahren ergibt sich bereits die Ordnung m = 3 .
4.4 A posteriori Fehlersch¨ atzung und Schrittweitenkontrolle 4.4.1 Allgemeines zur a posteriori Fehleranalyse Wir wollen die allgemeine Vorgehensweise bei der a posteriori Fehleranalyse f¨ ur GalerkinVerfahren zun¨achst in dem einfacheren Rahmen algebraischer Gleichungssysteme herleiten. Wir beginnen mit der approximativen L¨osung linearer Probleme. Mit (regul¨aren) Matrizen A, Ah ∈ Rn×n und Vektoren b, bh ∈ Rn seien die Gleichungssysteme Ax = b,
Ah xh = bh
betrachtet. Zur Absch¨atzung des Fehlers eh := x − xh kann man sich des Abschneide” fehlers“ τh := Ah x − bh oder des Residuums“ ρh := b − Axh bedienen. F¨ ur ersteres ” gilt Ah eh = Ah x − Ah xh = Ah x − bh = τh und folglich keh k ≤ kA−1 h k kτh k.
(4.4.39)
Dies entspricht der typischen Vorgehensweise bei der a priori Fehleranalyse von Differenzenverfahren f¨ ur AWAn. Die resultierende Fehlerschranke basiert auf Absch¨atzungen f¨ ur den (unbekannten) Abschneidefehler τh sowie der Stabilit¨at des diskreten“ Operators ” Ah , d.h. auf Schranken der Form kA−1 aßig bzgl. des Parameters h k ≤ cS,h mit gleichm¨ h beschr¨ankten Konstanten cS,h . Diese Beziehung kann zum Nachweis der Konvergenz keh k → 0 (h → 0) verwendet werden. Sie erlaubt aber nur mit starken Einschr¨ankungen eine a posteriori Fehlersch¨atzung.
4.4 A posteriori Fehlersch¨ atzung und Schrittweitenkontrolle
95
Mit dem Residuum ρh gilt Aeh = Ax − Axh = b − Axh = ρh und folglich keh k ≤ kA−1 k kρh k.
(4.4.40)
In diesem Fall ist der Fehler abgesch¨atzt durch das auswertbare Residuum mit der Stabilit¨atskonstante cS := kA−1 k des ungest¨orten Operators A . Hieraus l¨aßt sich meist keine a priori Information u ur h → 0 ableiten, ¨ber die Konvergenz der Approximation f¨ wohl aber eine a posteriori Fehlerabsch¨atzung f¨ ur die berechnete N¨aherung xh . Dazu ist eine Sch¨atzung f¨ ur die Stabilit¨atskonstante cS erforderlich, welche im allg. kaum mit brauchbarer Genauigkeit zur Verf¨ ugung steht. Die Bestimmung der Stabilit¨atskonstante cS kann numerisch vorgenommen werde. Dazu nehmen wir an, daß die Absch¨atzung einer Fehlerkomponente |eh,i| oder allgemeiner eines linearen Funktionalwerts J(eh ) = (eh , j) mit einem Vektor j ∈ Rn gew¨ unscht ist. Die Absch¨atzung der Norm keh k, l¨aßt sich mit −1 der Setzung j := keh k eh in diesen Rahmen einordnen. Mit der L¨osung z ∈ Rn des sog. dualen“ Problems ” A∗ z = j,
(4.4.41)
gebildet mit der Adjungierten“ (hier der Transponierten) A∗ von A , gilt dann ” J(eh ) = (eh , j) = (eh , A∗ z) = (Aeh , z) = (ρ, z) und folglich die gewichtete“ Fehlerabsch¨atzung ” n X |J(eh )| ≤ |zi | |ρi|.
(4.4.42)
i=1
In dieser Beziehung beschreiben die Gewichte ωi := |zi | die Auswirkung einer Reduzierung der einzelnen Residuenkomponenten ρi (durch Verbesserung der Approximation) auf die Zielgr¨oße J(eh ) . Zur Auswertung dieser Absch¨atzung muß die duale“ L¨osung z ” aus (4.4.41) bestimmt werden. Der dazu erforderliche Aufwand entspricht etwa dem der L¨osung des eigentlichen Problems, d.h.: Zielorientierte a posteriori Fehlersch¨atzung ist kostspielig. Wir wollen nun die eben beschriebene Vorgehensweise zur Ableitung von a posteriori Fehlerabsch¨atzungen f¨ ur allgemeine Funktionale des Fehlers f¨ ur nichtlineare Gleichungssysteme verallgemeinern. Mit zwei stetig differenzierbaren Abbildungen A(·), Ah (·) : Rn → Rn und Vektoren b, bh ∈ Rn seien die Systeme A(x) = b,
Ah (xh ) = bh ,
(4.4.43)
96
Galerkin-Verfahren
betrachtet. Die Abbildung A(·) sei differenzierbar mit Jacobi-Matrix A′ (x) . Wir nehmen an, daß die beiden Probleme in (4.4.43) eindeutige L¨osungen haben. Wir wollen wieder den Approximationsfehler eh := x−xh mit Hilfe des berechenbaren Residuums ρh := b−A(xh ) absch¨atzen. Nach dem Fundamentalsatz der Differential- und Integralrechnung gilt f¨ ur beliebiges y ∈ Rn : Z 1 d (A(xh + seh ), y) ds (ρh , y) = (A(x) − A(xh ), y) = 0 ds Z 1 = (A′ (xh +seh )eh , y) ds = (Bh eh , y), 0
mit der von x und xh abh¨angigen Matrix Bh = B(x, xh ) :=
Z
1
A′ (xh +seh ) ds . 0
Ist wieder ein Funktionalwert J(eh ) = (eh , j) abzusch¨atzen, wird nun das lineare duale Problem Bh∗ z = j
(4.4.44)
verwendet. Mit seiner L¨osung z gilt dann nach Konstruktion: J(eh ) = (eh , j) = (eh , Bh∗ z) = (Bh eh , z) = (ρ, z), bzw. genau wie im linearen Fall: |J(eh )| ≤ η :=
n X i=1
|zi | |ρi|.
(4.4.45)
Zur Auswertung dieser Absch¨atzung w¨are nun wieder das duale Problem zu l¨osen. Dies ist aber nicht ohne weiteres m¨oglich, da die Matrix Bh von der unbekannten L¨osung x abh¨angt. Es liegt nahe, hier prakmatisch einfach x durch die berechnete Approximation xh zu ersetzen. Dies f¨ uhrt wegen Z 1 ˜ Bh ≈ Bh := B(xh , xh ) = A′ (xh ) ds = A′ (xh ). 0
auf das approximative duale Problem A′ (xh )∗ z˜ = j . Um den L¨osungsaufwand weiter zu reduzieren wird auch nur eine Approximation dazu gel¨ost: A′h (xh )∗ z˜h = jh .
(4.4.46)
4.4 A posteriori Fehlersch¨ atzung und Schrittweitenkontrolle
97
Mit der resultierenden approximativen dualen L¨osung z˜h wird dann die Fehlersch¨atzung verwendet: |J(eh )| ≈ η˜ := |(ρh , z˜h )| =
n X i=1
ω ˜ i |ρi |,
ω ˜ i := |˜ zh,i|.
(4.4.47)
Die Frage nach der Verl¨aßlichkeit der Approximation η˜ ≈ η kann im Allg. nur heuristisch beantwortet werden. Zun¨achst gilt die gest¨orte Fehleridentit¨at ˜ ∗ z˜) = (B ˜h eh , z˜) J(eh ) = (e, j) = (eh , B h ˜h − Bh )eh , z˜) + (Bh eh , z˜) = ((B
˜h − Bh )eh , z˜) + (ρh , z˜) = ((B ˜h − Bh )eh , z˜) + (ρh , z˜ − z˜h ) + (ρh , z˜h ). = ((B
Mit der Lipschitz-Konstante L′ von A′ (·) gilt Z 1 ˜ kBh − Bh k = k {A′ (xh ) − A′ (xh +seh )} dsk ≤ 21 L′ keh k. 0
Dies ergibt die Absch¨atzung |J(eh )| ≤ 21 L′ keh k2 + kρh kk˜ z − z˜h k + η˜. Die beiden ersten, quadratischen Terme k¨onnen bei gutartigen“ Problemen als klein ” gegen¨ uber dem zu sch¨atzenden Fehler angenommen werden, so daß η˜ den wesentlichen Anteil des Sch¨atzers darstellt.
4.4.2 Realisierung fu ¨r das dG-Verfahren Die a posteriori Fehleranalyse beim dG(r)-Verfahren bedient sich des eben f¨ ur algebraische Gleichungssysteme skizzierten Ansatzes. Dieser wird im folgenden Schritt f¨ ur Schritt entwickelt werden. Wir verwenden wieder die abk¨ urzende Bezeichnung U f¨ ur die approximierende L¨osung der AWA, welche bestimmt ist durch U0− = u0 und N Z X n=1
In
′
(U − f (t, U), ϕ) dt +
([U]n−1 , ϕ+ n−1 )
= 0
(r)
∀ϕ ∈ Sh (I) .
Bei Verwendung der Semilinearform A(U)(V ) :=
N Z X n=1
In
′
(U − f (t, U), V ) dt +
N X n=2
+ ([U]n−1 , Vn−1 ) + (U0+ , V0+ )
(4.4.48)
98
Galerkin-Verfahren
erh¨alt dies die kompakte Gestalt (r)
A(U)(ϕ) = (u0 , V0+ ) ∀ϕ ∈ Sh (I) .
(4.4.49)
Durch Vergleich mit der entsprechenden Gleichung f¨ ur die exakte L¨osung u erh¨alt man die Beziehung (Galerkin-Orthogonalit¨at) (r)
A(u)(ϕ) − A(U)(ϕ) = 0 ∀ϕ ∈ Sh (I) .
(4.4.50)
Wir wollen eine a posteriori Absch¨atzung f¨ ur den Fehler e = u − U zum Zeitpunkt tN herleiten. Die Rolle des Residuums der diskreten L¨osung U u ¨bernimmt das Funktional ρ(U)(·) , welches durch folgende Relation definiert ist: ρ(U)(ϕ) := (u0 , ϕ+ 0 ) − A(U)(ϕ) ,
ϕ ∈ V (I) .
(r)
Offenbar ist ρ(U)(ϕ) = 0 ∀ϕ ∈ Sh (I) , d.h.: Das Residuum ist in einem gewissen Sinne orthogonal zum diskreten Ansatzraum.
Wir wollen als n¨achstes das duale Problem zur Absch¨atzung des Endzeitfehlers e− N herleiten. Die Beziehungen A(u)(ϕ) − A(U)(ϕ) = +
N Z X n=1 N X
In
(e′ − {f (t, u)−f (t, U)}, ϕ) dt
+ + ([e]n−1 , ϕ+ n−1 ) + (e0 , ϕ0 )
n=2
und ( fx bezeichnet wieder die Jacobi-Matrix von f (t, x) bzgl. der Variablen x .) Z 1 f (t, u) − f (t, U) = fx (t, U + se)e ds = : B(t)e 0
legen die Verwendung der folgenden Bilinearform nahe: L(u, U)(v, ϕ) :=
N Z X n=1
′
In
(v − Bv, ϕ) dt +
N X
+ + ([v]n−1 , ϕ+ n−1 ) + (v0 , ϕ0 ) .
n=2
Die zugeh¨orige adjungierte Form L∗ (u, U; v, ϕ) := L(u, U; ϕ, v) erh¨alt man durch partielle Integration in der Form ∗
L (u, U)(v, ϕ) =
N Z X n=1
In
′
∗
(−v − B v, ϕ) dt −
N −1 X
− − ([v]n , ϕ− n ) + (vN , ϕN )
n=1
mit der adjungierten Matrix B ∗ von B . Im Rahmen des Dualit¨atsarguments wird nun
4.4 A posteriori Fehlersch¨ atzung und Schrittweitenkontrolle
99
+ −1 − eine Funktion z ∈ V (I) gesucht mit den Eigenschaften zN = ke− N k eN und + L∗ (u, U)(ϕ, z) = (ϕ− N , zN ) ∀ϕ ∈ V (I) .
(4.4.51)
Dieses in der Zeit r¨ uckw¨arts laufende Problem ist linear und von derselben Struktur wie die bisher betrachteten Standardprobleme. Die zugeh¨orige AWA lautet z ′ (t) + B ∗ (t)z(t) = 0 ,
t0 ≤ t ≤ tN ,
−1 − z(tN ) = ke− N k eN ,
(4.4.52)
und kann durch die einfache Variablentransformation t → tN + t0 − t in eine vorw¨artslaufende u uhrt werden. Ihre eindeutige L¨osbarkeit folgt daher aus dem allgemeinen ¨berf¨ Existenzssatz f¨ ur lineare AWAn.
Mit der dualen L¨osung z erh¨alt man nun durch Wahl der Testfunktion ϕ := e in (4.4.51) die Fehlerdarstellung ∗ ke− N k = L (u, U; z, e) = L(u, U)(e, z) = A(u)(z) − A(U)(z) = ρ(U)(z) .
Die Orthogonalit¨atsbeziehung (4.4.50) erlaubt es nun, auf der rechten Seite eine beliebige (r) Approximation Z ∈ Sh (I) von z einzuschieben. Wir erhalten damit ke− N k = ρ(U)(z − Z) ,
(r)
Z ∈ Sh (I).
(4.4.53)
Das Residuum auf der rechten Seite muß nun explizit ausgewertet werden. Wir haben im allgemeinen die Darstellung (beachte U0− := u0 ) ρ(U)(z−Z) = (u0 − =−
U0+ , (z−Z)+ 0)
N Z X n=1
−
N Z X n=1
In
(R(U), z−Z) dt +
In
(R(U), z−Z) dt −
N X
([U]n−1 , (z−Z)+ n−1 )
n=2
([U]n−1 , (z−Z)+ n−1 )
,
mit dem punktweisen Residuum R(U) := U ′ − f (t, U). Wir wollen nun geeignete Kandi(r) daten f¨ ur die Approximierenden Z ∈ Sh (I) diskutieren.
(r)
(r)
(i) Eine nat¨ urliche Wahl ist die orthogonale Projektion Pr z ∈ Sh (I) von z auf Sh (I) 2 bzgl. des L -Skalarprodukts (sog. L2 -Projektion“). Diese ist (eindeutig) bestimmt durch ” die intervallweise Orthogonalit¨atseigenschaft Z (z − Pr z, q) dt = 0 ∀q ∈ Pr (In )d . (4.4.54) In
Wir werden unten in Hilfssatz 4.3 Fehlerabsch¨atzungen f¨ ur die L2 -Projektion herleiten.
100
Galerkin-Verfahren
Damit erh¨alt man unter Ausnutzung der Orthogonalit¨atseigenschaften von Z = Pr z : ρ(U)(z−Pr z) = −
N nZ X
(R(U)−Pr R(U), z−Pr z) dt
(4.4.55)
In
n=1
o + ([U]n−1 , (z−Pr z)+ ) . n−1
(ii) Eine naheliegende Alternative zur Wahl Z = Pr z ist die modifizierte L2 -Projektion (r) Z = P˜r z ∈ Sh , welche f¨ ur r ≥ 1 durch Z + ˜ (z − P˜r z, q) dt = 0 ∀q ∈ Pr−1 (In )d . (Pr z)n−1 = z(tn−1 ) , In
definiert ist. Im Fall r = 0 wird nur die Interpolationsbedingung bei tn−1 wirksam. F¨ ur diese Projektion haben wir bereits Fehlerabsch¨atzungen in Hilfssatz 4.2 hergeleitet (Tats¨achlich wird in Hilfssatz 4.2 eine Variante dieser Projektion mit der Interpolationsvorschrift (P˜r z)− n = z(tn ) betrachtet.). Unter Verwendung der Projektionseigenschaften ˜ von Z = Pr z und Beachtung von (z− P˜r z)+ n−1 = 0 erhalten wir nun: ρ(U)(z− P˜r z) = −
N Z X n=1
(R(U)−Pr−1 R(U), z− P˜r z) dt.
(4.4.56)
In
Die beiden Residuumsdarstellungen (4.4.55) und (4.4.56) sind nat¨ urlich im Hinblick auf die Identit¨at (4.4.53) ¨aquivalent. Aus den Residumsdarstellungen (4.4.55) bzw. (4.4.56) gewinnt man nun unmittelbar eine a posteriori Fehlerabsch¨atzung f¨ ur ke− N k . Wir fassen dieses Resultat ausgehend von der einfacheren Darstellung (4.4.56) in einem Satz zusammen.
Satz 4.5 (A posteriori Fehler): Die AWA (4.1.1) sei (global) Lipschitz-stetig. Dann gilt f¨ur das dG(r)-Verfahren die lokale a posteriori Fehlerabsch¨atzung ke− Nk
≤
N n X n=1
sup kR(U)−Pr−1 R(U)k In
Z
In
o ˜ kz− Pr zk dt
(4.4.57)
mit der modifizierten L2 -Projektion Z = P˜r z und der L2 -Projektion Pr−1 auf den An(r−1) satzraum Sh . Hieraus folgt die etwas gr¨obere globale a posteriori Fehlerabsch¨atzung r+1 ke− k ≤ c c max kR(U) − P R(U)k (4.4.58) h sup S I r−1 n N 1≤n≤N
In
mit der Interpolationskonstante cI aus der Absch¨atzung Z Z r+1 ˜ kz (r+1) k dt kz − Pr zk dt ≤ cI hn In
In
(4.4.59)
4.4 A posteriori Fehlersch¨ atzung und Schrittweitenkontrolle
101
und der Stabilit¨atskonstante cS aus der Absch¨atzung Z kz (r+1) k dt ≤ cS .
(4.4.60)
I
Ausgehend von der ersten Fehlerdarstellung (4.4.55) erhalten wir die zu (4.4.57) analoge Fehlerabsch¨atzung r+1 r ke− k ≤ c c max kR(U) − P R(U)k + h k[U] k (4.4.61) h sup S I r n−1 n n N 1≤n≤N
In
mit der Interpolationskonstante cI aus der Absch¨atzung Z Z + r+1 kz (r+1) k dt kz − Pr zk dt, hn k(z − Pr z)n−1 k ≤ cI hn max
(4.4.62)
In
In
und derselben Stabilit¨atskonstante cS wie in (4.4.60). Eine u ¨berschlagsweise Analyse zeigt, daß der Term hr+1 kR(U)−P R(U)k im allgemeinen um mindestens eine hn -Potenz r n r kleiner ist als der Term hn k[U]n−1 k . Dies legt es nahe, aus Kostengr¨ unden die folgene vereinfachte Fehlersch¨atzung zu verwenden: r hn k[U]n−1 k . (4.4.63) ke− N k ≈ cS cI max 1≤n≤N
Zur Auswertung der Fehlerschranken (4.4.57) bzw. (4.4.61) ben¨otigen wir m¨oglichst gute Absch¨atzungen f¨ ur die Interpolationen Pr z sowie P˜r z , d.h. f¨ ur die Interpolationskonstanten cI . Hilfssatz 4.3 (Interpolation): F¨ ur die Projektionen Pr z ∈ Pr (In ) sowie P˜r z ∈ Pr (In ) gelten die Absch¨atzungen Z Z + r+1 max kz − Pr zk dt, hn k(z − Pr )n−1 k ≤ cI hn kz (r+1) k dt , (4.4.64) In
In
bzw.
Z
In
kz − P˜r zk dt ≤ cI hrn
mit der Interpolationskonstante cI =
1 (r+1)!
Z
In
kz (r+1) k dt ,
(4.4.65)
.
Beweis: Wir f¨ uhren den Beweis konstruktiv, um eine explizite Schranke f¨ ur die Interpolationskonstante cI zu erhalten. Offenbar gen¨ ugt es, die Behauptung im skalaren Fall d = 1 zu zeigen. Wir verwenden zun¨achst die Orthogonalit¨atseigenschaften von z − Pr z , um zu begr¨ unden, daß z − Pr z im Innern von In mindenstens r + 1 paarweise verschiedene Nullstellen haben muß. Die Argumentation verl¨auft dabei analog zu der im Beweis von Hilfssatz 4.2. In diesen Nullstellen {τ0 , ..., τr } wird also z durch das Polynom
102
Galerkin-Verfahren
Pr z ∈ Pr (In ) interpoliert. Die allgemeine Fehlerdarstellung f¨ ur die Lagrange-Interpolation lautet r Y (z − Pr z)(t) = z[s0 , · · · , sn , t] (t−si ) , i=0
mit der dividierten Differenz“ z[s0 , · · · , sr , t] in integraler Darstellung ” Z 1 Z τ1 Z τr−1 Z τr z[s0 , · · · , sr , t] = z (r+1) (s0 + τ1 (s1 −s0 ) + · · · ··· 0
0
0
0
+ τr (sr −sr−1 ) + τ (t−sr )) dτ dτr · · · dτ2 dτ1 .
Integration u ¨ber In ergibt dann Z Z r+1 |z[s0 , · · · , sr , t]| dt ≤ |(z − Pr z)(t)| dt ≤ hn In
In
1 hr+1 (r + 1)! n
Z
In
|z r+1 | dt .
Dies sieht man wie folgt. Vertauschung der Integrationsreihenfolge ergibt zun¨achst Z 1 Z τ1 Z Z τr−1 Z τr Z |z[s0 , · · · , sr , t]| dt ≤ |z (r+1) (s0 + τ1 (s1 −s0 ) + · · · ··· In 0 0 0 In 0 + τr (sr −sr−1 ) + τ (t−sr ))| dt dτ dτr · · · dτ2 dτ1 .
Wir setzen nun
ξ := s0 + τ1 (s1 −s0 ) + · · · + τr (sr −sr−1 ) + τ (t−sr ) und finden wegen dξ = τ dt : Z Z (r+1) |z (r+1) (ξ)| dξ . |z (s0 + τ1 (s1 −s0 ) + · · · + τr (sr −sr−1 ) + τ (t−sr ))| dt ≤ τ In
In
Dies impliziert Z Z |z[s0 , · · · , sr , t]| dt ≤ In
1 0
Z
0
τ1
···
Z
1 ≤ hr+1 (r + 1)! n
τr−1 0
Z
In
Z
0
τr
τ dτ dτr · · · dτ2 dτ1
Z
In
|z (r+1) (ξ)| dξ
|z r+1 | dt .
Das Argumentation f¨ ur die Projektion P˜r z verl¨auft ganz analog.
Q.E.D.
Die Absch¨atzung (4.4.57) bezieht sich auf den Fehler zum Endzeitpunkt tN = t0 + T . Nat¨ urlich folgt hieraus auch eine entsprechende Absch¨atzung u ¨ ber das ganze Integrationsintervall I , wenn man den jeweiligen Zeitpunkt tn als Endpunkt des Intervalls [t0 , tn ] betrachtet und (4.4.57) sinngem¨aß anwendet.
4.4 A posteriori Fehlersch¨ atzung und Schrittweitenkontrolle
103
4.4.3 Auswertung der a posteriori Fehlerabsch¨ atzung W¨ahrend die Interpolationskonstante cI sehr pr¨azise angegeben werden kann, ist die Bestimmung der Stabilit¨atskonstante cS im allgemeinen schwierig. Dies hat im wesentlichen drei Ursachen: – Die Koeffizientenmatrix B ∗ des dualen Problems h¨angt explizit von der (unbekannten) exakten L¨osung u ab. − – Die Inhomogenit¨at des dualen Problems ist gerade der (unbekannte) Fehler zN = − − −1 eN keN k .
– Selbst bei Kenntnis der exakten Matrix B ∗ sowie der rechten Seite e− urde eine N w¨ direkte Absch¨atzung mit Hilfe der Struktureigenschaften des Problems, d.h. der Funktion fx , in der Regel eine zu grobe Schranke f¨ ur cS liefern. Wir wollen nun die Aussage von Satz 4.5 zun¨achst f¨ ur den einfachsten Fall mit r = 0 , d.h. das dG(0)-Verfahren, konkretisieren. Dazu notieren wir zun¨achst als Spezialfall von Hilfssatz 4.3 die folgende Interpolationsabsch¨atzung: Z + kz ′ k dt , (4.4.66) k(z − P0 z)n−1 k ≤ hn In
d.h.: Die Interpolationskonstante ist in diesem Fall cI = 1 . Zur Bestimmung der zugeh¨origen Stabilit¨atskonstante cS stellen wir folgenden Hilfssatz bereit. Hilfssatz 4.4 (Duale Stabilit¨ at): F¨ur die duale lineare AWA (4.4.51) gilt die a priori Absch¨atzung Z Z ′ β kz k dt ≤ βe , β = kB ∗ (t)k dt . (4.4.67) I
I
Ist die Funktion f (t, x) strikt monoton, −(f (t, x) − f (t, x′ ), x − x) ≥ γkx − x′ k2 ,
x, x′ ∈ Rd ,
so gilt Z
I
kz ′ k dt ≤ min{T, 2/γ} sup kB ∗ k .
Beweis: Zun¨achst gilt offensichtlich Z Z ′ kz k dt = kB ∗ zk dt ≤ β sup kzk . I
(4.4.68)
I
I
I
(4.4.69)
104
Galerkin-Verfahren
Zur weiteren Absch¨atzung der rechten Seite schreiben wir Z tN z(t) = v(tN ) + B ∗ z ds t
und erhalten kz(t)k ≤ kz(tN )k +
Z
t
tN
kB ∗ k kzk ds .
Anwendung des Gronwallschen Lemmas (diesmal r¨ uckw¨arts in der Zeit) ergibt Z tN kz(t)k ≤ exp kB ∗ k ds kz(tN )k t
bzw.
sup kz(t)k ≤ eβ kz(tN )k . I
Kombiniert mit (4.4.69) ergibt dies die erste Behauptung. Sei nun die Funktion f (t, x) als monoton angenommen. Damit wird auch die Matrix B ∗ definit im Sinne Z 1 ∗ −(B y, y) = −(y, fx (t, U + se)y) ds ≥ γkyk2 . 0
Multiplikation von (4.4.52) mit −eγ(tN −t) z ergibt − 21 dtd eγ(tN −t) z 2 − 21 γeγ(tN −t) z 2 − eγ(tN −t) (B ∗ z, z) = 0
und folglich nach Integration von t nach tN
kz(t)k ≤ e−γ(tN −t)/2 kz(tN )k . Wir kombinieren dies mit (4.4.69) und finden Z Z ′ ∗ kz k dt ≤ sup kB k e−γ(tN −t)/2 dt kz(tN )k ≤ min{T, 2/γ} sup kB ∗ k kz(tN )k , I
I
I
I
was den Beweis vervollst¨andigt.
Q.E.D.
Die Schranken cS = βeβ bzw. cS = min{T, 2/γ} supI kB ∗ k aus den a priori Absch¨atzungen (4.4.67) bzw. (4.4.68) sind im allgemeinen f¨ ur praktische Zwecke viel zu grob. Zur Auswertung der a posteriori Absch¨atzung ke− N k ≤ cS max hn k[U]n−1 k 1≤n≤N
(4.4.70)
sollte man daher cS numerisch zu sch¨atzen suchen. Dies k¨onnte etwa nach folgender Strategie geschehen:
4.4 A posteriori Fehlersch¨ atzung und Schrittweitenkontrolle
105
1. Die Koeffizientenmatrix B(t) wird approximiert durch Z 1 B(t) = fx (t, U + se) ds ≈ fx (t, U) .
(4.4.71)
0
Dies ist gerechtfertigt, da bei zunehmender Approximationsgenauigkeit in Folge der Gitteranpassung der Fehler e immer kleiner wird (garantiert durch die a priori Fehlerabsch¨atzung). 2. Der Fehler e− osungen zu zwei aufeinander folgenden N wird durch die Differenz der L¨ Gittern approximiert: ′
h h e− ˜− N ≈ e N := U −U ,
−1 − z˜N := k˜ e− ˜N . Nk e
(4.4.72)
Dies ist gerechtfertigt, wenn das h′ -Gitter bereits sehr fein ist und somit nur heuristisch (und gegebenenfalls durch den Erfolg) begr¨ undbar. Im Fall, daß man nur an einer einzelnen Fehlerkomponente e− interessiert ist, kann dagegen mit dem festen N,i (i) N Anfangswert zN := (δj )j=1 gearbeitet werden. 3. Das duale Hilfsproblem z˜′ (t) + fx (t, U)∗ z˜(t) = 0,
t0 ≤ t ≤ tN ,
+ z˜(tN ) = zN ,
(4.4.73)
wird numerisch auf dem aktuellen (oder aus Sparsamkeitsgr¨ unden m¨oglicherweise auch auf einem gr¨oberen) Gitter gel¨ost. Aus der resultierenden approximierenden (r) L¨osung Z ∈ Sh (I) wird dann der duale Fehler z − Z oder direkt die globale Stabilit¨atskonstante cS gesch¨atzt: Z
I
kz ′ k dt ≈
N X n=1
hn k[Z]n−1 k =: c˜S .
(4.4.74)
F¨ ur die dG(r)-Verfahren h¨oherer Ordnung, r ≥ 1, werden zur Auswertung der h¨oheren Ableitungen z (r+1) der dualen L¨osung diese direkt mit Hilfe von entsprechenden Differenzenquotienten oder (bei nicht zu komplizierten Differentialgleichungen) unter Ausnutzung der Rekursion z ′ = −B ∗ z aus der gerechneten N¨aherung Z gesch¨atzt. F¨ ur das dG(1)Verfahren ergibt sich somit z.B. die approximative Fehlersch¨atzung N
ke− Nk
1X 2 hn k[U]n−1 k kB ∗ [Z]n−1 + B ∗′ Zn− k . ≈ 2 n=1
(4.4.75)
Dieser ganze Prozeß sollte w¨ahrend der fortschreitenden Gitterverfeinerung (und damit einhergehender Fehlerreduktion) iteriert werden. Den Einfluß der unter (1) - (3) beschriebenen Approximationsschritte kann man prinzipiell auch a posteriori kontrollieren. Dies wird jedoch im Detail sehr kompliziert, so daß man sich meist mit einer einfachen ad-hoc-Kontrolle“ der Entwicklung des Sch¨atzers bei fortschreitender Gitterverfeinerung ”
106
Galerkin-Verfahren
begn¨ ugt. Wir wollen zum Abschluß dieser Diskussion noch eine a priori Absch¨atzung f¨ ur den Fehler durch den Linearisierungsschritt (1) angeben.
Satz 4.6 (Linearisierung im dualen Problem): Sei z˜ ∈ V (I) die (eindeutige) L¨osung des linearisierten dualen Problems z˜′ (t) + fx (t, U)∗ z˜(t) = 0,
t0 ≤ t ≤ tN ,
+ z˜(tN ) = zN ,
(4.4.76)
+ −1 − wobei etwa zN := ke− atzung des Endzeitfehlers gew¨ahlt ist. Damit gilt N k eN zur Absch¨ die gest¨orte a posteriori Fehlerdarstellung
ke− ˜ − Z) + O(sup kek2 ) , N k = R(U; z
(4.4.77)
I
(r)
mit dem Residuum R(U; ·) von U wie oben und einem beliebigen Z ∈ Sh (I) .
Beweis: Die variationelle Formulierung des gest¨orten dualen Problems (4.4.76) lautet + A′ (U; ϕ, z˜) = (ϕ+ ˜N ) ∀ϕ ∈ V (I), N, z
(4.4.78)
mit der 1. Ableitung von A(·; ·) bei U : ′
A (U; ϕ, v) := −
N Z X n=1
′
In
∗
(ϕ, v + fx (t, U) v) dt −
N −1 X
− − (ϕ− n , [v]n , ) + (ϕN , vN ) .
n=1
Die 2. Ableitung von A(·; ·) am Argument η hat die Form A“(η; ψ, ϕ, v) := −
N Z X n=1
(ϕ, fxx (t, η)∗ ψv) dt
In
mit der 2. Ableitung fxx von f nach dem Argument x : fxx :=
∂ 2 f (t, x) d i
∂xj ∂xk
i,j,k=1
.
Durch Taylor-Entwicklung bis zum Restglied 2. Stufe erhalten wir Z 1 ′ A(u; z˜) = A(U; z˜) − A (U; e, z˜) − A“(U + se; e, e, z˜)(s − 1) ds 0
bzw. ′
A (U; e, z˜) = R(U; z˜) +
Z
0
1
A“(U + se; e, e, z˜)(s − 1) ds
4.4 A posteriori Fehlersch¨ atzung und Schrittweitenkontrolle
107
mit dem Fehler e := u − U . W¨ahlen wir in der variationellen Formulierung des dualen Problems(4.4.78) als Testfunktion ϕ := e , so ergibt sich Z 1 − ′ keN k = A (U; e, z˜) = R(U; z˜) + A“(U + se; e, e, z˜)(s − 1) ds. 0
Hieraus folgt mit Hilfe der Galerkin-Orthogonalit¨at die Behauptung.
Q.E.D.
4.4.4 Adaptive Schrittweitenwahl beim dG(0)-Verfahren Die Strategie zur adaptiven Schrittweitensteuerung beim dG(0)-Verfahren sieht dann wie folgt aus. Sei eine Fehlertoleranz TOL ≫ ε (Maschinengenauigkeit) vorgegeben. Beginnend mit einem (m¨oglicherweise ¨aquidistanten) Gitter T0 mit Schrittweitenvektor (0) N0 (hn )n=1 werden auf einer Folge von sukzessiv verfeinerten Gittern Tk , k = 0, 1, 2, . . . , (k) k (r) mit Schrittweitenfolgen (hn )N aherungsl¨osungen U (k) ∈ Sk (I) erzeugt, so daß nach n=1 N¨ K Schritten gilt (K)
ku(tN ) − UN k ≤ TOL .
(4.4.79)
Im k-ten Verfeinerungsschritt wird mit der erreichten L¨osung U = U (k) auf dem Gitter Tk zun¨achst das duale Problem (4.4.51) n¨aherungsweise gel¨ost, wobei als Startwert die −1 (k−1) Differenz ZN+ = k(U (k−1)−U (k) )− −U (k) )− N k (U N genommen wird. Mit der (diskreten) dualen L¨osung Z wird eine approximative Stabilit¨atskonstante cS bestimmt zu cS :=
N X n=1
hn k[Z]n−1 k .
(4.4.80)
Die Interpolationskonstante cI ∼ 21 wird als im Voraus bestimmt angenommen. Damit wird dann der aktuelle Fehler gesch¨atzt etwa durch die a posteriori Absch¨atzung (4.4.63): r hn k[U]n−1 k . (4.4.81) ke− N k ≈ cS cI max 1≤n≤N
Um eine gesicherte Absch¨atzung f¨ ur supI ku−Uk zu erhalten, muß dieser lokale Prozeß f¨ ur jeden Zwischenzeitpunkt tn ∈ I separat durchgef¨ uhrt werden, was sehr aufwendig werden kann. Das Kriterium zur lokalen Verfeinerung der Gitterweite ist nun, inwieweit die lokalen Beitr¨age der Intervalle In zum Gesamtfehler jeweils noch u ¨ber der gegebenen Toleranz liegen. Dazu setzt man ρn := kh−1 n [U]n−1 k
108
Galerkin-Verfahren
und fragt bei den Zeitschritten tn−1 → tn jeweils ab, ob (a) cS cI hn ρn > TOL , (b)
1 4
TOL < cS cI hn ρn ≤ TOL ,
(c) cS cI hn ρn ≤ 41 TOL .
Im Fall (a) wird die Schrittweite hn halbiert, im Fall (b) beibehalten und im Fall (c) verdoppelt. Nach Erreichen des Endzeitpunkts t0 + T wird mit der gerade berechneten N¨aherung U erneut das duale Problem gel¨ost und eine verbesserter Wert f¨ ur die Stabilit¨atskonstante cS bestimmt. Mit diesem wird der ganze Gitteranpassungszyklus dann ¨ wiederholt. Dieser Prozeß f¨ uhrt nach endlich vielen Schritten zu einer Aquilibrierung der lokalen Fehlerindikatoren cS cI hn ρn u ¨ber dem Intervall I und zur Reduzierung des Gesamtfehlers unter die Toleranz TOL: cS cI min {hn ρn } ∼ = TOL , = cS cI max {hn ρn } ∼ = ku(tN ) − UN k ∼ n
n
wobei das erreichte Endgitter dann in gewissem Sinne optimal“, d.h. sparsamst ist. ”
4.4.5 Vergleich zwischen dG- und Differenzen-Verfahren Wir wollen die wesentlichen Unterschiede der beschriebenen residuen-basierten Fehlerund Schrittweitenkontrolle beim Galerkin- Verfahren zur traditionellen Schrittweitensteuerung bei Differenzen- Verfahren diskutieren. Dazu beschr¨anken wir uns wieder auf den einfachsten Fall, n¨amlich das dG(0)-Verfahren angewendet f¨ ur eine autonome AWA u′ (t) = f (u),
t ≥ 0,
u(0) = u0 .
Wir betrachten das skalare Beispiel f (x) = x2 mit u0 = 1 , wobei die exakte L¨osung u(t) =
1 1−t
f¨ ur t → 1 singul¨ar wird. Die Lipschitz-Konstante von f (·) entlang dieser L¨osung verh¨alt sich f¨ ur 0 ≤ tn < 1 wie L(tn ) = 2(1 − tn )−1 : |f (x) − f (y)| = |x + y||x − y| ≤ 2 max{|x|, |y|}|x − y| . F¨ ur diesen Fall ist das dG(0)-Verfahren Z (f (U), ϕ) dt ∀ϕ ∈ P0 (In ), ([U]n−1 , ϕ) = In
n ≥ 1,
¨aquivalent zum impliziten Euler-Verfahren Un = Un−1 + hn f (Un ),
n ≥ 1,
U0 = u0 ,
U0− = u0 ,
4.4 A posteriori Fehlersch¨ atzung und Schrittweitenkontrolle
109
+ wenn man jeweils Un := Un− setzt und ber¨ ucksichtigt, daß Un− = Un−1 .
dG(0)-Verfahren: Die Schrittweitenkontrolle beim dG(0)-Verfahren basiert in diesem einfache Fall auf der a posteriori Fehlersch¨atzung |e− N | ≈ cS cI max {|[U]n−1 |} 1≤n≤N
mit der Interpolationskonstante cI = Absch¨atzung f¨ ur das duale Problem Z
1 2
tN
t0
und der Stabilit¨atskonstante cS aus der a priori
|z ′ | dt ≤ cS .
Das Kriterium f¨ ur die Wahl der lokalen Schrittweite ist hn =
TOL , cI cS ρn
ρn = h−1 n |[U]n−1 |.
(4.4.82)
Nehmen wir an, daß die verwendeten Schrittweiten bereits klein genug sind, so daß ′ −1 h−1 n |[U]n | ≈ hn |un − un−1 | ≈ sup |u |, In
so wird hn ≈ cS sup |u′| In
−1
TOL.
Bei dem Testbeispiel ist die Stabilit¨atskonstante bestimmt durch das duale Problem (nach Linearisierung um die exakte L¨osung u ) z ′ (t) = −
2 z(t), 1−t
1 > tn ≥ 0,
z(tN ) = 1,
mit der L¨osung Z z(t) = exp 2
t
tn
2 ds 1−t z(tN ) = z(tN ), 1−s 1 − tn
so daß cS ≤ (1 − tN )−2 .
Dies ergibt unter Beachtung der Beziehung sup In |u′ | ≈ (1 − tn )−2 und der Schrittweitenformel hn ≈ (1 − tn )2 (1 − tN )2 TOL, als Konsequenz ein gleichm¨aßiges Fehlerverhalten sup |e| ≈ TOL,
[0,tN ]
0 ≤ tN < 1.
(4.4.83)
110
Galerkin-Verfahren
Zur Absch¨atzung des Rechenaufwands zur Erzielung dieser Genauigkeit (ohne Ber¨ ucksichtigung des zus¨atzlichen Aufwands zur Fehlerkontrolle) bestimmen wir die Anzahl N von Zeitschritten zur Erreichung des Endzeitpunkts tN aus der Formel N=
N X n=1
hn h−1 ≈ TOL−1 (1−tN )−2 n
N X n=1
hn (1−tn )−2 ≈ (1−tN )−3 TOL−1 .
(4.4.84)
Bei Ann¨aherung an die Singularit¨at erh¨oht sich der Aufwand f¨ ur feste Fehlertoleranz TOL also kubisch mit dem reziproken Abstand zu t = 1 .
Euler-Verfahren: Die u ¨ bliche Schrittweitenkontrolle beim (impliziten) Euler-Verfahren basiert auf der a priori Fehlerabsch¨atzung (en = u(tn )−Un , e0 = 0) |eN | ≤ K(tN )
N X n=1
hn |τn (u)|
mit dem lokalen Abschneidefehler 1 |τn (u)| = |h−1 n (un − un−1 ) − f (un )| ≤ 2 hn sup |u“|, In
und einer Konstanten K(tN ), die sich im allgemeinen Fall wie Z tN Z tN −1 K(tN ) ≈ exp L(t) dt ≈ exp 2 (1 − t) , dt ≈ (1 − tN )−2 0
0
verh¨alt, wobei L(t) wieder die Lipschitz-Konstante von f (·) entlang der exakten L¨osung u(t) ist. Sei TOL die zu garantierende Fehlertoleranz. Der lokale Abschneidefehler |τn | wird mit Hilfe eines Extrapolationsschritts u ¨ber das Intervall In gesch¨atzt. Nimmt man an, daß diese Sch¨atzung exakt ist, so ergibt sich die neue Schrittweite dann gem¨aß hn ≈
TOL . K(tN ) supIn |u“|
(4.4.85)
Hier muß die stark wachsende Stabilit¨atskonstante K(tn ) auf jeden Fall mit ber¨ ucksichtigt werden, um eine krasse Untersch¨atzung des Fehlers zu verhindern. Wegen supIn |u“| ≈ uhrt diese Schrittweitenkontrolle auf (1 − tn )−3 f¨ hn ≈ (1 − tN )2 (1 − tn )3 TOL.
(4.4.86)
Wir wollen aber nicht vergessen, daß im Allgemeinen diese Konstante nicht bekannt ist, und man u urde. Vergleich der Schritt¨blicherweise rein heuristisch K(tN ) = 1 setzen w¨ weitenformel (4.4.86) mit der entsprechenden Formel (4.4.83) f¨ ur das dG(0)-Verfahren zeigt, daß erstere bei Ann¨aherung von tn → 1 eine st¨arkere Reduzierung von hn erzeugt,
4.4 A posteriori Fehlersch¨ atzung und Schrittweitenkontrolle
111
was sich nat¨ urlich auch in einem deutlich h¨oheren numerischen Aufwand niederschl¨agt: N ≈ (1 − tN )
−2
N X n=1
hn (1 − tn )−3 TOL−1 ≈ (1 − tN )−4 TOL−1 .
Im Gegensatz zur residuen-basierten Fehlerkontrolle des Galerkin-Verfahrens w¨achst hier der Aufwand mit der vierten Potenz des reziproken Abstandes zu t = 1 . Dieser Effekt ließe sich durch eine Verfeinerung der Schrittweitenstrategie, die aber in den u ¨ blichen ODECodes nicht u ¨blich ist, vermeiden. Dazu bestimmt man die lokale Schrittweite anstatt aus (4.4.85) gem¨aß der Formel h2n ≈
TOL . N K(tN ) supIn |u“|
(4.4.87)
Dies ist wegen der Verwendung der (am Zeitpunkt tn noch unbekannten) Gesamtanzahl N der Gitterpunkte eine implizite Strategie, die eigentlich keine vorw¨artsschreitende Wahl der lokalen Schrittweiten hn erlaubt und in jedem (globalen) Verfeinerungsschritt hinsichtlich der tats¨achlichen Gr¨oße von N nachiteriert werden m¨ ußte. In der Praxis w¨ urde man aber, wenn die Verfeinerung in jedem Schritt nicht zu abrupt erfolgt, einfach den Wert f¨ ur N von der vorausgehenden Verfeinerungsstufe verwenden. Nach dieser Strategie ergibt sich die Schrittweitenformel hn ≈
TOL N K(tN ) supIn |u“|
1/2
≈
TOL N
1/2
(1 − tN )(1 − tn )3/2 ,
sowie die zugeh¨orige Schrittzahl N ≈
TOL N
1/2
(1 − tN )
−1
N X n=1
hn (1 − tn )
−3/2
≈
TOL N
1/2
(1 − tN )−3/2 .
Es ergibt sich nunmehr die gleiche Aufwandsch¨atzung N ≈ (1 − tN )−3 TOL−1 wie beim Galerkin-Verfahren. Dazu ist aber beim Differenzenverfahren eine hinreichend genaue Sch¨atzung (durch Zusatzrechnung) der Abschneidefehler τn erforderlich, w¨ahrend beim Galerkin-Verfahren nur die leicht berechenbaren Residuen ρn eingehen. Dieses Beispiel zeigt deutlich, daß selbst bei sehr einfachen Anfangswertaufgaben nur durch sehr sorgf¨altige Ber¨ ucksichtigung der Regularit¨ats- und Stabilit¨atseigenschaften des zugrunde liegenden Problems eine zuverl¨assige und effiziente Fehlersch¨atzung und Schrittweitensteuerung m¨oglich ist. Der Galerkin-Ansatz hat dabei klare konzeptionelle Vorteile gegen¨ uber dem Differenzenverfahren, auch wenn beide hier bei diesen extrem einfachen Beispielen bei richtiger Anwendung der Theorie auf ¨ahnliche Ergebnisse f¨ uhren.
112
Galerkin-Verfahren
¨ 4.5 Ubungsaufgaben Aufgabe 4.5.1: Das dG(1)-Verfahren nimmt angewendet auf die AWA u′ (t) = f (t, u(t)), t ≥ 0, die folgende Gestalt an: Z − − f (t, U) dt + Un−1 , Un =
Un−
In
−
+ Un−1
u(0) = u0 , ,
2 = hn
Z
In
f (t, U)(t − tn−1 ) dt.
Man konkretisiere dieses Verfahren mit der Setzung yn := Un− als implizites Einschrittverfahren f¨ ur eine lineare, autonome AWA mit f (t, x) = Ax + b . Wie sieht das zugeh¨orige Stabilit¨atsintervall aus? Aufgabe 4.5.2: In der Vorlesung wurde gezeigt, wie auch das explizite Euler-Verfahren (Polygonzugmethode) u ¨ber einen unstetigen“ Galerkin-Ansatz gewonnen werden kann. ” a) Man reproduziere die Herleitung des betreffenden expliziten unstetigen Galerkin-Verfahrens dGexp (0). b) Man stelle das entsprechende dGexp (1)-Verfahren auf. L¨aßt sich hieraus durch Einsatz geeigneter Quadraturformeln ein explizites Differenzenschema zweiter Ordnung ableiten? Aufgabe 4.5.3: Steife“ AWAn stellen besondere Anforderungen an L¨osungsverfahren. ” Ein Verfahren heißt A-stabil“, wenn es angewendet auf das Modellproblem u′ (t) = λu(t) ” im Fall Re λ < 0 mit konstanter Schrittweite h eine L¨osung produziert mit der Eigenschaft sup |yn | ≤ K |y0|, n≥0
mit einer von Re λ < 0 unabh¨angigen Konstante K . Es heißt stark A-stabil“, wenn ” dar¨ uberhinaus gleichm¨aßig f¨ ur Reλ → −∞ gilt: lim |yn | = 0.
n→∞
a) Man zeige zun¨achst, daß alle dG(r)-Verfahren A-stabil sind. b) Die Trapezregel ist A-stabil“ aber nicht stark-A-stabil“. Man zeige, daß die implizite ” ” Euler-Methode sowie allgemeiner alle dG(r)-Verfahren stark-A-stabil“ sind. ” Aufgabe 4.5.4: Sei In eines der (halboffenen) Teilintervalle von I = [t0 , t0 + T ] mit L¨ange hn = tn − tn−1 . Die sog. L2 -Projektion πr u ∈ Pr (In ) einer Funktion u ∈ C(I¯n ) auf den Polynomraum Pr (In ) ist definiert durch Z u(t) − πr u(t) ϕ(t) dt = 0 ∀ϕ ∈ Pr (In ). In
¨ 4.5 Ubungsaufgaben
113
Man zeige f¨ ur r = 0, 1 und entsprechend oft differenzierbare Funktionen die Absch¨atzungen sup |(u − πr u)(t)| ≤ hn sup |u′ (t)|, t∈In
sup |(u − πr u)(t)| ≤ t∈In
t∈In 2 2hn sup |u“(t)|. t∈In
(Hinweis: Man mache sich Gedanken u ¨ber m¨ogliche Nullstellen von u − πr u .) Aufgabe 4.5.5: Man l¨ose die AWA u′ (t) = u(t)2 ,
0 ≤ t < 1,
u(0) = 1,
mit der (singul¨aren) L¨osung u(t) = (1 − t)−1 mit Hilfe des unstetigen“ dG(1)- sowie des ” stetigen“ cG(1)-Verfahrens. Die a priori Fehlerabsch¨atzungen der Vorlesung garantieren ” f¨ ur beide Verfahren das Konvergenzverhalten maxI |U − u| = O(h2 ) . Man u ufe die ¨berpr¨ Vorhersage, daß f¨ ur das dG(1)-Verfahren in den diskreten Zeitgitterpunkten tn die h¨ohere Konvergenzordnung |(U − u)(tn )| = O(h3 ) besteht. Aufgabe 4.5.6: Man zeige f¨ ur Funktionen q ∈ Pr (In ) die sog. inverse Beziehung“ ” 1/2 1/2 Z Z |q(t)|2 dt |q (s) (t)|2 dt , 0 ≤ s ≤ r, ≤ c(r) h−s n In
In
mit einer von hn unabh¨angigen Konstante c(r) . (Hinweis: Man verwende eine Trans¨ formation auf das Einheitsintervall Iˆ := [0, 1] und die Aquivalenz von Normen auf dem ˆ s−1 (I) ˆ .) Quotientenraum Pr (I)/P Aufgabe 4.5.7: a) Man beweise f¨ ur Funktionen v ∈ C 1 (I), I = [0, T ] , die kontinuierliche Sobolewsche Ungleichung“ ” Z max |v(t)| ≤ |v ′ (t)| dt + |v(0)|. t∈I
I
b) Man beweise weiter die Ungleichung Z Z ′ max |v(t)| ≤ κ1 |v (t)| dt + κ2 v(t) dt t∈I
I
I
und bestimme die Abh¨angigkeit der Konstanten κi von T . (Hinweis: Man verwende den Fundamentalsatz der Differential- und Integralrechnung und Transformation auf das Einheitsintervall [0, 1] .) Aufgabe 4.5.8: Betrachtet werde die AWA u′ (t) = u(t)2 , 0 ≤ t ≤ T < 1,
u(0) = 1,
114
Galerkin-Verfahren
mit der (singul¨aren) L¨osung u(t) = (1 − t)−1 . Man konkretisiere hierf¨ ur die in der Vorlesung angegebene a priori Fehlerabsch¨atzung f¨ ur das DG(0)-Verfahren und vergleiche sie mit dem entsprechenden Resultat f¨ ur das implizite Euler-Verfahren. Wie w¨achst in beiden F¨allen der Aufwand (gemessen in der Anzahl der Auswertungen von f ) in Abh¨angigkeit von der vorgegebenen Toleranz bei Ann¨aherung an die kritische Stelle T → 1 ? Aufgabe 4.5.9: In der Vorlesung wurde gezeigt, wie auch das explizite Euler-Verfahren (Polygonzugmethode) u ¨ber einen unstetigen“ Galerkin-Ansatz gewonnen werden kann. ” Man zeige, daß dieses dGexp -Verfahren eine ¨ahnliche a priori Fehlerabsch¨atzung zul¨aßt wie sein implizites Gegenst¨ uck dG(0): max |(u − U)(t)| ≤ 1 + cLT eLT /2 max hn max |u′(t)| . t∈I
0≤n≤N
t∈In
Aufgabe 4.5.10: Man l¨ose die 3-dimensionale, steife AWA u′(t) = Au(t), t ≥ 0, mit der Systemmatrix
−21
A= 19
40
und der L¨osung
u(0) = (1, 0, −1)T , 19
−20
20 −40 −40
−21
1 1 u1 (t) = e−2t + e−40t {cos(40t) + sin(40t)}, 2 2 1 −2t 1 −40t {cos(40t) + sin(40t)}, u2 (t) = e − e 2 2 1 u3 (t) = − e−40t {cos(40t) − sin(40t)} 2 mit Hilfe (a) der Trapezregel und (b) des cG(1)-Verfahrens. Zu berechnen ist der Wert u(2) auf 6 wesentliche Dezimalstellen. Man versuche, in beiden F¨allen m¨oglichst sparsam zu arbeiten. Mit welchem Verfahren l¨aßt sich diese Aufgabe am effizientesten, d.h. in geringster Zeit, l¨osen? Aufgabe 4.5.11: In der Vorlesung wurde mehrmals die Ungleichung 1 ε ab ≤ a2 + b2 , 2 2ε
a, b ≥ 0, ε > 0,
verwendet. Man beweise diese Absch¨atzung. (Hinweis: Binomische Formel) Aufgabe 4.5.12: Das cG(1)-Verfahren verwendet auf einer Zerlegung des L¨osungsintervalls I = [t0 , t0 +T ] stetige, st¨ uckweise lineare Ansatzfunktionen und unstetige, st¨ uckweise konstante Testfunktionen.
¨ 4.5 Ubungsaufgaben
115
Man f¨ uhre mit Hilfe der Vorgehensweise der Vorlesung eine a posteriori Fehleranalyse f¨ ur das cG(1)-Verfahren durch. Abgesch¨atzt werden soll der Endzeitfehler kUN −u(tN )k . Zur Vereinfachung konzentriere man sich auf den Fall einer linearen autonomen AWA, u′ (t) = Au(t) + b,
t ≥ 0,
u(0) = u0 ,
f¨ ur welche das cG(1)-Verfahren a¨quivalent zur Trapezregel“ ist. ” Aufgabe 4.5.13: F¨ ur ein Intervalle In = (tn−1 , tn ] der L¨ange hn = tn − tn−1 bezeichne Pr wieder die L2 -Projektion auf den Polynomraum Pr (I) . Man rekapituliere die Definition von Pr und den Beweis der Fehlerabsch¨atzung Z Z + r+1 |v (r+1) (t)| dt, |v − Pr v| dt + hn |(v − Pr v)n−1 | ≤ cI hn In
In
mit einer von hn und v ∈ C r+1 (In ) unabh¨angigen Interpolationskonstante“ cI . ” (r)
Aufgabe 4.5.14: F¨ ur die N¨aherungsl¨osung U ∈ Sh (I) des dG(r)-Verfahrens wurde in der Vorlesung u.a. die a posteriori Fehlerabsch¨atzung sup ku − Uk ≤ cS cI max hr+1 sup kR(U) − Pr R(U)k + hrn k[U]n−1 k n 1≤n≤N
I
In
hergeleitet, mit dem Residuum R(U) := U ′ − f (t, U) und der L2 -Projektion Pr auf den Polynomraum Pr (In ) . Man u ¨berlege, ob diese Absch¨atzung auch effizient“ bzw. ” ordnungs-optimal“ ist, d.h. ob mit h := max1≤n≤N hn gilt: ” sup kR(U) − Pr R(U)k + hrn k[U]n−1 k ≤ chr+1 . max hr+1 n 1≤n≤N
In
Aufgabe 4.5.15: Man l¨ose die AWA u′ (t) = u(t)2 , 0 ≤< 1,
u(0) = 1,
mit der (singul¨aren) L¨osung u(t) = (1 − t)−1 mit Hilfe des dG(0)- und des impliziten Euler-Verfahrens bei Verwendung der jeweiligen Strategien zur Schrittweitensteuerung. Die einzuhaltende Fehlertoleranz ist ε = 10−3 . Man versuche, m¨oglichst weit an die singul¨are Stelle t = 1 heranzurechnen. Wie entwickeln sich bei den beiden Verfahren die Schrittweiten f¨ ur t → 1 ? Aufgabe 4.5.16: Die Galerkin-Verfahren zur L¨osung von AWA stehen in enger Beziehung zu den bekannten Differenzenverfahren. Man mache sich zun¨achst die Bedeutung der Notation dG(r)-Verfahren“ bzw. cG(r)-Verfahren“ klar und gebe an, zu welchen Diffe” ” renzenverfahren das dG(0)- bzw. das cG(1)-Verfahren korrespondieren. F¨ ur welchen Typ von AWA besteht jeweils sogar Gleichheit zwischen diesen Galerkin- und den zugeh¨origen Differenzenverfahren?
116
Galerkin-Verfahren
5 Lineare Mehrschrittmethoden Die bisher betrachteten Differenzenformeln waren alle Einschrittformeln, d.h.: Bei ihnen wird der Wert yn jeweils allein aus dem vorausgehenden yn−1 berechnet. Formeln, bei denen dazu auf die R vorausgehenden Werte yn−1 , . . . , yn−R zur¨ uckgegriffen wird, heißen Mehrschrittformeln bzw. R-Schrittformeln. F¨ ur lineare Mehrschrittmethoden schreiben wir im folgenden kurz LMM. Zur Durchf¨ uhrung einer solchen Methode ben¨otigt man Startwerte y0 , . . . , yR−1 , die etwa durch eine vorgeschaltete Einschrittmethode berechnet werden. Zur Vereinfachung der Notation beschr¨anken wir uns im folgenden auf die Betrachtung von ¨aquidistanten Zeitgittern {tn = t0 +nh, n ≥ 0} . In der Praxis m¨ ussen nat¨ urlich auch variable Schrittweiten zugelassen werden, was bei Mehrschrittverfahren aber gewisse technische Schwierigkeiten mit sich bringt (s. unten die diesbez¨ ugliche Bemerkung im Zusammenhang mit der Schrittweitensteuerung).
5.1 Konstruktion Mehrschrittformeln lassen sich z.B. durch numerische Integration erzeugen. Die L¨osung u der AWA erf¨ ullt Ztn f (s, u(s)) ds , u(tn ) = u(tn−σ ) + tn−σ
f¨ ur festes σ ∈ N . Das Integral auf der rechten Seite wird durch eine Quadraturformel approximiert. Dazu wird die Funktion f (t, u(t)) durch ein Polynom pm (t) vom Grade m in den Gitterpunkten tk−µ , 0 ≤ µ ≤ m , interpoliert: pm (tk−µ ) = f (tk−µ , u(tk−µ )) , 0 ≤ µ ≤ m . In der Lagrangeschen Darstellung ist dieses Polynom gegeben durch pm (t) =
m X
f (tk−µ , u(tk−µ)) Lµ(m) (t) ,
Lµ(m) (t)
µ=0
=
m Y l=0 l6=µ
t − tk−l , tk−µ − tk−l
und der Interpolationsfehler hat die Darstellung f (t, u(t)) − pm (t) =
L(t) L(t) f (m+1) (ξt , u(ξt )) = u(m+2) (ξt ) , (m+1)! (m+1)!
mit einer Zwischenstelle ξt ∈ [tk−m , tk ] und L(t) =
m Y l=0
(t − tk−l )ξt .
Damit erhalten wir die Beziehung u(tn ) = u(tn−σ ) +
m X
f (tk−µ , u(tk−µ ))
µ=0
Ztn
tn−σ
117
Lµ(m) (s) ds + O(hm+2 ) .
118
Lineare Mehrschrittmethoden
Durch Wahl von σ ∈ N und k ∈ {n−σ, . . . , n} ergeben sich daraus auf einem aquidistanten Gitter die folgenden linearen Mehrschrittverfahren: yn = yn−σ + h
m X
βµ fk−µ ,
µ=0
n ≥ k,
mit den Abk¨ urzungen fn = f (tn , yn ) und βµ = h−1
Ztn
Lµ(m) (t) dt
tn−σ
Beispiele: Durch numerische Integration gewonnene LMM 1. Adams-Bashforth-Formeln: yn = yn−1 +
m X µ=0
σ = 1, k = n − 1
f (tn−1−µ , yn−1−µ ) | {z } fn−1−µ
Ztn
yn = yn−1 + hfn−1
m=1:
yn = yn−1 + 12 h{3fn−1 − fn−2 }
m=3:
yn = yn−1 +
yn = yn−1 +
2. Adams-Moulton-Formeln:
− 16fn−2 + 5fn−3 }
− 59fn−2 + 37fn−3 − 9fn−4 }.
σ = 1, k = n m X
(implizit)
Ztn
fn−µ
µ=0
yn = yn−1 + hfn
m=1:
yn = yn−1 + 21 h {fn + fn−1 }
yn = yn−1 +
m=3:
yn = yn−1 +
3. Nystr¨om-Formeln:
m=0:
+ 19fn−1 − 5fn−2 + fn−3 }. (explizit)
fn−1−µ
µ=0
yn = yn−2 + 2hfn−1
(Trapezregel)
+ 8fn−1 − fn−2 }
σ = 2, k = n − 1
yn = yn−2 +
n ≥ m.
(implizite Euler-Methode)
1 h {5fn 12 1 h {9fn 24
m X
Lµ(m) (t) dt ,
tn−1
m=0: m=2:
n ≥ m + 1.
Polygonzugmethode)
1 h{23fn−1 12 1 h{55fn−1 24
yn = yn−1 +
Lµ(m) (t) dt ,
tn−1
m=0: m=2:
(explizit)
Ztn
tn−2
Lµ(m) (t) dt ,
n ≥ m.
(Mittelpunktsregel)
5.1 Konstruktion
119
4. Milne-Simpson-Formeln:
σ = 2, k = n
yn = yn−2 +
m X
fn−µ
µ=0
(implizit) Ztn
Lµ(m) (t) dt ,
tn−2
yn = yn−2 + 31 h {fn + 4fn−1 + fn−2 }
m=2:
n ≥ m. (Simpson-Regel).
Weitere Mehrschrittformeln lassen sich mit Hilfe der numerischen Differentiation gewinnen. In der Differentialgleichung u′ (t) = f (t, u(t)) wird u(t) durch das Interpolationspolynom pm (t) m-ter Ordnung zu den Funktionswerten pm (tk−µ ) = u(tk−µ ) , 0 ≤ µ ≤ m , ersetzt. Mit Hilfe der Darstellung des Interpolationsfehlers, angewendet f¨ ur u(t) , u(t) − pm (t) = ergibt sich
m X
L(t) u(m+1) (ξt ) , (m+1)!
ξt ∈ [tk−m , tk ] ,
m+1 L(m)′ ). µ (tn ) u(tk−µ ) = f (tn , u(tn )) + O(h
µ=0
F¨ ur tk = tn erh¨alt man z.B. die impliziten R¨uckw¨artsdifferenzenformeln m X
L(m)′ µ (tn ) yn−µ = fn ,
µ=0
n ≥ m.
Beispiele: Durch numerische Differentiation gewonnene LMM m=1:
yn − yn−1 = hfn
implizite Euler-Formel
m=2:
yn − 34 yn−1 + 31 yn−2 = 23 hfn
m=3:
yn −
18 y 11 n−1
+
9 y 11 n−2
−
2 y 11 n−3
=
6 hfn 11
m=4:
yn −
48 y 25 n−1
+
36 y 11 n−2
−
16 y 11 n−3
+
3 y 11 n−4
=
12 hfn 11
Durch Kombination der bisher angegebenen Differenzenformeln lassen sich fast beliebig viele weitere konstruieren. Die allgemeine Form einer linearen R-Schritt-Formel ist R X r=0
αR−r yn−r = h
R X
βR−r fn−r ,
fm = f (tm , ym ) ,
(5.1.1)
r=0
mit Konstanten αR = 1 (Normalisierungskonvention; alternativ |β0 | = 6 0 . Im Falle βR = 0 ist die Formel explizit, sonst implizit.
PR
r=0
βr = 1 ) und |α0 |+
Die oben angegebenen Mehrschrittformeln lassen sich ohne Schwierigkeiten auch auf Systeme von gew¨ohnlichen Differentialgleichungen anwenden. Dabei sind lediglich yn und
120
Lineare Mehrschrittmethoden
fn = f (tn , yn ) als Vektoren zu verstehen; die Koeffizienten bleiben dieselben. Zur Anwendung einer impliziten Formel ist in diesem Fall in jedem Zeitschritt ein d-dimensionales System nichtlinearer algebraischer Gleichungen zu l¨osen.
5.2 Stabilit¨ at und Konvergenz Den lokalen Diskretisierungsfehler (Abschneidefehler) der LMM erh¨alt man analog wie bei den Einschrittverfahren durch Einsetzen der exakten L¨osung in die Differenzengleichung: R R X X h h −1 αR−r un−r − βR−r f (tn−r , un−r ) , τn = τ (tn ) := h r=0
r=0
mit der abgek¨ urzten Schreibweise un = u(tn ). Der Abschneidefehler wird auch lokaler ” Diskretisierungsfehler“ genannt. Dies ist gerechtfertigt aufgrund der folgenden Aussage:
Hilfssatz 5.1 (Lokaler Diskretisierungsfehler): Unter der Annahme exakter Startwerte yn−r = un−r (r = 1, ...R) gilt f¨ ur eine LMM die Beziehung un − yn = hτnh {1 − O(h)}.
(5.2.2)
Beweis: F¨ ur den Fehler en := un −yn gilt aufgrund der Annahme en−r = 0 (r = 1, ..., R) und bei Beachtung von αR = 1 : h τnh = en − hβR {f (tn , un ) − f (tn , yn )}. Mit der Lipschitz-Konstante L von f (t, ·) folgt daher kh τnh − en k ≤ h|βR |L ken k, was zu beweisen war.
Q.E.D.
Definition 5.1 (Konsistenz): Die LMM heißt konsistent (mit der AWA), wenn max kτnh k → 0 tn ∈I
(h → 0) ,
und von der Ordnung p , wenn f¨ur hinreichend glatte L¨osung u gilt max kτnh k = O(hp ) . tn ∈I
Hilfssatz 5.2 (Abschneidefehler): Der lokale Diskretisierungsfehler einer LMM besitzt f¨ur eine analytische L¨osung u(t) die Darstellung h
−1
τ (t) = h
∞ X i=0
(−1)i Ci hi u(i) (t)
(5.2.3)
5.2 Stabilit¨ at und Konvergenz
mit den Koeffizienten C0 = Ci =
121
PR
r=0
αr und (0! := 1, 00 := 1)
R R X 1 X i 1 r αr − r i−1 βr , i! r=0 (i − 1)! r=0
i ∈ N.
(5.2.4)
Beweis: Entwicklung von u(t − rh) und f (t − rh, u(t − rh)) = u′ (t − rh) um h = 0 ergibt ∞ X (−rh)i (i) u (t) , u(t − rh) = i! i=0
∞ X (−rh)i (i+1) u (t − rh) = u (t) . i! i=0 ′
Wir setzen dies in die Definition von τ h (t) ein und ordnen nach Potenzen von h : C0 = α0 + . . . + αR C1 = α1 + . . . + RαR − [β0 + . . . + βR ] 1 C2 = [α1 + . . . + R2 αR ] − [β1 + . . . + RβR ] 2! u.s.w.
Q.E.D.
Hilfssatz 5.3 (Konsistenzordnung): Eine LMM ist genau dann konsistent (mit jeder AWA), wenn gilt R X
αr = 0 ,
r=0
R X r=0
rαr =
R X
βr ,
(5.2.5)
Cp+1 6= 0 .
(5.2.6)
r=0
und von der (genauen) Ordnung p , wenn gilt C0 = . . . = Cp = 0 ,
Beweis: Mit Hilfe der Darstellung (5.2.3) impliziert die Konvergenz τ h (t) → 0 notwendig, daß C0 = C1 = 0 . Dies ist gleichbedeutend mit (5.2.5). F¨ ur eine LMM der Ordnung p muß außerdem noch (5.2.6) erf¨ ullt sein. Q.E.D. Der f¨ uhrende Koeffizient Cp+1 in der Entwicklung (5.2.3) f¨ ur eine LMM p-ter Ordnung wird als ihre Fehlerkonstante“ bezeichnet. Die Beziehungen (5.2.3), (5.2.4) k¨onnen zur ” Konstruktion von LMM vorgegebener Ordnung und Struktur benutzt werden. Beispiel 5.1: Die allgemeine lineare 2-Schrittmethode hat die freien Parameter α0 , α1 , β0 , β1 , β2 (α2 = 1). Mit α := α0 ergibt sich somit:
122
Lineare Mehrschrittmethoden
C0 C1 C2 C3 C4 C5
= α + α1 + 1 = α1 + 2 − β0 − β1 − β2 = 21 (α1 + 4) − (β1 + 2β2 ) = 61 (α1 + 8) − 12 (β1 + 4β2 ) 1 = 24 (α1 + 16) − 16 (β1 + 8β2 ) 1 1 = 120 (α1 + 32) − 24 (β1 + 16β2 ) .. .
Zur Konstruktion von Formeln mindestens dritter Ordnung erzwingen die Bedingungen C0 = . . . = C3 = 0 , daß β1 = 23 (1 − α) ,
1 (1 + 5α) , α1 = −1 − α , β0 = − 12
β2 =
1 12
(5 + α) .
Die allgemeine 2-Schrittmethode (mindestens) dritter Ordnung hat also die Form yn − (1 + α)yn−1 + αyn−2 = Ferner gilt:
C4 = − 4!1 (1 + α) ,
1 h [(5 12
+ α) fn + 8 (1 − α) fn−1 − (1 + 5α) fn−2] .
1 C5 = − 3·5! (17 + 13α) .
(i) α = −1 : Es wird C4 = 0 (C5 6= 0) , d.h.: Die Methode ist von der Ordnung p = 4 : yn = yn−2 + 31 h [fn + 4fn−1 + fn−2 ]
(Simpson-Formel).
(ii) α 6= −1 : Es wird C4 6= 0 , d.h.: Die Methode ist von der Ordnung p = 3 . F¨ ur α = 0 erhalten wir die 2-stufige implizite Adams-Moulton-Formel: yn = yn−1 +
1 h [5fn 12
+ 8fn−1 − fn−2 ] .
(iii) F¨ur α = −5 wird die Methode explizit yn + 4yn−1 − 5yn−2 = h[4fn−1 + 2fn−2 ] . Diese explizite Formel dritter Ordnung scheint f¨ ur die praktische Realisierung besonders attraktiv zu sein, da sie mit nur 2 Funktionsauswertungen pro Zeitschritt auskommt. Dies w¨are wichtig bei Verwendung von adaptiv gesteuerter variabler Schrittweite, wobei unter Umst¨anden fehlende Startwerte zus¨atzlich berechnet werden m¨ ussen. Die expliziten Einschrittverfahren dritter Ordnung erfordern mindestens drei Funktionsauswertungen pro Zeitschritt. Bei ihrer Anwendung auf die (monotone) AWA u′(t) = −u(t),
t ≥ 0,
u(0) = 1,
mit der L¨osung u(t) = e−t findet man bei 9-stelliger Rechnung und Verwendung der exakten Startwerte y0 = 1, y1 = e−h (bis auf Maschinengenauigkeit), f¨ ur den N¨aherungswert
5.2 Stabilit¨ at und Konvergenz
123
yN ∼ e−1 = 0.3678 . . . die in Tablle 5.1 angegebenen Werte.
h
yN
h = 0.05
0.2
0.398 . . .
y10
0.1
−0.677 . . . 101
y11
0.025 −0.290 . . . 1018
y13
0.05
−0.465 . . . 107
0.252 · 100 0.240 · 101
−0.884 · 101
y12
−0.489 · 102 −0.248 · 103
y14
0.128 · 104
y15
−0.661 · 104
y16
0.340 · 105
y17
−0.175 · 106
y18
0.904 · 106
y19
−0.465 · 107
y20
Tabelle 5.1: Demonstration der Nichtkonvergenz einer LMM
Im Gegensatz zu den Einschrittmethoden, welche die Lipschitz-Bedingung (Lh ) erf¨ ullen, ist f¨ ur LMMn die Konsistenz offenbar allein noch nicht hinreichend f¨ ur die Konvergenz. Definition 5.2 (Konvergenz): Eine LMM heißt konvergent“, wenn f¨ur jede AWA gilt ” max kyn − u(tn )k → 0 ,
0≤n≤N
tn = t ∈ I ,
vorausgesetzt die Startwerte y0 , . . . , yR−1 konvergieren, max kyn − u0 k → 0 ,
0≤n≤R−1
(h → 0) .
Definition 5.3 (Charakteristische Polynome): F¨ur die LMM wird definiert (i) (ii)
” ”
erstes charakteristisches Polynom“: zweites charakteristisches Polynom“:
ρ(λ) =
PR
σ(λ) =
r=0
PR
αr λr ,
r=0
βr λr .
Gem¨aß Hilfssatz 5.3 ist die Konsistenz einer LMM ¨aquivalent mit den Beziehungen ρ(1) = 0 ,
ρ′ (1) = σ(1) .
124
Lineare Mehrschrittmethoden
Hilfssatz 5.4 (Wurzelbedingung): F¨ur eine konvergente LMM gilt f¨ur die Wurzeln λi ∈ C des ersten charakteristischen Polynoms ρ(λ) notwendig: |λi | ≤ 1 , falls λi einfach ,
|λi| < 1 , falls λi mehrfach .
Beweis: Betrachte die triviale Anfangswertaufgabe u′ (t) = 0 , u(0) = 0 , mit der L¨osung u ≡ 0 . Die LMM hat daf¨ ur die Gestalt R X
αR−r yn−r = 0 .
(5.2.7)
r=0
F¨ ur die L¨osung dieser linearen Differenzengleichung machen wir den Ansatz yn = λn , so daß R X ! n−R λ αr λr = λn−R ρ(λ) = 0 . r=0
Die Wurzeln von ρ(λ) erzeugen also durch yn = λni L¨osungen von (5.2.7). Im Falle einer mehrfachen Wurzel λi von ρ(λ) ist auch durch yn = nλni eine L¨osung von (5.2.7) gegeben, da R X r=0
αR−r (n − r)λin−r = nλin−R ρ(λi ) − λin+1−R ρ′ (λi ) = 0 .
Seien nun o.B.d.A. λ1 eine einfache und λ2 eine mehrfache Nullstelle von ρ(λ) . Dann ist durch yn = h(λn1 + nλn2 ) sicher eine L¨osung von (5.2.7) gegeben mit der speziellen Eigenschaft yn → 0
(h → 0) ,
n = 0, . . . , R − 1 .
Aufgrund der angenommenen Konvergenz der LMM muß dann auch gelten yn = h(λn1 + nλn2 ) → 0
(h → 0 ,
tn = t, fest) .
Nun ist t = tn = nh , d.h.: 1 n λ + λn2 → 0 n 1 Dies impliziert |λ1 | ≤ 1 und |λ2 | < 1 .
(n → ∞) . Q.E.D.
Definition 5.4 (Nullstabilit¨ at): Eine LMM heißt null-stabil“, wenn keine Nullstelle ” von ρ(λ) einen Betrag gr¨oßer als eins hat, und wenn alle Nullstellen mit Betrag eins einfach sind.
5.2 Stabilit¨ at und Konvergenz
125
Die obige explizite 2-Schrittformel ist nicht null-stabil, denn ihr erstes charakteristisches Polynom ρ(λ) = λ2 + 4λ − 5 hat die Nullstellen λ1 = 1 ,
λ2 = −5 .
Dies erkl¨art ihre offensichtliche Divergenz f¨ ur h → 0 . Wir betrachten nun das gest¨orte Mehrschrittverfahren y˜n = yn + ρn , R X
αR−r y˜n−r = h
r=0
R X
n = 0, . . . , R − 1 ,
βR−r f (tn−r , y˜n−r ) + ρn ,
r=0
n ≥ R.
(5.2.8)
Sei L wieder die globale Lipschitz-Konstante der Funktion f (t, x) . Unter der Bedingung h < 1/(L|βR |) (im Falle βR 6= 0) sind die Werte y˜n , n ≥ 0 , durch (5.2.8) eindeutig bestimmt (Anwendung des Banachschen Fixpunktsatzes).
Satz 5.1 (Stabilit¨ atssatz): Die AWA gen¨uge der globalen Lipschitz-Bedingung, und die LMM sei null-stabil. Dann gilt unter der Voraussetzung h < 1/(L|βR |) (im Falle βR 6= 0) f¨ur je zwei L¨osungen {yn } und {˜ yn } von (5.1.1) bzw. (5.2.8) die Absch¨atzung ( ) n X max kρν k + kρν k , n ≥ R . (5.2.9) k˜ yn − yn k ≤ K eΓ(tn −t0 ) 0≤ν≤R−1
ν=R
Die Konstanten K und Γ sind bestimmt durch die Lipschitz-Konstante L und die Koeffizienten αr , βr ; f¨ur h L|βR | → 1 gehen K, Γ → ∞ .
Beweis: Wir f¨ uhren den Beweis nur f¨ ur den skalaren Fall (d = 1) . Die Differenzen en = y˜n − yn gen¨ ugen den Beziehungen en = ρn , f¨ ur n = 0, . . . , R−1 , und f¨ ur n ≥ R: en = − +h
Wir definieren
|
R−1 X r=0
R−1 X r=0
αR−r en−r + hβR {f (tn , y˜n ) − f (tn , yn )}+ βR−r {f (tn−r , y˜n−r ) − f (tn−r , yn−r )} + ρn {z =: bn
f (tn , y˜n ) − f (tn , yn ) , e 6= 0 , n en σn := 0 , en = 0 .
}
.
126
Lineare Mehrschrittmethoden
Damit gilt dann |σn | ≤ L und (1 − hβR σn ) en = −
R−1 X
αR−r en−r + bn .
r=0
Diese Beziehung ergibt zusammen mit den trivialen Gleichungen (1 − hβR σn−r ) en−r = (1 − hβR σn−r ) en−r ,
r = 1, . . . , R−1 .
eine rekursive Folge von Gleichungssystemen Dn En = Cn A En−1 + Bn−1 ,
n ≥ 1,
f¨ ur die R-Tupel En = (en , . . . , en−R+1 )T ∈ RR .
Dabei ist Bn = (0, . . . , 0, bn−R )T ∈ RR , und die R × R-Matrizen Dn , Cn und A sind gegeben durch: 1−hβR σn−1 0 1−hβR σn−R 0 . . . . . Dn = , . , Cn = 0 1−hβ σ R n−R+1 0 1−hβR σn−1 1
A=
0 1 .. .. . .
0
0
1
−α0
−αR−1
.
Aufgrund der Voraussetzung h < 1/L|βR | sind die Matrizen Dn invertierbar, und es gilt folglich En = Dn−1 {Cn A En−1 + Bn−1 } , n ≥ 1 . Die Matrix A hat das charakteristische Polynom (Entwicklung nach der letzten Zeile) χA (λ) = (−1)R (α0 + α1 λ + . . . + αR−1 λR−1 + λR ) = (−1)R ρ(λ) . Aufgrund der vorausgesetzten Null-Stabilit¨at der LMM gibt es nun gem¨aß Hilfssatz 5.5 (s. unten) eine nat¨ urliche Matrizennorm k · k0 , so daß kAk0 = spr(A) ≤ 1 .
5.2 Stabilit¨ at und Konvergenz
127
Die erzeugende Vektornorm sei gleichfalls mit k · k0 bezeichnet. Damit erhalten wir die Normabsch¨atzung kEn k0 ≤ kDn−1 k0 {kCn k0 kEn−1 k0 + kBn−1 k0 } . ¨ Wegen der Aquivalenz aller Normen auf dem RR gilt mit einer Konstante γ > 0 γ
−1
R X
kzk0 ≤
ν=1
∀ z ∈ RR .
|zν | ≤ γ kzk0
Damit wird nun abgesch¨atzt: |bn−R | ≤ hβ L
R−1 X r=0
|en−r | + |ρn−R |
≤ hβ L γkEn k0 + |ρn−R | mit β := maxr=0,...,R−1 |βr | , und folglich: kBn k0 ≤ γ|bn−R | ≤ hβ Lγ 2 kEn k0 + γ|ρn−R | . Weiter gilt aufgrund der Identit¨at 1 a =1+ , 1−a 1−a
|a| < 1 ,
die Darstellung Dn−1
=I+
X
,
n
X n
hβ ρ R n−r . = diagr=1,...,R 1−hβR ρn−r
Es ist also kDn−1k0 ≤ 1 + k ≤ 1+h
X n
k0 ≤ 1 + γ 2 max
γ 2 |βR |L . 1−h|βR |L
r=1,...,R
o n hβ ρ R n−r 1−hβR ρn−r
Auf analoge Weise erhalten wir kCn k0 ≤ 1 + h|βR |L γ 2 .
128
Lineare Mehrschrittmethoden
Kombination aller dieser Absch¨atzungen ergibt nun γ 2 |βR |L kEn k0 ≤ 1 + h (1 + h|βR |L γ 2 ) kEn−1 k0 + 1−h|βR |L + h β L γ 2 kEn−1 k0 + γ|ρn | ≤ kEn−1 k0 + h Γ kEn−1 k0 + Λ |ρn |
mit den Konstanten γ 2 |βR |L (1 + hγ 2 |βR |L) + γ 2 L (|βR | + β) , 1−h|βR |L γ 2 |βR |L Λ =γ 1+h . 1−h|βR |L Γ=
Durch rekursive Anwendung dieser Ungleichung f¨ ur n, n−1, . . . , 0 erhalten wir n−1 X
kEn k0 ≤ Γ
ν=0
h kEν k0 + kE0 k0 + Λ
n X ν=1
|ρν | .
Hierauf l¨aßt sich nun das diskrete Gronwallsche Lemma anwenden mit dem Resultat n o n X kEn k0 ≤ eΓ(tn −t0 ) kE0 k0 + Λ |ρν | . ν=1
Dies impliziert dann schließlich mit K = γ max {γ, Λ} : Γ(tn −t0 )
|en | ≤ K e
n
max
ν=0,...,R−1
|ρν | +
n X
ν=R
|ρν |
o Q.E.D.
Hilfssatz 5.5 (Spektralradius): Zu jeder Matrix A ∈ Rm×m gibt es f¨ur jedes ε > 0 eine nat¨urliche Matrizennorm k · kA,ε , so daß f¨ur den Spektralradius spr(A) gilt: spr(A) ≤ kAkA,ε ≤ spr(A) + ε .
(5.2.10)
Ist jeder Eigenwert von A mit |λ| = spr(A) nur einfache Nullstelle des charakteristischen Polynoms χA (z) = det(A − zI) , so existiert sogar eine nat¨urliche Matrizennorm k · kA,0 , so daß spr(A) = kAkA,0 .
(5.2.11)
5.2 Stabilit¨ at und Konvergenz
129
Beweis: Die Matrix B ist ¨ahnlich zu einer Dreiecksmatrix r11 · · · r1n .. .. −1 B = T RT , R = . . 0 rnn
,
mit den Eigenwerten von B auf der Hauptdiagonalen, d.h.: spr(B) = max |rii | . 1≤i≤n
F¨ ur ein beliebiges δ ∈ (0, 1] setzen wir 1 0 δ Sδ = .. . 0 δ n−1
und haben damit
,
R0 =
r11
0 ..
0
rnn
0 r12 δr13 · · · δ n−2 r1n .. .. .. .. . . . . .. .. Qδ = . . δrn−2,n .. . rn−1,n 0
r11 δr12 · · · δ n−1 r1n .. .. .. . . . −1 Rδ := Sδ RSδ = .. . δrn−1,n 0 rnn
Wegen der Regularit¨at von Sδ−1 T wird durch
kxkδ := kSδ−1 T xk2 ,
.
B = T −1 RT = T −1 Sδ Rδ Sδ−1 T
,
,
= R0 + δQδ .
x ∈ Rn ,
eine Vektornorm erkl¨art. Dann ist wegen R = Sδ Rδ Sδ−1 :
130
Lineare Mehrschrittmethoden
f¨ ur alle x ∈ Rn und y = Sδ−1 T x : kBxkδ = kT −1 Sδ Rδ Sδ−1 T xkδ = kRδ yk2
≤ kR0 yk2 + δkQδ yk2 ≤ {max1≤i≤n |rii | + δµ} kyk2 ≤ {spr(B) + δµ}kxkδ
mit der Konstanten µ=
n X
i,j=1
Also ist
|rij |
2
1/2
.
kBxkδ ≤ spr(B) + µδ , x∈Rn \{0} kxkδ sup
und die Behauptung folgt mit δ = ε/µ .
Q.E.D.
Wie bei den Einschrittverfahren f¨ uhrt uns der Stabilit¨atssatz nun auch zu einem allgemeinen Konvergenzresultat. Satz 5.2 (Konvergenzsatz): Die AWA gen¨uge der globalen Lipschitz-Bedingung, und die LMM sei null-stabil. Unter den Bedingungen h<
δh :=
1 |βR |L
(im Falle βR 6= 0),
max kyn − u(tn )k → 0
0≤n≤R−1
(5.2.12)
(h → 0)
(5.2.13)
ist dann ihre Konsistenz hinreichend f¨ur die Konvergenz max kyn − u(tn )k → 0 (h → 0) .
0≤n≤N
und es gilt die a priori Fehlerabsch¨atzung kyn − u(tn )k ≤ K eΓ(tn −t0 ) δh + (tn − t0 ) max kτνh k R≤ν≤n
(5.2.14)
mit den Konstanten K, Γ aus Satz 5.1.
Beweis: Die exakte L¨osung u(t) gen¨ ugt der gest¨orten“ Differenzengleichung ” un = yn + (un − yn ) , R X r=0
αR−r un−r = h
R X r=0
n = 0, . . . , R − 1 ,
βR−r f (tn−r , un−r ) + hτn ,
n ≥ R,
wobei un := u(tn ) gesetzt ist. Der Stabilit¨atssatz 5.1 liefert also f¨ ur h < 1/(|βR |L),:
5.2 Stabilit¨ at und Konvergenz
131
Γ(tn −t0 )
kun − yn k ≤ K e
n
max
ν=0,...,R−1
kuν − yν k + h
n X
ν=R
o kτν k .
Q.E.D.
Bei den null-stabilen LMMn ist also ebenfalls die Konvergenzordnung gleich der lokalen Konsistenzordnung. Als Anwendung des Konvergenzsatzes haben wir den folgenden Satz: Satz 5.3 (Konvergenz der Adams-Verfahren): Die LMMn vom Adams-Bashforth-, Adams-Moulton-, Nystr¨om- und Milne-Simpson-Typ sind konvergent. Beweis: Alle diese Formeln wurden konstruiert durch Ansatz einer numerischen Integrationsformel in der Beziehung u(tn ) = u(tn−σ ) +
Ztn
f (t, u(t)) dt ∼ u(tn−σ ) +
tn−σ
Ztn
pm (t) dt ,
tn−σ
mit gewissen Interpolationspolynomen pm (t) zu f (t, u (t)) vom Grad m . Diese Formeln sind exakt, wenn u (t) selbst ein Polynom vom Grade m + 1 ist. Folglich sind diese Methoden mindestens von der Ordnung m + 1 , d.h. insbesondere konsistent. Ihre ersten charakteristischen Polynome ρ(λ) haben die Form ρ(λ) = λk − λk−1
bzw. ρ(λ) = λk − λk−2 .
Die Methoden sind also auch null-stabil. Dasselbe gilt auch f¨ ur die R¨uckwartsdifferenzenformeln bis zur Stufe R = 6 ; ab R = 7 geht die Nullstabilit¨at verloren. Q.E.D. Bei der Konstruktion einer R-Schrittmethode stehen 2R+1 freie Parameter αr , βr , r = 0, . . . , R zur Verf¨ ugung, um m¨oglichst viele der Koeffizienten Ci in der Entwicklung des (lokalen) Abschneidefehlers zu Null zu machen (αR = 1!) . Im expliziten Fall sind es 2R Parameter. Folglich ist die h¨ochste erzielbare Ordnung m = 2R f¨ ur eine implizite und m = 2R − 1 f¨ ur eine explizite Formel. F¨ ur konvergente Formeln besteht jedoch die folgende Beschr¨ankung: Satz 5.4 (Ordnungsbarriere): Keine null-stabile R-Schrittmethode kann eine Ordnung m > R + 2 f¨ur R gerade und m > R + 1 f¨ur R ungerade haben. F¨ur explizite RSchrittmethoden ist die maximale Ordnung m = R . Beweis: Siehe G. Dahlquist: Convergence and stability in the numerical integration of ordinary differential equations, Math Scand. 4, 33-53 (1956). Q.E.D. Null-stabile R-Schrittmethoden der Ordnung m = R+2 werden als optimal“ bezeichnet. ” Offenbar ist die Simpson-Formel eine optimale 2-Schrittformel yn = yn−2 + 31 h{fn + 4fn−1 + fn−2 }.
132
Lineare Mehrschrittmethoden
5.3 Numerische Stabilit¨ at linearer Mehrschrittverfahren Wir studieren nun die numerischen Stabilit¨atseigenschaften der allgemeinen LMM R X
αR−r yn−r = h
r=0
R X
βR−r fn−r
(5.3.15)
r=0
mit den u 6 0 . Anwendung von (5.3.15) auf die ¨blichen Konventionen αR = 1 , |α0 | + |β0 | = ′ Testgleichung u (t) = q u(t) ergibt die Differenzengleichung R X r=0
[αR−r − h qβR−r ] yn−r = 0 .
(5.3.16)
Wir haben schon bei der Analyse der Konvergenzfrage f¨ ur die hier betrachteten Methoden gesehen, daß (5.3.16) gel¨ost wird durch die Folgen (λni )n∈N bzw. (nλni )n∈N mit den einfachen bzw. mehrfachen Wurzeln λi des sog. Stabilit¨atspolynoms“ ” π(λ; qh) :=
R X r=0
[αr − qhβr ] λr = ρ(λ) − qhσ(λ) .
Offensichtlich bleibt die L¨osung yn von (5.3.16) nur dann beschr¨ankt, wenn |λi | ≤ 1 im Falle einer einfachen Wurzel und |λi| < 1 im Falle einer mehrfachen Wurzel von π(λ; qh) . Dies legt f¨ ur LMMn die folgende Definition nahe: ¯ = Definition 5.5 (Absolute Stabilit¨ at): Eine LMM heißt absolut stabil“ f¨ur ein h ” qh 6= 0 , wenn f¨ur die Wurzeln des Stabilit¨atspolynoms π(λ; qh) gilt: |λi | ≤ 1
bzw. |λi| < 1 , im Fall mehrfacher Wurzeln .
¯ ∈ C , f¨ Die Menge aller h ur welche die LMM absolut stabil ist, heißt wieder ihr Stabilit¨ats” gebiet“ (kurz SG) bezeichnet. Die Konsistenz dieser Definition der absoluten Stabilit¨at f¨ ur LMMn mit der f¨ ur Einschrittverfahren wird durch den folgenden Satz sichergestellt: Satz 5.5 (Lineare Differenzengleichungen): Die L¨osungen der homogenen linearen Differenzengleichung (5.3.16) bilden einen Vektorraum der Dimension R . Seien λ1 . . . , λm (m ≤ R) die paarweise verschiedenen Wurzeln des Stabilit¨atspolynoms π(λ; qh) mit den Vielfachheiten µ1 . . . , µm . Dann bilden (im Falle α0 − hqβ0 6= 0 und αR − hqβR 6= 0) P die R = m µ i=1 i Folgen mit den Elementen yn = λni yn = nλni .. . (i = 1, . . . , m) yn = n(n − 1) . . . (n − µi + 2)λni
eine Basis des L¨osungsraumes.
(5.3.17)
5.3 Numerische Stabilit¨ at linearer Mehrschrittverfahren
133
Beweis: Zur Abk¨ urzung setzen wir γr := αr − qhβr und π(λ) := π(λ; qh) . Die L¨osungsmenge der linearen homogenen Differenzengleichung R X
γR−r yn−r = 0
r=0
ist offensichtlich ein linearer Raum. Zu jedem Satz von Startwerten {y0 , . . . , yR−1 } ist eindeutig eine L¨osung (yn )n∈N bestimmt (γR 6= 0) : R 1 X γR−r yn−r , yn = − γR r=1
n ≥ R.
(i)
F¨ ur ein System {(yn )n∈N }i=1,...,m von L¨osungen folgt daher aus m X
(i)
ci y k = 0 ,
k = 0, . . . , R−1 ,
i=1
notwendig auch
m X
ci yn(i) = 0
i=1
(i)
∀n ≥ 0.
Ein System {(yn )n∈N }i=1,...,m von L¨osungen ist also genau dann linear unabh¨angig, wenn es die Startwerte sind: m X
(i)
ci y k = 0
i=1
(k = 0, . . . , R−1) ⇒ ci = 0 (i = 1, . . . , m) .
Folglich ist die Dimension des L¨osungsraumes genau R . Wir zeigen nun zun¨achst, daß die obigen Folgen (yn )n∈N L¨osungen sind. Wegen γ0 6= 0 ist λ = 0 keine Wurzel von π(λ) . Sei nun λ eine Wurzel der Vielfachheit µ ; diese ist dann auch µ-fache Wurzel von p(λ) := λn π(λ) . Folglich gilt p(j) (λ) = 0,
0 ≤ j ≤ µ−1, R X
γR−r λn−r = 0
r=0
R X r=0
R X r=0
γR−r (n − r)λn−r−1 = 0 .. .
γR−r (n − r) . . . (n − r − µ + 2)λn−r−µ+1 = 0.
134
Lineare Mehrschrittmethoden
Dies impliziert, wie wir bereits gesehen haben, daß die µ Folgen (λn )n∈N , (nλn )n∈N , . . . , (n(n − 1) . . . (n − µ + 2)λn )n∈N L¨osungen der Differenzengleichung sind. Es bleibt nun zu zeigen, daß die Startwerte der obigen R Folgen linear unabh¨angig sind. Dies ist aber ¨aquivalent damit, daß die Matrix (1) (1) y0 · · · yR−1 . .. .. M = . (R) (R) y0 · · · yR−1 regul¨ar ist, d.h.
det(M) =
m Y
i,j=1
(λi − λj )
µi +µj
m Y i=1
(µi − 1)!! 6= 0 ,
wobei 0!! := 1 und k!! := k! · (k − 1)! · . . . · 1! .
Q.E.D.
Bei der Untersuchung der numerischen Stabilit¨at der Einschrittverfahren brauchten wir uns nur um einen Wachstumsparameter λ1 , d.h. um eine Nullstelle des Stabilit¨atspolynoms, zu k¨ ummern. Z.B. war das Stabilit¨atsgebiet der Runge-Kutta-Formeln bis zur vierten Stufe bestimmt durch |λ1 | = |1 + qh +
1 1 (qh)2 + . . . + (qh)R | < 1 . 2 R!
Bei den LMM ist das Auffinden des Stabilit¨atsgebietes wesentlich aufwendiger, da nun alle R Wurzeln des Stabilit¨atspolynoms π(λ; qh) = ρ(λ) − qhσ(λ) untersucht werden m¨ ussen. Es ist intuitiv klar, daß LMMn mit Wurzeln λi (0) (i = 2, . . . , R) des ersten charakteristischen Polynoms, welche weit im Innern des Einheitskreises liegen (z.B. die AdamsMoulton-Formeln mit λi (0) = 0, i = 2, . . . , R) ein verh¨altnism¨aßig großes Stabilit¨atsgebiet haben sollten. Auf der anderen Seite wird das Stabilit¨atsgebiet von Formeln, deren Nullstellen λi (0) nahe am Rande des Einheitskreises liegen, klein sein. Tats¨achlich gilt: Satz 5.6: Eine optimale LMM, d.h. null-stabile R-Schrittmethode der Ordnung m = R + 2 , hat ein triviales Stabilit¨atsgebiet SG = {0} . Beweis: Siehe G.Dahlquist: Stability and error bounds in the numerical integration of ordinary differential equations; Trans.Roy.Inst.Technol., Stockholm, Nr. 130 (1959), und P.Henrici [9; S. 275 f.]. Q.E.D.
Beispiel 5.2: (a) Simpson-Regel: yn − yn−2 = 31 h [fn + 4fn−1 + fn−2 ] ρ(λ) = λ2 − 1
σ(λ) = 31 (λ2 + 4λ + 1)
5.3 Numerische Stabilit¨ at linearer Mehrschrittverfahren
135
¯ λ2 − 4 hλ ¯ − (1 + 1 h) ¯ . ¯ = (1 − 1 h) π(λ; h) 3 3 3 Hier und besonders bei Methoden h¨oherer Ordnung ist es kaum praktikabel, λi in Abh¨an¯ explizit anzugeben. Dagegen k¨onnen gewisse Informationen durch Betrachgigkeit von h ¯ tung von O(h)-Approximationen von λi gewonnen werden. Die beiden Wurzeln von ρ(λ) ¯ = 1 + γ1 h ¯ + O(h ¯ 2) sind λ1 (0) = 1 und λ2 (0) = −1 . Wir machen also den Ansatz λ1 (h) ¯ = −1 + γ2 h ¯ + O(h ¯ 2 ) . Nach Einsetzen in π(λ; h) ¯ = 0 erhalten wir durch und λ2 (h) Koeffizientenvergleich, daß notwendig γ1 = 1 und γ2 = 1/3 und folglich ¯ + O(h ¯ 2) , λ1 = 1 + h
¯ + O(h ¯ 2) . λ2 = −1 + γ h
¯ kann der O(h ¯ 2 )-Term vernachl¨assigt werden, und wir finden F¨ ur hinreichend kleines h ¯ < 1, λ1 ∼ 1 + h
¯ < −1 . λ2 ∼ −1 + 31 h
F¨ ur q ∈ R und kleines (positives) h ist die Simpson-Methode also numerisch instabil. ¨ Dasselbe gilt, wie man leicht nachrechnet (Ubungsaufgabe) auch f¨ ur die Mittelpunktsregel. (b) Adams-Moulton-Formel (R = 3):
................................................ ......... . ....... . . . . . ....... ........ . . . . . . . ....... ....... . . . . . . . . ....... . . . . .... . . . . . . . . . . ..... . . . .... . . . . . . . . . . . .... ... . . . . . . . . . . . . ... .... . . . . . . . . . . . .... .... . . . . . . . . . . . . .... ... . . . . . . . . . . . . . .... . . . . ... . . . . . . . . . . . . . ... ... . . . . . . . . . . . . . . ... .... . . . . . . . . . . . . . ..... ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..... .. .. .. . . . . . . . . . . . . . . . .. .. . . . . . . . . . . . . . . ..... . ... .... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .... .. . . . . . . . . . . . . . . . .. ... . .. . . . . . . . . . . . . . . ..... ... . . . . . . . . . . . . . . .. ... . . . . . . . . . . . . . . ... .... . . . . . . . . . . . . . . .. ... . . . . . . . . . . . . . . .... . ... ... . . . . . . . . . . . . . . .... ... . . . . . . . . . . . . . ... .... . . . . . . . . . . . . . ... .... . . . . . . . . . . . . .... ... . . . . . . . . . . . . ... . ... ..... . . . . . . . . . . ...... .... . . . . . . . . . . .... ..... . . . . . . . . . . ... ...... . . . . ....... . . . . . . . ..... ........ . . . . . . . ..... ........ . . . . . ........ ........... . ...........................................
R
-3
-2
-1
2i i
0 -i -2i
Abbildung 5.1: Stabilit¨atsgebiet der Adams-Moulton-Formel 3. Ordnung (c) Stabilit¨atsintervalle (α, 0) : Adams-Bashforth (explizit)
Adams-Moulton (implizit)
R
1
2
3
4
R
1
2
3
4
m
1
2
3
4
m
2
3
4
5
Cm+1
1 2
5 12
−2
−1
3 8 6 − 11
251 720 3 − 10
1 − 12
1 − 24
19 − 720
3 − 160
α
Cm+1 α
−∞
−6
−3
− 90 49
136
Lineare Mehrschrittmethoden
Zur Integration steifer AWA sollten Methoden verwendet werden, die m¨oglichst große ¯ in ihrem Stabilit¨atsgebiet enthalten. Leider bedeutet die Fornegative Werte von Re h derung der A-Stabilit¨at eine starke Einschr¨ankung bei der Wahl der m¨oglichen Methode. Satz 5.7 (A-stabile LMMn): Es gelten die folgenden Aussagen: 1. Eine explizite LMM kann nicht A-stabil sein. 2. Die Ordnung einer A-stabilen impliziten LMM kann nicht gr¨oßer als p = 2 sein. 3. Die A-stabile implizite LMM der Ordnung p = 2 mit kleinster Fehlerkonstante ist die Trapezregel yn − yn−1 = 12 h(fn + fn−1 ). Beweis: Siehe G.Dahlquist: A special stability problem for linear multistep methods. BIT 3, 27-43 (1963). Q.E.D. Wegen der Ordnungsbegrenzung A-stabiler Methoden hat man folgenden abgeschw¨achten Stabilit¨atsbegriff eingef¨ uhrt. Definition 5.6 (A(α)-Stabilit¨ at): Eine Methode heißt A(α)-stabil“, α ∈ (0, π2 ) , wenn ” ¯ ≤ α} enth¨alt. Sie ihr Gebiet absoluter Stabilit¨at den unendlichen Sektor {−α ≤ π−arg(h) heißt A(0)-stabil“, wenn ihr Stabilit¨atsintervall die ganze negative reelle Achse enth¨alt. ” Eine A(0)-stabile Methode ist geeignet zur Integration steifer AWA mit reellen Eigenwerten der Jacobi-Matrix fx (t, u(t)) . Satz 5.8 (A(0)-stabile LMMn): Eine explizite LMM kann nicht A(0)-stabil sein. Es existiert nur eine A(0)-stabile R-Schritt-Methode der Ordnung p ≥ R + 1 , n¨amlich die Trapezregel. Beweis: Siehe O.B.Widlund: A note on unconditionally stable linear multistep methods. BIT 7, 65-70 (1967). Q.E.D.
Beispiel 5.3: Wir betrachten die allgemeine LMM R X r=0
αR−r yn−r = h
R X
βR−r fn−r .
r=0
A(α)-Stabili¨at erfordert, daß die Wurzeln des Stabilit¨atspolynoms π(λ; ¯h) im Innern des ¯ mit h ¯ → −∞ . In diesem Limes gehen die Wurzeln Einheitskreises liegen f¨ ur reelle h ¯ urlich, σ(λ) so zu w¨ahlen, daß seine von π(λ; h) u ¨ber in die von σ(λ) . Daher ist es nat¨
5.4 Praktische Aspekte
137
Wurzeln im Innern des Einheitskreises liegen, z.B.: σ(λ) = βR λR . Wir erhalten so die uns schon bekannten R¨ uckw¨artsdifferenzenformeln R X
αR−r yn−r = hβR fn .
(5.3.18)
r=0
R
βR
1
1
2
2 3 6 11 12 25 60 137 60 147
3 4 5 6
α6
α5
α4
α3
α2 1
1 48 − 25
1 1 1
− 360 147
− 300 137
450 147
300 137 400 − 147
18 − 11
36 25 200 − 137 225 147
α1
α0
α
1
−1
900
− 43
9 11 − 16 25 75 137 72 − 147
1 3 2 − 11 3 25 12 − 137 10 147
900 880 730 510 180
Tabelle 5.2: Stabilit¨atsgebiete der R¨ uckw¨artsdifferenzenformeln
Beispiel 5.4: Die allgemeine 2-Schrittformel 2-ter Ordnung yn − (1 + α) yn−1 + αyn−2 = h{( 21 +
α 2
+ β) fn + ( 21 − 32 α − 2β) fn−1 + βfn−2 }
ist null-stabil f¨ ur −1 ≤ α < 1 . Sie ist A-stabil f¨ ur α > −1, β > − α2 . F¨ ur α = 13 , β = 0 erh¨alt man die R¨uckw¨artsdifferenzenformel yn − 43 yn−1 + 13 yn−2 = 32 h fn .
5.4 Praktische Aspekte Wir wollen uns nun mit der praktischen Durchf¨ uhrung der Mehrschrittverfahren besch¨aftigen. Dazu geh¨ort insbesondere wieder eine effiziente Schrittweitenkontrolle. 5.4.1 Berechnung von Startwerten Die Startwerte y0 , . . . , yR−1 , berechnet man mit einem Einschrittverfahren (meistens vom Runge-Kutta-Typ). Nach R − 1 Schritten hat man dabei gem¨aß (5.2.9) die Fehlerabsch¨atzung (f¨ ur y0 = u(t0 )) max kyν − u(tν )k ≤ h
0≤ν≤R−1
R−1 X ν=0
kτνh keLRh .
(5.4.19)
138
Lineare Mehrschrittmethoden
Ist das Einschrittverfahren von der Ordnung p∗ , so werden die Startwerte y0 , . . . , yR−1 , mit der Ordnung p∗ + 1 berechnet. In Verbindung mit einer LMM der Ordnung p ist also zur Gew¨ahrleistung der globalen Fehlerordnung p eine Startprozedur der Ordnung p − 1 erforderlich. Wegen des geringen Aufwandes f¨ ur die R − 1 Schritte dieser Startprozedur verwendet man in der Praxis jedoch meist Methoden der Ordnung p∗ ≥ p , um den Anfangsfehler klein zu halten. 5.4.2 L¨ osung der impliziten Gleichungssysteme Bei einer impliziten LMM R X
αR−r yn−r = h
r=0
R X
βR−r fn−r ,
r=0
αR = 1, βR 6= 0 ,
ist bei berechneten Werten yn−R , . . . , yn−1 , der neue Wert yn bestimmt als L¨osung des nichtlinearen Gleichungssystems yn − hβR f (tn , yn ) − gn = 0 wobei gn = h
R X r=1
βR−r fn−r −
R X
(5.4.20)
αR−r yn−r .
r=1
Wir haben schon im Stabilit¨atssatz 5.1 gesehen, daß dieses Gleichungssystem f¨ ur h<
1 L|βR |
(5.4.21)
(L = renzipschitz-Konstante von f (t, x) ) eine eindeutig bestimmte L¨osung besitzt. Diese kann man durch eine Fixpunktiteration yn(k+1) = hβR f (tn , yn(k)) + gn ,
k = 0, 1, 2, . . . ,
(0)
ausgehend vom einem beliebigen Startwert yn bestimmen. Dabei gilt die Fehlerabsch¨atzung kyn(k) − yn k ≤ q k kyn(0) − yn k
(5.4.22)
mit q = h L|βR | < 1 . Im Fall moderater Lipschitz-Konstante L ∼ 1 bedeutet dies, (k) daß sich die Genauigkeit der N¨aherung yn in jedem Iterationsschritt um eine h-Potenz erh¨oht. F¨ ur eine LMM der Ordnung p gilt nach p Iterationsschritten: kyn(p) − un k ≤ kyn(p) − yn k + kyn − un k ≤ chp .
(5.4.23)
Sinnvollerweise wird die Iteration also nach etwa p+1 Schritten abgebrochen, da dann im Allgemeinen bereits das Genauigkeitsniveau des Diskretisierungsfehlers erreicht ist. Die Bedingung (5.4.21) an die Schrittweite h bedeutet im Falle L >> 1 (steifes
5.4 Praktische Aspekte
139
Problem) eine zu starke Einschr¨ankung. Eine Alternative ist, wie schon bei den impliziten Einschrittverfahren diskutiert, die Newton-Iteration [I − hβR fx (tn , yn(k) )] yn(k+1) = [I − hβR fx (tn , yn(k))] yn(k) − yn(k) + hβR f (tn , yn(k)) + gn ,
k = 0, 1, 2, . . . ,
welches z.B. f¨ ur monotone AWAn garantiert konvergiert.
5.4.3 Pr¨ adiktor-Korrektor-Methode Eine in der Praxis wichtige Variante der Fixpunktiteration zur L¨osung des Gleichungssystems (5.4.20) sind die sog. Pr¨adiktor-Korrektor-Methoden. Da in die Fehlerabsch¨atzung (0) (5.4.22) der Anfangsfehler kyn − yn k eingeht, liegt es nahe, das Verfahren durch Wahl eines m¨oglichst guten Startwertes zu verbessern. Das Pr¨adiktor- Korrektor-Verfahren verschafft sich diesen Startwert durch einmalige Anwendung einer expliziten LMM, den sog. Pr¨adiktor. Mit Hilfe einer impliziten LMM, dem sog. Korrektor, wird dieser Wert dann durch sukzessive Iteration korrigiert. Wir wollen diese Methode an Hand einer h¨aufig verwendeten Variante diskutieren: Pr¨adiktor: Adams-Bashforth-Formel 4-terOrdnung 1 h[55fn−1 24
yn = yn−1 +
− 59fn−2 + 37fn−3 − 9fn−4 ] ,
(5.4.24)
Korrektor: Adams-Moulton-Formel 4-ter Ordnung yn = yn−1 +
1 h[9fn 24
+ 19fn−1 − 5fn−2 + fn−3 ] .
(5.4.25)
Diese Formeln haben die Fehlerkonstanten (P )
C5
=
251 720
,
(C)
C5
19 = − 720 .
Die Methode arbeitet dann wie folgt: Zu bereits berechneten Werten yn−r , r = 1, . . . , 4 , (0) wird durch Anwendung des Pr¨adiktors P“ der Startwert yn bestimmt: ” yn(0) = yn−1 +
1 h[55fn−1 24
− 59fn−2 + 37fn−3 − 9fn−4 ] ,
bzw. in abstrakter Schreibweise yn(0) = P (yn−1, . . . , yn−4) . Dann wird der Korrektor C“ benutzt, um durch sukzessive Approximation den Wert ” (0) yn zu verbessern: fn(k−1) = f (tn , yn(k−1)) , yn(k) = yn−1 +
1 h[9fn(k−1) 24
+ 19fn−1 − 5fn−2 + fn−3 ] ,
k = 1, 2, . . . ,
140
Lineare Mehrschrittmethoden
bzw. wieder in abstrakter Schreibweise fn(k−1) = E(yn(k−1)) ,
yn(k) = C(yn−1, . . . , yn−3 , fn(k−1) ) ,
k = 1, 2, . . . .
Wird die Iteration fortgef¨ uhrt, bis eine vorgebene Fehlerschranke ε erreicht ist, etwa kyn(k) − yn(k−1)k ≤ ch4 . so spricht man von Korrektur zur Konvergenz. Es ist klar, daß in diesem Falle der schließ(k) (0) lich akzeptierte Wert yn := yn im wesentlichen unabh¨angig vom Startwert yn ist, d.h.: Der Diskretisierungsfehler ist allein durch den Korrektor bestimmt. Das Korrigieren zur Konvergenz ist in der Praxis meistens zu aufwendig, da in jedem (k−1) (k−1) Iterationsschritt eine weitere Funktionsauswertung fn = E(yn ) erforderlich ist. Daher begn¨ ugt man sich mit einer vorgegebenen Zahl k von Iterationen und akzeptiert (k) yn := yn als neuen Wert. Das Verfahren wird dann bezeichnet als P (EC)k (k)
bzw. P (EC)k E ,
(k)
falls noch fn = E(yn ) berechnet wird. In der P (EC)k - Form werden im Pr¨adiktor(k−1) schritt jeweils die Werte fn−r , r = 1, . . . , 4, verwendet. F¨ ur den Abschneidefehler dieser kombinierten Methode gilt dann folgende Aussage: Satz 5.9 (Ordnung des Pr¨ adiktor-Korrektor-Verfahrens): Sei m(P ) die Ordnung des Pr¨adiktors und m(C) die des Korrektors. Dann ist die Ordnung m des Pr¨adiktorKorrektor-Verfahren in P (EC)k - oder P (EC)k E-Form gegeben durch m = min{m(C) , m(P ) + k} .
(5.4.26)
Im Falle m(C) < m(P ) + k ist die Fehlerkonstante des kombinierten Verfahrens gleich der (C) des Korrektors, d.h.: Cm+1 = Cm+1 . ¨ Beweis: Den Beweis stellen wir als Ubungsaufgabe.
Q.E.D.
5.4.4 Fehlersch¨ atzung und Schrittweitensteuerung: Milnes Device“ ” Die obige Aussage bzgl. der Fehlerkonstante des Pr¨adiktor-Korrektor-Verfahrens l¨aßt sich zur A-posteriori-Absch¨atzung des lokalen Abschneidefehlers und damit zur Schrittweitensteuerung verwenden. Diese Vorgehensweise hat Eingang in die Literatur gefunden als Milnes device“. ” F¨ ur die mit den Formeln (5.4.24) und (5.4.25) gebildete kombinierte Methode gilt (unter der Annahme exakter Startwerte) (P )
C5 h5 u(5) (tn ) = u(tn ) − yn(0) + 0(h6 ) (C)
C5 h5 u(5) (tn ) = u(tn ) − yn(k) + 0(h6 ) .
5.4 Praktische Aspekte
141
Daraus erhalten wir offenbar (k)
(0)
yn − yn
u(5) (tn ) =
(P )
h5 (C5
(C)
− C5 )
+ 0(h) .
(5.4.27)
Im vorliegenden Fall ist der lokale Diskretisierungsfehler τˆnh der kombinierten Methode von der Form (C) τˆnh = C5 h4 u(5) (tn ) + O(h5 ) . Mit Hilfe von (5.4.27) erh¨alt man also eine Sch¨atzung f¨ ur τˆh (tn ) der Ordnung 0(h5 ) mit (C)
τˆnh
=
(k)
C5 (P )
C5
(C)
− C5
(0)
yn − yn + 0(h5 ) . h
(5.4.28)
Mit dieser Sch¨atzung f¨ ur den Abschneidefehler τˆnh lassen sich nun ¨ahnlich wie bei den Einschrittverfahren Strategien zur Schrittweitenkontrolle angeben. Wir verzichten auf Angabe der Details. Bei Vergr¨oßerung der Schrittweite, etwa um den Faktor 2, werden nur bereits berechnete Werte yn−r zus¨atzlich ben¨otigt. Dies kann jedoch unter Umst¨anden zu Speicherplatzproblemen f¨ uhren. Generell lassen sich neue Startwerte bei Schrittweiten¨anderungen durch Einschrittverfahren beschaffen. Eine weitere M¨oglichkeit bei Schrittweitenverkleinerung zur Beschaffung der ben¨otigten Zwischenwerte yn−r/2 besteht in der Interpolation der bereits berechneten Werte yn−r . Dabei muß die Ordnung des Interpolationspolynoms nat¨ urlich der Ordnung der LMM angepaßt sein. Numerischer Test: F¨ ur die AWA u′ (t) = −200t u(t)2 ,
t ≥ −3 ,
u(−3) =
1 , 901
mit der L¨osung u(t) = (1 + 100t2 )−1 wurde der Wert u(0) = 1 approximiert mit dem Pr¨adiktor-Korrektor-Verfahren 4-ter Ordnung nach Adams-Bashforth-Moulton in PECEForm mit dem Runge-Kutta-Verfahren 4-ter Ordnung als Startprozedur: yn⋆ fn⋆ yn fn
1 = yn−1 + 24 h {55fn−1 − 59fn−2 + 37fn−3 − 9fn−4 } ⋆ = f (tn , yn ) 1 = yn−1 + 24 h {9fn⋆ + 19fn−1 − 5fn−2 + fn−3 } = f (tn , yn ) .
Die Schrittweitensteuerung erfolgte gem¨aß Milnes device (C)
C5 (P )
C5
(C)
− C5
|yn−1| yn − yn⋆ yn − yn⋆ ∼ ∼ ε = eps , = − 0.07 h h h
wobei erforderliche Zwischenwerte mit Hilfe der Runge-Kutta-Formel 4-ter Ordnung berechnet werden. Bei 17-stelliger Rechnung ergaben sich die folgenden Werte:
142
Lineare Mehrschrittmethoden
Ordnung
eps
hmin
hmax
Fehler
m=4
10−17
6 · 10−5
10−3
2 · 10−10
# Auswertungen ∼ 16.500
Rechnung mit konstanter (mittlerer) Schrittweite: 4.5 · 10−4
2.7 · 10−11
∼ 13.400
Tabelle 5.3: Ergebnisse der Runge-Kutta-Formel 4-ter Ordnung bei 17-stelliger Rechnung
¨ 5.5 Ubungsaufgaben Aufgabe 5.5.1: Man untersuche, ob die folgende lineare Mehrschrittmethode konvergent ist: 1 yn = yn−4 + h(8fn−1 − 4fn−2 + 8fn−3 ). 3 Aufgabe 5.5.2: Man bestimme den Bereich der α , f¨ ur welche die lineare Mehrschrittmethode 3+α yn + α(yn−1 − yn−2 ) − yn−3 = h(fn−1 + fn−2 ) 2 nullstabil ist. Welches ist die gr¨oßte erzielbare Ordnung? Aufgabe 5.5.3: Zur L¨osung der Anfangswertaufgabe u“(t) = −20u′ (t) − 19u(t),
t ≥ 0,
u(0) = 1, u′(0) = −10,
soll das Adams-Moulton-Verfahren dritter Ordnung yn = yn−1 +
1 h(5fn + 8fn−1 − fn−2 ) 12
verwendet werden. Dazu forme man die Differentialgleichung zun¨achst in ein System erster Ordnung um. Wie klein muß dann die Schrittweite h bemessen sein, damit in jedem Zeitschritt die Konvergenz der Fixpunktiteration zur Berechnung von yn garantiert ist? Aufgabe 5.5.4: Man bestimme die Stabilit¨atsintervalle (und -gebiete) der folgenden beiden expliziten Mehrschrittformeln: (i) yn − yn−2 = 2hfn−1 , 1 (ii) yn − yn−2 = h(fn−1 + 3fn−2 ). 2
¨ 5.5 Ubungsaufgaben
143
Aufgabe 5.5.5: F¨ ur das Modellproblem u′ (t) = −200t u(t)2 ,
t ≥ −3,
u(−3) =
1 , 901
mit der L¨osung u(t) = (1 + 100t2 )−1 soll n¨aherungsweise der Wert u(0) = 1 berechnet werden mit Hilfe: a) der klassischen 4-stufigen Runge-Kutta-Methode, b) der 4-Schritt-Adams-Bashforth-Methode, c) der 3-Schritt-Adams-Moulton-Methode. Alle diese Formeln sind von 4-ter Ordnung. Als Startprozedur f¨ ur die Mehrschrittverfahren werde die Runge-Kutta-Methode verwendet. Man f¨ uhre die Rechnungen f¨ ur die (¨aquidistanten) Schrittweiten hi = 2−i , i = 2, . . . , 8 , durch und vergleiche die erreichte Genauigkeit und den erforderlichen Rechenaufwand (Anzahl der Funktionsauswertungen). Aufgabe 5.5.6: Man zeige, daß die R¨ uckw¨artsdifferenzenverfahren der Stufen R = 1, 2, 3 : R X
αR−r yn−r = hβR fn
r=0
konvergent sind. Welche A-stabilen Einschrittformeln w¨aren (f¨ ur R ≥ 2 ) jeweils als Startprozeduren geeignet? Aufgabe 5.5.7: Man zeige durch Nachrechnen f¨ ur ein Paar von einer expliziten und einer impliziten LMM: R X r=0
(P )
αR−r yn−r = h
R X r=1
(P )
βR−r fn−r ,
R X r=0
(K)
αR−r yn−r = h
R X
(K)
βR−r fn−r .
r=0
a) Die Ordnung m des zugeh¨origen Pr¨adiktor-Korrektor-Verfahrens in der P(EK)k E-Form ist m = min{m(K) , m(P ) + k} . ∗ b) Gilt f¨ ur die Ordnungen m(K) < m(P ) + k , so ist die Fehlerkonstante Cm+1 des Ge(K) samtverfahrens gleich der Fehlerkonstante Cm+1 des Korrektors.
Aufgabe 5.5.8: Mit den Bezeichnungen von Aufgabe 11.2 erh¨alt man f¨ ur m(K) = m(P ) = m durch (K) (k) (0) Cm+1 yn − yn h + O(H m+1 ) τˆn := (P ) (K) h Cm+1 − Cm+1
144
Lineare Mehrschrittmethoden
eine Sch¨atzung f¨ ur den Abschneidefehler des Pr¨adiktor-Korrektor-Verfahrens. (Hinweis: Man verifiziere, daß im Falle exakter“ Startwerte yn−r = u(tn−r ) (r = 1, . . . , R) f¨ ur jede ” LMM mit ihrem Abschneidefehler τ h (tn ) gilt: u(tn ) − yn = hτ h (tn ) 1 + O(h) . Aufgabe 5.5.9: Zur Integration des steifen Systems
u′(t) = −10u(t) − 100v(t), v ′ (t) = 100u(t) − 10v(t), w ′(t) = u(t) + v(t) − tw(t), soll eine LMM m¨oglichst hoher Ordnung verwendet werden. Welche von den in der Vorlesung angegebenen Methoden sollte man nehmen? Aufgabe 5.5.10: Man berechne eine N¨aherungsl¨osung f¨ ur die Modell-AWA u′ (t) = −200t u(t)2 ,
t ≥ −3,
u(−3) =
1 , 901
mit Hilfe des Pr¨adiktor-Korrektor-Verfahrens 4-ter Ordnung nach Adams-Bashforth-Moulton in PEKE-Form mit dem Runge-Kutta-Verfahren 4-ter Ordnung als Startprozedur: 1 h(55fn−1 − 59fn−2 + 37fn−3 − 9fn−4 ), fn∗ = f (tn , yn∗ ), 24 1 yn = yn−1 + h(9fn∗ + 19fn−1 − 5fn−2 + fn−3 ), fn = f (tn , yn ), 24
yn∗ = yn−1 +
mit zun¨achst festen Schrittweiten h = 0.2, 0.1, 0.05, 0.025, 0.0125, 0.00625. a) Man vergleiche die berechneten Werte zum Zeitpunkt t = 3 mit dem Wert u(3) der exakten L¨osung u(t) = (1 + 100t2 )−1 . b) In einem zweiten Schritt versuche man eine Schrittweitenstrategie auf der Basis von Milnes device“ ” (K) y − y∗ C |yn−1| yn − yn∗ n n (P ) 5 (K) ≈ −0.07 ≤ε h h h C5 − C5 zu entwickeln. Dazu setze man eps = 10−16 und berechne die eventuell erforderlichen Zwischenwerte mit Hilfe der Runge-Kutta-Methode 4-ter Ordnung.
6 Extrapolationsmethode 6.1 Das Extrapolationsprinzip Zun¨achst diskutieren wir die allgemeine Idee der sog. Richardsonschen Extrapolation zum ” Limes“. Gegeben sei ein Algorithmus, der f¨ ur einen Diskretisierungsparameter h, h → 0 , numerische Werte a(h) liefert. Gefragt ist nach dem Grenzwert a (0) = limh→0 a(h) , der aber i. Allg. nicht direkt berechnet werden kann. F¨ ur eine Reihe von Werten h0 > h1 > . . . > hm > 0 sei a(hi ) berechnet. Die Extrapolationsmethode interpoliert dann diese Werte mit Hilfe einer geeigneten (einfach strukturierten) Funktion, etwa einem Polynom p(h) , und nimmt den Wert p(0) als N¨aherung f¨ ur a(0) . Das beschriebene Vorgehen ist insbesondere sinnvoll, wenn a(h) eine Entwicklung der Form a(h) = a(0) + am hm + am+1 hm+1 + O(hm+2 )
(6.1.1)
erlaubt. Haben wir z. B. f¨ ur eine feste Schrittweite H die Werte a(H) und a( 21 H) berechnet, so ist offenbar a(H) = a(0) + am H m + O(H m+1 ) ,
a( 12 H) = a(0) + am ( 12 H)m + O(H m+1) .
Interpolieren wir diese Werte mit einem Polynom p(h) = α0 + αm hm , p(h) =
2m a( 12 H) − a(H) a(H) − a( 21 H) m + 2 h , 2m − 1 H m (2m − 1)
so wird
2m a( 21 H) − a(H) = a(0) + O(H m+1 ) , m 2 −1 d.h.: Die Ordnung der Approximation ist von O(H m ) auf O(H m+1) erh¨oht. p(0) =
Beispiel 6.1: Numerische Differentiation a(h) = h−1 [f (t + h) − f (t)] ∼ f ′ (t) . Taylorentwicklumg um t liefert im Falle f ∈ C 4 : a(h) = h−1 [f (t) + hf ′ (t) + 21 h2 f“(t) + 16 h3 f ′ (t) + O(h4 ) − f (t)] = f ′ (t) + 21 h f“(t) + 16 h2 f ′ (t) + O (h3 ) . Mit a(0) = f ′ (t) , a1 = 21 f“(t) , a2 = 16 f ′ (t) , ist dies eine Entwicklung vom Typ (6.1.1). Mit den Werten a(H) , a( 12 H) erhalten wir dann durch p(0) = 2a( 12 H) − a(H) = H −1 [ 4f (t + 21 H) − 3f (t) − f (t + H) ] eine Approximation von f ′ (t) der Ordnung O(H 2) . F¨ ur den symmetrischen“ Differen” 145
146
Extrapolationsmethode
zenquotienten a(h) = (2h)−1 [ f (t + h) − f (t − h) ]
gilt im Falle f ∈ C 5 :
a(h) = (2h)−1 [ f (t) + hf ′ (t) + 21 h2 f“(t) + 16 h3 f ′ (t) + − f (t) + hf ′ (t) − 21 h2 f“(t) + 16 h3 f ′ (t) − = f ′ (t) + 16 h2 f ′ (t) + O(h4 ) ,
1 4 h 24
f
1 4 h 24 (iv)
f (iv) (t) + O(h5 )
(t) + O(h5 ) ]
d.h.: Die Entwicklung von a(h) schreitet mit geraden Potenzen von h fort. In diesem Falle erhalten wir bei Interpolation der Werte a(H) und a( 12 H) durch ein lineares Polynom in h2 , q(h2 ) = 43 H −2 [ a(H) − a( 21 H)] h2 + 13 [ 4a( 21 H) − a(H) ] , mit q(0) = 13 [ 4a( 21 H) − a(H) ] = 13 H −1 [ 2f (t + 21 H) − 2f (t − 21 H) − 21 f (t + H) + 12 f (t − H) ] eine Approximation von f ′ (t) der Ordnung O(H 4) . Dies zeigt, daß die Extrapolation besonders effizient ist, wenn a(h) eine Entwicklung nach geraden Potenzen von h besitzt. Wir betrachten nun den speziellen Fall einer Entwicklung a(h) = a(0) + a1 hγ + a2 h2γ + . . . + am hmγ + O(h(m+1)γ )
(6.1.2)
mit einem γ > 0 . F¨ ur eine geeignete Folge von Werten h0 > h1 . . . > hi > . . . > 0 seien die Werte a(hi ) berechnet. Dann bezeichne Tik (h) das (eindeutig bestimmte) Polynom k-ten Grades in hγ , welches die k + 1 Werte a(hi+j ), j = 0, . . . , k , interpoliert: Tik (h) = b0 + b1 hγ + . . . + bk hkγ ,
Tik (hi+j ) = a(hi+j ) ,
j = 0, . . . , k .
Den Wert Tik := Tik (0) = b0 nehmen wir als N¨aherung f¨ ur a(0) . Zur Absch¨atzung des Fehlers Tik − a(0) setzen wir z = hγ , so daß Tik (h) = b0 + b1 z + . . . + bk z k . In der Lagrangeschen Darstellung hat Tik (h) die Form Tik (h) =
k X
(k) Lij (z) a(hi+j ),
(k) Lij (z)
j=0
k Y z − zi+l = . zi+j − zi+l l6=j
(6.1.3)
l=0
Folglich ist Tik =
k X j=0
(k) Lij
a(hi+j ) ,
(k) Lij
= (−1)
k
k Y l6=j l=0
zi+l . zi+j − zi+l
(6.1.4)
6.1 Das Extrapolationsprinzip
147
Hilfssatz 6.1 (Lagrange-Polynome): Es gilt 1 k X (k) τ zi+j Lij = 0 j=0 (−1)k z · z · . . . · z i
i+1
, fu ¨r τ = 0 , fu ¨r τ = 1, . . . , k .
i+k
(6.1.5)
, fu ¨r τ = k + 1
Beweis: F¨ ur τ = 0, . . . , k folgt die Behauptung aus der Eindeutigkeit der Lagrangeschen Polynominterpolation. F¨ ur das Polynom p(z) = z k+1 gilt z
k+1
=
i X
zjk+1
j=i−k
i Y Y z − zl (z − zl ) , + zj − zl l=i−k l6=j
l=i−k
denn die rechte Seite ist gleich der linken f¨ ur z = zj , j = 0, 1, . . . , k , und die Koeffizienten von z k+1 stimmen u ¨ berein. Daraus folgt k X j=0
(k)
k+1 zi+j Lij = (−1)k zi · zi+1 · . . . · zi+k ,
was zu beweisen war.
Q.E.D.
Damit erhalten wir folgendes Resultat. Satz 6.1 (Allgemeiner Extrapolationssatz): Unter der Voraussetzung sup i≥0
hi+1 <1 hi
(6.1.6)
gilt f¨ur festes k und i → ∞ : (k+1)γ
Tik − a(0) = O(hi
),
(6.1.7)
d.h.: Die Elemente der k-ten Spalte des Extrapolationstableaus konvergieren gegen a(0) (k+1)γ wie O(hi ). Beweis: Unter Verwendung von (6.1.2) und (6.1.5) finden wir Tik =
k X j=0
(k) Lij
a(hi+j ) =
k X
(k)
k k+1 Lij [ a0 + a1 zi+j + . . . + ak zi+j + zi+j (ak+1 + O(hγi+j )) ]
j=0
und folglich Tik = a(0) + (−1)k zi · . . . · zi+k (ak+1 + O(hγi )) = a(0) + zi · . . . · zi+k σk+1 (hi , . . . , hi+k ) {z } | >0
(6.1.8)
148
Extrapolationsmethode
mit
σk+1 (hi , . . . , hi+k ) = (−1)k (ak+1 + O(hγi )) .
Dies impliziert die Behauptung. Wir bemerken, daß im Falle hi+1 /hi → 1 , die Koeffizienten der Interpolationspolynome Tik (h) unbeschr¨ankt anwachsen. Q.E.D.
Der Fehlerdarstellung (6.1.8) entnehmen wir, daß f¨ ur festes k , und ak+1 6= 0 , Tik − a(0) und f¨ ur i → ∞ monoton gegen Null strebt. Mit den Gr¨oßsen Uik := 2 Ti+1,k − Tik gilt dann weiter Uik − a(0) = 2 [ Ti+1,k − a(0) ] − [ Ti,k − a(0) ] = 2 zi+1 · zi+2 · . . . · zi+1+k σk+1 (hi+1 , . . . , hi+1+k ) (6.1.9) − zi · zi+1 · . . . · zi+k σk+1 (hi , . . . , hi+k ) 2zi+1+k = zi · . . . · zi+k [ −σk+1 (hi , . . . , hi+k ) + σk+1 (hi+1 , . . . , hi+1+k ) ]. zi Nun ist lim σk+1 (hi , . . . , hi+k ) = lim σk+1 (hi+1 , . . . , hi+1+k = (−1)k ak+1
i→∞
i→∞
und (in der Regel)
2zi+1+k 2hγi+1+k = zi hγ ≪ 1 . i
Ein Vergleich von (6.1.8) und (6.1.9) zeigt, daß f¨ ur festes k und gen¨ ugend großes i gilt: Tik − a(0) ∼ −(Uik − a(0)) ,
(6.1.10)
d.h.: Es ist n¨aherungsweise (wegen der monotonen Konvergenz Tik → a(0) ) Tik < a(0) < Uik
oder Uik < a(0) < Tik ,
(6.1.11)
und beide Seiten konvergieren monoton gegen a(0) f¨ ur i → ∞ . Dieses Verhalten der Folgen (Tik )i∈N , (Uik )i∈N kann zur Konstruktion eines Abbruchkriteriums verwendet werden: |Tik − Uik | ≤ T OL
⇒
STOP.
(6.1.12)
Unter den Bedingungen inf
i≥0
hi+1 > 0, hi
sup i≥0
hi+1 < 1, hi
(6.1.13)
l¨aßt sich sogar zeigen, daß die Diagonalfolge (Tii )i∈N 0 schneller gegen a(0) konvergiert ( superlineare Konvergenz“) als jede der Folgen (Tik )i∈N f¨ ur festes k . ”
6.1 Das Extrapolationsprinzip
149
Zur Berechnung der Werte Tik des Extrapolationstableaus ist es nat¨ urlich nicht sinnvoll, dazu explizit die Koeffizienten der Polynome Tik (h) zu bestimmen. Stattdessen werden die Tik rekursiv berechnet, ohne den Umweg u ¨ber die Polynome Tik (h) . Dazu beachtet man, daß das lineare Polynom Ti1 (z) welches die Werte a(hi ) , a(hi+1 ) interpoliert, gegeben ist in der Determinantenform zi − z 1 a(hi ) Ti1 (z) = , z = hγ . zi+1 − zi a(hi+1 ) zi+1 − z
Im n¨achsten Schritt schreibt man das Polynom Ti2 (z) , welches die Werte a(hi ) , a(hi+1 ) , a(hi+2 ) interpoliert, in der Form T (z) z − z 1 i,1 i Ti2 (z) = . zi+2 − zi Ti+1,1 (z) zi+2 − z
Durch vollst¨andige Induktion findet man dann, daß das Polynom Tik (z) , welches die Werte a(hi ) , . . . , a(hi+k ) interpoliert, sich aus den vorausgehenden Ti,k−1(z) rekursiv aufbaut als T (z) z − z 1 i i,k−1 (6.1.14) Ti,k (z) = . zi+k − zi Ti+1,k−1 (z) zi+k − z Damit erhalten wir f¨ ur die Werte Tik die folgenden Rekursionsformeln: T zi 1 i,k−1 Ti0 = a(hi ) , Tik = . zi+k − zi Ti+1,k−1 zi+k
(6.1.15)
F¨ ur numerische Auswertung geeigneter ist die Form Tik = Ti,k−1 +
Ti,k−1 − Ti−1,k−1 , (hi−k /hi )γ − 1
(6.1.16)
bei der nicht durch die m¨oglicherweise kleinen Gr¨oßen hi+k − hi dividiert wird. Dies ist gerade der Nevillesche Algorithmus zur Auswertung des Lagrangeschen Interpolationspolynoms. Die Werte Tik werden u ¨blicherweise in einem sog. Extrapolationstableau“ ” angeordnet:
150
Extrapolationsmethode
h0 T00 ց
h1 T10 → T11 ց
ց
Ti0 = a(hi ) .
h2 .. .
T20 → T21 → T22 .. .. .. . . .
hi .. .
Ti0 → Ti1 → Ti2 · · · .. .. .. . . .
..
. Tii .. .. . .
6.2 Anwendung auf gew¨ ohnliche Differentialgleichungen Zur Anwendung der Extrapolationsmethode auf die numerische L¨osung einer AWA m¨ ussen wir zun¨achst sicherstellen, daß der globale Diskretisierungsfehler en = u(tn ) − yn eine Entwicklung der Art (6.1.2) erlaubt. Wir betrachten wieder die Anfangswertaufgabe u′ (t) = f (t, u(t)) ,
t ∈ I = [t0 , t0 + T ] ,
u(t0 ) = u0 .
(6.2.17)
Satz 6.2 (Allgemeine Fehlerentwicklung): Die Funktion f (t, x) sei (N +1)-mal stetig differenzierbar auf I × Rd . Dann gilt f¨ur die durch ein (Lipschitz-stetiges) Einschrittverfahren der Ordnung m ≥ 1 f¨ur ¨aquidistante Schrittweite h gelieferte N¨aherungsl¨osung yn , y0 = u0 , die asymptotische Entwicklung yn = u(tn ) + hm em (tn ) + . . . + hN eN (tn ) + hN +1 EN +1 (tn ; h) ,
(6.2.18)
wobei die Funktionen ei (t) unabh¨angig von h sind, und das Restglied EN +1 (tn ; h) beschr¨ankt ist. Beweis: Wir geben den Beweis nur exemplarisch f¨ ur die Polygonzugmethode und den Fall N = 1 , d = 1 . F¨ ur die L¨osung u ∈ C 3 (I) gilt dann mit einem Zwischenwert ξn ∈ (tn , tn+1 ) : u(tn+1 ) = u(tn ) + h f (tn , u(tn )) + 21 h2 u(2) (tn ) + 61 h3 u(3) (ξn ) . F¨ ur den Fehler en = yn − u(tn ) folgt also en+1 = en + h{f (tn , yn ) − f (tn , u(tn ))} − 21 h2 u(2) (tn ) − 61 h3 u(3) (ξn ) = en + hfx (tn , u(tn )) en + 21 hfxx (tn , ηn ) e2n − − 12 h2 u(2) (tn ) − 61 h3 u(3) (ξn ),
ηn ∈ (u(tn ), yn ).
6.2 Anwendung auf gew¨ ohnliche Differentialgleichungen
151
ugt dann offensichtlich der Differenzengleichung Die Funktion e¯n := h1 en gen¨ e¯n+1 = e¯n + h{fx (tn , u(tn ))¯ en − 21 u(2) (tn )} + h2 rn
(6.2.19)
mit rn = 12 fxx (tn , ηn ) e¯2n − 61 u(3) (ξn ) . Der Konvergenzsatz 2.2 liefert die Absch¨atzung L(tn −t0 )
|en | ≤ e
h
n X ν=1
|τνh | ≤ 12 eLT T h max |u(2) (t)| =: K1 h, t∈I
und damit |rn | ≤
1 max 2 (t,x)∈I×R
|fxx (t, x)| K12 +
1 6
max |u(3) (t)| =: K2 . t∈I
Die Beziehung (6.2.19) kann nun als die Anwendung der Polygonzugmethode auf die lineare AWA e′ (t) = fx (t, u(t))e(t) − 21 u(2) (t) ,
t ∈ I,
e(t0 ) = 0 ,
(6.2.20)
interpretiert werden, wobei in jedem Schritt noch ein zus¨atzlicher Fehler h2 rn gemacht wird. Die Fehlerabsch¨atzung am Satz 2.2 besagen dann, daß L(tn −t0 )
|¯ en − e(tn )| ≤ e
n nX ν=1
h|˜ τνh |
+
n X ν=1
o h2 |rν | ≤ K3 h,
(6.2.21)
mit dem zur AWA (6.2.20) geh¨orenden Abschneidefehler τ˜νh . Also ist en = h e(tn ) + h2 E2 (tn ; h) ,
|E2 (tn ; h)| ≤ K3 ,
was zu beweisen war.
Q.E.D.
Dieses Resultat besagt, daß alle hier betrachteten Einschrittverfahren f¨ ur die Extrapolation in Frage kommen. Aufgrund des Aufwandes zur Erstellung des Exptrapolationstableaus kommen hierbei nur einfachste Verfahren in Betracht, i.a. sicher keine der komplizierten Runge-Kutta-Methoden. Die H¨ohe der Konvergenzordnung kann ja durch Fortschreiten nach rechts im Tableau beliebig vergr¨oßert werden. Satz 6.2 l¨aßt sich etwa auf das explizite Euler-Verfahren yn = yn−1 + h f (tn−1 , yn−1) anwenden. Dieses entspricht dem oben behandelten Beispiel des vorw¨artsgenommenen Differenzenquotienten zur Approximation der Ableitung. Effizienter w¨are aber sicher die Verwendung einer symmetrischen“ Formel, wie z.B. der Mittelpunktsregel ” yn = yn−2 + 2h f (tn−1, yn−1 ) ,
152
Extrapolationsmethode
welche m¨oglicherweise eine Fehlerentwicklung nach Potenzen von h2 erlaubt. Tats¨achlich l¨aßt sich f¨ ur die Mittelpunktsregel das folgende Resultat zeigen (Gragg 1963): Satz 6.3 (Satz von Gragg): Die Funktion f (t, x) sei (2m + 2)-mal stetig differenzierbar auf I × Rd , und es sei yn die durch die Mittelpunktsregel mit expliziter Euler-Formel als Startprozedur gelieferte N¨aherungsl¨osung. Dann besteht die asymptotische Entwicklung yn = u(tn ) +
m X k=1
h2k {ak (tn ) + (−1)n bk (tn )} + h2m+2 E2m+2 (tn ; h) ,
(6.2.22)
wobei die Funktionen ak (t) , bk (t) unabh¨angig von h sind, und das Restglied E2m+2 (t; h) beschr¨ankt ist. Wegen des oszillierenden Terms (−1)n bk (tn ) ist (6.2.22) nicht ganz eine Entwicklung der gew¨ unschten Form (6.1.2). Die Verwendung der expliziten Euler-Formel als Startprozedur ist wesentlich; wird stattdessen etwa die Runge-Kutta-Formel 4. Ordnung genommen, so besteht nur noch eine Entwicklung der Form yn = u(tn ) +
2m+1 X k=2
hk {˜ ak (tn ) + (−1)n˜bk (tn )} + h2m+2 E˜2m+2 (tn ; h) .
Der oszillierende Term (−1)n b1 (tn ) im f¨ uhrenden Fehlerglied yn − u(tn ) = h2 [a1 (tn ) + (−1)n b1 (tn )] + O(h4 ) kann durch einen Trick beseitigt werden. Man bildet den Mittelwert y˜n =
1 4
yn+1 + 12 yn + 14 yn−1 ,
(6.2.23)
welcher die Entwicklung besitzt: n y˜n = 12 u(tn ) + 21 {u(tn+1) + u(tn−1)}+ +
m X k=1
h2k ak (tn ) + 21 {ak (tn+1 ) + ak (tn−1 )}+ n
+ (−1) { bk (tn ) −
1 {bk (tn+1 ) 2
+ bk (tn−1 )}
o
+ O(h2m+2 ) .
Entwickelt man u(tn±1 ) und ak (tn±1 ) , bk (tn±1 ) in Taylorreihen nach h , so erh¨alt man eine Entwicklung der Form y˜n = u(tn ) + h2 [ a1 (tn ) + 21 u(2) (tn ) ] + +
m X
h2k [ a ˜k (tn ) + (−1)n˜bk (tn ) ] + O(h2m+2 ) ,
k=2
deren f¨ uhrender Term kein Oszillationsglied mehr enth¨alt.
(6.2.24)
6.2 Anwendung auf gew¨ ohnliche Differentialgleichungen
153
Das Extrapolationsverfahren basierend auf der Mittelpunktregel kombiniert mit der Mittelung (6.2.23) ist eine der meist gebr¨auchlichen Methoden dieser Art. Aufgrund der Oszillationsterme in den Entwicklungen (6.2.22) und (6.2.24) muß man darauf achten, daß die Schrittweitenfolge hi =
H , ni
1 ≤ n0 < n1 < n2 < . . .
nur mit geraden ni oder nur mit ungeraden ni gebildet wird, damit (−1)n stets von ein und demselben Vorzeichen ist. Eine popul¨are Folge ist (sog. Bulirsch-Folge“) ” {2, 4, 6, 8, 12, 16, . . .} , wobei man gew¨ohnlich nicht mehr als 6-8 Extrapolationsschritte ausf¨ uhrt. Die ebenfalls geeignete Folge {2, 4, 8, 16, . . .} ist wegen der sehr schnell kleiner werdenden Schrittweiten meist zu aufwendig, w¨ahrend die Folge {1, 2, 3, 4, . . .} wegen hi /hi+1 → 1 (i → ∞) ein instabiles Verhalten der Tik bewirkt. Basierend auf Satz 6.3 sieht das Extrapolationsverfahren nach Gragg-Stoer-Bulirsch wie folgt aus:
1. W¨ahle eine Grundschrittweite“ H zur Berechnung der N¨aherungen ” yn ≈ u(tn ) (n = 0, 1, 2, . . .). 2. Sei yn berechnet. W¨ahle ganze Zahlen n0 < n1 < . . . < nm und berechne die N¨aherungen η(tn + νhi ; hi ) , hi = H/ni , ν = 1, . . . , ni + 1 , mit Hilfe der Mittelpunktregel gestartet durch die Polygonzgmethode, η(tn + hi ; hi ) = yn + hi f (tn , yn ) η(tn + (ν + 1)hi ; hi ) = η(tn + (ν − 1)hi ; hi ) + 2hi f (tn + νhi , η(tn + νhi ; hi )), und setze a(hi ) = η˜(tn+1 ; hi ) =
1 η(tn+1 − hi ; hi ) + 2η(tn+1 ; hi ) + η(tn+1 + hi ; hi ) . 4
3. Berechne die diagonalen Werte Tii des Extrapolationstableaus mit Hilfe der Rekursionsformel (6.1.16). Setze yn+1 := Tmm , und beginne wieder bei (ii).
Durch Berechnung der Werte Umm := 2Tm+1,m − Tmm
154
Extrapolationsmethode
lassen sich Sch¨atzungen f¨ ur den lokalen Fehler Tmm − u(tn+1 ) und damit f¨ ur den Abschneidefehler gewinnen: |τn | ∼ H −1 |Tmm − Umm | .
(6.2.25)
Das Graggsche Extrapolationsverfahren l¨aßt sich offensichtlich als ein explizites Einschrittverfahren zur Basisschrittweite H auffassen. Seine lokale Genauigkeit (bei exaktem Startwert yn ) ist nach Satz 6.1 gerade O(H 2m+2) . Die Konsistenzordnung ist 2m + 2 . Bei Verwendung der Folge {2, 4, 6, 8, 12, 16} (m = 5) erh¨alt man also ein Verfahren der Ordnung 12 . Neben der Polynomextrapolation findet auch die Extrapolation mit rationalen Funktionen Verwendung. In der Tat sind die erzielten Ergebnise bei Verwendung rationaler Funktionen Pik (h) Tik (h) = , Qik (h) welche die Werte a(hi ), . . . , a(hi+k ) interpolieren, oft wesentlich besser als die durch Polynominterpolation erzielten. F¨ ur die Werte Tik = Tik (0) des zugeh¨origen Extrapolationstableaus bestehen dann ¨ahnliche Rekursionsformeln wie die oben angegebenen. Die Anwendung der Extrapolationsmethode auf steife AWAn erfordert die Verwendung einer A-stabilen Basisformel. Hierf¨ ur kommen in Betracht die einfache implizierte EulerFormel oder die Trapezregel, welche wieder eine asymptotische Fehlerentwicklung in h2 erlaubt. Allerdings neigt die Trapezregel zu Instabilit¨aten gegen¨ uber St¨orungen der Daten, so daß in der Praxis die robustere implizierte Euler-Formel vorgezogen wird. 6.2.1 Numerischer Test F¨ ur die AWA u′ (t) = −200t u(t)2 ,
t ≥ −3,
u(−3) = 1/901 ,
mit der L¨osung u(t) = (1 + 100t2 )−1 wurde der Wert u(0) = 1 mit dem Graggschen Extrapolationsverfahren approximiert: (i = 0, . . . , m) η(tn + hi ; hi ) = yn + hi f (tn , yn ) η(tn + (ν + 1)hi ; hi ) = η(tn + (ν − 1)hi ; hi ) + 2hi f (tn + νhi , η(tn + νhi , hi )) (ν = 1, . . . , ni + 1) 1 a(hi ) = η(tn+1 − hi ; hi ) + 2η(tn+1 ; hi ) + η(tn+1 + hi ; hi ) 4
und weiter
Ti,k−1 − Ti−1,k−1 , (hi /hi+k )2 − 1 (i = 0, . . . , m + 1; k = 1, . . . , m)
Ti0 := a(hi ) ,
yn+1 = Tmm ,
Tik = Ti,k−1 +
Umm = 2Tm+1,m − Tmm .
¨ 6.3 Ubungsaufgaben
155
Die Schrittweitensteuerung erfolgte dabei gem¨aß dem Kriterium H −1 |Tmm − Umm | ∼ ε = eps |yn |/H . Bei Verwendung der Bulirsch-Folge {H/2, H/4, H/6, H/8} mit H = 0.1 ergaben sich mit 17-stelliger Rechnung die Resultate:
Ordnung
eps
hmin
hmax
Fehler
Auswertungen
m = 10
10−13
6 · 10−3
0.1
2 · 10−12
∼ 7.800
Rechnung mit konstanter (mittlerer) Schrittweite: 2.5 · 10−2
6 · 10−12
∼ 4.400
Der durch die adaptive Schrittweitenwahl bedingte Mehraufwand an Funktionsauswertungen garantiert die Einhaltung der Fehlerschranke eps ∼ 10−12 ohne a priori-Kenntnis der optimalen“ gleichm¨aßigen Schrittweite h = 2.5 · 10−2 . ”
¨ 6.3 Ubungsaufgaben Aufgabe 6.3.1: F¨ ur die AWA u′ (t) = f (t, u(t)),
t ≥ 0,
u(0) = u0 ,
soll n¨aherungsweise der L¨osungswert u(1) mit Hilfe des Graggschen Extrapolationsverfahrens zur Basisschrittweite h unter Verwendung der sog. Bulirsch-Folge {2, 4, 6, 8, 12, 16} berechnet werden. a) Welche Ordnung hat dieses Verfahren? b) Wieviele Funktionsauswertungen sind in Abh¨angigkeit von h erforderlich? Aufgabe 6.3.2: Man schreibe die modifizierte Mittelpunktsformel nach Gragg (mit einem expliziten Euler-Schritt als Startprozedur) zur Schrittweite h/N mit N = 2 als Runge-Kutta-Methode zur Schrittweite h . a) Welche Ordnung hat diese Formel? b) Die Mittelpunktsformel hat ein triviales Stabilit¨atsgebiet. Man verifiziere, daß diese Runge-Kutta-Methode trotzdem das ungef¨ahre Stabilit¨atsintervall SI = [−3.1, 0] besitzt. Dies demonstriert den Stabilisierungseffekt der Graggschen Gl¨attungsoperation.
156
Extrapolationsmethode
7 Differentiell-algebraische Gleichungen (DAEs) Wir haben bisher ausschließlich sog. explizite“ AWAn betrachtet: ” u′ (t) = f (t, u(t)),
t ≥ t0 ,
u(t0 ) = u0 .
(7.0.1)
In der Praxis treten aber h¨aufig auch implizit gestellte Aufgaben auf. Deren allgemeine Form ist F (t, u(t), u′(t)) = 0,
t ≥ t0 ,
u(t0 ) = u0 ,
(7.0.2)
mit einer Vektorfunktion F (t, x, η) : D ⊂ R1+d+d → Rd . Unter der Annahme, daß die Ableitungsmatrix Fη′ (t, u, u′) entlang einer L¨osung (Existenz vorausgesetzt) regul¨ar ist, kann (zumindest prinzipiell) das System lokal nach u′ (t) aufgel¨ost werden, und man erh¨alt in diesem Fall wieder eine explizite AWA der Form (7.0.1). Ein Spezialfall ist die sog. linear implizite“ Gleichung ” M(t, u)u′ = f (t, u),
(7.0.3)
mit einer Matrix M(t, x) : R1 × Rd :→ Rd×d . F¨ ur regul¨ares M ist dies ¨aquivalent zur normalen“ Gleichung u′ = M(t, u)−1 f (t, u) . ” Im Folgenden interessiert uns nun der Fall, daß Fη′ (t, u, u′) bzw. M(t, u) nicht regul¨ar ist. Die linear implizite Gleichung zerf¨allt dann h¨aufig in einen differentiellen“ und einen ” algebraischen“ Teil gem¨aß : ” " # " # M11 u′1 = f1 (t, u1 , u2 ) u1 M11 012 u= , M= , 0 = f2 (t, u1 , u2 ) . u2 021 022 In diesem Fall spricht man von einem differentiell-algebraischen System“ (engl. DAE“), ” ” bei dem es f¨ ur die Ableitungen gewisser Komponenten von u(t) keine Bestimmungsgleichungen gibt. Beispiel 7.1: Als Beispiel betrachten wir die lineare AWA (siehe auch Kapitel 3.1.1): u′ (t) = Au(t) + b , u(0) = u0 , −21 19 −20 1 u0 = 0 , A = 19 −21 20 , 40 −40 −40 −1
1 b= 1 . 1
Die Eigenwerte von A sind λi = −2 , λ2,3 = −40 ± 40i , d.h.: Die lineare AWA ist strikt monoton. Nach Satz 1.7 ist seine eindeutige L¨osung dann exponentiell stabil. Da die AWA auch autonom ist, folgt weiter aus Satz 1.8, daß diese L¨osung exponentiell gegen die L¨osung u∞ der algebraischen Gleichung Au∞ = −b 157
158
Differentiell-algebraische Gleichungen (DAEs)
konvergiert. Die L¨osung u0 (t) der homogenen Gleichung u′(t) = Au(t) zu denselben Anfangsbedingungen u0 (0) = u0 ist u01 (t) = 21 e−2t + e−40t [cos 40t + sin 40t] u02 (t) = 21 e−2t − e−40t [cos 40t + sin 40t] u03 (t) = −e−40t [cos 40t − sin 40t] . Sie hat die in der Grafik 7.1 dargestellte Form.
Abbildung 7.1: Komponenten der L¨osung des homogenen Systems.
Die Funktion u˜(t) := u0 (t) + u∞ ist dann L¨osung der AWA u˜′ (t) = u0′ (t) = Au0 (t) + Au∞ − Au∞ = A˜ u(t) + b,
u˜(0) = u0 + u∞ ,
(7.0.4)
und konvergiert exponentiell wie u0 (t) gegen den Limes u∞ . Dabei konvergiert die dritte Komponente sehr viel schneller als die beiden anderen: u˜3 (t)−u∞,3 ∼ e−40t . Nach einer kurzen Anfangsphase kann ihre zeitliche Variation vernachl¨assigt werden, so daß danach die dritte Gleichung durch die algebraische Beziehung 0 = 40˜ u1 (t) − 40˜ u2(t) − 40˜ u3 (t) + 1 ,
(7.0.5)
¨ ersetzt werden kann. Uber die ersten beiden Gleichungen beeinflußt u˜3 (t) aber nach wie vor die Dynamik der Komponenten u˜1 (t), u˜2 (t) . Offenbar l¨aßt sich aber u˜3 (t) ganz aus dem System eliminieren, was die Dimension um eins reduziert. Das nichtreduzierte System stellt eine Differentialgleichung auf der durch die lineare Zwangsbedingung (7.0.5) beschriebenen Mannigfaltigkeit dar. In der Praxis treten h¨aufig solche DAEs direkt auf, z.B. in der Mehrk¨orpermechanik. Ihre effiziente numerische L¨osung macht einen zunehmend großen Teil der numerischen Forschung zu gew¨ohnlichen Differentialgleichungen aus.
159
7.0.1 Theorie differentiell-algebraischer Probleme Wir betrachten eine allgemeine implizite AWA F (t, u, u′) = 0,
t ≥ t0 ,
u(t0 ) = u0 ,
(7.0.6)
f¨ ur Funktionen u = u(t) , mit einer Lipschitz-stetigen Vektorfunktion F (t, x, η) : R1+d+d → Rd . Wir nehmen an, daß Fη′ (t, u, u′) nicht regul¨ar ist, so daß ein differentiell-algebraisches System (DAE) vorliegt. Durch fortgesetztes Differenzieren dieser Gleichung nach der Zeit kann man unter Umst¨anden in endlich vielen Schritten Gleichungen f¨ ur die Ableitungen ′ uhren. ui (t) aller Komponenten herleiten, d.h. das System in eine normale AWA u ¨berf¨ Definition 7.1 (Index der DAE): Der (differentielle) Index“ der DAE (7.0.6) ist die ” kleinste Zahl k ∈ N , f¨ur die der Ableitungsvektor u′ (t) durch die k+1 Gleichungen F (t, u, u′) = 0,
dk F (t, u, u′) = 0, dtk
i = 1, ..., k,
(7.0.7)
eindeutig in Ausdr¨ucken von u(t) bestimmt ist. Beispiel 7.2: Ein einfaches Beispiel einer DAE vom Index k ≥ 1 ist das k-dimensionale System Mu′ = u − b mit der k×k-Matrix
M =
0
1
0 0 .. . . . . 0 ··· 0 ···
0
··· 0
1 ··· 0 . . . . .. . . . k. 0 0 1 0 0 0
In diesem Fall fehlt im System eine Gleichung f¨ ur die Ableitung der ersten Komponente ′ u1 . Diese kann, beginnend mit der letzten (algebraischen) Beziehung uk − bk = 0 , durch sukzessives Differenzieren und eliminieren der erzeugten Ableitungen u′l , l = k, ..., 1 aus den jeweils vorausgehenden Gleichungen erzeugt werden: u′k = b′k , u′k−1 = b′k−1 + bk“, .. . (k)
u′1 = b′1 + b2“ + ... + bk . Nach Definition ist das System also vom Index k .
160
Differentiell-algebraische Gleichungen (DAEs)
Beispiel 7.3: Ein wichtiger Spezialfall sind DAE vom Index k = 1 in der sog. (linear) ” expliziten“ Form M(t, u, v)u′ = f (t, u, v), 0 = g(t, u, v).
t ≥ t0 ,
u(t0 ) = u0,
(7.0.8)
mit Vektorfunktionen f (t, x, y), g(t, x, y) : R1+d+d → Rd , und einer Matrixfunktion M(t, x, y) : R1+d+d → Rd×d . Wir setzen im Folgenden generell voraus, daß die Funktionen f (t, x, y), g(t, x, y), M(t, x, y) in allen Argumenten stetig und bzgl. der Argumente x, y Lipschitz-stetig sind. Die Matrix M(t, x, y) sei regul¨ar. Ferner sei g(t, x, y) differenzierbar mit regul¨arer Ableitungsmatrix gy′ (t, x, y) . Diese Eigenschaften sollen der Einfachheit halber gleichm¨aßig f¨ ur alle Argumente gelten. Dann kann man die differenzierte Beziehung 0 = gt (t, u, v) + gx′ (t, u, v)u′ + gy′ (t, u, v)v ′ nach v ′ aufl¨osen, und man erh¨alt das normale System u′ = M(t, u, v)−1 f (t, u, v), t ≥ t0 , u(t0 ) = u0 , v ′ = −gη′ (t, u, v)−1 gt (t, u, v) + gx′ (t, u, v)u′ = −gy′ (t, u, v)−1 gt (t, u, v) + gx′ (t, u, v)M(t, u, v)−1f (t, u, v) .
(7.0.9) (7.0.10)
Die DAE hat also den Index 1 . Im Folgenden werden wir der Einfachheit halber nur DAEs vom Index 1 betrachten, bei denen M(t, x, y) ≡ I ist. Beispiel 7.4: Ein weiterer typischer Fall ist die DAE u′ = f (t, u, v), 0 = g(t, u),
t ≥ t0 ,
u(t0 ) = u0 ,
(7.0.11) (7.0.12)
in der die algebraische“ Variable v(t) in der algebraischen Gleichung gar nicht vorkommt. ” Zeitliche Ableitung von (7.0.12) ergibt 0 = gt′ (t, u) + gx′ (t, u)u′, und nach Kombination mit der Differentialgleichung: gx′ (t, u)u′ = gx′ (t, u)f (t, u, v) = −gt′ (t, u) . Dies wird nun erneut differenziert, wodurch die Ableitung v ′ erscheint, aber noch mit u′ verkoppelt. Dr¨ uckt man hier nun u′ mit Hilfe der ersten Differentialgleichung durch u, v aus, so erh¨alt wieder ein Standardsystem f¨ ur u, v , vorausgesetzt die Matrix C := gx′ (t, u)fy′ (t, u, v) ist regul¨ar. Dann ist diese DAE also vom Index 2 .
161
Im Folgenden betrachten wir nun ausschließlich DAEs vom Index 1 in expliziter Form. F¨ ur diese gilt der folgende allgemeine Existenzsatz: Satz 7.1 (Existenzsatz fu ¨r DAEs): Die Funktionen f (t, x, y) und g(t, x, y) seien ausreichend differenzierbar. Ferner sei die Gleichung g(t0 , x0 , y0 ) = 0 nach y0 aufl¨osbar. Ist dann gη′ (t, x, y) in einer Umgebung von {t0 , x0 , y0 } regul¨ar, so besitzt die DAE (7.0.8) vom Index 1 eine eindeutig bestimmt lokale L¨osung {u(t), v(t)} . Beweis: Der Beweis kann etwa analog zum Existenzsatz von Peano mit einem konstruktiven Argument direkt f¨ ur die DAE oder auch durch R¨ uckf¨ uhrung auf Resultate f¨ ur normale AWAn gef¨ uhrt werden. Letzterer Weg verwendet die vorausgesetzte Regularit¨at der Ableitungsmatrix gy′ (t, x, y) , um die DAE in eine normale AWA zu u uhren: ¨berf¨ u′ = f (t, u, v), ′
v =
u(t0 ) = u0 , ′ gt (t, u, v) + gx′ (t, u, v)f (t, u, v) .
−gy′ (t, u, v)−1
(7.0.13) (7.0.14)
Dabei wird der noch fehlende Anfangswert f¨ ur v durch L¨osung der algebraischen Gleichung g(t0 , u0, v(t0 )) = 0 bestimmt. Auf diese AWA k¨onnen nun die schon bekannten Existenz- und Eindeutigkeitsresultate angewendet werden. Die weiteren Details seien als ¨ Ubungsaufgabe gestellt. Q.E.D.
7.0.2 Numerik differentiell-algebraischer Probleme Ausgangspunkt ist eine DAE vom Index 1 der expliziten Form u′ = f (t, u, v), 0 = g(t, u, v),
t ∈ [t0 , t0 + T ],
u(t0 ) = u0 ,
(7.0.15) (7.0.16)
wobei die Ableitungsmatrix gy′ (t, u, v) wieder entlang der ganzen L¨osungstrajektorie regul¨ar sein soll. Die L¨osung existiere auf dem ganzen Intervall I = [t0 , t0 + T ] . In der Praxis ist die Dimension der algebraischen Bedingung (7.0.16) meist deutlich kleiner als die der Differentialgleichung (7.0.15). Bei einer DAE kann Steifheit“ in verschiedener Form auftreten. Zun¨achst kann der ” differentielle Anteil (7.0.15) im u ¨blichen Sinne steif“ sein, d.h. kfx′ (t, x, y)k ≫ 1 . Da” neben kann aber auch der algebraische Anteil steif“ sein, d.h. kgy′ (t, x, y)−1k ≫ 1 . In ” beiden F¨allen ist dann das abgeleitete System u′ = f (t, u, v)
v ′ = −gy′ (t, u, v)−1 gt′ (t, u, v) + gx′ (t, u, v)f (t, u, v)
steif“ im u ussen im nu¨ blichen Sinne. Je nachdem, welcher Teil der DAE steif“ ist, m¨ ” ” merischen Verfahren implizite Komponenten verwendet werden. Wir wollen dies zun¨achst anhand der einfachsten Einschrittverfahren diskutieren.
162
Differentiell-algebraische Gleichungen (DAEs)
a) Der nicht-steife Fall: Mit der Bezeichnung yn ≈ u(tn ), zn ≈ v(tn ) lautet die Polygonzugmethode angewandt auf das obige System: yn = yn−1 + hf (tn−1 , yn−1 , zn−1 ), 0 = g(tn , yn , zn ) .
n ≥ 1,
y0 = u0 ,
(7.0.17) (7.0.18)
Wir sehen, daß dieses Schema wegen der algebraische Gleichung (7.0.18) immer eine implizite Komponente enth¨alt. Zur Bestimmung von zn aus (7.0.18) kann im Fall einer moderat konditionierten Jacobi-Matrix gy′ (t, x, y) die einfache Fixpunktiteration zn(j) = zn(j−1) + Cg(tn , yn , zn(j−1) ),
j = 1, 2, 3, ... ,
(7.0.19)
verwendet werden. Dabei ist C eine regul¨are Matrix, die so zu w¨ahlen ist, daß kI + Cgy′ (t, x, y)k < 1 garantiert ist (gem¨aß dem Konvergenzkriterium im Banachschen Fixpunktsatz). In diesem (j) (0) Fall konvergiert die Folge der Iterierten zn f¨ ur jeden Startwert zn gegen die L¨osung zn der algebraischen Beziehung (7.0.18). Als Startwert mit guter Anfangsgenauigkeit dient (0) ¨ meist zn := zn−1 . Wir weisen auf die Ahnlichkeit der Iterationsvorschrift (7.0.19) mit (j) dem Polygonzugschema (7.0.17) hin, wenn man C = hI setzt. Die Folge (zn )j=1,2,... l¨aßt sich dann interpretieren als Polygonzug-Approximation der AWA z ′ = g(t, z),
t ≥ tn ,
z(tn ) = zn−1 .
(7.0.20)
Deren L¨osung konvergiert f¨ ur t → ∞ gegen einen Limes z∞ , wenn die Funktion g(t, x, y) strikt monoton in y bzw. ihre Jacobi-Matrix gy′ (t, x, y) strikt negativ definit ist. b) Der semi-steife Fall: Etwas kritischer ist die Situation, wenn die algebraische Gleichung (7.0.18) steif“ ist, d.h.: ” gy′ (t, x, y) ist zwar regul¨ar, aber die Norm der Inversen ist groß : kgy′ (t, x, y)−1k ≫ 1 . Dann wird die Gleichung (7.0.18) mit Hilfe des Newton-Verfahrens gel¨ost: gy′ (tn , yn , zn(j−1) )zn(j) = gy′ (tn , yn , zn(j−1) )zn(j−1) − g(tn , yn , zn(j−1) ),
j = 1, 2, 3, ... ,
(0)
wobei wieder der Startwert zn = zn−1 verwendet wird. Die in jedem Iterationsschritt zu l¨osenden linearen Gleichungssysteme sind zwar meist schlecht konditioniert, aber auch von moderater Gr¨oße verglichen mit dem Polygonzugschritt (7.0.17). c) Der steife Fall: Wenn die differentielle Gleichung (7.0.15) steif ist, muß zu ihrer Integration ein implizites Verfahren verwendet werden. Das implizite Euler-Schema lautet hier wie folgt: yn = yn−1 + hf (tn , yn , zn ) n ≥ 1, 0 = g(tn , yn , zn ) .
y0 = u0 ,
(7.0.21) (7.0.22)
163
Der Startwert f¨ ur die algebraische Variable z0 wird wieder aus der Gleichung g(t0 , y0, z0 ) = 0 bestimmt. Wenn auch die algebraische Gleichung steif“ ist, kgy′ (t, x, y)−1 k ≫ 1 , so stellt ” die Bestimmung eines konsistenten“ Anfangswerts z0 ein sehr schwieriges Problem dar. ” Dies liegt daran, daß in diesem Fall f¨ ur das nur lokal konvergierende Newton-Verfahren (0) keine offensichtliche Anfangsn¨aherung z0 ≈ z0 zur Verf¨ ugung steht, sondern erst konstruiert werden muß. Dies ist in komplizierten Anwendungsf¨allen oft teurer“ als die an” schließende Zeititeration. In den nachfolgenden Zeitschritten stellt sich dieses Problem bei (0) der L¨osung von g(tn , yn , zn ) = 0 nicht so scharf, da hier mit zn := zn−1 automatisch ein guter“ Startwert verf¨ ugbar ist. In jedem Zeitschritt ist ein gekoppeltes Gleichungssystem ” der Form yn − hf (tn , yn , zn ) = yn−1 , g(tn , yn , zn ) = 0,
(7.0.23) (7.0.24)
zu l¨osen. Die zugeh¨orige Newton-Matrix lautet " # I − hfx′ (tn , yn , zn ) −hfy′ (tn , yn , zn ) Jn = . gx′ (tn , yn , zn ) gy′ (tn , yn , zn ) Ihre Invertierung ist relativ leicht, wenn beide Diagonalbl¨ocke I − hfx′ (tn , yn , zn ) und gy′ (tn , yn , zn ) positiv definit sind. Andernfalls ist die Gesamtmatrix streng indefinit, d.h.: Es liegt ein sog. Sattelpunktproblem“ vor, zu dessen L¨osung meist spezielle Tricks“ ” ” erforderlich sind. Zur Integration von steifen DAEs k¨onnen grunds¨atzlich alle f¨ ur steife AWAn geeignete Verfahren verwendet werden. Besonders naheliegend sind wegen ihrer einfachen Struktur die A(α)-stabilen BDF-Formeln ( R¨ uckw¨artdifferenzen-Formeln“). Diese stehen zur ” Verf¨ ugung bis zur Ordnung m = 6 , was f¨ ur steife Probleme ausreichende Genauigkeit garantiert. Jeder Zeitschritt hat dann die Gestalt yn = −
R X
αR−r yn−r + hβ0 f (tn , yn , zn ),
r=1
0 = g(tn , yn , zn ) ,
n ≥ R − 1,
(7.0.25) (7.0.26)
wobei die Startwerte yr , r = 0, ..., R − 1, etwa mit Hilfe eines Einschrittverfahrens erzeugt werden. F¨ ur die L¨osung der impliziten Gleichungssysteme in jedem Zeitschritt gilt dann dasselbe, was bereits zum impliziten Euler-Verfahren gesagt worden ist. In modernen ODE- oder DAE-Codes werden diese LMMn mit variabler Ordnung auch direkt auf nicht¨aquidistanten Zeitgittern formuliert, was die Durchf¨ uhrung von Zeitschrittkontrolle stark vereinfacht. Dies f¨ uhrt allerdings auf kompliziertere Differenzenformeln mit zeitabh¨angigen Koeffizienten αr (hn−1 , ..., hn−R ) . Die Kunst“ besteht dann im Design ” einer effektiven Schrittweiten- und Ordnungskontrolle.
164
Differentiell-algebraische Gleichungen (DAEs)
¨ 7.1 Ubungsaufgaben Aufgabe 7.1.1: Bei der Ortsdiskretisierung der inkompressiblen“ Navier-Stokes-Glei” chungen der Str¨omungsmechanik entsteht eine (n + m)-dimensionale DAE der Gestalt Mu′ (t) = Au(t) + N(u(t))u(t) + Bp(t) + b, B T u(t) = 0,
t ≥ 0,
u(0) = u0 ,
f¨ ur die Vektoren der approximierenden Punktwerte u(t) ∈ Rn des Geschwindigkeitsfeldes und p(t) ∈ Rm des skalaren Druckfeldes. (Bemerkung: Die lineare algebraische Nebenbedingung B T u = 0 repr¨asentiert die Inkompressibilit¨at“ des Str¨omungsfeldes.) Aus ” numerischen Gr¨ unden ist stets n > m . Die Systemmatrizen M, A, N(·) ∈ Rn×n und B ∈ Rn×m sind meist zeitlich konstant, wogegen der Vektor b ∈ Rn zeitabh¨angig sein kann. Ferner sind die Matrizen M und A regul¨ar. a) Von welchem Typ ist diese DAE? b) Unter welcher Zusatzbedingung an die Systemmatrizen ist diese DAE l¨osbar? Aufgabe 7.1.2: Gegeben sei ein d-dimensionales System von gew¨ohnlichen Differentialgleichungen der Form Mu′ (t) = f (t, u(t)) mit einer stetig differenzierbaren Vektorfunktion f (t, x) : R1 × Rd → Rd mit regul¨arer Jacobi-Matrix fx′ (t, u(t)) und einer singul¨aren Matrix M ∈ Rd×d . Man zeige, da diese DAE maximal einen Index k = d − 1 hat. Aufgabe 7.1.3: Man l¨ose die 3-dimensionale steife DAE Mu′ (t) = Au(t) + b, 1 0 0 , A = M = 0 1 0 0 0 0
u(0) = (1, 0, −1)T , 1 −21 19 −20 19 −21 20 , b = 1 , 1 40 −40 −40 t ≥ 0,
auf dem Intervall I = [0, 10] mit Hilfe des impliziten Euler-Verfahrens und der TrapezRegel. Man vergleiche die Ergebnisse mit denen der L¨osung der zugeh¨origen normalen AWA mit der Matrix M = I .
8 Randwertaufgaben 8.1 Aus der Theorie der Randwertaufgaben 8.1.1 Allgemeine Randwertaufgaben Die in Kapitel 1 betrachteten Anfangswertaufgaben k¨onnen als Spezialfall der allgemeinen Randwertaufgabe“ (abgek¨ urzt: RWA) ” u′ (t) = f (t, u(t)),
t ∈ I = [a, b] ,
r(u(a), u(b)) = 0 ,
(8.1.1)
aufgefaßt werden. Dabei sind f : I × Rd → Rd und r : Rd × Rd → Rd gegebene, im allgemeinen vektorwertige Funktionen, welche im folgenden stets als mindestens zweimal stetig differenzierbar bzgl. aller ihrer Argumente vorausgesetzt sind, und gesucht ist eine stetig differenzierbare Funktion u : I → Rd . In der Literatur findet sich f¨ ur (8.1.1) auch die Bezeichnung Zweipunkt-Randwertaufgabe“ zur Abgrenzung von allgemeineren ” Problemen mit mehrpunktigen Nebenbedingungen der Form r(u(t1 ), . . . , u (tk )) = 0 . Im Gegensatz zu den AWAn existiert f¨ ur RWAn keine allgemeine Existenztheorie; nur unter sehr einschr¨ankenden Voraussetzungen l¨aßt sich f¨ ur nichtlineare Probleme die Existenz von L¨osungen a priori garantieren. Da diese Voraussetzungen bei den in der Praxis auftretenden Problemen meist nicht erf¨ ullt sind, wird hier auf die Darstellung solcher Resultate verzichtet. F¨ ur das Folgende begn¨ ugen wir uns mit der Annahme, daß die Aufgabe (8.1.1) eine L¨osung u (t) besitzt, welche wenigstens lokal eindeutig (bzw. isoliert) ist, d.h.: Es existiert keine zweite L¨osung u˜ 6= u , welche u beliebig nahe kommt. Bezeichnen fx′ (t, x) = (∂j fi (t, x) )di,j=1 , rx′ (x, y) = (∂j ri (x, y) )di,j=1 ,
ry′ (x, y) = (∂j ri (x, y))di,j=1
wieder die Jacobi-Matrizen der Vektorfunktionen f (t, ·) und r(·, ·) , so haben wir f¨ ur die lokale Eindeutigkeit einer L¨osung u von (8.1.1) die folgende Charakterisierung:
Satz 8.1 (Lokale Eindeutigkeit): Eine L¨osung u (t) von Problem (8.1.1) ist genau dann lokal eindeutig, wenn die lineare, homogene RWA v ′ (t) − fx′ (t, u(t)) v(t) = 0 , rx′ (u(a), u(b)) v(a)
+
t∈I
ry′ (u(a), u(b)) v(b)
=0
(8.1.2)
nur die triviale L¨osung v ≡ 0 besitzt. Zum Beweis von Satz 8.1 m¨ ussen wir uns zun¨achst mit der L¨osbarkeit der linearen Aufgabe (8.1.2) besch¨aftigen; daf¨ ur existiert gl¨ ucklicherweise eine vollst¨andige Theorie. 165
166
Randwertaufgaben
Wir betrachten die allgemeine inhomogene lineare RWA u′ (t) − A(t)u(t) = f (t) , Ba u(a) + Bb u(b) = g
t ∈ I,
(8.1.3)
mit Matrizen Ba , Bb ∈ Rd×d , einer stetigen Matrizenfunktion A : I → Rd×d sowie einer stetigen Funktion f : [a, b] → Rd und einem Vektor g ∈ Rd . Der RWA (8.1.1) werden die d + 1 AWAn y0′ (t) − A(t)y0 (t) = f (t) , t ≥ a , y0 (a) = 0 , yi′ (t) − A(t)yi (t) = 0 , t ≥ a , yi(a) = ei , i = 1, . . . , d ,
(8.1.4)
zugeordnet mit den kartesischen Einheitsvektoren ei ∈ Rd . Mit den eindeutigen L¨osungen y0 und y1 , . . . , yd von (8.1.4) wird dann die sog. Fundamentalmatrix“ ” y11 (t) . . . yd1 (t) . .. .. Y (t) := . y1d (t) . . . ydd (t)
des Systems (8.1.3) gebildet und der L¨osungsansatz u(t; s) = y0 (t) +
d X
si yi (t) = y0 (t) + Y (t)s
i=1
gemacht. Offensichtlich gen¨ ugt dieser Ansatz der Differentialgleichung u′ (t; s) − A(t)u(t; s) = f (t) ,
t ≥ a.
Es bleibt also, den Vektor s ∈ Rd so zu bestimmen, daß gilt: Ba u(a; s) + Bb u(b; s) = g .
(8.1.5)
Daß dies nicht immer m¨oglich ist, zeigt das folgende Beispiel. Beispiel 8.1: Die Differentialgleichung u“(t) + u(t) = 0, t ∈ [0, π]
⇔
u′1 (t) − u2 (t) = 0, u′2 (t) + u1 (t) = 0,
hat die allgemeine L¨osung: u(t) = c1 sin t + c2 cos t . F¨ ur verschiedene Randbedingungen ergibt sich ein qualitativ unterschiedliches L¨osbarkeitsverhalten. i) u(0) = u(π), u′ (0) = u′ (π) : ii) u(0) = u(π) = 0 : iii) u(0) = 0, u(π) = 1 :
u(t) = 0
u(t) = c1 sin t keine L¨osung.
(eindeutig bestimmt),
(unendlich viele L¨osungen),
8.1 Aus der Theorie der Randwertaufgaben
167
Die Randbedingung (8.1.5) kann durch Einsetzen des Ansatzes f¨ ur u (t) umgeschrieben werden in ein lineares Gleichungssystem f¨ ur s :
d.h.
Ba y0 (a) +Ba Y (a) s + Bb y0 (b) + Bb Y (b)s = g , | {z } | {z } =0 =I [Ba + Bb Y (b)]s = g − Bb y0 (b) .
(8.1.6)
Damit erhalten wir das folgende Resultat: Satz 8.2 (Existenzsatz fu ¨r lineare RWAn): Die lineare RWA (8.1.3) besitzt genau dann f¨ur beliebige Daten f (t) und g eine eindeutige L¨osung u(t) , wenn die Matrix Ba + Bb Y (b) ∈ Rd×d regul¨ar ist. Beweis: Ist die Matrix Ba + Bb Y (b) regul¨ar, so ist das System (8.1.6) eindeutig l¨osbar, und die zugeh¨orige Funktion u(t; s) l¨ost dann nach unserer Konstruktion die RWA (8.1.3). Umgekehrt l¨aßt sich aber jede L¨osung u(t) von (8.1.3) in der Form u(t) = y0 (t) + Y (t)s mit einem s ∈ Rd darstellen, da die L¨osungsmannigfaltigkeit von (8.1.3) die Dimension d hat. D.h.: Die Regularit¨at von Ba + Bb Y (b) ist notwendig und hinreichend f¨ ur die Eindeutigkeit m¨oglicher L¨osungen von (8.1.3). Q.E.D. Bemerkung 8.1: Die eigentliche Bedeutung von Satz 8.2 liegt darin, daß er eine starke Analogie zwischen linearen RWAn und linearen (quadratischen) Gleichungssystemen aufzeigt. Bei beiden Problemtypen gen¨ ugt es zum Nachweis der Existenz von L¨osungen zu zeigen, daß eventuell existierende L¨osungen notwendig eindeutig sind. Nach diesen Vorbereitungen k¨onnen wir nun den Beweis von Satz 8.1 f¨ uhren. Beweis von Satz 8.1: Die Funktion f (t, x) ist gleichm¨aßig Lipschitz-stetig auf einer Umgebung UR des Graphen von u(t) . Daher gibt es ein ρ > 0 , so daß f¨ ur jede L¨osung v(t) der AWA v ′ (t) = f (t, v(t)),
t ∈ I,
v(t0 ) = v0 ,
mit t0 ∈ I, kv0 − u(t0 )k ≤ ρ , notwendig gilt (Folgerung aus dem Stabilit¨atssatz 1.4): max ku(t) − v(t)k ≤ R . t∈I
D.h.: Jede zweite L¨osung v(t) der RWA, deren Graph dem von u(t) um weniger als ρ nahekommt, verl¨auft ganz in UR . Sei nun v(t) eine zweite L¨osung der RWA mit
168
Randwertaufgaben
Graph(v) ⊂ UR . Dann gilt f¨ ur w := u − v : Z 1 ′ w (t) = f (t, u) − f (t, v) = fx′ (t, v + s(u−v)w ds 0 Z 1 ′ ′ ′ = fx (t, u)w + fx (t, v + sw) − fx (t, u) ds w, 0 | {z } =: α(t)
und analog
0 = r(u(a), u(b)) − r(v(a), v(b)) = r(u(a), u(b)) − r(v(a), u(b)) + r(v(a), u(b)) − r(v(a), v(b)) Z 1 Z 1 ′ = rx v(a)+sw(a), u(b) w(a) ds + ry′ v(a), v(b)+sw(b) w(b) ds 0
0
= rx′ (u(a), u(b)) w(a) + ry′ (u(a), u(b))w(b) Z 1 + rx′ v(a)+sw(a), u(b) − rx′ (u(a), u(b)) ds w(a) {z } | 0 =: βa Z 1 ′ ′ + ry (v(a), v(b)+sw(b) − ry (u(a), u(b)) ds w(b). | 0 {z } =: βb
Die Funktion w l¨ost also die homogene lineare RWA
w ′ − [fx′ (t, u) + α(t)] w = 0 , t ∈ I, [rx′ (u(a), u(b)) + βa ] w(a) + ry′ (u(a), u(b)) + βb w(b) = 0.
(8.1.7)
Wegen der angenommenen Lipschitz-Stetigkeit von fx′ (t, ·), rx′ (·, y) und ry′ (x, ·) kann man die Matrizen α(t), βa und βb normm¨aßig beliebig klein machen durch hineichend kleine Wahl von R :
Z 1
kα(t)k = fx′ (t, v + sw) − fx′ (t, u) ds 0 Z 1 ≤ Lfx′ kv + sw − uk ds ≤ Lfx′ max kwk ≤ Lfx′ R, 0
t∈I
und analog
Z
kβa k =
1 0
≤ Lrx′
Z
rx′ v(a)+sw(a), u(b) − rx′ (u(a), u(b)) ds
0
1
kv(a)+sw(a) − u(a)k ds ≤ Lrx′ kw(a)k ≤ Lrx′ R,
8.1 Aus der Theorie der Randwertaufgaben
169
sowie kβb k ≤ Lry′ R . Im Hinblick auf den Stabilit¨atssatz 1.4 f¨ ur AWAn kann damit auch ˜ ˜ ˜ die Abweichung der Matrix Ba + Bb Y (b) von der zum System (8.1.2) geh¨orenden Matrix Ba + Bb Y (b) klein gemacht werden. Da dieses System nur die triviale L¨osung haben soll, ist nach Satz 8.2 notwendig Ba + Bb Y (b) regul¨ar. F¨ ur hinreichend kleines R ist dann ˜ ˜ ˜ auch Ba + Bb Y (b) regul¨ar und folglich wieder nach Satz 8.1 w ≡ 0 die einzige L¨osung von (8.1.7). Der Beweis der Umkehrung dieser Aussage kann hier nicht gebracht werden (siehe die angegebene Literatur zur Theorie von RWAn).
8.1.2 Sturm-Liouville-Probleme Wir wollen nun Satz 8.2 anwenden auf die f¨ ur die Praxis wichtige Klasse der sog. (re” gul¨aren) Sturm-Liouville-Probleme“: −[p u′ ]′ (t) + q(t)u′(t) + r(t)u(t) = f (t) , ′
α1 u (a) + α0 u(a) = ga ,
′
t ∈ I = [a, b] ,
β1 u (b) + β0 u(b) = gb .
(8.1.8)
Dabei seien p ∈ C 1 (I), q, r, f ∈ C(I) und α0 , α1 , β0 , β1 , ga , gb ∈ R . Die Bezeichnung regul¨ar“ bezieht sich auf die Tatsache, daß die Koeffizienten p, q, r nicht singul¨ar und ” das Intervall I als beschr¨ankt vorausgesetzt sind. Die RWA (8.1.8) ist von zweiter Ordnung und muß zun¨achst in ein System erster Ordnung umgeschrieben werden: u1 ≡ u, u2 ≡ u′ u′1 = u2 ,
−[pu2 ]′ + qu2 + ru1 = f, ,
α1 u2 (a) + α0 u1 (a) = ga ,
t∈I,
β1 u2 (b) + β0 u1 (b) = gb .
Unter der Voraussetzung p(t) ≥ ρ > 0 ist dies ¨aquivalent zu dem System " #" # " # # " u′1 0 1 u1 0 , t ∈ [a, b] , − = u2 −f /p u′2 r/p (q − p′ )/p " #" # " #" # " # α0 α1 u1 (a) 0 0 u1 (b) ga + = 0 0 u2 (a) β0 β1 u2 (b) gb
(8.1.9)
in der Standardform (8.1.3). F¨ ur diese RWA lassen sich sehr allgemeine Existenzs¨atze beweisen. Wir beschr¨anken uns hier auf den Spezialfall sog. Dirichletscher“ Randbedin” gungen u(a) = ga ,
u(b) = gb .
(8.1.10)
Satz 8.3 (Sturm-Liouville-Probleme): Es sei p(t) ≥ ρ > 0 . Dann besitzt das SturmLiouville-Problem (8.1.8) mit Dirichletschen Randbedingungen (8.1.10) unter der Bedin-
170
Randwertaufgaben
gung ρ + (b − a)2 min{r(t) − 21 q ′ (t)} > 0
(8.1.11)
t∈I
eine eindeutige L¨osung u(t) ∈ C 2 (I) .
¨ Beweis: Wegen der Aquivalenz des Sturm-Liouville-Problems (8.1.8) mit der RWA (8.1.9) gen¨ ugt es, im Hinblick auf Satz (8.2) zu zeigen, daß das homogene Problem (8.1.8) mit f (t) = 0, ga = gb = 0 nur die triviale L¨osung u(t) = 0 besitzt. Sei also u(t) L¨osung von −[pu′ ]′ + qu′ + ru = 0 ,
t∈I,
u(a) = u(b) = 0.
Multiplikation mit u und Integration u ¨ ber I ergibt Z Z Z 2 ′ ′ ′ 1 − [pu ] u dt + 2 q(u ) dt + ru2 dt = 0 . I
I
I
Durch partielle Integration folgt also bei Ber¨ ucksichtigung der Randbedingungen Z Z b b p(u′ )2 dt − pu′u + {r − 21 q ′ }u2 dt + 21 qu2 = 0 . |{z} a |{z} a I I =0
Also ist
ρ
Z
I
Aus der Identit¨at
=0
q′ } 2
′ 2
(u ) dt + min{r − t∈I
u(t) = u(a) + |{z} =0
Z
Z
I
u2 dt ≤ 0 .
t
u′(s) ds
a
erschließt man die sog. Poincar´esche Ungleichung“ ” Z Z Z t Z 2 2 ′ 2 u dt ≤ u ds dt ≤ (b − a) |u′ |2 dt . I
I
a
I
Damit erhalten wir −2
(b − a) ρ
Z
I
2
u dt + min {r − a≤t≤b
1 ′ q} 2
Z
I
u2 dt ≤ 0 .
Unter der Voraussetzung (8.1.11) folgt Z bzw. u ≡ 0 .
I
u2 dt ≤ 0 Q.E.D.
¨ 8.2 Ubungsaufgaben
171
¨ 8.2 Ubungsaufgaben Aufgabe 8.2.1: Die lineare Differentialgleichung u“(t) + u(t) = 1 hat die allgemeine L¨osung u(t) = A sin(t) + B cos(t) + 1. Man verifiziere, daß zu den Randbedingungen u(0) = u(π/2) = 0 genau eine, zu den Randbedingungen u(0) = u(π) = 0 keine und zu den Randbedingungen u(0) = 1, u(π) = 1 unendlich viele L¨osungen dieser Gestalt existieren. Dies demonstriert die Schwierigkeiten einer einheitlichen Existenztheorie f¨ ur RWAn selbst im linearen Fall. Aufgabe 8.2.2: Man betrachte das spezielle (regul¨are) Sturm-Liouville-Problem −u“(t) + q(t)u′(t) + r(t)u(t) = f (t),
t ∈ I = [a, b],
mit sog. Neumannschen Randbedingungen“ u′(a) = ga , u′ (b) = gb . Man formuliere eine ” Bedingung an die Koeffizienten q und r , unter der diese RWA f¨ ur beliebige stetige rechte Seite f und Randdaten ga , gb eine eindeutige L¨osung besitzt.
172
Randwertaufgaben
9 Schießverfahren 9.1 Lineare Randwertaufgaben Der konstruktive Beweis von Satz 8.2 zur L¨osbarkeit der linearen RWA u′ (t) − A(t)u(t) = f (t) , Ba u(a) + Bb u(b) = g,
t ∈ I = [a, b],
(9.1.1)
legt auch ein Verfahren zu deren numerischer Berechnung nahe, das sog. Schießverfahren. Die kontinuierliche L¨osung ist gegeben in der Form u(t; sˆ) = y0 (t) + Y (t)ˆ s mit den L¨osungen y0 : I → Rd und Y : I → Rd×d der AWAn y0′ (t) − A(t)y0 (t) = f (t) , Y ′ (t) − A(t)Y (t) = 0 ,
t∈I,
y0 (a) = 0 ,
t∈I,
(9.1.2)
Y (a) = I .
sowie der L¨osung sˆ ∈ Rd des linearen Gleichungssystems Qs := (Ba + Bb Y (b))s = g − Bb y0 (b), vorausgesetzt Ba + Bb Y (b) ist regul¨ar. Dabei ist u(t; sˆ) die L¨osung der AWA u′(t; sˆ) − A(t)u(t; sˆ) = f (t),
t ∈ I,
u(a; sˆ) = sˆ ,
(9.1.3)
f¨ ur die gerade die Randbedingung Ba u(a; sˆ)+Bb u(b; sˆ) = g erf¨ ullt ist. Dies begr¨ undet die Bezeichnung Schießverfahren f¨ ur das folgende Vorgehen: x
6
u(a)......................................................................................... . . . s
r
.. . ...... . . ..... . . . .
u(t; s)
. ...... . ...... ..... . ..... . . .... . ... ..... . . . ...... . . . ...... ....... ......... ............. ..............................................
r
b
a
r
u(b) -
t
Abbildung 9.1: Idee des (einfachen) Schießverfahrens.
173
174
Schießverfahren
Das Intervall I wird unterteilt, a = t0 < t1 < . . . < tN = b , in Teilintervalle der L¨ange hn = tn − tn−1 , wobei h := max hn ≤ θ min hn , 1≤n≤N
1≤n≤N
mit einer Konstante θ ≥ 1 . Auf diesem Punktgitter werden dann mit Hilfe eines konvergenten Differenzenverfahrens (Einschrittverfahren, Pr¨adiktor-Korrektor-Verfahren, Extrah N polationsverfahren, etc.) N¨aherungen (yi,n )n=1 , i = 0, . . . , d , zu den L¨osungen yi , i = 0, . . . , d , der AWAn (9.1.2) berechnet; dazu sind d + 1 Systeme zu l¨osen. Ist das verwendete Verfahren von der Ordnung m , und sind die Funktionen A(t), f (t) hinreichend glatt, so verh¨alt sich nach den Resultaten der Kapitel 1.2, 1.4 und 1.5 der Diskretisierungsfehler wie h kyi,N − yi (b)k ≤ KeL(b−a) hm ,
(9.1.4)
wobei die Konstante K im wesentlichen nur von den gegebenen Daten A(t), f (t) abh¨angt, und L = maxt∈I kA(t)k die Lipschitz-Konstante des Systems repr¨asentiert. Mit der dish h kreten Fundamentalmatrix Ynh = [y1,n , . . . , yd,n ] wird dann die Matrix Qh := Ba + Bb YNh gebildet. Ist diese nun ebenfalls regul¨ar, so besitzt das Gleichungssystem h Qh sh = g − Bb y0,N
(9.1.5)
eine eindeutige L¨osung sˆh ∈ Rd , mit der durch h uhn := y0,n + Ynh sˆh ,
n = 0, . . . , N ,
eine N¨aherung zu u(t) definiert ist. Satz 9.1 (Konvergenz des Schießverfahrens): F¨ur hinreichend kleines h > 0 ist die Matrix Qh regul¨ar, und das Schießverfahren konvergiert mit der Ordnung m : max kuhn − u(tn )k = O(hm ) tn ∈I
(h → 0) .
Beweis: Die Fehlerabsch¨atzung (9.1.4) impliziert h kQ − Qh k = kBb Y (b) − Bb YNh k ≤ ckBb k max kyi (b) − yi,N k = O(hm ) , i=1,...,d
mit einer dimensions-abh¨angigen Konstante c . F¨ ur hinreichend kleines h ist also kQ − Qh k <
1 kQ−1 k
bzw. kQ−1 (Qh − Q)k < 1.
(9.1.6)
9.1 Lineare Randwertaufgaben
175
Im Hinblick auf die angenommene Regularit¨at von Q impliziert dies auch die Regularit¨at ¨ von Qh = Q(I + Q−1 (Qh − Q)) sowie die Absch¨atzung (Ubungsaufgabe) kQh−1 k ≤
kQ−1 k . 1 − kQ−1 kkQh − Qk
¨ Uber die Beziehung Q−1 −Qh−1 = Q−1 (Qh −Q)Qh−1 , folgt weiter die Absch¨atzung kQ−1 − Qh−1 k ≤
kQ−1 k2 kQ − Qh k . −1 h 1 − kQ k kQ − Q k
Mit (9.1.6) folgt damit kQ−1 − Qh−1 k = O(hm ) . Damit erschließen wir weiter h ks − sh k = kQ−1 [g − Bb y0 (b)] − Qh−1 [g − Bb y0,N ]k
≤ kQ−1 − Qh−1 k kgk + kQ−1 − Qh−1 k kBbk ky0 (b)k h + kQh−1 k kBb k ky0(b) − y0,N k = O(hm ) .
und hiermit h kuhn − u(tn )k = ky0,n + Ynh sh − y0 (tn ) − Y (tn )sk
h ≤ ky0,n − y0 (tn )k + kYnh − Y (tn )k kshk+
+ kY (tn )k ksh − sk = O(hm ),
was zu zeigen war.
Q.E.D.
Bei der praktischen Durchf¨ uhrung des Schießverfahrens hat man zun¨achst die d + 1 AWAn (9.1.2) zu l¨osen. Da zur Aufstellung des Gleichungssystems (9.1.5) aber nur die h Endwerte yi,N , i = 0, . . . , d , ben¨otigt werden, ist die Anwendung eines Extrapolationsverfahrens mit Basisschrittweite H = b − a zu empfehlen. Die diskrete L¨osung uh wird h h dann statt aus der Darstellung uhn = y0,n + Ynh sˆh , wozu ja yi,n f¨ ur alle n = 0, . . . , N berechnet werden m¨ ußten, durch nochmalige L¨osung der einzelnen AWA u′ (t) − A(t)u(t) = f (t) ,
t∈I,
u(a) = sˆh ,
bestimmt. Je nachdem, mit welcher Methode dies geschieht, erh¨alt man nat¨ urlich m¨oglicherweise eine leicht ver¨anderte L¨osung u˜hn . Das Hauptproblem bei der Durchf¨ uhrung der oben beschriebenen sog. einfachen Schießmethode ist das der Stabilit¨at bei Integration u ¨ber l¨angere Intervalle I . Der Wert der L¨osung y(t; s) der AWA (9.1.3) am rechten Intervallpunkt b kann bei etwas instabileren Problemen sehr empfindlich gegen¨ uber St¨orungen im Anfangswert s sein. Unter
176
Schießverfahren
Umst¨anden muß sˆ zur Kompensation dieser Instabilit¨at mit solcher Genauigkeit berechnet werden, daß der dazu erforderliche numerische Aufwand bei der Diskretisierung der AWAn (9.1.2) nicht mehr realisierbar ist. Beispiel 9.1: y1′ (t) = y2 (t) ,
y2′ (t) = 110y1(t) + y2 (t) .
Die allgemeine L¨osung ist (mit beliebigen Zahlen c1 , c2 ) 1 1 y1 (t) 11t −10t . + c2 e = c1 e y(t) = 11 −10 y2 (t) F¨ ur die Anfangswerte y(0) = (s1 , s2 )T erhalten wir also 10s1 + s2 11t 1 1 11s1 − s2 −10t + . e e y(t; s) = −10 11 21 21 Den Randbedingungen y1 (0) = 1, y1 (10) = 1 gen¨ ugt die L¨osung e110 − 1 1 − e−100 11t 1 1 −10t y(t) = 110 + 110 . e e −10 11 e − e−100 e − e−100 Insbesondere ist y2 (0) = −10 +
21 − e−100 ∼ −10 + 3.5 · 10−47 . e110 − e−100
Eine Rechnung mit zehn Stellen Genauigkeit ergibt f¨ ur den leicht gest¨orten Startwert 1 s˜ = . −10 + 10−9 den zugeh¨origen Endwert y1 (10; s˜) ∼ 1037 anstelle des exakten Wertes y1 (10; s¯) = 1 . Bei diesem hochgradig instabilen Problem versagt die Schießmethode also v¨ollig. Bei dem eben betrachteten Beispiel liegt offensichtlich ein exponentielles Wachstum in der Abh¨angigkeit der L¨osung y(x; s) vom Anfangswert s vor: ky(t; s1) − y(t; s2)k = O(e11t ) ks1 − s2 k . ¨ Diese Beobachtung ist in Ubereinstimmung mit dem Resultat des Stabilit¨atssatzes aus Kapitel 1.1.2 ky(t; s1) − y(t; s2)k ≤ eL|t−a| ks1 − s2 k , wobei L die Lipschitz-Konstante des Systems repr¨asentiert. Um dieses Instabilit¨atsproblem zu u ¨berwinden, wird das einfache Schießverfahren zur Mehrfachschießverfahren ( multiple shooting method“) erweitert. Dazu teilen wir das Intervall [a, b] so in Teilin” tervalle auf, a = t1 < · · · < tk < · · · < tR+1 = b ,
9.1 Lineare Randwertaufgaben
177
daß die kritische Gr¨oße eL(tk+1 −tk ) nicht zu groß wird. Dann wird die Schießprozedur auf jedes der Teilintervalle [tk , tk+1 ] angewendet und die dabei gewonnenen Teilst¨ ucke der L¨osung zu einer globalen L¨osung zusammengesetzt. F¨ ur gegebene Vektoren sk ∈ Rd , k = 1, . . . , R , seien y(t; tk , sk ) die L¨osungen der AWAn y ′(t) − A(t)y(t) = f (t) , y
6
×
t ∈ [tk , tk+1] ,
y(tk ) = sk :
(9.1.7)
(t3 , s3 ) r
... . ... ... ... ... ... ... ... ... . . ... ....................................... .. . ............... ......... ... . ......... .... .. . . .... .. . . .... ... . . . . .... ......... ... .... ............ ................. R R .... ..... ..... ...... .... ..... .. ..... ..... ...... .... ...... ..... . . . . ....... ... . . . . . . . . ........ .. ........... 2 2 ....... ........ ........
r
(t , s )
r
r
×
×
(t1 , s1 ) r
r
a = t1
r
t2
t3
×
(t , s )
r
...
tR
r
-
tR+1 = b
t
Abbildung 9.2: Idee des Mehrfachschießverfahrens
Das Problem besteht dann darin, die R Vektoren sk so zu bestimmen, daß die zusammengesetzte Funktion y(t) : [a, b] → R , y(t) := y(t; tk , sk ) ,
t ∈ [tk , tk+1 ] ,
k = 1, . . . , R ,
stetig auf ganz [a, b] wird und der Randbedingung Ba y(a) + Bb y(b) = g gen¨ ugt. F¨ ur t ∈ [tk , tk+1 ) gilt dann y(t) = y(t) − y(tk ) + =
Z
t
y ′(τ ) dτ +
tk
=
Z
a
t
k−1 X
{y(tl+1) − y(tl )} + y(a)
l=1 k−1 X Z tl+1 l=1
y ′(τ ) dτ + y(a)
tl
{A(τ )y(τ ) + f (τ )} dτ + y(a) ,
d.h.: y(t) ist auf I sogar stetig differenzierbar und somit L¨osung der RWA (9.1.1). Die obigen Forderungen an y(t) ergeben folgende Bestimmungsgleichungen f¨ ur die Vektoren
178
Schießverfahren
sk ∈ Rd : y(tk+1; tk , sk ) = sk+1 , Ba s1 + Bb y(b; tR , sR ) = g .
k = 1, . . . , R − 1 ,
(9.1.8) (9.1.9)
Seien wieder yk (t), Yk (t), (k = 1, . . . , R) die eindeutig bestimmten L¨osungen der AWAn yk′ (t) − A(t)yk (t) = f (t) , t ∈ [tk , tk+1] , yk (tk ) = 0 , Yk′ (t) − A(t)Yk (t) = 0 , t ∈ [tk , tk+1 ] , Yk (tk ) = I .
(9.1.10) (9.1.11)
Die Gleichungen (9.1.8) f¨ uhren dann u ¨ber die lokalen L¨osungsdarstellungen y(t; tk , sk ) = yk (t) + Yk (t) · sk ,
k = 1, . . . , R ,
auf yk (tk+1 ) + Yk (tk+1 )sk = sk+1 , Ba s1 + Bb {yR (b) + YR (b)sR } = g .
k = 1, . . . , R − 1 ,
Die Parametervektoren s1 , . . . , sR sind also bestimmt durch ein lineares Rd×Rd-Gleichungssystem AR s = β
(9.1.12)
mit s = (s1 , . . . , sR )T , β = g − Bb yR (b), y1 (t2 ), . . . , yR−1 (tR ) matrix
Ba
−Y1 (t2 ) I .. .. . . AR = .. .. . . 0 −YR−1 (tR )
T
und der Koeffizienten-
Bb YR (b)
I
Die mit dem eventuellen L¨osungsvektor sˆ gebildete Funktion u ∈ C(I) ist dann konstruktionsgem¨aß die L¨osung der RWA (9.1.1). Zur Untersuchung der Regularit¨at der Matrix A nehmen wir folgende Dreieckszerlegung vor: I 0 Q QR 1 −Y (t ) . . . I 1 2 AR = · . . . .. .. .. 0 I 0 YR−1 (tR ) I | {z } | {z } =: R =: L
mit den rekursiv bestimmten d × d-Matrizen
9.1 Lineare Randwertaufgaben
179
QR = Bb YR (b) .. . Qk
= Qk+1 Yk (tk+1 ) , .. .
Q1
= Ba + Q2 Y1 (t2 )
k = R − 1, . . . , 2,
= Ba + Bb YR (b)YR−1 (tR ) . . . Y1 (t2 ) . Offensichtlich ist die Matrix A regul¨ar, wenn es die Matrix Q1 = Ba +Bb YR (tR−1 ) . . . Y1 (t2 ) ist.
Hilfssatz 9.1 ( Schießmatrix“): Mit der Matrix Q = Ba + Bb Y (b) des einfachen ” Schießverfahrens gilt Q1 = Q .
Beweis: Die Fundamentalmatrizen Y (t) und Yk (t) sind definiert als L¨osungen der AWAn: Y ′ (t) − A(t)Y (t) = 0 , t ∈ I , Y (a) = I , Yk′ (t) − A(t)Yk (t) = 0 ,
t ∈ [tk , tk+1] ,
Yk (tk ) = I ,
k = 1, . . . , R .
Die L¨osung der AWA yk′ (t)
− A(t)y(t) = 0 ,
t∈I,
y(a) = α =
d X
αi ei ,
i=1
ist gerade y(t) = Y (t)α bzw. y(t) = Y1 (t)α . Also ist Y1 (t2 )α = Y (t2 )α
∀ α ∈ Rd .
Analog gilt allgemein Yk (tk+1 )[Yk−1(tk )α] = Yk−1 (tk+1 )α , und durch Rekursion folgt daraus YR (tR+1 ) . . . Y1 (t2 )α = Y (tR+1 )α
∀ α ∈ Rd . Q.E.D.
Das Mehrfachschießverfahren ist also durchf¨ uhrbar, wenn die gegebene RWA eine eindeutige L¨osung besitzt, d.h. wenn Ba + Bb Y (b) regul¨ar ist. Die Dreieckszerlegung AR = RL k¨onnte nat¨ urlich direkt zur Berechnung des Parametervektors sˆ verwendet werden. Durch R¨ uckw¨artseinsetzen w¨are zun¨achst Rσ = β
180
Schießverfahren
nach σ aufzul¨osen, wozu es im wesentlichen nur der L¨osung des d × d-Systems Q1 σ1 =
d X
Qi βi
(9.1.13)
i=2
bedarf. Durch sukzessives Vorw¨artseinsetzen erh¨alt man dann sˆ aus Lˆ s = σ . Die Matrix Q1 = Q wird aber meist sehr schlecht konditioniert sein, wie wir ja schon im Zusammenhang mit dem einfachen Schießverfahren festgestellt haben: kQ−1 1 k ≫ 1. Statt der obigen RL-Zerlegung von A verwendet man daher besser das Gaußsche Eliminationsverfahren mit partieller Pivotierung direkt am System As = β . Bei der praktischen Durchf¨ uhrung des Mehrfachschießverfahrens berechnet man analog zum einfachen h h Schießverfahren wieder mit Hilfe eines AWAn-L¨osers“ diskrete N¨aherungen yi,n und Yi,n ” zu den Funktionen yi (t) und Yi (t) und erh¨alt damit eine Approximation Ah sˆh = β h zum System (9.1.12). Die daraus bestimmten Parametervektoren sˆh1 , . . . , sˆhR ergeben dann durch h h h ynh := yk,n + Yk,n sˆk , tn ∈ [tk , tk+1 ] , k = 1, . . . , R,
eine N¨aherungsl¨osung ynh f¨ ur die RWA (9.1.1). Analog wie in Satz 9.1 zeigt man auch hier die Konvergenz max ku(tn ) − ynh k = O(hm ) (h → 0) tn ∈I
mit der Ordnung m des AWAn-L¨osers. (Dabei sind nat¨ urlich die Schießpunkte tk als Gitterpunkte angenommen!) Dar¨ uber hinaus l¨aßt sich noch zeigen, daß i. Allg. die Matrix Qh1 eine wesentlich bessere Approximation von Q1 ist als Qh von Q .
9.2 Nichtlineare Randwertaufgaben Wir betrachten nun die allgemeine RWA u′(t) = f (t, u(t)) ,
t∈I,
r(u(a), u(b)) = 0 ,
(9.2.14)
unter den Bedingungen von Abschnitt 8.1.1 und nehmen an, daß eine lokal eindeutige L¨osung u(t) existiert. Das einfache Schießverfahren zur Berechnung von u(t) geht aus von der AWA y ′ (t) = f (t, y(t)) ,
t∈I,
y(a) = s ,
(9.2.15)
und versucht den Parameter sˆ ∈ Rd so zu bestimmen, daß die L¨osung y(t; sˆ) der Randbedingung gen¨ ugt: r(y(a; sˆ), y(b; sˆ)) = r(ˆ s, y(b; sˆ)) = 0 .
9.2 Nichtlineare Randwertaufgaben
181
Unter der Annahme, daß (9.2.15) wenigstens f¨ ur ein gewisses Intervall [s1 , s2 ] eindeutige L¨osungen y(x; s) auf I besitzt, ist dieses Vorgehen ¨aquivalent zur Suche nach einer Nullstelle sˆ ∈ [s1 , s2 ] der implizit definierten Funktion F (s) := r(s, y(b; s)) . Zur Auswertung von F (s) f¨ ur ein s ∈ [s1 , s2 ] muß zun¨achst der Wert y(b; s) der zugeh¨origen L¨osung der AWA (9.2.15) berechnet werden. Zur Berechnung einer Nullstelle sˆ von F (s) bietet sich etwas eine Fixpunktiteration der Form s(i) = s(i−1) − CF (s(i−1) ),
i ∈ N,
(9.2.16)
an, mit einer geeigneten regul¨aren Matrix C ∈ Rd×d . Wir wissen, daß die L¨osung y(b; s) der AWA (9.2.15) Lipschitz-stetig vom Anfangswert y(a; s) = s abh¨angt; dies ist eine Konsequenz des allgemeinen Stabilit¨atssatzes 1.4. Damit wird auch die Funktion F (s) Lipschitz-stetig, und die Fixpunktiteration (9.2.16) kann durch geschickte Wahl von C zur Konvergenz gebracht werden. Diese ist allerdings in der Regel zu langsam, so daß wir lieber das wesentlich schnellere Newton-Verfahren verwenden m¨ochte. Dazu ben¨otigen wir aber die Ableitung (Jacobi-Matrix) der Funktion F (s) bzw. die Ableitung des Wertes y(b; s) nach dem Anfangswert s . Letztere ist eine Matrixfunktion G(t; s) := ∂s y(t; s) und nach Satz 1.5 aus Abschnitt 1.1.1 als L¨osung einer linearen Matrix-AWA gegeben, vorausgesetzt alle Daten des Problems sind hinreichend glatt“: ” G(t; s)′ (t) = fx (t, y(t; s))G(t; s)(t) ,
t∈I,
G(a; s) = I .
(9.2.17)
Ist auch die Funktion r(., .) stetig differenzierbar (In der Praxis ist r meist sogar linear.), so wird die Funktion F (s) stetig differenzierbar mit der Ableitung F ′ (s) = rx (s, y(b; s)) + ry (s, y(b; s))G(b; s). Damit lautet das Newton-Verfahren wie folgt: s(i+1) = s(i) − F ′ (s(i) )−1 F (s(i) ) ,
i = 0, 1, 2, . . . ,
(9.2.18)
wobei s(0) ein geeigneter Startwert ist. Um s(i+1) aus s(i) zu berechnen, sind dann folgende Schritte n¨otig: i) L¨osung der AWA y ′(t) = f (t, y(t)) ,
t∈I,
y(a) = s(i) ,
und Auswertung der Funktion F (s(i) ) = r(s(i) , y(b; s(i) )); ii) L¨osung der linearen (Matrix)-AWA G′ (t; s) = fx′ (t, y(t; s(i) ))G(t; s),
t∈I,
G(a; s) = I,
182
Schießverfahren
und Auswertung der Matrixfunktion F ′ (s(i) ) = rx (s(i) , y(b; s(i) )) + ry (s(i) , y(b; s(i) ))G(b; s(i) ); iii) L¨osung des linearen Gleichungssystems F ′ (s(i) )s(i+1) = F ′ (s(i) )s(i) − F (s(i) ). Beispiel 9.2: w“(t) = 32 w(t)2 ,
t ∈ [0, 1] ,
w(0) = 4 ,
w(1) = 1 ,
y1′ (t) = y2 (t) 3 y2′ (t) = y1 (t)2 , 2
t ∈ [0, 1],
y1 (0) = 4 ,
y1 (1) = 1.
y1 (0) = 4 ,
y2 (0) = s.
bzw.
Die zugeh¨orige AWA ist hier problemangepaßt: y1′ (t) = y2 (t) 3 y2′ (t) = y1 (t)2 , 2
t ∈ [0, 1],
Die daraus resultierende Funktion F (s) zeigt das folgende Bild: .. . ... .. .. ... .. ... ... ... .. ... .. ... .. ... . . ... .. ... .. ... .. ... .. ... .. . . ... . ... .. ... ... ... ... ... .... .. . .... ... ..... . ...... .. ...... .. ........ ... ......... ........ .. ....... .. ....... ....... s ˆ sˆ2...... ...... 1 . ...... ...... .. .. ..... .. -100 -80 -60 -40 ...............-20 ... ........................
r
r
r
r
r
s →
r70 r60 r50 r40 r30 F (s) r20 r10 r0
6 4 2 0 -2 -4 -6 -8 -10 -12
r r r r r r r r r r
............ ... ............... 1 ............. ... .............. w (t) ... ................ ... .................... ........................... ... ............................... ... . ... .. ... .. ... .. .. ... . . ... 0.2 04 0.6 0.8 ..... 1.0 ... . ... t → ... ... .. ... .. ... . . ... .. ... ... ... ... ... ... ... . ... . .. ... ... ... .... ... 2 .. ... w (t) ... . . ... .. ... ... ... .... ... ... ... .... . . . . . .... ....... .............
r
r
r
r
r
Abbildung 9.3: Verlauf der Funktion F (s) . Offensichtlich hat die Funktion F (s) zwei Nullstellen, welche zu zwei verschiedenen L¨osungen w i (i = 1, 2) der RWA geh¨oren. Obwohl diese dieselben Randwerte haben, besteht aber kein Widerspruch zum Eindeutigkeitssatz 8.1, da es sich hier um eine RWA 2ter Ordnung handelt. Die oben beschriebene Newton-Iteration liefert die folgenden N¨aherungswerte f¨ ur die Nullstellen: sˆ1 = −8 ,
sˆ2 = −35.8585487278 .
9.2 Nichtlineare Randwertaufgaben
183
Ein Vergleich mit der bekannten exakten L¨osung zeigt, daß die Schießmethode in diesem Fall eine auf mindestens 10 Stellen genaue N¨aherung liefert. Die Berechnung der Ableitungsmatrix F ′ (s(i) ) in Schritt (ii) erfordert die L¨osung eines d × d-Systems von linearen gew¨ohnlichen Differentialgleichungen. Dies kann in der Praxis zu aufwendig sein. Stattdessen kann man die Ableitung F ′ durch einen Differenzenquotienten approximieren ∆F (s) = (∆1 F (s), . . . , ∆d F (s)) , wobei ∆j F (s) =
F (s1 , . . . sj + ∆sj , . . . , sd ) − F (s1 , . . . , sd ) . ∆sj
Die Werte F (s1 , . . . , sj + ∆sj , . . . , sd ) und F (s1 , . . . , , sd ) werden gem¨aß Schritt i) berechnet. Zur Rechtfertigung des Schießverfahrens f¨ ur die RWA (9.2.14) und insbesondere der Verwendung des Newton-Verfahrens zur Berechnung der Nullstelle sˆ der impliziten Funktion F (s) sei nun folgendes angenommen: Auf einer ρ-Umgebung (ρ > 0) Uρ = { (t, x) ∈ I × Rd | kx − u(t)k ≤ ρ t ∈ I} der isolierten L¨osung u(t) der RWA (9.2.14) ist f ∈ C 2 (Uρ ) und besitzt bzgl. des Arguments x die Lipschitz-Konstante L. Auf einer ρ-Umgebung Qρ = { (x, y) ∈ Rd × Rd | kx − u(a)k ≤ ρ , ky − u(b)k ≤ ρ } der Randwerte ist r ∈ C 2 (Qρ ) . In Analogie zu Satz 1.1.7 des Kapitels 1.1.2 gilt dann: Hilfssatz 9.2 (Nichtlineares Schießverfahren): F¨ur jeden Vektor s ∈ K = { σ ∈ Rd | ku(a) − σk < ρ e−L(b−a) } besitzt die AWA y ′ (t) = f (t, y(t)) ,
t∈I,
y(a) = s ,
eine eindeutige L¨osung y(t; s) , welche ganz in Uρ verl¨auft. Weiter ist u(b; s) ∈ C 2 (K) , und die Ableitungsmatrix ∂s y(t; s) = G(t; s) erf¨ullt G′ (t; s) = fx (t, y(t; s))G(t; s) ,
t∈I,
G(a; s) = I .
Beweis: Siehe: E.A. Coddington und N. Levinson: Theory of Ordinary Differential Equations, McGraw-Hill, 1955. Q.E.D. Mit Hilfe dieses Resultates erhalten wir nun leicht folgenden Satz.
184
Schießverfahren
Satz 9.2 (Newton-Bedingungen): Unter den obigen Bedingungen gilt F (s) ∈ C 2 (K) , F (u(a)) = 0 , und F ′ (u(a)) ist regul¨ar.
Beweis: i) ist eine unmittelbare Folge der Glattheitsvoraussetzungen an f (t, x) und r(x, y) und Hilfsatz 9.2. ii) ist offensichtlich. Zur Verifikation von iii) schreiben wir F ′ (s) = rx (s, y(b; s)) + ry (s, y(b; s))G(b; s) . Offenbar ist G(t; s) = Y (t) gerade die Fundamentalmatrix der linearen Gleichung (f¨ ur festes s ) Y ′ (t) − fx (t, y(t; s)Y (t) = 0 , t ≥ a , Y (a) = I. Also ist F ′ (u(a)) = rx (u(a), y(b; u(a))) + ry (u(a), y(b; u(a)))Y (b) . Diese Matrix ist aber gem¨aß Satz 8.2 notwendig regul¨ar, wenn u(t) isolierte L¨osung ist, da dann das linearisierte System (8.1.2) aus Satz 8.1 nur die triviale L¨osung haben kann. Q.E.D. Satz 9.2 enth¨alt gerade die wesentlichen Bedingungen, unter denen das Newton-Verfahren lokal quadratisch konvergiert: ks(k) − sˆk ≤ cks(k−1) − sˆk2 ,
k = 1, 2, . . . ;
auf die wichtige Frage der Bestimmung eines geeigneten Startvektors s(0) ∈ K kann hier nicht eingegangen werden (siehe dazu z.B. [Stoer/Bulirsch] im Literaturverzeichnis). Wir skizzieren nun noch die kontinuierliche Version des Mehrfachschießverfahrens zur L¨osung der RWA (9.2.14). F¨ ur gegebene Vektoren sk (k = 1, . . . , R) seien y(t; tk , sk ) die L¨osungen der AWA y ′(t) = f (t, y(t)) ,
t ∈ [tk , tk+1 ] ,
y(tk ) = sk .
(9.2.19)
Das Problem besteht nun darin, die Vektoren sk so zu bestimmen, daß die zusammengesetzte Funktion y(t) := y(t; tk , sk ) , y(b) = sR+1 ,
t ∈ [tk , tk+1 ],
k = 1, . . . , R − 1,
(9.2.20)
stetig (und damit nat¨ urlich notwendig auch stetig differenzierbar) auf dem ganzen Intervall [a, b] wird und der Randbedingung gen¨ ugt: r(y(a), y(b)) = r(s1 , sR+1 ) = 0 . Dann ist y(t) die gesuchte L¨osung der RWA (8.1.11).
9.2 Nichtlineare Randwertaufgaben
185
Dies sind d · R Bestimmungsgleichungen f¨ ur sk : y(tk+1; tk , sk ) = sk+1 , r(s1 , sR+1 ) = 0,
k = 1, . . . , R − 1,
(9.2.21)
die auch in der Form geschrieben werden k¨onnen: F1 (s1 , s2 ) y(t2 ; t1 , s1 ) − s2 .. .. . . F (s) := = FR−1 (sR−1 , sR ) y(tR ; tR−1 , sR−1 ) − sR FR (s1 , sR+1 ) r(s1 , sR+1 )
= 0.
Eine Nullstelle s¯ ∈ Rd×R der Funktion F (s) kann wieder mit Hilfe des Newton-Verfahrens bestimmt werden. Ausgehend von einem geeigneten Startwert s(0) lautet die Iteration dann s(i+1) = s(i) − F ′ (s(i) )−1 F (s(i) ) ,
i = 0, 1, 2, . . . .
(9.2.22)
Jeder Iterationsschritt erfordert nun die L¨osung der R AWAn y ′(t) = f (t, y(t)) ,
t ∈ [tk , tk+1 ]
(i)
(i)
y(tk ) = sk → y(tk+1; tk , sk ), f¨ ur k = 1, . . . , R , und die Berechnung der Jacobi-Matrix
F ′ (s(i) ) =
∂ Fk (s(i) ) ∂sj
i,j=1,...,R
=
G1 −I 0 .. .
G2 −I .. .
0 A
0
0
... ..
.
0
GR−1
...
0
0 .. . , 0 −I B
wobei die folgenden Abk¨ urzungen verwendet wurden: ∂ y(tk+1; tk , sk ) , k = 1, . . . , R , ∂sk ∂ ∂ = r(s1 , sR+1 ) , A = r(s1 , sR+1 ) . ∂sR ∂s1
Gk = B
Normalerweise ist die direkte Berechnung von F ′ (s(i) ) aus seiner Darstellung als L¨osung einer linearen AWA viel zu aufwendig. Da die Koeffizienten dieses Systems von der L¨osung y(t) abh¨angen, m¨ ußte man diese dazu mit großer Genauigkeit auf dem ganzen“ Intervall ” I berechnen, obwohl sie eigentlich nur in den Gitterpunkten tk ben¨otigt wird! Man ersetzt
186
Schießverfahren
daher die Ableitung F ′ (s(i) ) wieder durch einen Differenzenquotienten ∆F (s(i) ) = ( ∆jk F (s(i) ) )j,k=1,...,R , wobei
(i)
(i)
F (. . . , sjk + ∆sjk , . . .) − F (. . . , sjk , . . .) ∆jk F (s ) = . ∆sjk (i)
Zur Berechnung der Iterierten s(i+1) aus s(i) schreiben wir das lineare Gleichungssystem (9.2.22) in der Form G1 ∆s1 − ∆s2 = −F1 .. . GR−1 ∆sR−1 − ∆sR = −FR−1 A∆s1 + B∆sr = −FR (i+1)
mit den Abk¨ urzungen ∆sk := sk dieser Gleichung erh¨alt man dann: ∆s2
(i)
− sk und Fk := Fk (sk , sk+1) . Durch Kombination
= G1 ∆s1 + F1 .. .
∆sR = GR−1 . . . G1 ∆s1 + und aus der letzten Gleichung:
PR−1 j=1
(9.2.23) R−1 (Πl=j+1 Gl )Fj ,
[A + BGR−1 . . . G1 ]∆s1 = w mit
(9.2.24)
w = −[FR + BFR−1 + BGR−1 FR−2 + . . . + BGR−1 . . . G2 F1 ] .
Das lineare Gleichungssystem (9.2.24) f¨ ur ∆s1 kann nun etwa mit Hilfe des Gaußschen Eliminationsverfahrens gel¨ost werden. Die anderen Unbekannten ∆sk , k = 2, . . . , R erh¨alt man dann aus den Rekursionsgleichungen (9.2.23).
¨ 9.3 Ubungsaufgaben Aufgabe 9.3.1: Die Randwertaufgabe u“(t) = 100u(t),
0 ≤ t ≤ 3,
u(0) = 1, u(3) = e−30 ,
soll mit dem einfachen Schießverfahren gel¨ost werden. Dazu berechnet man die L¨osung u(t; s) der Anfangswertaufgabe u“(t) = 100u(t),
t ≥ 0,
u(0) = 1, u′ (0) = s,
¨ 9.3 Ubungsaufgaben
187
und suche s = s∗ so zu bestimmen, daß u(3; s∗) = e−30 wird. Wie groß ist der relative Fehler in u(3; s∗ ) , wenn s∗ mit einem relativen Fehler ε behaftet ist Aufgabe 9.3.2: F¨ ur eine d-dimensionale lineare RWA mit separierten“ Randbedingun” gen u′ (t) = −Au(t) = f (t), t ∈ [a, b], ui (a) = αi , i = 1, . . . , r, ui (b) = βi , i = r + 1, . . . , d, kann die Dimension der im Zuge der Mehrzielmethode zu l¨osenden Gleichungssysteme reduziert werden. F¨ ur den Fall d = 2 , a = x1 < x2 < x3 = b stelle man das Gleichungssystem f¨ ur die Parametervektoren s1 und s2 auf. Dabei soll entsprechend der Separation der Randbedingungen von a = x1 nach x2 und r¨ uckw¨arts von b = x3 nach x2 integriert werden (sog. Gegenschießen“). ” Aufgabe 9.3.3: Man l¨ose die skalare Randwertaufgabe −u“(t) − 4u′ (t) + sin(t)u(t) = cos(t), 0 ≤ t ≤ π, u(0) = u(π), u′ (0) = u′ (π), mit Hilfe des Einfachschießverfahrens. Als Integrator f¨ ur die AWA verwende man alternativ das Heunsche Verfahren 2-ter Ordnung und das klassische Runge-Kutta-Verfahren 4-ter Ordnung.
188
Schießverfahren
10 Differenzenverfahren 10.1 Systeme erster Ordnung
Wir konzentrieren uns im Folgenden auf die Betrachtung linearer RWAn im Rd , obwohl die meisten Aussagen sinngem¨aß auch f¨ ur die Approximation isolierter L¨osungen nichtlinearer Probleme u urzung der Notation f¨ uhren wir ¨bertragen werden k¨onnen. Zur Abk¨ Operatoren L : C 1 (I) → C(I) und R : C(I) → R ein: (Lu)(t) := u′ (t) − A(t)u(t) = f (t) , Ru := Ba u(a) + Bb u(b) = g,
t ∈ I = [a, b],
(10.1.1)
Wir nehmen an, daß diese RWA eine eindeutige L¨osung besitzt, bzw. daß die Matrix Ba + Bb Y (b) regul¨ar ist. Grunds¨atzlich kann jedes Differenzenverfahren zur L¨osung von AWAn, u′ (t) − A(t)u(t) = f (t) ,
t ≥ a,
u(a) = α ,
(10.1.2)
auch zur L¨osung der RWA (10.1.1) verwendet werden. Dazu w¨ahlt man etwa ein ¨aquidistantes Gitter auf [a, b] , tn = a + nh ,
0≤n≤N,
h = (b − a)/N ,
auf dem Approximationen yn zu u(tn ) bestimmt werden sollen. Anwendung der Differenzenformeln auf eine Gitterfunktion y h := (yn )N n=0 ergibt dann ein System von N Differenzengleichungen h
(Lh y )n :=
N X
Cnj (h)yj = Fn (h; f ) ,
n = 1, . . . , N .
(10.1.3)
j=0
¨ Eine (N + 1)-te Gleichung erh¨alt man durch exakte Ubernahme der Randbedingung Rh y h := Ba y0 + Bb yN = g .
(10.1.4)
Das diskrete Operatorpaar {Lh , Rh } wird als Approximation von {L, R} betrachtet. Durch die Beziehungen (10.1.3), (10.1.4) mit der Koeffizientenmatrix (Cnj (h))N n,j=1 und dem inhomogenen Vektor (Fn (h; f ))N wird eine sehr allgemeine Klasse von Differenzenn=1 approximationen der RWA (10.1.1) erfaßt; alle im ersten Teil der Vorlesung beschriebenen Einschritt-, Mehrschritt- und Extrapolationsverfahren fallen darunter. Man erh¨alt so ein lineares Gleichungssystem Ah y h = β h 189
(10.1.5)
190
Differenzenverfahren
f¨ ur den diskreten L¨osungsvektor y h = (y0 , . . . , yN )T ∈ R(N +1)d mit g Ba 0 ... Bb F1 (h; f ) C10 (h) C11 (h) . . . C1N (h) Ah = , βh = .. . . . . . . . . . . . . . FN (h; f ) CN 0 (h) CN 1 (h) . . . CN N (h)
.
Dies ist eine (N + 1) × (N + 1)-Blockmatrix, deren Blockelemente wir mit Ah;nm bezeichnen. Im Folgenden wird die einheitliche Bezeichnung y h sowohl f¨ ur die diskrete Gitterfunktion y h : {t0 , ..., tN } → Rd wie f¨ ur den zugeh¨origen Block-Vektor der Gitterwerte y h := (y0 , ..., yN )T verwenden. Verwechslungen sollten ausgeschlossen sein. Beispiel 10.1: Eins der einfachsten Differenzenverfahren ist das sog. Box-Schema“, wel” ches auf der Trapezregel als AWAn-L¨oser basiert: Lh yn = h−1 (yn − yn−1 ) − 12 An−1/2 (yn + yn−1 ) = fn−1/2 , wobei tn−1/2 := 12 (tn + tn−1 ) und An−1/2 := A(tn−1/2 ) gesetzt ist. Das zugeh¨orige Gleichungssystem (10.1.5) hat hier die Gestalt g Ba 0 Bb y 0 1 −I − 1 hA hf y I − hA 0 1/2 1/2 1/2 1 2 2 . . = . . . . . . . . . . . 1 1 hfN −1/2 yN I − 2 hAN −1/2 0 −I − 2 hAN −1/2
Die eindeutige L¨osbarkeit dieses Systems (f¨ ur hinreichend kleines h ) wird unten im Rahmen eines sehr viel allgemeineren Resultats gezeigt werden. Zur Untersuchung der Konvergenz der Differenzenapproximation (10.1.3), (10.1.4) f¨ uhren wir wieder den Abschneidefehler τ h als Gitterfunktion ein durch τ h := Lh uh − F h (h; f ) . Dabei bezeichnet uh die durch Restriktion der L¨osung u auf das Punktgitter {to , ..., tN } gewonnene Gitterfunktion. Im Falle einer AWA hatten wir gesehen, daß hinreichend f¨ ur die Konvergenz der Differenzenapproximation ihre Konsistenz (mit Ordnung m ≥ 1 ), ky0 − u0 k + max kτn k = O(hm ) , 1≤n≤N
(10.1.6)
und ihre Stabilit¨at, max kyn k ≤ K ky0k + max k(Lh y h )n k ,
0≤n≤N
1≤n≤N
(10.1.7)
10.1 Systeme erster Ordnung
191
f¨ ur Gitterfunktionen y h = (yn )0≤n≤N ist. Die Stabilit¨atsbedingung (10.1.7) ist lediglich eine Umformulierung der Aussagen der Stabilit¨atss¨atze 2.2 und 5.2 f¨ ur Einschritt- bzw. f¨ ur lineare Mehrschrittverfahren, wobei K ∼ eL(b−a) ist. Wird nun das Differenzenverfahren zur L¨osung der RWA (10.1.1) angewendet, so definiert man sinngem¨aß Konsistenz (mit der Ordnung m ) durch kRh uh − gk + max k(Lh uh )n − Fn (h; f )k = O(hm ) 1≤n≤N
(10.1.8)
und Stabilit¨at durch max kyn k ≤ K kRh y h k + max k(Lh y h )n k
0≤n≤N
1≤n≤N
(10.1.9)
f¨ ur Gitterfunktionen y h = (yn )0≤n≤N und hinreichend kleines h .
Die Stabilit¨atseigenschaft (10.1.9) des Differenzenoperators {Lh , Rh } l¨aßt sich ¨aquivalent durch eine Stabilit¨atseigenschaft der zugeh¨origen Matrix Ah ausdr¨ ucken. Dazu f¨ uhren wir die von der Vektornorm ky h k∞ := max kyn k, 0≤n≤N
y h ∈ R(N +1)d ,
erzeugte nat¨ urliche Matrizennorm ein: kAh k∞ :=
sup y h ∈R(N+1)d
kAh y h k∞ , ky h k∞
Ah ∈ R(N +1)d×(N +1)d .
Diese Matrizennorm ist gerade die sog. Maximale-Blockzeilensummen-Norm“ ” kAh k∞ = max
n=0,...,N
N X
m=0
kAh;n,mk ,
wobei wiederum kAh;n,mk die von der Euklidischen Vektornorm des Rd erzeugte nat¨ urlid×d che Matrizennorm des R ist. Hilfssatz 10.1 (Stabilit¨ at linearer Differenzenverfahren): Die Stabilit¨at des Differenzenschemas (10.1.3), (10.1.4) ist ¨aquivalent dazu, daß die zugeh¨origen Matrizen Ah regul¨ar sind mit sup kA−1 h k∞ < ∞ .
(10.1.10)
h>0
Beweis: F¨ ur eine Gitterfunktion y h = {yn }0≤n≤N bzw. Gitterwertvektor y h = (yn )N n=0 h ist Ah y = 0 a¨quivalent mit (Lh y h )n = 0 (1 ≤ n ≤ N) und Rh y h = 0 . Aus (10.1.9) folgt also notwendig die Regularit¨at von Ah sowie kA−1 aßig bzgl. h ) und h k∞ ≤ c (gleichm¨ umgekehrt: ky h k∞ ≤ cK . kA−1 k := sup ∞ h h y h ∈R(N+1)d kAh y k∞
192
Differenzenverfahren
Q.E.D. In Analogie zu den Konvergenzs¨atzen f¨ ur Diskretisierungen von AWAn haben wir nun den folgenden
Satz 10.1 (Konvergenzsatz): Ist das Differenzenschema (10.1.3), (10.1.4) konsistent mit der Ordnung m ≥ 1 und stabil, so ist es konvergent max kyn − u(tn )k = O(hm ) tn ∈I
(h → 0).
Beweis: F¨ ur die Fehlerfunktion eh := y h − uh gilt Lh eh = Lh y h − Lh uh = F h (h; f ) − Lh uh = −τ h . Aufgrund der Konsistenz folgt kRh eh k + max kτn k = O(hm ) , 1≤n≤N
so daß die Stabilit¨at direkt die gew¨ unschte Konvergenzaussage impliziert.
Q.E.D.
Das Hauptproblem bei der Analyse von Differenzendiskretisierungen der RWA (10.1.1) ¨ besteht also im Nachweis der Stabilit¨at. Uberraschenderweise gibt es aber daf¨ ur ein sehr allgemeines Kriterium:
¨ Satz 10.2 (Aquivalenzsatz): Das Differenzenschema (10.1.3), (10.1.4) ist konsistent (mit Ordnung m) und stabil f¨ur die RWA (10.1.1) genau dann, wenn es konsistent (mit Ordnung m) und stabil f¨ur die AWA (10.1.2) ist.
¨ Beweis: (i) Die Aquivalenz der Konsistenz mit Ordnung m ist klar, da die Randbedingung bzw. Anfangsbedingung exakt erf¨ ullt werden. Die AWA kann als spezielle RWA mit Ba = I und Bb = 0 aufgefaßt werden. Zum Beweis des Satzes betrachten wir nun zwei beliebige Randwertaufgaben RWA(0) bzw. RWA(1) f¨ ur das System Lu(t) = u′ (t) − A(t)u(t) = f (t) ,
t∈I,
(10.1.11)
i = 0, 1,
(10.1.12)
zu den Randbedingungen (i)
R(i) u = Ba(i) u(a) + Bb u(b) = g ,
und nehmen an, daß beide eindeutig l¨osbar sind. Es ist dann zu zeigen, daß die Stabilit¨at des Differenzenschemas f¨ ur RWA(0) auch die f¨ ur RWA(1) impliziert. Die zugeh¨origen
10.1 Systeme erster Ordnung
193
Verfahrensmatrizen sind
(i) Ah
(i) Ba
C10 (h) = .. . CN 0 (h)
0...0
(i) Bb
...
C1N (h) .. .
...
CN N (h)
,
i = 0, 1 .
(0)
Sei nun das Schema stabil f¨ ur RWA(0), d.h.: Nach Hilfssatz 10.1 ist Ah (0)−1 suph>0 kAh k∞ < ∞ . Mit der Differenz (1) (0) (1) (0) Ba − Ba . . . Bb − Bb 0 ... 0 (0) (1) Dh := Ah − Ah = . . .. .. 0 0
regul¨ar und
schreiben wir
(1)
(0)−1
Ah = (I + Dh Ah
(0)
) Ah .
(10.1.13) (0)
Im Hinblick auf die angenommene Regularit¨at der Matrizen Ah und der gleichm¨aßigen (0)−1 beschr¨anktheit ihrer Inversen m¨ ussen jetzt die Matrizen I +Dh Ah untersucht werden. (0)−1
regul¨ar und ihre Inverse (ii) Wir wollen jetzt zeigen, daß die Matrix I + Dh Ah (0) gleichm¨aßig in h beschr¨ankt ist. Dazu schreiben wir die Inverse von Ah in der Blockform (0) (0) Z00 . . . Z0N . .. (0)−1 (0) d×d .. Ah = . , Zjk ∈ R . (0) (0) ZN 0 . . . ZN N (0)
(0)−1
Durch zeilenweise Auswertung der Beziehung Ah Ah ziehungen (0)
(0)
= I ergeben sich dann die Be-
(0)
Ba(0) Z00 + Bb ZN 0 = I (0) Ba(0) Z0k
+
(0) (0) Bb ZN k
= 0,
(10.1.14) k = 1, ..., N ,
(10.1.15)
und N X
(0)
Cnl Zl0 = 0 ,
n = 1, ..., N .
l=0
Mit diesen Bezeichnungen k¨onnen wir schreiben:
(10.1.16)
194
I+
Differenzenverfahren
(0)−1 Dh Ah
=
..
. I
I
+
(1) (0) Ba −Ba
...
0
...
0
(0)
(1)
(0)
Qh,0 Qh,1 . . . Qh,N
=
I
..
.
(0) (0) Z00 . . . Z0N . .. .. . (0) (0) ZN 0 . . . ZN N
(1) (0) Bb −Bb
,
I
mit den Matrizen
(0)
Qh,0 := I + [Ba(1) − Ba(0) ] Z00 + [Bb − Bb ]ZN 0 (0)
(1)
(0)
(0)
(0)
(0)
= I + [Ba(1) Z00 + Bb ZN 0 ] − [Ba(0) Z00 + Bb ZN 0 ], | {z }
=I (0) (1) (0) (0) (0) Qh,k := − Ba ] Z0k + [Bb − Bb ]ZN k (0) (1) (0) (0) (0) (0) = [Ba(1) Z0k + Bb ZN k ] − [Ba(0) Z0k + Bb ZN k ] .
[Ba(1)
{z
|
=0
(iii) Als n¨achstes wollen wir zeigen, daß der erste Diagonalblock (0)
(1)
}
(0)
Qh,0 = Ba(1) Z00 + Bb ZN 0 (0)
(0)
regul¨ar ist. Aus (10.1.14) und (10.1.16) sehen, daß der Blockvektor“ Z0 := (Zk0 )k=0,...,N ” die Beziehungen (0) (0) (0) Lh Z0 = 0, Rh Z0 = I erf¨ ullt. Dies ist somit die Differenzenapproximation zur L¨osung Z (0) (t) ∈ R(N +1)d×d der RWA Z ′ (t) − A(t)Z(t) = 0 ,
t ∈ [a, b] ,
R(0) Z = I ,
(10.1.17)
ist. Nach Hilfssatz 10.1 gilt dabei f¨ ur den Fehler (0)
max kZn0 − Z (0) (tn )k = O(hm ) (h → 0) ,
0≤n≤N
und folglich (0)
(1)
(1)
(0)
k Ba(1) Z00 + Bb ZN 0 − {Ba(1) Z (0) (a) + Bb Z (0) (b)} k = O(hm ) . {z } | {z } | = Qh,0
(10.1.18)
= R(1) Z 0
Die mit der Fundamentall¨osung Y (t) ∈ Rd×d des Systems (10.1.11) gebildete Matrix (0) (0) Q(0) := R(0) Y = Ba + Bb Y (b) ist nach Voraussetzung regul¨ar. Man rechnet dann leicht nach, daß die Matrixfunktion Y (t) Q(0)−1 auch die RWA (10.1.17) l¨ost. Wegen der
10.1 Systeme erster Ordnung
195
Eindeutigkeit dieser L¨osung muß also gelten: Z (0) (t) = Y (t) Q(0)−1 . Aufgrund der vorausgesetzten L¨osbarkeit der Randwertaufgabe RWA(1)) ist die Matrix (1) (1) Q(1) := R(1) Y = Ba + Bb Y (b) und damit auch die Matzrix R(1) Z (0) = R(1) Y Q(0)−1 = Q(1) Q(0)−1 regul¨ar. Wegen (10.1.18) gibt es f¨ ur ein beliebiges, aber festes ρ ∈ (0, 1) ein hρ > 0 , so daß gilt: ρ , 0 < h ≤ hρ . kQh,0 − Q(1) Q(0)−1 k ≤ (0) kQ Q(1)−1 k ¨ F¨ ur solche h ist dann auch Qh,0 regul¨ar (Ubungsaufgabe), und es gilt kQ−1 h,0 k ≤
kQ(0) Q(1)−1 k , 1 − kQ(0) Q(1)−1 k kQh,0 − Q(1) Q(0)−1 k
d.h.: sup0
(iv) Mit Qh,0 ist nun auch I +Dh Ah leicht, daß (0)−1 −1
(I − Dh Ah
)
Damit folgt die Absch¨atzung (1)−1
kAh
(0)−1
k∞ = kAh
−1 −1 Q−1 h,0 Qh,0 Qh,1 . . . Qh,0 Qh,N
I ..
. I
(0)−1 −1
[I + Dh Ah
(0)−1
≤ c kAh
=
(0)
und schließlich auch Ah regul¨ar. Man verifiziert
(0)−1
] k∞ ≤ kAh
. (0)−1 −1
k∞ k [I + Dh Ah
k∞ kQ−1 h,0 k max kQh,j k ≤ K .
] k∞
1≤j≤N
(0)−1
Die Beschr¨anktheit von max1≤j≤N kQh,j k folgt aus der Beschr¨anktheit von kAh k∞ . Das Differenzenschema ist also stabil f¨ ur AWA(1). Q.E.D. Als Konsequenz des fundamentalen Satzes 10.2 sehen wir, daß alle bisher betrachteten konvergenten Differenzenverfahren f¨ ur AWAn auch zur L¨osung von RWAn verwendet werden k¨onnen, und hier auch dieselbe Konvergenzordnung besitzen.
Beispiel 10.2: Das oben eingef¨ uhrte Box-Schema hat als Abk¨ommling der Trapezregel die Konsistenzenordnung m = 2 und ist stabil f¨ ur die AWA (10.1.2). Gem¨aß Satz 10.2 impliziert dies also die Regularit¨at der zugeh¨origen Matrizen Ah f¨ ur hinreichend kleines
196
Differenzenverfahren
h und die Konvergenz der diskreten L¨osungen max kyn − u(tn )k = O(h2 ) (h → 0) . tn ∈I
F¨ ur den Diskretisierungsfehler lassen sich auch wieder asymptotische Entwicklungen nach Potenzen von h2 (wegen der Symmetrie der Differenzenformel) nachweisen: yn − u(tn ) =
R X
h2i ei (tn ) + O(h2R+2 ) .
i=1
Dabei ist wieder u ∈ C 2R+2 (I) angenommen, und die Fehlerfunktionen ei (t) sind unabh¨angig von h . Auf der Basis dieser Entwicklung l¨aßt sich f¨ ur das Box-Schema die Richard-Extrapolation auf h = 0 anwenden. Durch (R + 1)-malige Auswertung des Gleichungssystems Ah y h = β h mit den Gitterweiten 2−p h, p = 0, 1, 2, . . . , R, erh¨alt man so eine N¨aherung y¯h (2R + 2)-ter Ordnung: max k¯ yn − u(tn )k = O(h2R+2 ) . tn ∈I
10.2 Sturm-Liouville-Probleme F¨ ur die in der Praxis h¨aufig auftretenden Sturm-Liouville-Probleme (skalare RWAn 2-ter Ordnung) verwendet man meist spezielle Differenzenverfahren, welche nicht den Umweg u ¨ber die Transformation auf ein System 1-ter Ordnung gehen. Wir wollen das hier anhand des Dirichletschen Problems Lu(t) := −[pu′ ]′ (t) + q(t)u′ (t) + r(t)u(t) = f (t) , u(a) = α , u(b) = β,
t ∈ I = [a, b],
(10.2.19)
studieren. Dieses Problem stellt einen eindimensionalen Modellfall f¨ ur eine große Klasse von h¨oherdimensionalen Differentialgleichungsproblemen dar. Obwohl die im folgenden betrachtete Diskretisierung von (10.2.19) i.allg. praktisch nicht konkurrenzf¨ahig (da nur von zweiter Ordnung) ist, erlaubt ihre Analyse doch schon R¨ uckschl¨ usse auf das Verhalten analoger Verfahren f¨ ur die sehr viel schwierigeren mehrdimensionalen Probleme. Dieser sowie der n¨achste Abschnitt u ¨ber Variationsmethoden sind also im wesentlichen als Vorbereitung f¨ ur die Untersuchung von Diskretisierungsverfahren bei partiellen Differentialgleichungen zu sehen. Unter den Standardvoraussetzungen p, q ∈ C 1 (I) ,
r, f ∈ C(I) ,
p(t) ≥ ρ > 0 ,
t∈I,
10.2 Sturm-Liouville-Probleme
197
und zus¨atzlich ρ + (b − a)2 min {r(t) − 21 q ′ (t)} > 0
(10.2.20)
t∈I
besitzt Problem (10.2.19) nach Satz 8.3 eine eindeutige L¨osung u ∈ C 2 (I) . Im Falle p ∈ C 3 (I), q, r, f ∈ C 2 (I) ist sogar u ∈ C 4 (I) . Zur Diskretisierung von (10.2.19) sei (zur Vereinfachung) ein ¨aquidistantes Punktgitter a = t0 < . . . tn < . . . < tN +1 = b,
In := [tn−1 , tn ],
tn − tn−1 = h =
b−a , N +1
zugrunde gelegt. Das Differenzenanalogon von Problem (10.2.19) lautet dann Lh yn := −∆h/2 [pn ∆h/2 yn ] + qn ∆h yn + rn yn = fn , y0 = α ,
yN +1 = β ,
1≤n≤N,
(10.2.21)
mit dem zentralen Differenzenquotienten 2-ter Ordnung ∆h y(t) = (2h)−1 {y(t + h) − y(t − h)}, und der Schreibweise gn = g(tn ) f¨ ur die Gitterwerte einer stetigen Funktion. Dies ist ¨aquivalent zu einem linearen (N + 2) × (N + 2)-Gleichungssystem f¨ ur den Gittervektor y¯h = (y0, y1 , . . . , yN , yN +1)T , A¯h y¯h = ¯bh ,
(10.2.22)
wobei die Matrix A¯h und die rechte Seite ¯bh aus den Gleichungen y0 = α, yN +1 = β und −[pn−1/2 yn−1 − (pn−1/2 + pn+1/2 )yn + pn+1/2 yn+1 ] + 12 hqn (yn+1 − yn−1 ) + + h2 rn yn = h2 fn ,
1≤n≤N,
abgelesen werden k¨onnen. Durch Elimination der bekannten Randwerte y0 = α, yN +1 = β wird dieses System auf ein N × N-System Ah yh = bh
(10.2.23)
f¨ ur den Vektor y h = (y1 , . . . , yN )T reduziert mit der N × N-Matrix
p1/2 + p3/2 + h2 r1
. .. .. . Ah = −pn−1/2 − 21 hqn .. .
−p3/2 + 21 hq1
..
.
pn−1/2 + pn+1/2 + h2 rn .. .
−pn+1/2 + 21 hqn ..
−pN −1/2 − 12 hqN
pN −1/2 + pN +1/2 + h2 rN
.
198
Differenzenverfahren
und dem N-Vektor bh = (h2 f1 + p1/2 α + 12 hq1 α, h2 f2 , . . . , h2 fN −1 , h2 fN + pN +1/2 β − 21 hqN β)T . Die Genauigkeit dieser Differenzenapproximation wird wieder mit Hilfe des Abschneidefehlers τn := (Lh uh )n − fn 1 ≤ n ≤ N,
f¨ ur die Gitterfunktion uh := (u0 , . . . , uN +1)T beschrieben. F¨ ur den zentralen Differenzenquotienten einer Funktion z ∈ C 3 (I) gilt ∆h z(t) = z ′ (t) + 61 h2 z ′ (t) + o(h2 ) . Damit folgt f¨ ur u ∈ C 4 (I) : (Lh uh )n − fn = −∆h/2 [pn ∆h/2 un ] + qn ∆h un + rn un − fn
1 2 ′ h u (ξn )] + qn u′n + qn 16 h2 u′ (ηn ) + rn un − fn = −∆h/2 [pn u′n + pn 24 = −[pu′ ]′n + qn u′n + rn un − fn + O h2 (maxIn |uiv | + maxIn |u′|) , | {z } =0
d.h.: Die obige Differenzenapproximation ist von 2. Ordnung in h . Aus der Darstellung des Abschneidefehlers folgt, daß die Differenzenapproximation exakt ist f¨ ur quadratische Polynome (im Fall q ≡ 0 sogar f¨ ur kubische Polynome). Dies wird im Folgenden an entscheidender Stelle f¨ ur den Nachweis der Konvergenz des Verfahrens verwendet werden. Der Nachweis der Konvergenz erfolgt nun auf analogem Wege wie vorher bei den Differenzenapproximationen von Systemen 1. Ordnung. Grundlage ist der Nachweis der Stabilit¨at der Differenzenapproximation im Sinne, daß h h max |ynh | ≤ K |y0h | + |yN (10.2.24) +1 | + max |(Lh y )n | , 1≤n≤N
1≤n≤N
f¨ ur jede Gitterfunktion y h = (ynh )0≤n≤N +1 mit einer h-unabh¨angigen Konstante K. F¨ ur die Fehlerfunktion eh := y h − uh gilt nun definitionsgem¨aß Lh ehn = fn − Lh uhn = −τnh , n = 1, . . . , N,
e0 = eN +1 = 0,
woraus mit der Stabilit¨atsungleichung (10.2.24) direkt die Konvergenz des Verfahrens sowie eine optimale a priori Fehlerabsch¨atzung folgen: max |ehn | ≤ K max |τnh | = O(h2 ).
1≤n≤N
1≤n≤N
(10.2.25)
Der schwierige Teil der Analyse ist also wieder der Nachweis der Stabilit¨at. Diese k¨onnte z.B. durch R¨ uckf¨ uhrung auf den allgemeinen Stabilit¨atssatz f¨ ur Systeme erster Ordnung gewonnen werden. Wir werden aber hier einen anderen Weg beschreiten, der die speziellen algebraischen Eigenschaften der Diskretisierung ausnutzt und sich auch bei partiellen Differentialgleichungen anwenden l¨aßt.
10.2 Sturm-Liouville-Probleme
199
a) Der symmetrische Fall (q ≡ 0):
Wir wollen einige spezielle Eigenschaften der tridiagonalen Matrix Ah = (aij )N i,j=1 ableiten. Zun¨achst wird der Fall betrachtet, daß auf I gilt: p > 0,
q ≡ 0,
r ≥ 0.
(10.2.26)
Dann ist Ah offensichtlich symmetrisch und hat zus¨atzlich die Eigenschaften - stark diagonal dominant: Es gilt X |aij | ≤ |aii | , j6=i
1 ≤ i ≤ N,
X j6=s
|asj | < |ass |,
f¨ ur mindestens ein s ∈ {1, . . . , N} , - irreduzibel: Zu je zwei Elementen aij 6= 0 , akl 6= 0 gibt es eine Folge von Indizes i = j1 , j2 . . . , jm = k , so daß aj2 j1 6= 0, . . . , ajm jm−1 6= 0 . Diese Eigenschaften bedeuten, daß die Matrix Ah dem sog. schwachen Zeilensummen” kriterium“ gen¨ ugt (hinreichend f¨ ur die Konvergenz des Jacobi-Verfahrens). Die L¨osbarkeit des Gleichungssystems (10.2.22) wird dann durch folgenden Hilfssatz sichergestellt: Hilfssatz 10.2 (Diagonal-dominante Matrizen): F¨ur eine stark diagonal-dominante, irreduzible Matrix A ∈ RN ×N gilt: i) A ist regul¨ar. ii) Im Falle A = AT und aii > 0 (i = 1, . . . , N) ist A positiv definit. iii) Im Falle aii > 0 und aij ≤ 0 f¨ur i 6= j (i, j = 1, . . . , N) ist A eine sog. M-Matrix, d.h.: A−1 ≥ 0 (elementweise). Beweis: Die Irreduzibilit¨at von A bedingt N X j=1
|aij | > 0 ,
i = 1, . . . , N ,
und die Diagonaldominanz dann auch |aii | > 0, i = 1, . . . , N . Wir zerlegen A gem¨aß a11 0 0 0 aij .. .. .. + + A= . . . aN,N aij 0 0 0 | {z } | {z } | {z } =: D =: L =: R
und bilden die sog. Jacobi-Matrix J := −D −1 (L + R) .
200
Differenzenverfahren
Wir wollen zun¨achst zeigen, daß spr(J) < 1 ist. Seien µ ∈ C irgendein Eigenwert von J und w ∈ CN −1 ein zugeh¨origer Eigenvektor mit |wr | = max |wi | := kwk∞ = 1 . 1≤i≤N
Es gilt dann µwi = a−1 ii
X
aij wj ,
j6=i
1 ≤ i ≤ N.
(10.2.27)
Hieraus folgt zun¨achst mit Hilfe der Diagonaldominanz X |µ| = |µwr | ≤ |arr |−1 |arj | kwk∞ ≤ 1 . j6=r
Angenommen, es ist |µ| = 1 . Wegen der Irreduzibilit¨at existieren Indizes i, . . . , im , so daß ai1 s 6= 0, . . . , arim 6= 0 . Durch sukzessive Anwendung von (10.2.27) folgt damit der Widerspruch X |asj | kwk∞ < kwk∞ |ws | = |µws | ≤ |ass |−1 j6=s
|wi1 | = |µwi1 | ≤ |ai1 i1 |−1 .. .
kwk∞ = |wr | = |µwr | ≤ |arr |−1
n X
j6=i1 ,s
o |ai1 j | kwk∞ + |ai1 s | |ws | < kwk∞ | {z } 6= 0
o |arj | kwk∞ + |arim | |wim | < kwk∞ . | {z }
n X
j6=r,im
6= 0
Also ist spr(J) < 1 .
i) W¨are A irregul¨ar, so g¨abe es ein w ∈ RN mit w 6= 0 und Aw = 0 . Aus der Identit¨at 0 = Aw = Dw + (L + R)w = D(w − Jw) folgte dann, daß µ = 1 Eigenwert von J w¨are im Widerspruch zu spr(J) < 1 . ii) Seien w ∈ C irgendein Eigenwert von A und w ∈ C N ein zugeh¨origer Eigenvektor mit |wr | = kwk∞ = 1 . Dann gilt λwr =
N X
arj wj =
j=1
bzw. |λ − arr | |wr | ≤ |{z} =1
N X
arj wj + arr wr
j6=r
N X j6=r
|arj | |wj | ≤ |arr | . |{z} ≤1
10.2 Sturm-Liouville-Probleme
201
Im Falle arr > 0 folgt hieraus zun¨achst Reλ ≥ 0 und dann wegen der Regularit¨at von A auch Reλ > 0 . F¨ ur symmetrisches A ist λ ∈ R und somit λ > 0 , d.h.: A ist positiv definit. iii) Im Falle aii > 0 und aij ≤ 0, i 6= j (i, j = 1, . . . , N) ist D ≥ 0 und L + R ≤ 0 , d.h.: J ≥ 0 (elementweise). Wegen spr(J) < 1 konvergiert die Reihe 0≤
∞ X k=0
J k = (I − J)−1 .
Hieraus folgt schließlich wegen (I − J)−1 = (I − D −1 [L + R])−1 = (D −1 [D + L + R])−1 = A−1 D und D ≥ 0 notwendig A−1 ≥ 0 .
Q.E.D.
Stark diagonal dominante und irreduzible Matrizen haben besonders angenehme Eigenschaften. Zum einen besitzen sie stets Darstellungen A = LR als das Produkt von Dreiecksmatrizen, welche sich mit Hilfe des Gaußschen Eliminationsverfahrens (ohne Pivotierung!) berechnen lassen, zum anderen konvergieren f¨ ur sie die einfachen Iterationsverfahren wie z.B. das Jacobi-Verfahren, das Gauß-Seidel-Verfahren oder das SOR-Verfahren. Die zus¨atzliche Eigenschaft von Ah , M-Matrix zu sein, erlaubt es schließlich, die angestrebte Stabilit¨at der Differenzenapproximation zu zeigen. Satz 10.3 (Stabilit¨ at von Differenzenverfahren): Im Falle q = 0, r ≥ 0 auf I ist die Differenzenapproximation stabil, d.h.: F¨ur jede Gitterfunktion z¯h = (znh )0≤n≤N +1 gilt die Stabilit¨atsabsch¨atzung h h h h max |zn | ≤ K |z0 | + |zN +1 | + max |Lh zn | , 1≤n≤N
1≤n≤N
mit einer h-unabh¨angigen Konstante K. Ferner gilt die Konvergenzaussage max |u(tn ) − ynh | = O(h2 ) (h → 0) . tn ∈I
¨ Beweis: Wir betrachten der Ubersichtlichkeit halber nur den Spezialfall p = 1. Sei (zn )0≤n≤N +1 eine beliebige Gitterfunktion. Die mit der linearen Funktion l(t) =
h (b − t)z0h + (t − a)zN +1 , b−a
h gebildete Gitterfunktion z˜h = z h − lh hat dann homogene Randwerte z˜0h = z˜N +1 = 0. Sei
Mh := max |Lh z˜nh |. 1≤n≤N
F¨ ur die quadratische Funktionen w(t) := 12 Mh (b − t)(t − a) > 0 gilt dann wegen der
202
Differenzenverfahren
Exaktheit der Differenzenapproximation f¨ ur quadratische Polynome (Lh w h )n = Lw(tn ) = Mh + rn wnh ≥ Mh ,
1 ≤ n ≤ N,
bzw. Ah w h ≥ Mh komponentenweise mit w h := {wn }0≤n≤N +1 . Damit ist ebenfalls komponentenweise Ah [±˜ z h − w h ]n = ±Ah z˜nh − Ah wnh ≤ Mh − Mh = 0. Wegen A−1 z h − w h ≤ 0 bzw. h ≥ 0 ergibt sich dann ±˜
1 max |˜ znh | ≤ max |wnh | ≤ (b − a)2 Mh . 1≤n≤N 1≤n≤N 2 Mit der Definition von z˜nh und Mh folgt mit K0 = 12 (b − a)2 : max |znh | ≤ max |lnh | + K0 max |(Lh z˜h )n |
1≤n≤N
1≤n≤N
≤
|z0h |
+
1≤n≤N
h |zN |
+ K0 max |(Lh z h )n | + K0 max |(Lh lh )n | 1≤n≤N
1≤n≤N
h und weiter wegen |Lh lnh | = |Lln | = |rn ln | ≤ max1≤n≤N |rn |{|z0h | + |zN |} : h max |znh | ≤ K |z0h | + |zN | + max |(Lh z h )n | 1≤n≤N
1≤n≤N
mit K := K0 (1 + max1≤n≤N |rn |) .
Q.E.D.
b) Der unsymmetrische Fall (q 6≡ 0): Wir betrachten nun den Fall q 6≡ 0 . Die Systemmatrix Ah erh¨alt dann die Gestalt
p1/2 + p3/2 + h2 r1 −p3/2 + 21 hq1 .. .. . . Ah = −pn−1/2 − 21 hqn pn−1/2 + pn+1/2 + h2 rn .. .. . . −pN −1/2 − 21 hqN
..
.
−pn+1/2 + 21 hqn .. . pN −1/2 + pN +1/2 + h2 rN
Diese Matrix ist offensichtlich unsymmetrisch und nur unter der Bedingung min{pn−1/2 , pn+1/2 } h ≤ 2 min 1≤n≤N |qn |
.
(10.2.28)
diagonal dominant. In diesem Fall gen¨ ugt Ah auch der Vorzeichenbedingung und ist damit eine M-Matrix. Die auf dieser Eigenschaft aufbauende obige Konvergenzanalyse kann mit etwas mehr Aufwand hierf¨ ur u ¨bertragen werden, und wir erhalten wieder die L¨osbarkeit der Differenzengleichungen sowie die Konvergenz des Verfahrens mit der Fehlerordnung O(h2 ). Der Fall |qn | ≫ |pn | ist aber kritisch, da oft die Gitterweite h aus Kapazit¨atsgr¨ unden nicht gem¨aß (10.2.28) klein genug gew¨ahlt werden kann. Die in die-
10.2 Sturm-Liouville-Probleme
203
sem Zusammenhang auftretenden Ph¨anomene wollen wir zun¨achst anhand eines einfachen Modellproblems diskutieren.
Beispiel 10.3: Wir setzen I = [0, 1] sowie f ≡ 0 , q ≡ 1 , r ≡ 0 und 0 < p ≡: ǫ << 1. Die singul¨ar gest¨orte RWA Lǫ u(t) := −ǫu“(t) + u′ (t) = 0 ,
x ∈ I,
u(0) = 1, u(1) = 0 ,
hat die (eindeutige) L¨osung e1/ǫ − et/ǫ . e1/ǫ − 1 Im betrachteten Fall ǫ ≪ 1 nennt man dies eine Grenzschichtl¨osung (s. Bild), denn f¨ ur t = 1 − δ und δ > ǫ ist uǫ (t) =
uǫ (1 − δ) =
e1/ǫ 1 − e−δ/ǫ ≈ 1 , 1/ǫ e −1
max |uǫ′′| ≈ ǫ−2 . I
F¨ ur ǫ = 0 ergibt sich die Grenzl¨osung u0 ≡ 1 , welche die Randbedingung bei t = b nicht erf¨ ullt. 6
uε (t) 1 ............................................................................................................................................................................................................................................................................................................................................................
... .. ... ... .. .. .. .. ... ... .. ... ... ... ... .. .. .. .. .. .. .. .. .. .. .. .. .. .. ... ... ... ... .. ..
u0 (t)
|{z} ε 1
-
t
Abbildung 10.1: L¨osung des singul¨ar gest¨orten Problems f¨ ur ǫ = .1
Die Approximation dieses Problems mit dem obigen Differenzenverfahren zur (¨aquidistanten) Schrittweite h = 1/(N +1) ergibt −(ǫ + 21 h)yn−1 + 2ǫyn − (ǫ − 12 h)yn+1 = 0 ,
1≤n≤N,
y0 = 1, yN +1 = 0 .
F¨ ur die L¨osung dieser Differenzengleichungen machen wir wieder einen Ansatz der Form yn = λn . Die m¨oglichen Werte f¨ ur λ sind gerade die Wurzeln λ± der quadratischen Gleichung 1 h+ǫ 2ǫ λ − 12 = 0. λ2 + 1 h−ǫ h−ǫ 2 2
204
Differenzenverfahren
Ber¨ ucksichtigung der Randbedingungen y0 = 1 und yN = 0 in dem Ansatz yn = c+ λn+ + c− λn− +1 +1 ergibt f¨ ur die Koeffizienten die Beziehungen c+ + c− = 1, c+ λN + c− λ N = 0 und + − folglich
c− =
+1 λN + , +1 +1 λN − λN + −
c+ = 1 −
+1 +1 λN λN + − = − . +1 +1 +1 +1 λN λN − λN − λN + + − −
Die L¨osung hat also die Gestalt yn =
+1 n +1 n λN λ− − λN λ+ + − . N +1 N +1 λ+ − λ−
Im vorliegenden Fall sind die Wurzeln gegeben durch q −ǫ ± ǫ2 + ( 12 h + ǫ)( 12 h − ǫ) ǫ ∓ 21 h λ+,− = = , 1 h−ǫ ǫ − 12 h 2
(10.2.29)
λ+ = 1, λ− =
ǫ + 12 h . ǫ − 12 h
F¨ ur ε ≪ 12 h ist λ− ∼ −1 . In diesem Fall wird also eine oszillierende L¨osung erzeugt, yn =
+1 λn− − λN − , +1 1 − λN −
welche qualitativ nicht den richtigen L¨osungsverlauf wiedergibt.
Zur Unterdr¨ uckung dieses Defekts gibt es verschiedene Strategien, die im folgenden skizziert werden. i) Upwind-Diskretisierung: Zun¨achst kann der Term erster Ordnung u′ (t) in der Differentialgleichung statt mit dem zentralen mit einem der einseitigen Differenzenquotienten −1 ∆+ h u(t) = h {u(t + h) − u(t)} ,
−1 ∆− h u(t) = h {u(t) − u(t − h)}
approximiert werden. Bei Wahl des r¨uckw¨artigen Differenzenquotienten ∆− h wird dem physikalischen Vorgang eines Informationstransports in positive t-Richtung Rechnung getragen (vergl. die Form der Grenzl¨osung u0 (t)). Dies f¨ uhrt auf die Differenzengleichungen (−ǫ + h)yn−1 + (2ǫ + h)yn − ǫyn+1 = 0 . Die zugeh¨orige Matrix Ah ist dann f¨ ur beliebiges h > 0 wieder diagonal dominant und gen¨ ugt der Vorzeichenbedingung, d.h.: Sie ist eine M-Matrix. Der L¨osungsansatz yn = λn f¨ uhrt in diesem Fall auf die Gleichung λ2 −
ǫ+h 2ǫ + h λ+ = 0, ǫ ǫ
10.2 Sturm-Liouville-Probleme
205
mit den Wurzeln λ+,− =
2ε + h ± h 2ε + h p ± (2ε + h)2 − 4ε(ε + h) = , 2ε 2ǫ
λ+ =
ε+h , λ− = 1 . ε
Die kritische Wurzel λ+ ist hier stets positiv, so daß in der diskreten L¨osung gem¨aß (10.2.29), λN +1 − λn yn = +N +1 + , λ+ − 1
keine ungewollten Oszillationen in der N¨aherungsl¨osung entstehen. Diese spezielle Art der einseitigen Diskretisierung des Terms u′ (t) nennt man R¨ uckw¨artsdiskretisierung“ oder ” auch englisch upwind discretization“. Da der verwendete einseitige Differenzenquotienten ” aber nur die Approximationsordnung O(h) hat, ist auch das Gesamtverfahren nur von erster Ordnung genau. Dies limitiert die Approximationsgenauigkeit in Bereichen, in denen die L¨osung glatt ist, selbst wenn die Gitterweite in der Grenzschicht ausreichend fein gem¨aß h ≈ ǫ gew¨ahlt wird. ii) Ku ¨nstliche Diffusion: Unter Beibehaltung der zentralen Diskretisierung des Terms ′ u (t) wird der Diffusionskoeffizient ǫ auf einen gr¨oßeren Wert ǫˆ := ǫ + δh gesetzt. Dies f¨ uhrt auf die Differenzengleichungen −(ˆ ǫ + h/2)yn−1 + 2ˆ ǫyn − (ˆ ǫ − h/2)yn+1 = 0 ,
1≤n≤N.
F¨ ur die zugeh¨orige L¨osung erh¨alt man wieder durch einen Potenzansatz die Darstellung yn =
+1 λN − λn+ + , +1 λN −1 +
λ+ =
ǫˆ + h/2 . ǫˆ − h/2
Offenbar ist in diesem Fall λ+ > 0 f¨ ur ǫ + δh > h/2 , d.h. f¨ ur die Wahl δ ≥ 1/2. Mit diesem Ansatz erh¨alt man also ebenfalls wieder eine M-Matrix und somit eine stabile Diskretisierung. Allerdings wird nun die Grenzschicht stark verschmiert auf das Intervall [1 − ǫˆ, 1] ≈ [1 − h, 1], und die globale Approximationsg¨ ute ist aufgrund der St¨orung des Differentialoperators ebenfalls lediglich O(h). Beim allgemeinen Sturm-Liouville-Problem mit variablem q(t) muß das Upwinding“ ” abh¨angig vom Vorzeichen von qn angesetzt werden. Die einseitigen Differenzenquotienten werden gem¨aß der folgenden Schaltvorschrift angesetzt: ( +1 : ∆− h sgn(qn ) = + −1 : ∆h . Dies f¨ uhrt dann wieder auf eine f¨ ur alle h > 0 diagonal dominante Matrix Ah . Anhand des obigen einfachen Beispiels haben wir gesehen, daß bei singul¨ar gest¨orten Problemen die einfachen D¨ampfungsstrategien R¨uckw¨artsdiskretisierung oder k¨unstliche Diffusion zwar auf stabile Diskretisierungen f¨ uhren, die Approximationsordnung aber auf O(h) reduzieren. Die Frage nach einer sicheren D¨ampfungsstrategie h¨oherer Ordnung zur
206
Differenzenverfahren
Diskretisierung von Transporttermen ist noch nicht vollst¨andig gekl¨art. Versuche in diese Richtung bedienen sich z.B. einseitiger Differenzenquotienten h¨oherer Ordnung (beim Upwinding) oder k¨ unstlicher Diffusionsterme der Form δh2 u(iv) . Allerdings kann die starke M-Matrixeigenschaft nur mit Diskretisierungen erster Ordnung erreicht werden. Einen anderen Ansatz werden wir im n¨achsten Abschnitt im Zusammenhang mit GalerkinVerfahren f¨ ur Sturm-Liouville-Probleme kennenlernen.
¨ 10.3 Ubungsaufgaben Aufgabe 10.3.1: Zur L¨osung der allgemeinen d-dimensionalen linearen RWA 1-ter Ordnung kann die Polygonzugmethode verwendet werden (a) als direktes Differenzenschema, oder (b) als AWAn-L¨oser im Zuge des Schießverfahrens. Beide Ans¨atze liefern N¨aherungen der Ordnung O(h) . Man vergleiche den jeweiligen numerischen Aufwand, d.h. die Anzahl der Auswertungen von A(t) und f (t) , bei gleicher Gitterweite h , sowie den Aufwand zur L¨osung der auftretenden Gleichungssysteme. Aufgabe 10.3.2: Man betrachte die Trapezregel zur Diskretisierung der RWAn 2-ter Ordnung (i) (ii)
− u“(t) + u(t) = 1, t ∈ [0, 1], u(0) = u(1) = 0, − u“(t) + u′ (t) = 1, t ∈ [0, 1], u(0) = u(1) = 0,
auf einem ¨aquidistanten Gitter mit Gitterweite h = 1/N . Wie lauten das zugeh¨origen Gleichungssysteme? Sind die RWAn u ¨berhaupt eindeutig l¨osbar?
11 Variationsmethoden 11.1 Allgemeines Ritz-Galerkin-Verfahren Wir betrachten wieder das Sturm-Liouville-Problem Lu(t) := −[pu′ ]′ (t) + q(t)u′ (t) + r(t)u(t) = f (t) , u(a) = α , u(b) = β ,
t ∈ I = [a, b] ,
(11.1.1)
mit Dirichlet-Randbedingungen unter den Voraussetzungen p ∈ C 1 (I), p(t) ≥ ρ > 0 und q, r, f ∈ C(I), r(t) ≥ 0 . Die sog. Variationsmethoden“ zur L¨osung der RWA (11.1.1) basieren auf entspre” chenden variationellen Formulierungen. Zu deren Herleitung ist es praktisch, das Problem zun¨achst in ein ¨aquivalentes mit homogenen Randdaten zu transformiert. Dazu definieren wir die lineare Funktion (b − t)α + (t − a)β . l(t) := b−a Ist dann u(t) die L¨osung von (11.1.1), so l¨ost v(t) := u(t) − l(t) die RWA Lv(t) = f (t) − [pl′ ]′ (t) + q(t)l′ (t) + r(t)l(t) , v(a) = v(b) = 0 .
t∈I,
(11.1.2)
O.B.d.A. k¨onnen wir uns also auf den Fall homogener Randbedingungen u(a) = u(b) = 0 beschr¨anken. Das Galerkin-Verfahren zur L¨osung der Randwertaufgabe (11.1.1) basiert wieder auf einer variationellen Formulierung des Problems. Zu deren Gewinnung multiplizieren wir die Differentialgleichung mit einer beliebigen (stetigen) Testfunktion“ ϕ und integrieren ” u ¨ber das Intervall I: Z Z Lu(t)ϕ(t) dt = f (t)ϕ(t) dt . (11.1.3) I
I
F¨ ur differenzierbare Testfunktionen ϕ , welche den Randbedingungen ϕ(a) = ϕ(b) = 0 gen¨ ugen, k¨onnen wir im ersten Term von Lu partiell integrieren und erhalten Z Z ′ ′ ′ {p(t)u (t)ϕ (t) + q(t)u (t)ϕ(t) + r(t)u(t)ϕ(t)} dt = f (t)ϕ(t) dt . (11.1.4) I
I
Diese Formulierung ist wohl definiert f¨ ur Ansatzfunktionen u und Testfunktionen ϕ , welche st¨ uckweise stetig differenzierbar sind auf dem Intervall I. Wir nennen eine Funktion v ∈ C(I) st¨uckweise stetig differenzierbar, wenn es eine endliche Unterteilung a = t0 < ... < ti < ... < tN +1 = b gibt, so daß u auf jedem der Teilintervalle (ti−1 , ti ) stetig differenzierbar ist und ebenso auf [ti−1 , ti ] fortgesetzt werden kann. Derartige Funktionen, welche zus¨atzlich noch den homogenen Dirichlet-Randbedingungen gen¨ ugen, bilden den 207
208
Variationsmethoden
Funktionenraum C˜01 (I) := {v ∈ C(I) | v st¨ uckweise stetig differenzierbar, v(a) = v(b) = 0} . Mit Hilfe eines Dirac-Folgenarguments zeigt man, daß f¨ ur eine Funktion u ∈ C˜01 (I) aus der G¨ ultigkeit von (11.1.4) notwendig folgt, daß sie L¨osung der Randwertaufgabe (11.1.1) ist, d.h.: Die beiden Problemformulierungen (11.1.1) und (11.1.4) sind a¨quivalent. Auf dem Raum V := C˜01 (I) sind das L2 (I)-Skalarprodukt, die zugeh¨orige L2 (I)-Norm Z (u, v) := u(t)v(t) dt , kvk := (v, v)1/2 I
sowie die sog. Energieform“ und das Lastfunktional“ (Diese Notation ist der struktur” ” mechanischen Anwendung des Sturm-Liouville-Problems entlehnt.) Z a(u, v) := p(t)u′ (t)v ′ (t) + q(t)u′(t)v(t) + r(t)u(t)v(t) dt , ZI l(u) := f (t)u(t) dt . I
definiert. Mit diesen Abk¨ urzungen schreibt sich die Variationsgleichung (11.1.4) in der kompakten Form u∈V :
a(u, ϕ) = l(ϕ) ∀ϕ ∈ V .
(11.1.5)
Wir betrachten nun zun¨achst den Sonderfall, daß q = uiv0 . Dann ist der Differentialoperator L auf dem Raum V ∩ C 2 (I) bzgl. des L2 (I)-Skalarprodukts symmetrisch und positiv definit, und die L¨osung u(t) von (11.1.1) kann als Minimum des sog. Energie” funktionals“ charakterisiert werden: 1 F (v) := a(v, v) − l(v) . 2 Dies ist die Grundlage des klassischen Ritzschen Projektionsverfahrens“, einer speziellen ” Variante des allgemeinen Galerkin-Verfahrens“. Die Bilinearform a(·, ·) ist symmetrisch ” und aufgrund der Poincar´eschen Ungleichung kvk ≤ (b − a)kv ′ k ,
(11.1.6)
positiv definit; folglich definiert sie auf dem Raum V ein Skalarprodukt. Die Vervollst¨andigung des so entstehenden pr¨ahilbertschen“ Raumes ist gerade der sog. Sobolew-Raum“ ” ” H01 (I) der auf I absolutstetigen Funktionen mit (im Lebesgueschen Sinne) quadratintegrablen ersten Ableitungen und Randwerten v(a) = v(b) = 0. Dies ist in gewissem Sinne der gr¨oßte Funktionenraum, auf dem sich das Energie-Funktional F (·) noch definieren l¨aßt. F¨ ur unsere Zwecke gen¨ ugt es jedoch, F (·) auf dem Raum V von (st¨ uckweise) klassisch differenzierbaren Funktionen zu betrachten.
11.1 Allgemeines Ritz-Galerkin-Verfahren
209
Satz 11.1 (Variationsprinzip): Im Fall q = uiv0 gilt f¨ur die eindeutige L¨osung u ∈ V ∩ C 2 (I) der RWA (11.1.1) die Minimalit¨atsbeziehung F (u) ≤ F (v)
∀v ∈ V .
(11.1.7)
Umgekehrt gilt f¨ur jedes u˜ ∈ V mit der Eigenschaft (11.1.7) notwendig u˜ = uivu . Beweis: Sei u ∈ V ∩ C 2 (I) L¨osung von (11.1.1). Durch partielle Integration folgt
f¨ ur ϕ ∈ V , d.h.:
b (Lu, ϕ) = a(u, ϕ) − pu′ ϕ a = a(u, ϕ) , a(u, ϕ) = (f, ϕ)
∀ϕ ∈ V .
(11.1.8)
Damit folgt weiter mit beliebigem v ∈ V : 1 1 F (v) − F (u) = a(v, v) − (f, v) − a(u, u) + (f, u) 2 2 1 1 1 = a(v, v) − a(u, v) + a(u, u) = a(v − u, v − u) . 2 2 2 F¨ ur w = u − v gilt a(w, w) ≥ 0 , und im Falle a(w, w) = 0 folgt notwendig w ≡ 0 . Also ist wie behauptet F (v) ≥ F (u) . Gilt umgekehrt (11.1.7) f¨ ur ein v ∈ V , so folgt notwendig d F (v + εϕ) ε=0 = 0 ∀ϕ ∈ V . dε Auswertung dieser Beziehung ergibt a(v, ϕ) = (f, ϕ)
∀ϕ ∈ V .
Also ist speziell a(v −u, v −u) = 0 , woraus nach dem oben Gesagten v = u folgt. Q.E.D. Die Extremaleigenschaft (11.1.7) der L¨osung u der RWA (11.1.1) suggeriert die folgende Approximationsmethode (sog. Ritz-Verfahren“). ” Verfahren von Ritz: Man w¨ahle geeignete endlich dimensionale Teilr¨aume Vh ⊂ V und minimiere das Energie-Funktional F (·) u ¨ ber Vh : u h ∈ Vh :
F (uh ) ≤ F (vh )
∀vh ∈ Vh .
Die Funktion uh ∈ Vh wird dann als Approximation zur L¨osung u von (11.1.1) betrachtet. Das Minimum uh ∈ Vh ist charakterisiert durch d F (uh + εϕh ) ε=0 = 0 dε
∀ϕh ∈ Vh ,
210
Variationsmethoden
woraus man die Gleichung a(uh , ϕh ) = (f, ϕh )
∀ϕh ∈ Vh
(11.1.9)
erh¨alt. Dies ist offensichtlich gerade das diskrete Analogon der Variationsgleichung“ ” (11.1.8). (i)
Sei nun {ϕh , i = 1, . . . , N = N(h)} eine Basis von Vh . Setzt man dann den Ansatz uh =
N X
(i)
y i ϕh
i=1
(i)
in die Beziehung (11.1.9) und l¨aßt ϕh alle Basisfunktionen ϕh durchlaufen, so ergibt sich ein lineares Gleichungssystem Ah y h = bh
(11.1.10)
f¨ ur den Koeffizientenvektor y h = (y1 , . . . , yN )T mit Ah = (ai,j )N i,j=1 , bh = (bj )N j=1 ,
(i)
(j)
ai,j := a(ϕh , ϕh ), (j)
bj := (f, ϕh ).
Die Matrix Ah ist symmetrisch, positiv definit und folglich regul¨ar. Die Symmetrie von Ah folgt direkt aus der Symmetrie der Bilinearform a(·, ·) . Einem Vektor ζ = P (i) (ζ1 , . . . , ζN ) ∈ RN sei die Funktion vh = N i=1 ζi ϕh ∈ Vh zugeordnet. Nach Konstruktion gilt dann T
ζ Ah ζ =
N X
i,j=1
(i) (j) a(ϕh , ϕh )ζi ζj
N N X X (i) (j) =a ζ i ϕh , ζj ϕh = a(vh , vh ) > 0 i=1
j=1
f¨ ur ζ 6= 0 , d.h.: Ah ist positiv definit. Wir untersuchen nun die Frage nach der Konvergenz der N¨aherungsl¨osungen uh → u f¨ ur eine Folge von Ansatzr¨aumen Vh ⊂ V mit dim Vh = N(h) → ∞ . Durch Kombination der Variationsgleichungen (11.1.5) f¨ ur u und (11.1.9) f¨ ur uh ergibt sich die sog. Galerkin” Orthogonalit¨at“ f¨ ur den Fehler e = u − uh : a(e, ϕh ) = 0 ,
ϕh ∈ Vh .
(11.1.11)
Die geometrische Interpretation dieser Beziehung ist, daß der Fehler e bzgl. des Skalarprodukts a(·, ·) orthogonal auf dem Teilraum Vh ⊂ V steht, bzw. daß uh die orthogonale Projektion von u auf Vh ist. Dies rechtfertigt die h¨aufig gebrauchte Bezeichnung Pro” jektionsmethode“ f¨ ur das Ritz-Verfahren. Als einfache Konsequenz der Orthogonalit¨atsbeziehung (11.1.11) haben wir den folgenden Hilfssatz.
11.1 Allgemeines Ritz-Galerkin-Verfahren
211
Hilfssatz 11.1 (Bestapproximationseigenschaft): F¨ur den Fehler e = u − uh beim Ritz-Verfahren gilt a(e, e) = min a(u − vh , u − vh . vh ∈Vf
(11.1.12)
Beweis: Mit beliebigem vh ∈ Vh gilt a(e, e) = a(e, u − vh ) + a(e, vh − uh ) {z } | =0
≤ a(e, e)
1/2
a(u − vh , u − vh )1/2 ,
da a(·, ·) Skalarprodukt auf V ist. Nimmt man auf der rechten Seite nun das Infimum (t¨ats¨achlich das Minimum) u Q.E.D. ¨ber vh ∈ Vh , so ergibt sich die Behauptung. Mit (11.1.12) ist die Frage nach der Konvergenz uh → u zur¨ uckgef¨ uhrt auf das 2 Problem der Approximierbarkeit von Funktionen u ∈ V ∩ C (I) durch Elemente der Ansatzr¨aume Vh . Bei Ber¨ ucksichtigung der Annahmen u ¨ber p und r ergibt sich aus (11.1.12) die Fehlerabsch¨atzung ke′ k ≤ K inf k(u − vh )′ k vh ∈Vh
(11.1.13)
mit K 2 = ρ−1 (1 + (b − a)2 ) maxI {p + r} . Dies ist ein einfach zu handhabendes Konvergenzkriterium. Dar¨ uber hinaus erh¨alt man mit Hilfe der Identit¨at Z t v(t) = v ′ (s) ds , t ∈ I , a
f¨ ur v ∈ V aus (11.1.13) die punktweise Absch¨atzung √ max |e(t)| ≤ K b − a inf k(u − vh )′ k . t∈I
vh ∈Vh
(11.1.14)
Bemerkung: Es sei darauf hingewiesen, daß die Absch¨atzung (11.1.14) in dieser Form nur in einer Raumdimension gilt, w¨ahrend die integrale Absch¨atzung (11.1.13) nat¨ urliche Analoga bei partiellen Differentialgleichungen besitzt. Wenn der sog. Transportterm“ qu′ im Sturm-Liouville-Operator Lu pr¨asent ist, ” stellt die Energieform a(·, ·) kein Skalarprodukt dar, und die L¨osung der Randwertaufgabe (11.1.1) l¨aßt sich nicht mehr als Minimum eines Energiefunktionals charakterisieren. In diesem Fall basiert das Galerkin-Verfahren“ zur Approximation von (11.1.1) direkt auf ” der Variationsgleichung (11.1.5): u h ∈ Vh :
a(uh , ϕh ) = l(ϕh ) ∀ϕh ∈ Vh .
(11.1.15)
Unter der Bedingung ρ + (b − a)2 minI {r − 21 q ′ } > 0 , welche in diesem Fall die eindeutige L¨osbarkeit von (11.1.1) sichert, ist offensichtlich auch das endlich dimensionale Problem (11.1.15) eindeutig l¨osbar, d.h. ist die zugeh¨orige Systemmatrix Ah regul¨ar. Dies folgt
212
Variationsmethoden
aus der sog. Koerzivit¨atsrelation“ ” a(v, v) ≥ γkv ′k2 ,
v∈V ,
γ > 0,
(11.1.16)
welche man wieder mit Hilfe der Poincar´esche Ungleichung gewinnt. Ferner ist die Energieform a(·, ·) beschr¨ankt auf V : |a(v, w)| ≤ αkv ′k kw ′k,
v, w ∈ V .
(11.1.17)
Mit Hilfe der Galerkin-Orthogonalit¨at erschließt man dann auch in diesem Fall f¨ ur das Galerkin-Verfahren die allgemeine Konvergenzabsch¨atzung ke′ k ≤ c min k(u − ϕh )′ k .
(11.1.18)
ϕh ∈Vh
11.2 Methode der finiten Elemente F¨ ur die praktische Realisierung der Ritzschen (bzw. der Galerkinschen Methode) w¨are es sicher am g¨ unstigsten, wenn man Orthogonalbasen von Vh bzgl. des Energieskalarprodukts verwenden w¨ urde, denn dann reduziert sich die Matrix Ah zu einer Diagonalmatrix. Dies l¨aßt sich aber meist nicht verwirklichen, so daß man darauf angewiesen ist, mit Basen (i) {ϕh } von Vh zu arbeiten, die nur fast orthogonal sind. Solche Basen lassen sich leicht konstruieren, wenn der Raum Vh aus st¨ uckweise polynomialen Funktionen besteht. Dieser Spezialfall der Ritz-Methode ist unter dem Namen Methode der finiten Elemente bekannt.
11.2.1 Lineare“ finite Elemente ” Sei a = t0 < ... < ti < ... < tN +1 = b wieder eine Unterteilung des Intervalls I mit Teilintervallen Ii = [ti−1 , ti ] der L¨ange hn = ti − ti−1 , und h = max1≤i≤N hn . Bzgl. dieser Unterteilung wird der folgende Finite-Elemente-Ansatzraum definiert: (1)
Sh := { vh ∈ C(I) : vh|Ii ∈ P1 (Ii ) , i = 1, ..., N + 1, vh (a) = vh (b) = 0 }. (1)
(1)
Offensichtlich ist Sh ⊂ V ein endlich dimensionaler Teilraum. Eine Basis von Sh man durch die Vorschrift (i)
(1)
(i)
ϕh ∈ Sh | ϕh (tj ) = δij ,
erh¨alt
i, j = 1, . . . , N . (i)
Wegen ihrer st¨ uckweisen Linearit¨at und Stetigkeit sind die Funktionen ϕh dadurch ein(i) deutig bestimmt. Das System {ϕh , i = 1, . . . , N} ist in der Tat eine Basis, denn aus der Beziehung N X (i) 0= αi ϕh (tj ) = αj , i, j = 1, . . . , N , i=1
11.2 Methode der finiten Elemente
213
f¨ ur irgendwelche Zahlen αi folgt notwendig αi = 0 . Andererseits besitzt jede Funktion (1) vh ∈ Sh eine Darstellung vh (t) =
N X
(i)
vh (ti )ϕh (t) ,
i=1
t∈I,
was man durch Einsetzen von t = tj sieht. (1)
Diese Basis von Sh wird (lokale) Knotenbasis“ genannt. Sie ist fast orthogonal, da ” (i) jedes ϕh nur auf einer Umgebung Ii ∪ Ii+1 des Gitterpunktes ti von Null verschieden ist (siehe Abbildung). F¨ ur die zugeh¨origen Matrixelemente gilt daher (i)
(j)
a(ϕh , ϕh ) = 0 ,
|i − j| ≥ 2 ,
d.h.: Die Matrix Ah des Systems (11.1.10) ist tridiagonal. Die von Null verschiedenen Elemente von Ah und die Elemente des Vektors bh haben f¨ ur q ≡ 0, r ≡ 0 folgende Gestalt: A 1 A A A (i) A ϕh (x) A A A r Ar r
xi−1
xi
-x
xi+1
Abbildung 11.1: Lagrange-Basisfunktion linearer finiter Elemente
aii =
(i) (i) a(ϕh , ϕh )
=
Z
(i) p(t)|ϕh ′ (t)|2
dt =
h−2 i
Z
h−2 i+1
Z
p(t) dt + p(t) dt Ii+1 Z Z (i) (i+1) (i) ′ (i+1) ′ −2 ai,i+1 = a(ϕh , ϕh ) = p(t)ϕh (t)ϕh (t) dt = −hi+1 p(t) dt I Ii+1 Z (i) (i−1) −2 ai,i−1 = a(ϕh , ϕh ) = . . . = −hi p(t) dt Ii Z (i) (i) f (t)ϕh (t) dt . bi = (f, ϕh ) = I
Ii
Ii ∪Ii+1
Wenn das Gitter {t0 , ...tN +1 } ¨aquidistant ist, d.h. h = hi , i = 1, ..., N , so erh¨alt man durch Auswertung dieser Integrale etwa mit der Mittelpunktsregel die Beziehungen aii = h−1 (pi−1/2 + pi+1/2 ) + O(h) ,
ai,i±1 = −h−1 pi±1/2 + O(h) ,
bi = h fi + O(h) .
Es ergibt sich also (bis auf Terme h¨oherer Ordnung in h) dasselbe Gleichungssystem wie bei der Diskretisierung von (11.1.1) mit Hilfe zentraler Differenzen. Zwischen dem Ritz-
214
Variationsmethoden
Verfahren und dem Differenzenverfahren besteht also ein enger Zusammenhang. Zur Absch¨atzung des Diskretisierungsfehlers sei f¨ ur v ∈ C(I) durch Ih v(ti ) := v(ti ) ,
i = 0, . . . , N + 1 , (1)
die st¨ uckweise lineare Knoteninterpolierende“ Ih v ∈ Sh erkl¨art. F¨ ur ein Teilintervall ” 2 ′ ′ ur die Maxiur die L -Norm sowie k · k∞;I ′ f¨ I ⊂ I schreiben wir im folgenden k · kI f¨ ′ ′ mumnorm u ¨ ber I . Im Spezialfall I = I wird der Index I weiterhin weggelassen. Hilfssatz 11.2 (Interpolationsabsch¨ atzungen): F¨ur die Knoteninterpolierende Ih u ∈ (1) 2 Sh von u ∈ V ∩ C (I) gilt auf jedem Teilintervall Ii : ku − Ih ukIi + hi k(u − Ih u)′ kIi ≤ h2i ku“kIi ,
(11.2.19)
ku − Ih uk∞;Ii ≤ 21 h2 ku“k∞;Ii .
(11.2.20)
Beweis: In jedem Intervall Ii gibt es sicher einen Punkt ξ mit (u − Ih u)′ (ξ) = 0 (s. Bild). g(x)
u(ξ) r
............................................ ................................................................ ......................................................................................................... ........................................................................................ ............... ............ . ...... . . . . . . . . . . . . . . . . ........... . ....... .. ....... ................................................................ ...... ................................................................ ......... ........................................................................ . ......... . ..... ........ . . . . ........ . . .... . ....... h . . . . . . . . . . . . . . . . . .
6
6
u(x)
I u(x)
r
r
xi−1
r
xi
ξ
Abbildung 11.2: Lineare Approximation
Mit Hilfe der Identit¨at ′
(u − Ih u) (t) =
Z
ξ
t
(u − Ih u)“(s) ds =
Z
t
u“(s) ds
ξ
erh¨alt man durch Anwendung der H¨olderschen Ungleichung Z ′ 2 |(u − Ih u) (t)| ≤ h |u“(s)|2 ds , Ii
und dann durch Integration u ¨ ber t ∈ Ii Z Z ′ 2 2 |u“(s)|2 ds . |(u − Ih u) (t)| dt ≤ h Ii
Ii
11.2 Methode der finiten Elemente
215
Zum Beweis von (11.2.20) betrachten wir die Funktion v := u − g ∈ C 2 (Ii ) (s. Bild) mit v(ξ) = v ′ (ξ) = 0 . Taylor-Entwicklung um ξ ergibt dann f¨ ur t ∈ Ii : 1 1 v(t) = (t − ξ)2 v“(ηt ) = (t − ξ)2 u“(ηt ) 2 2 mit einem Zwischenpunkt ηt ∈ Ii . Hieraus folgt ku − Ih uk∞;Ii ≤ kvk∞;Ii ≤
1 2 h ku“k∞;Ii . 2
Der Beweis der entsprechenden L2 -Fehlerabsch¨atzung (11.2.19) folgt demselben Muster ¨ aber mit einer Modifikation. Diese zu finden, sei als Ubungsaufgabe gestellt. Q.E.D.
Hilfssatz 11.3 (A priori Regularit¨ atsabsch¨ atzungen): Die L¨osung u ∈ V ∩ C 2 (I) der RWA (11.1.1) gen¨ugt den folgenden a-priori Absch¨atzungen max ku(k) k ≤ c kf k ,
(11.2.21)
max ku(k) k∞ ≤ c kf k∞ ,
(11.2.22)
k=0,1,2
k=0,1,2
mit von u und f unabh¨angigen Konstanten c . Beweis: Aus der Variationsgleichung f¨ ur u , a(u, ϕ) = (f, ϕ) ∀ ϕ ∈ V , erh¨alt man f¨ ur ϕ = u die Absch¨atzung ρku′ k2 ≤ a(u, u) = (f, u) ≤ kf k kuk . Hieraus folgt dann mit Hilfe der Poincar´eschen Ungleichung kuk ≤ (b − a)ku′ k ≤ ρ−1 (b − a)2 kf k . Die Identit¨at
1 u“ = {f + p′ u′ − ru} p
f¨ uhrt damit auf die gew¨ unschte Absch¨atzung (11.2.21). Der Beweis von (11.2.22) sei als ¨ Ubungsaufgabe gestellt. Q.E.D. Nach diesen Vorbereitung k¨onnen wir den folgenden Konvergenzsatz f¨ ur die Methode der finiten Elemente formulieren:
216
Variationsmethoden
Satz 11.2 (A priori Fehlerabsch¨ atzungen): F¨ur den Fehler e = u − uh beim RitzVerfahren mit st¨uckweise linearen Ansatzfunktionen gelten die Energieabsch¨atzung ke′ k ≤ c h kf k ,
(11.2.23)
kek ≤ c h2 kf k ,
(11.2.24)
und die verbesserte L2 -Absch¨atzung
mit von u, f und h unabh¨angigen Konstanten c . Beweis: Die Absch¨atzung (11.2.23) folgt direkt durch Kombination von (11.1.13) mit (11.2.19) und (11.2.21). Zum Beweis von (11.2.24) verwenden wir ein Argument, welches in der Literatur als Aubin-Nitsche-Trick“ oder allgemeiner als Dualit¨atsargument“ ” ” bezeichnet wird. Der Fehler e wird dabei als rechte Seite eines sog. duales Problems“ ” Lv(t) = e(t) ,
t∈I,
v(a) = v(b) = 0 ,
(11.2.25)
genommen. Dessen eindeutige L¨osung v ∈ V ∩ C 2 (I) gen¨ ugt dann nach Hilfssatz 11.3 der A-priori-Absch¨atzung kv“k ≤ c kek ,
(11.2.26)
mit einer von u und h unabh¨angigen Konstante c . Damit folgt dann mit Hilfe der Galerkin-Orthogonalit¨at kek2 = (e, Lv) = a(e, v) = a(e, v − Ih v) ≤ c ke′ k k(v − Ih v)′ k . Anwendung von (11.2.19), (11.2.21) und (11.2.26) ergibt also kek ≤ c h ke′ k . Hieraus folgt dann mit der schon gezeigten Energienorm-Fehlerabsch¨atzung (11.2.23) die verbesserte L2 -Absch¨atzung (11.2.24). Q.E.D. Die Energienorm-Fehlerabsch¨atzung (11.2.23) impliziert zusammen mit der Sobolewschen Ungleichung (11.1.14) die punktweise Fehlerabsch¨atzung kek∞ ≤ c hkf k . Mit etwas mehr als dem bisher betriebenen Aufwand l¨aßt auch das folgende punktweise Analogon zu der L2 -Fehlerabsch¨atzung (11.2.24) zeigen: kek∞ ≤ c h2 kf k∞ .
(11.2.27)
Damit erweist sich das Ritz-Verfahren mit st¨ uckweise linearen finiten Elementen asymptotisch als genauso gut wie das im vorigen Abschnitt behandelte Differenzenverfahren.
11.2 Methode der finiten Elemente
217
11.2.2 Finite Elemente h¨ oherer Ordnung i) Quadratische“ finite Elemente: Der Ansatzraum ist nun ” (2)
Sh = { vh ∈ C(I)| vh|Ii ∈ P2 (Ii ), i = 1, ..., N + 1, vh (a) = vh (b) = 0 }. (2)
Offenbar ist dim Sh = 2N + 1 , und die nat¨ urliche Knotenbasis ist bestimmt durch (i)
(2)
ϕ h ∈ Sh
:
(i)
ϕh (tj ) = δij ,
i, j = 21 , 1, . . . , N, N + 12 .
Mit analogen Argumenten wie oben f¨ ur den st¨ uckweise linearen Ansatz erh¨alt man nun 2 die a priori L -Fehlerabsch¨atzungen kek + hke′ k ≤ c h3 max{kf k, kf ′k} sowie die Maximumnorm-Absch¨atzung kek∞ ≤ c h3 max{kf k∞ , kf ′k∞ } .
(11.2.28)
ii) Kubische“ finite Elemente (Splines): Der Ansatzraum ist nun ” (3)
Sh = { vh ∈ C 1 (I)| vh|Ii ∈ P3 (Ii ), i = 1, ..., N + 1, vh (a) = vh (b) = 0 }. (3)
Offenbar ist dim Sh = 2N + 2 , und die nat¨ urliche Knotenbasis ist bestimmt durch (i)
(3)
(k) ψh
(3) Sh
ϕ h ∈ Sh ∈
(i)
: ϕh (tj ) = δij , :
(k) ψh (tl )
= 0,
(i)
ϕh ′ (tj ) = 0, (k) ψh ′ (tl )
= δkl ,
i = 1, ..., N, j = 0, ..., N + 1 , k, l = 0, ..., N + 1 ,
d.h.: jeder Gitterpunkt ti ist doppelter Knoten. Mit analogen Argumenten wie f¨ ur den 2 st¨ uckweise linearen Ansatz erh¨alt man nun die a-priori L -Fehlerabsch¨atzung kek + hke′ k ≤ c h4 max kf (k) k k=0,1,2
sowie die Maximum-Absch¨atzung kek∞ ≤ c h4 max kf (k) k∞ . k=0,1,2
(11.2.29)
Wir bemerken, daß man auch einen gr¨oßeren Ansatzraum von kubischen finiten Elemen(3) ten S¯h ⊂ C(I) auf der Basis der Lagrange-Interpolation definieren kann. Dazu wird jedes Polynomst¨ uck auf einem Intervall Ii durch Vorgabe der Funktionswerte in den Endpunkten ti−1 , ti sowie in zwei (beliebigen) weiteren Punkten ti−2/3 , ti−1/3 festgelegt. (3) Der so definierte Ansatzraum hat die Dimension dim S¯h = 3N + 2 und ist eine echte (3) Obermenge des Raumes Sh . Das Beispiel der kubischen Splines zeigt, daß sich durch Hinzunahme von Ableitungsknoten, d.h. durch Erzwingen von h¨oherer Regularit¨at von Sh , die Konvergenzordnung
218
Variationsmethoden
des Ritzschen Verfahrens erh¨ohen l¨aßt, ohne gleichzeitig die Anzahl der Freiheitsgrade wesentlich zu vergr¨oßern. Dies wirkt sich nat¨ urlich nur dann aus, wenn die L¨osung u der RWA (11.1.1) auch entsprechende Regularit¨at besitzt. Diese Beobachtung l¨aßt sich zu folgender Regel zusammenfassen: Ist die zu approximierende L¨osung von (11.1.1) glatt, so sind in der Methode der finiten Elemente die Polynomans¨atze hoher Ordnung und Regularit¨at auf grobem Gitter g¨unstiger als solche niedriger Ordnung und Regularit¨at auf feinem Gitter.
11.2.3 Der transport-dominante Fall Wir betrachten jetzt wieder das allgemeine Sturm-Liouville-Problem mit nicht verschwindendem Transportterm, d.h. q 6≡ 0. Insbesondere sind wir wieder an folgendem singul¨ar gest¨orten Modellfall interessiert: Lu := −ǫu“ + u′ + u = f ,
t ∈ I = [0, 1],
(11.2.30)
f¨ ur ǫ ≪ 1, mit den u ¨ blichen Randbedingungen u(0) = 0, u(1) = 0. Im Modellfall f ≡ 1 ist die Grenzl¨osung f¨ ur ǫ = 0 gerade u0 (t) = e−t , so daß die Randbedingung u(1) = 0 bei t = 1 wieder ein Grenzschichtverhalten erzwingt. F¨ ur Gitterweiten h > ǫ weist dann die normale Finite-Elemente-L¨osung analog wie die entsprechenden Finite-DifferenzenL¨osung ein unphysikalisches, oszillatorisches Verhalten auf. Zur Unterdr¨ uckung dieser Oszillationen kann beim Finite-Elemente-Verfahren mit einer verfeinerten Variante der Methode der k¨ unstlichen Diffusion gearbeitet werden, der sog. Stromliniendiffusion. Zu diesem Zweck erg¨anzen wir die normale variationelle Formulierung des Problems um transport-orientierte D¨ampfungsterme wie folgt: ǫ(u′ , ϕ′ ) + (u′ + u, ϕ + δϕ′ ) = (f, ϕ + δϕ′ ) ,
ϕ ∈ V,
(11.2.31)
mit einer Parameterfunktion δ, die noch geeignet an die Gitterweite h gekoppelt wird. Die resultierende Bilinearform aδ (u, v) := ǫ(u′ , v ′) + (u′ + u, v + δv ′ ) ist dann bzgl. der modifizierten Energie-Norm kvkδ := ǫkv ′ k2 + kδ 1/2 v ′ k2 + kvk2 koerzitiv gem¨aß aδ (v, v) ≥ kvk2δ ,
v ∈ V.
Zum Nachweis dieser Beziehung nutzt man die Identit¨at 1 (v ′ , v) = ((v 2 )′ , 1) = 0 . 2
1/2 (11.2.32)
11.2 Methode der finiten Elemente
219
Es sei betont, daß der Parameter δ = δ(t) im allg. eine Funktion von t ist (st¨ uckweise konstant auf der Zerlegung 0 = t0 < ... < tN +1 = 1) und folglich innerhalb der Norm kδ 1/2 v ′ kI stehen muß. Analog verwenden wir im folgenden auch das Symbol h = h(t) f¨ ur eine st¨ uckweise konstante Gitterweitenfunktion mit h|In = uivhn (n = 1, m..., N + 1). Das zugeh¨orige Finite-Elemente-Galerkin-Verfahren (mit linearen Ansatzfunktionen) lautet nun (1)
u h ∈ Sh :
(1)
aδ (uh , ϕh ) = lδ (ϕh ) ∀ϕh ∈ Sh ,
(11.2.33)
mit dem modifizierten Lastfunktional lδ (v) := (f, v+δv ′). Durch Kombination der Variationsgleichungen f¨ ur u und uh erhalten wir die folgende gest¨orte Orthogonalit¨atsbeziehung f¨ ur den Fehler e = u − uh : aδ (e, ϕh ) = (u′ + u − f, δϕ′h ) = ǫ(u“, δϕ′h ) .
(11.2.34)
F¨ ur die Finite-Elemente-Diskretisierung mit Stromliniendiffusionsstabilisierung hat man dann das folgende Resultat: Satz 11.3 (Konvergenzsatz fu ¨r SDFEM): Es sei ǫ ≤ hmin , und der Stabilisierungsparameter in der Stromliniendiffusion sei auf jedem Teilinterval In wie δn = hn gew¨ahlt. Dann gilt f¨ur den Fehler e = u − uh bzgl. der modifizierten Energienorm die a priori Absch¨atzung kekδ ≤ c kh3/2 u“k ,
(11.2.35)
mit einer von h (und δ) unabh¨angigen Konstante c. Beweis: Mit Hilfe der Koerzitivit¨atsbeziehung (11.2.32) und der Orthogonalit¨atsrelation (1) (11.2.34) erhalten wir mit beliebigem ϕh ∈ Sh : kek2δ ≤ aδ (e, u − ϕh ) + ǫ(u“, δ(ϕh − uh )′ ) .
(11.2.36)
Der erste Term rechts wird weiter abgesch¨atzt durch |aδ (e, u − ϕh )| ≤ ǫ|(e′ , (u − ϕh )′ )| + |(e′ + e, u − ϕh + δ(u − ϕh )′ )| ≤ ǫke′ k k(u − ϕh )′ k + {ke′ k + kek} ku − ϕh k + kδ 1/2 e′ k + kδ 1/2 ek kδ 1/2 (u − ϕh )′ k .
F¨ ur die Wahl ϕh = Ih u folgt mit Hilfe der lokalen Interpolationsabsch¨atzungen (11.2.19) bei Beachtung von δ ≡ h ≤ 1 und ǫ ≤ hmin : |aδ (e, u − Ih u)| ≤ cǫke′ k khu“k + c kδ 1/2 e′ k + kek kδ −1/2 h2 u“k + c kδ 1/2 e′ k + kek kδ 1/2 hu“k 1 ≤ kek2δ + c kh3/2 u“k2 . 4 F¨ ur den zweiten Term rechts in (11.2.36) folgt f¨ ur ϕh = Ih u mit analogen Argumenten
220
Variationsmethoden
ǫ|(u“, δ(Ih u − uh )′ )| ≤ ǫkδ 1/2 u“k kδ 1/2 (Ih u − u)′k + kδ 1/2 e′ k 1 ≤ kek2δ + c kh3/2 u“k2 . 4 Kombination der bisher gezeigten Absch¨atzungen ergibt das gew¨ unschte Resultat. Q.E.D. Die Fehlerabsch¨atzung (11.2.35) besagt insbesondere, daß im Fall einer glatten L¨osung u (ohne Grenzschicht), oder wenn die Gitterweite in der Grenzschicht hinreichend klein gew¨ahlt wird, das Verfahren bzgl. der L2 -Norm mit der Ordnung kek = O(h3/2 ) konvergiert. Damit ist das einfachste Finite-Elemente-Verfahren mit Stromliniendiffusion im transport-dominanten Fall von h¨oherer Ordnung als das durch Upwinding stabilisierte Differenzenverfahren. Allerdings muß bemerkt werden, daß die zugeh¨orige Systemmatrix Aδh zwar definit ist, aber keine M-Matrix-Eigenschaft hat; insbesondere liegt in der Regel keine Diagonaldominanz vor. 11.2.4 A posteriori Fehleranalyse Zum Abschluß wollen wir noch kurz die a posteriori Fehleranalyse bei FE-Diskretisierungen (1) diskutieren. Wir beschr¨anken uns dabei auf den linearen Ansatz Sh und auf Fehlerkontrolle in der Energie- und der L2 -Norm. Die Herleitung von a posteriori Fehlerabsch¨atzungen bedient sich wieder eines Dualit¨atsarguments und der Galerkin-Orthogonalit¨at. Sei J(·) irgend ein lineares Funktional, welches auf dem Raum V definiert ist und z ∈ V die zugeh¨orige L¨osung des dualen Problems a(ϕ, z) = J(ϕ) ∀ϕ ∈ V .
(11.2.37)
(1)
F¨ ur ϕ = e gilt mit einem beliebigen zh ∈ Sh : a(e, z) = a(e, z − zh ) = (f, z − zh ) − a(uh , z − zh ) , und nach partieller Integration a(e, z) =
N nZ X
Ii
i=1
(f − Luh )(t)(z − zh )(t) dt − puh (z −
zh )|ttii−1
o
Bei Wahl von zh = Ih z verschwinden die Randterme und es folgt N X |a(e, z)| ≤ (f − Luh , z − Ih z)Ii i=1
≤
N X i=1
h2k i kf
−
Luh k2Ii
N 1/2 X i=1
h−2k kz − Ih zk2Ii i
1/2
,
.
¨ 11.3 Ubungsaufgaben
221
f¨ ur irgend ein k ∈ N . Mit Hilfe der Interpolationsabsch¨atzung kz − Ih zkIi ≤ Ci hki kz (k) kIi erhalten wir dann X 1/2 |a(e, z)| 2k 2 ≤ Ci hi kf − Luh kIi , kz (k) kI i=1 N
(11.2.38)
mit einer Interpolationskonstante Ci . Zur Herleitung einer a posteriori Fehlerabsch¨atzung in der Energienorm w¨ahlen wir nun J(ϕ) := a(e, e)−1/2 a(ϕ, e) . Die L¨osung des dualen Problems (11.2.37) ist dann offensichtlich gerade der normierte Fehler selbst, d.h.: z = a(e, e)−1/2 e , und es gilt kz ′ kI ≤ Cs a(z, z)1/2 = Cs . Die Ungleichung (11.2.38) ergibt damit bei der Wahl k = 1 : a(e, e)
1/2
≤ Cs Ci
N X i=1
h2i kf − Luh k2Ii
1/2
.
(11.2.39)
Zur Gewinnung einer a posteriori Fehlerabsch¨atzung in der L2 -Norm setzen wir J(ϕ) := kek−1 I (ϕ, e) . Die L¨osung z des dualen Problems (11.2.37) ist dann in C 2 (I) und gen¨ ugt der a priori Absch¨atzung kz“kI ≤ Cs , mit einer Stabilit¨atskonstante Cs . Die Ungleichung (11.2.38) ergibt damit mit der Wahl k = 2 die gew¨ unschte L2 -Absch¨atzung: kekI ≤ Cs Ci
N X i=1
h4i kf
−
Luh k2Ii
1/2
.
(11.2.40)
Auf der Basis dieser a posteriori Fehlerabsch¨atzungen lassen sich nun wieder Strategien zur adaptiven Steuerung des Diskretisierungsgitters und Fehlerkontrolle angeben. Dies erfolgt in Anlehnung an die Vorgehensweise beim Galerkin-Verfahren f¨ ur AWAn und sei ¨ dem Leser als Ubung u ¨berlassen.
¨ 11.3 Ubungsaufgaben
222
Variationsmethoden
12 Ausblick auf partielle Differentialgleichungen 12.1 Transportgleichung (hyperbolisches Problem) Instation¨are Transportvorg¨ange f¨ uhren auf lineare partielle Differentialgleichungen erster Ordnung der Form ∂t u + c∂x u = 0 .
(12.1.1)
Dabei ist u = u(x, t) im einfachsten Fall eine skalare Funktion von Ort und Zeit, welche z.B. die Fortpflanzung einer St¨orung (Welle) entlang der x-Achse mit Fortpflanzungsgeschwindigkeit c beschreibt. Ein Anwendungsbeispiel ist etwa die Beschreibung von Wellenbewegungen auf der Wasseroberfl¨ache. Die partiellen Ableitungen nach x sowie t werden im folgenden abgek¨ urzt als ∂t u := ∂u/∂t, ∂x u := ∂u/∂x geschrieben. Analoge Bezeichnungen werden auch f¨ ur h¨ohere Ableitungen verwendet. Die allgemeine L¨osung dieser Transportgleichung hat die Form u(x, t) = ϕ(x − ct) mit einer Funktion ϕ(·), welche zum Zeitpunkt t = 0 die Anfangsverteilung u0 (x) = ϕ(x) beschreibt. In konkreten Anwendungen treten Modelle dieser Art in der Regel als nichtlineare (skalare) Erhaltungsgleichungen“, ” ∂t u + ∂x f (u) = 0 ,
(12.1.2)
mit konvexen Funktionen f (·) (z.B.: f (u) = 21 u2 ), sowie als Systeme der Gestalt ∂t u − c∂x v = 0 ,
∂t v − c∂x u = 0 ,
auf. Kombination dieser Gleichungen erster Ordnung f¨ uhrt auf eine skalare Gleichung zweiter Ordnung, ∂t2 ψ − c2 ∂x2 ψ = 0 ,
(12.1.3)
der sog. Wellengleichung“ f¨ ur eine Funktion ψ = ψ(x, t) mit u = ∂t ψ, v = ∂x ψ . Dies ” ist der Prototyp einer sog. hyperbolischen“ Differentialgleichung. Bei einem (linearen) ” Transportproblem ist die L¨osung offenbar durch Vorgabe von Anfangswerten zum Zeitpunkt t = 0 eindeutig festgelegt. Diese Werte werden entlang der sog. Charakteristiken“ ” in der (x, t)-Ebene, {(x, t)| x − ct = konst.}, fortgepflanzt. Wir unterscheiden die folgenden beiden Problemstellungen: i) Anfangswertaufgabe (sog. Cauchy-Problem“): ” u(x, 0) = u0(x) , −∞ < x < ∞; ii) Anfangs-Randwertaufgabe: u(x, 0) = u0(x) , 0 ≤ x < ∞,
u(0, t) = u1 (t) , 0 ≤ t < ∞ . 223
224
Ausblick auf partielle Differentialgleichungen
12.1.1 Differenzenverfahren Wir u ¨berdecken die (x, t)-Ebene mit einem ¨aquidistanten Punktgitter mit den Gitterweiten h in x-Richtung und k in t-Richtung. In den Gitterpunkten mit den Koordinaten xn := nh und tm := mk werden N¨aherungen Unm ≈ um osungen von n := u(xn , tm ) als L¨ Differenzengleichungen gesucht. Zur Diskretisierung des reinen Anfangswertproblems kommen nur explizite Differenzenformeln in Frage. i) Differenzenapproximation erster Ordnung: c 1 m m−1 (Un − Unm−1 ) + (Unm−1 − Un−1 ) = 0, k h
(12.1.4)
mit Anfangswerten Un0 := u0 (xn ). Der Abschneidefehler dieses Differenzenschemas hat f¨ ur eine glatte L¨osung (genauer: u ∈ C 2 (Rn )) die Ordnung τnm :=
c 1 m m−1 (un − unm−1 ) + (unm−1 − un−1 ) = O(h + k) . k h
Zur Untersuchung der Stabilit¨at dieses Schemas schreiben wir es in der Form m−1 Unm = (1 − cσ)Unm−1 + cσUn−1 ,
σ :=
k . h
Genau unter der Bedingung 1 − cσ ≥ 0 gilt dann max |Unm | ≤ max |Unm−1 | ≤ ... ≤ max |Un0 | , n
n
n
(12.1.5)
d.h. ist das Verfahren stabil in der Maximumnorm. Die Bedingung f¨ ur Stabilit¨at lautet ausgeschrieben k ≤ c−1 h
(12.1.6)
und wird Courant-Friedrich-Lewy-Bedingung“ oder auch kurz CFL-Bedingung“ ge” ” nannt. Sie ist typisch f¨ ur explizite Differenzenverfahren speziell bei Transportproblemen bzw. allgemein bei hyperbolischen partiellen Differentialgleichungen. Die CFL-Bedingung bedeutet, daß der Informationsfluß im Differenzenschema, d.h. die Ausbreitungsgeschwindigkeit von St¨orungen auf dem Rechengitter, nicht schneller sein darf als die im kontinuierlichen Problem. Mit Hilfe der Stabilit¨atsaussage (12.1.5) l¨aßt sich nun wieder das schon bekannte Argumentationsschema Konsistenz + Stabilit¨at ⇒ Konvergenz“ realisieren. Die Fehler”m m funktion em ugt der Differenzengleichung n := un − Un gen¨ m−1 m−1 em + cσen−1 + kτnm . n = (1 − cσ)en
Unter Annahme des Erf¨ ulltseins der CFL-Bedingung folgt dann durch Rekursion u ¨ber
12.1 Transportgleichung (hyperbolisches Problem)
225
µ = m, ..., 1: max |em n| n
≤
max |e0n | n
+k
m X µ=1
|τnµ | .
Aus dieser Beziehung entnehmen wir die folgende a priori Fehlerabsch¨atzung f¨ ur das obige einfache Differenzenverfahren: max |em n | ≤ c(u)tm {h + k} , n
(12.1.7)
mit einer Konstante c(u) ≈ maxR2 {|∂x2 u|+|∂t2u|}. Man beachte das lineare Anwachsen der Fehlerkonstante mit der Zeit, was eine charakteristische (und unvermeidbare) Eigenschaft von Diskretisierungen von reinen Transportgleichungen ist. ii) Lax-Wendroff-Schema: Das bisher betrachtete Differenzenschema ist nur von erster Ordnung genau und damit praktisch uninteressant. Eine Verbesserung erh¨alt man durch Umformungen im Abschneidefehler, 1 m 1 2 m 2 (un − unm−1 ) = (∂t u)m n + k(∂t u)n + O(k ) , k 2 und nachfolgender Ausnutzung der Beziehungen ∂t u = −c∂x u und ∂t2 u = c2 ∂x2 u, 1 2 2 m 1 m 2 (un − unm−1 ) = c(∂x u)m n + kc (∂x u)n + O(k ) . k 2 Die Ortsableitungen werden nun durch zentrale Differenzenquotienten zweiter Ordnung diskretisiert: 1 m c m kc2 m m 2 2 (un − unm−1 ) = (un+1 − um ) + (u − 2um n−1 n + un−1 ) + O(h + k ) . k 2h 2h2 n+1 Diese Umformung setzt voraus, daß die L¨osung beschr¨ankte dritte Ableitungen in Ort und Zeit besitzt. Das so abgeleitete Differenzenschema (sog. Lax-Wendroff-Schema“) ” 1 m c kc2 m m m m (Un − Unm−1 ) − (Un+1 − Un−1 ) − 2 (Un+1 − 2Unm + Un−1 )=0 k 2h 2h
(12.1.8)
hat dann konstruktionsgem¨aß einen Abschneidefehler der Ordnung τnm = O(h2 + k 2 ) . Umschreiben von (12.1.8) ergibt 1 1 m−1 m−1 Unm = (1 − c2 σ 2 )Unm−1 − cσ(1 − cσ)Un+1 + cσ(1 + cσ)Un−1 , 2 2 wieder mit der Abk¨ urzung σ := k/h. Die Stabilit¨at dieses Verfahrens l¨aßt sich leider nicht mehr mit einem so einfachen Argument wie eben erschließen. Stattdessen bedient man sich einer Technik der Fourier-Analyse, die auf J. von Neumann zur¨ uckgeht. Diese 2 liefert dann Stabilit¨at im L -Sinne. Die L¨osung der Differenzengleichung erlaubt zu jedem
226
Ausblick auf partielle Differentialgleichungen
Zeitpunkt tm auf dem ¨aquidistanten Ortsgitter {xn | n = 0, ±1, ±2, ...} eine diskrete Fourier-Entwicklung der Form Unm
=
±∞ X
Aν eaν tm eiνxn ,
ν=0
mit Koeffizienten aν ∈ C , welche u ¨ber die Differenzengleichung (12.1.8) bestimmt sind. Die Koeffizienten Aν ∈ C sind gerade die Fourier-Koeffizienten der Anfangswerte Un0
=
±∞ X
Aν eiνxn ,
ν=0
f¨ ur die angenommen wird, daß kUh0 k2h
:=
±∞ X ν=0
|Aν |2 < ∞ .
Hier steht allgemein Uhm = (Unm )n f¨ ur den (unendlichen) Vektor der Gitterwerte zum Zeitpunkt tm . Da die Differenzengleichung linear ist, werden durch sie die einzelnen Summanden dieser Entwicklung separat von einem Zeitpunkt zum n¨achsten fortgepflanzt (r := cσ), eaν tm eiνxn = (1 − r 2 )eaν tm−1 eiνxn − 21 r(1 − r)eaν tm−1 eiνxn+1 + 21 r(1 + r)eaν tm−1 eiνxn−1 , bzw. nach K¨ urzen von eaν tm−1 eiνxn , ων := eaν k = (1 − r 2 ) − 12 r(1 − r)eiνh + 21 r(1 + r)e−iνh . Unter Beachtung der Beziehungen cos 2x = cos2 x − sin2 x und sin2 x + cos2 x = 1 folgt −iνh iνh −iνh 1 ων = (1 − r 2 ) + 21 r 2 (e|iνh + {ze }) − 2 r(e| − {ze })
= {1 − 2r
2
2 cos νh 2i sin νh 2 1 sin ( 2 νh)} − i{r sin(νh)} .
Also ist |ων |2 = 1 − 4r 2 sin2 ( 21 νh) + 4r 4 sin4 ( 12 νh) + r 2 sin2 (νh) = 1 − 4r 2 sin2 ( 21 νh) + 4r 4 sin4 ( 12 νh) + 4r 2 {sin2 ( 21 νh) − sin4 ( 21 νh)} = 1 − 4r 2 (1 − r 2 ) sin4 ( 21 νh) . F¨ ur r = cσ ≤ 1, d.h. unter der CFL-Bedingung, gilt also |ων | ≤ 1 und damit kUhm k2h
≤
±∞ X ν=0
2
αtm−1 2
|Aν | |e
| =
kUhm−1 k2h
≤ ... ≤
±∞ X ν=0
|Aν |2 = kUh0 k2h .
12.1 Transportgleichung (hyperbolisches Problem)
227
Das Lax-Wendroff-Schema ist dann also L2 -stabil. Mit Hilfe einer Erweiterung dieses Arguments kann man damit noch das asymptotische Konvergenzverhalten O(h2 + k 2 ) bzgl. der diskreten L2 -Norm zeigen. iii) Leap-Frog-Schema: Das folgende Differenzenschema 1 c m−1 m−1 (Unm − Unm−2 ) + (Un+1 − Un−1 )=0 2k 2h
(12.1.9)
wird aus geometrischen Gr¨ unden Leap-Frog-Schema“ genannt. Es hat ebenfalls die Kon” sistenzordnung O(h2 + k 2 ) . Ausgehend von der Darstellung m−1 m−1 Unm = Unm−2 − cσUn+1 + cσUn−1
erh¨alt man mit dem Fourier-Ansatz die Beziehung eaν tm eiνxn = eaν tm−2 eiνxn − cσeaν tm−1 eiνxn+1 + cσeaν tm−1 eiνxn−1 bzw. mit den Abk¨ urzungen von eben: ων = ων−1 − r(eiνh − e−iνh ) = ων−1 − 2ir sin(νh) . Es ergibt sich die quadratische Gleichung ων2 + 2ir sin(νh)ων − 1 = 0 mit den Wurzeln q ων = −ir sin(νh) ± 1 − r 2 sin2 (νh) .
Unter der CFL-Bedingung r ≤ 1 gilt dann wieder |ων | ≤ 1 .
Zur Diskretisierung des Anfangs-Randwertproblems k¨onnen auch implizite Differenzenformeln verwendet werden, um sich von der l¨astigen CFL-Bedingung an die Schrittweiten zu befreien. i) Differenzenapproximation erster Ordnung: 1 m c m (Un − Unm−1 ) + (Unm − Un−1 ) = 0, k h
(12.1.10)
mit Anfangswerten Un0 := u0 (xn ), U0m = u1 (tm ). Der Abschneidefehler dieses Differenzenschemas ist wieder von erster Ordnung in h und k , τnm = O(h + k) . Bei Verwendung der Randbedingungen U0m = u1(tm ) lassen sich alle Werte Unm aus der Differenzenformel sukzessiv (d.h. explizit) berechnen. Zur Untersuchung der Stabilit¨at schreiben wir das Schema wieder in der Form m (1 + cσ)Unm = cσUn−1 + Unm−1 .
ur 0 ≤ ν ≤ n − 1, 0 ≤ µ ≤ m Sei M := supn≥0 |Un0 |. Unter der Annahme |Uνµ | ≤ M f¨ sowie f¨ ur 0 ≤ ν ≤ n, 0 ≤ µ ≤ m − 1 ist dann auch |Unm | ≤ M , und durch Induktion
228
Ausblick auf partielle Differentialgleichungen
nach n folgt sup |Unm | ≤ max{sup |Un0 |, sup |U0m |} , n≥0
n≥0
m≥0
d.h. die Stabilit¨at des Schemas ohne jede Schrittweitenrestriktion ( unbedingte Stabi” lit¨at“). ii) Wendroff-Schema: Ein implizites Differenzenschema zweiter Ordnung ist das sog. Wendroff-Schema“ ” 1 − cσ m−1 m−1 m Unm = Un−1 + (U − Un−1 ). (12.1.11) 1 + cσ n Auch dieses Verfahren ist unbedingt stabil. 12.1.2 Finite-Elemente-Galerkin-Verfahren Die bisher betrachteten Differenzenapproximationen von Transportproblemen haben den Nachteil, daß sie nur auf sog. Tensorprodukt-Gittern“ der (x, t)-Ebene definiert sind und ” somit eine dynamische Anpassung an lokale L¨osungsstrukturen (z.B. wandernde Fronten) nur schwer m¨oglich ist. Weiter gibt es f¨ ur diese Verfahren keinen fundierten Ansatz zur a posteriori Fehlersch¨atzung und adaptiven Gittersteuerung. Diese Nachteile k¨onnen durch Galerkin-Verfahren im Orts-Zeit-Raum mit Finite-Elemente-Ansatzfunktionen behoben werden. Dabei erh¨oht sich aber i. Allg. durch die globalere Kopplung der Unbekannten gegen¨ uber den einfachen, expliziten Differenzenverfahren der rechnerische Aufwand. Wir beschreiben im folgenden, wie die Idee des unstetigen Galerkin-Verfahrens“ (hier ” speziell dG(0)-Verfahren) zur L¨osung von Anfangswertaufgaben gew¨ohnlicher Differentialgleichungen auf Transportprobleme in h¨oheren Dimensionen u ¨bertragen werden kann. Wir schreiben die Transportgleichung (12.1.1) in etwas allgemeinerer Notation als (station¨are) Transportgleichung in der (x1 , x2 )-Ebene b · ∇u(x) = 0 ,
x := (x1 , x2 )T ∈ Q ,
(12.1.12)
auf einem Quadrat Q := {x ∈ R2 | 0 ≤ xi ≤ 1 (i = 1, 2)}, mit einem (festen) Richtungsvektor b = (b1 , b2 )T und dem Gradientenvektor ∇ = (∂, ∂2 )T . Die Transportgleichung (12.1.1) paßt in diesen Rahmen mit b = (1, c)T . Die Randbedingungen sind dann gestellt als sog. Einstr¨omrandbedingungen“ ” u=g
auf
∂Q− := {x ∈ ∂Q| b · n(x) < 0} ,
(12.1.13)
mit einer gegebenen Randbelegungsfunktion g(x) und dem nach außen gerichteten Normaleneinheitsvektor n = (n1 , n2 )T entlang des Randes ∂Q von Q . Der andere Teil des Randes ∂Q+ := ∂Q \ ∂Q− wird sinngem¨aß als Ausstr¨omrand“ bezeichnet. ” Ausgangspunkt der Galerkin-Diskretisierung der Transportgleichung (12.1.12) ist wieder eine variationelle Formulierung. Zun¨achst wird das L¨osungsgebiet Q zerlegt in Dreiecke (Zellen) K , wobei zwei Dreiecke dieser Triangulierung Th jeweils nur eine ganze Seite oder einen Eckpunkt gemeinsam haben (d.h.: Die Triangulierung muß nicht struk-
12.1 Transportgleichung (hyperbolisches Problem)
229
turiert sein, aber sog. h¨angende Knoten“ sind hier nicht erlaubt). Die Gitterweite wird ” beschrieben durch die Parameter hK := diam(K) sowie h := maxK hK . F¨ ur jede Zelle K definieren wir ihren Ein- sowie Ausstr¨omrand durch ∂K− := {x ∈ ∂K| b · n(x) < 0} ,
∂K+ := ∂K \ ∂K− .
Bzgl. der Triangulierungen Th f¨ uhren wir Finite-Elemente-Ansatzr¨aume bestehend aus st¨ uckweise konstanten Funktionen ein: (0)
Sh := {vh : Q → R| vh|K ∈ P0 (K), K ∈ Th } . (0)
Die Funktionen in Sh sind i.allg. unstetig u ur einen Punkt x ∈ ∂K ¨ber die Zellkanten. F¨ f¨ uhren wir die folgenden Bezeichnungen ein: v − (x) := lim v(x − sb),
v + (x) := lim v(x + sb),
s→+0
s→+0
[v] := v + − v − .
Die diskreten Probleme lauten dann (0)
(0)
u h ∈ Sh :
B(uh , ϕh ) = 0 ∀ϕh ∈ Sh ,
(12.1.14)
mit der (affin)-bilinearen Form B(v, w) :=
X nZ
K∈Th
K
b · ∇v w dx −
Z
∂K−
o n · b [v]w + ds .
Man beachte, daß hier die Einstr¨omrandbedingung so in das Verfahren eingebaut ist, daß implizit u− osung erf¨ ullt offensichtlich h = g auf ∂Q− realisiert wird. Die exakte L¨ ebenfalls die Galerkin-Gleichung (12.1.14), so wir f¨ ur den Fehler e = u − uh wieder die Orthogonalit¨atsbeziehung haben: B(e, ϕh ) = 0 ,
(0)
ϕ h ∈ Sh .
(12.1.15)
Die Galerkin-Diskretisierung ist stabil bzgl. der nat¨ urlichen Energienorm“ ” Z X Z 1/2 kvkb := 21 |n · b| |[v]|2 ds + 21 |n · b| |v − |2 ds . K∈Th
∂K−
∂Q+
Dar¨ uberhinaus gilt f¨ ur jede (z.B. bzgl. Th ) st¨ uckweise differenzierbare Funktion v : Z 2 1 |n · b| |v − |2 ds , B(v, v) = kvkb − 2 ∂Q−
was man leicht durch zellweise partielle Integration erschließt. Da f¨ ur den betrachteten Sonderfall st¨ uckweise konstanter Ansatzfunktionen auf jeder Zelle b · ∇vh = uiv0 ist,
230
Ausblick auf partielle Differentialgleichungen
reduziert sich (12.1.14) auf eine Beziehung f¨ ur die Zellwerte UK := uh|K −1 Z Z n · b u− K ∈ Th . n · b ds UK = h ds ,
(12.1.16)
∂K−
∂K−
Dieses lokal gekoppelte System von Gleichungen kann wieder (wie beim impliziten Differenzenverfahren) ausgehend vom Einstr¨omrand sukzessiv aufgel¨ost werden. Diese GalerkinDiskretisierung stellt eine Verallgemeinerung des einfachen Upwind-Differenzenverfahrens (1.Ordnung) auf kartesischen Tensorproduktgittern f¨ ur allgemeine, unstrukturierte Triangulierungen dar. Hierf¨ ur gilt die folgende Konvergenzresultat:
Satz 12.1 (DG-Verfahren): Besitzt die L¨osung des Transportproblems (12.1.12) quadratintegrable erste Ableitungen, so gilt f¨ur die unstetige Galerkin-Methode (12.1.14) die a priori Fehlerabsch¨atzung ku − uh kb ≤ c(u) h1/2 , mit einer Konstante c(u) ≈ k∇ukQ :=
Z
Q
(12.1.17)
1/2 |∇u|2 dx . (0)
Beweis: Zu der L¨osung u Rdefinieren wir eine zellweise Interpolierende u¯h ∈ Sh durch die Setzung u¯h|K := |K|−1 K u dx . F¨ ur diese gilt die wohl bekannte Fehlerabsch¨atzung 1/2 Z |b · n| |(u − u¯h )+ |2 ds ku − u¯h kK + ≤ ci hK k∇ukK . (12.1.18) ∂K−
Mit Hilfe der Galerkin-Orthogonalit¨at (12.1.15) und unter Beachtung von u− h = g auf ∂Q− erschließen wir f¨ ur den Fehler e := u − uh kek2b = B(e, e) = B(e, u − u¯h ) . Da auf jeder Zelle b · ∇uh = uiv0 , folgt mit Hilfe der Cauchyschen Ungleichung kek2b ≤ kb · ∇ukQ ku − u¯h kQ + A · B , wobei A :=
X Z K∈Th
∂K−
2
|b · n|[e] ds
1/2
,
B :=
X Z K∈Th
∂K−
|b · n| |(u − u¯h )+ |2 ds
1/2
.
Unter Beachtung von A ≤ kekb und der Interpolationsabsch¨atzung (12.1.18) ergibt sich hieraus die Behauptung. Q.E.D.
12.2 W¨armeleitungsgleichung (parabolisches Problem)
231
12.2 W¨ armeleitungsgleichung (parabolisches Problem)
Wir betrachten die partielle Differentialgleichung ∂t u − a∂x2 u = 0
(12.2.19)
f¨ ur Funktionen u = u(x, t) mit Argumenten x ∈ I := [0, 1], t ≥ 0. Diese Gleichung beschreibt z.B. die Ausbreitung von Temperatur in einem w¨armeleitenden Draht (daher auch der Name W¨armeleitungsgleichung“). Hierbei handelt es sich i. allg. um ein ” Anfangs-Randwertproblem, d.h.: Es werden Anfangsbedingungen und Randbedingungen gestellt: u(x, 0) = u0 (x), x ∈ I, u(0, t) = u(1, t) = 0, t ≥ 0 . Die Anfangswerte stammen z.B. von einer vorgegebenen Temperaturverteilung im Draht, etwa ein pl¨otzlicher Temperaturimpuls zum Zeitpunkt t = 0 , w¨ahrend die Dirichletschen Randwerte der Vorgabe eines (unendlich großen) W¨armereservoirs entsprechen, an das die Enden des Drahtes angeschlossen sind. Realit¨atsn¨ahere Randbedingungen sind die der perfekten W¨armeisolation, welche durch die Beziehungen ∂x u(0, t) = ∂x u(1, t) = 0 (sog. Neumannsche Randbedingungen“) beschrieben sind. Der Einfachheit halber bleiben ” wir im folgenden aber bei den Dirichletschen Randbedingungen. Die W¨armeleitungsgleichung geh¨ort zur Gruppe der parabolischen“ Differentialgleichungen. Bei diesen treten im ” Gegensatz zu den hyperbolischen Gleichungen (z.B. der oben betrachteten Transportgleichung oder der Wellengleichung) als charakteristische Richtungen nur die Parallelen zur x-Achse auf, d.h.: St¨orungen breiten sich mit unendlich großer Geschwindigkeit c = ∞ im Ort aus. Wir wollen kurz die Existenz von L¨osungen der W¨armeleitungsgleichung und ihre Eindeutigkeit diskutieren. Zum Nachweis der Existenz von L¨osungen wenden wir die sog. Methode der Variablenseparation“ an. F¨ ur den Separationsansatz u(x, t) = v(x)ψ(t) ” folgt durch Einsetzen in die W¨armeleitungsgleichung: ψ ′ (t)v(x) = aψ(t)v“(x)
⇒
ψ ′ (t) v“(x) =a = uivkonst. , ψ(t) v(x)
f¨ ur alle Argumente (x, t) ∈ Q. Die Separationsfaktoren v(x) und ψ(t) sind also notwendig L¨osungen der eindimensionalen Eigenwertprobleme av“(x) + λv(x) = 0 , x ∈ I ,
ψ ′ (t) + λψ(t) = 0 , t ≥ 0 ,
unter den Nebenbedingungen v(0) = v(1) = 0 bzw. ψ(0) = 1 mit Parametern λ ∈ R. Die Eigenwertaufgabe f¨ ur v besitzt die L¨osungen −1/2 Z 2 2 2 sin (jπx) dx vj (x) = aj sin(jπx) , λj = aj π , aj = , j ∈ N. I
Die zugeh¨origen L¨osungen f¨ ur ψ(t) sind ψj (t) = e−λj t . Die Anfangsfunktion besitzt die
232
Ausblick auf partielle Differentialgleichungen
(verallgemeinerte) Fourier-Entwicklung 0
u (x) =
∞ X
u0j vj (x) ,
j=0
u0j
=
Z
u0 (x)vj (x) dx .
I
Durch Superposition der Einzell¨osungen f¨ ur j ∈ N , u(x, t) :=
∞ X
u0j vj (x)e−λj t ,
j=1
erhalten wir folglich eine L¨osung der W¨armeleitungsgleichung, welche den Randbedingungen und insbesondere den Anfangsbedingungen gen¨ ugt. (Zum Nachweis u ufe man ¨ berpr¨ die Konvergenz der Reihen der jeweils nach x sowie t abgeleiteten Einzell¨osungen.) Daß diese L¨osung die einzige ist, belegt das folgene Argument: F¨ ur eine regul¨are L¨osung u multiplizieren wir in (12.2.19) mit u , integrieren u ¨ ber I und danach partiell im Ort: Z Z Z Z 1 d 2 2 0 = ∂t u u dx − a ∂x u u dx = |u| dx + a |∂x u|2 dx . 2 dt I I I I Integration u ¨ber die Zeit liefert Z Z 2 |u| dx ≤ |u0 |2 dx , I
I
t ≥ 0.
Hieraus ersehen wir erstens, daß zwei L¨osungen der W¨armeleitungsgleichung zu denselben Anfangswerten notwendig f¨ ur alle Zeiten u ¨bereinstimmen, und zweitens, daß die somit (eindeutige) L¨osung stetig bzgl. der L2 -Norm von den Anfangswerten abh¨angt.
12.2.1 Diskretisierungsverfahren Bei der Diskretisierung von instation¨aren, insbesondere parabolischen Problemen gibt es drei grunds¨atzliche Vorgehensweisen, die im folgenden nacheinander diskutiert werden. i) Linienmethode: Die Differentialgleichung wird zun¨achst im Ort und erst danach bzgl. der Zeit diskretisiert. Sei 0 = x0 < ... < xn < ... < xN +1 = 1 wieder ein (zun¨achst als ¨aquidistant angenommenes) Punktgitter auf dem Ortsbereich I = [0, 1] mit Gitterweite h = (N + 1)−1 . Auf diesem Gitter werden N¨aherungen Un (t) ≈ u(xn , t) definiert durch Diskretisierung des Ortsoperators in (12.2.19) mit Hilfe des zentralen Differenzenquotienten 2. Ordnung, a a∂x2 u(xn , t) ≈ 2 {Un−1 (t) − 2Un (t) + Un+1 (t)} . h Die Vektorfunktion Uh (t) = (Un (t))N ugt dann dem System gew¨ohnlicher Differenn=1 gen¨ tialgleichungen a U˙ n (t) − 2 {−Un−1 (t) + 2Un (t) − Un+1 (t)} = 0 , h
12.2 W¨armeleitungsgleichung (parabolisches Problem)
233
wobei bei Ber¨ ucksichtigung der Randbedingungen U0 = uivUN +1 ≡ 0 gesetzt ist. Die Anfangswerte sind naturgem¨aß Un (0) = u0 (xn ). In kompakter Schreibweise lautet dies U˙h + Ah Uh (t) = 0 , t ≥ 0, mit der (N × N)-Matrix
−2
1 a Ah = 2 h 0
1
Uh (0) = U 0 ,
0
−2 .. .. . .
(12.2.20)
.. . . −2 1 1 −2
Diese Matrix hat die (positiven rellen) Eigenwerte und der zugeh¨origen Eigenvektoren λn = 2ah−2 (1 − cos(nπh)) ,
w (n) = (sin(jnπh))N j=1 .
F¨ ur den kleinsten und gr¨oßten Eigenwert gilt λmin = 2ah−2 (1 − cos(πh)) = ah−2 (π 2 h2 + O(h4 )) = aπ 2 + O(h2 ) , λmax = 2ah−2 (1 − cos(π(1 − h)) = 2ah−2 (1 + cos(πh)) = 4ah−2 + O(1) . Die Spektralkondition von Ah h¨angt also wie folgt von der Gitterweite ab: condnat Ah = 4π −2 h−2 ≫ 1 . Das nach Ortsdiskretisierung entstandene System (12.2.20) wird f¨ ur kleines h zunehmend −2 steif mit Steifigkeitsrate κ = O(h ).
Bei der weiteren zeitlichen Diskretisierung werden explizite Schemata starken Schrittweitenbeschr¨ankungen unterliegen. Beim expliziten Euler-Schema (Polygonzugmethode) w¨are aus Stabilit¨atsgr¨ unden die Schrittweitenbedingung −λmax k ∈ [−2, 0]
⇒
k≤
1 2 h 2a
einzuhalten. Offensichtlich ist diese Bedingung viel restriktiver als die CFL-Bedingung k ≤ c−1 h bei der expliziten Zeitdiskretisierung der Transportgleichung (12.1.1). Der formale Vorteil der expliziten Verfahren, daß in den einzelnen Zeitschritten keine impliziten Gleichungssysteme zu l¨osen sind, wird besonders in h¨oheren Raumdimensionen durch die große Zahl von durchzuf¨ uhrenden Zeitschritten (besonders bei Verwendung lokal verfeinerter Ortsgitter) mehr als aufgehoben. Da die Eigenwerte der Systemmatrix Ah alle reell sind, k¨ame zur stabilen Integration des Systems (12.2.20) jede der in Kapitel 5.3 betrachteten A(0)-stabilen Formeln in Frage. Dabei muß aber der hohe numerische Aufwand bei der Durchf¨ uhrung komplizierter impliziter Verfahren hoher Ordnung ber¨ ucksichtigt werden.
234
Ausblick auf partielle Differentialgleichungen
Auf der anderen Seite hat das einfache implizite Gegenst¨ uck zum expliziten Euler-Schema, (I + kAh )Uhm = Uhm−1 , m ≥ 1,
Uh0 ≈ u0 .
nur die Ordnung O(k) , so daß die Zeitgenauigkeit i.allg. nicht gut gegen die Ortsgenauigkeit O(h2 ) balanciert ist. F¨ ur W¨armeleitungsprobleme ist das Euler-Schema meist zu ungenau und zu stark d¨ampfend (Man beachte die extreme Struktur des Stabilit¨atsgebiets dieser Formel.). In der Praxis wird daher zur zeitlichen Diskretisierung solcher Probleme meist die A-stabile Trapezregel verwendet, welche in kompakter Form geschrieben lautet: (I + 12 kAh )Uhm = (I − 21 kAh )Uhm−1 , m ≥ 1,
Uh0 ≈ u0 .
(12.2.21)
Dieses Schema findet man in der Literatur unter dem Namen Crank-Nicolson-Verfahren“. ” Nach Konstruktion sollte die Konsistenzordnung des resultierenden Gesamtverfahrens O(h2 + k 2 ) sein, so daß Orts- und Zeitgenauigkeit formal balanciert sind. Zur Konvergenzanalyse f¨ uhren wir mit der Standardnotation um origen n := u(xn , tm ) wieder den zugeh¨ Abschneidefehler ein, m m −2 m−1 m−1 m−1 m−1 1 + un+1 ). τnm := k −1 (um ) − 21 ah−2 (um n−1 − 2un + un+1 ) − 2 ah (un−1 − 2un n − un
Durch Taylor-Entwicklung erh¨alt man f¨ ur die einzelnen Bestandteile des Abschneidefehlers die Darstellungen Z tm −1 m m−1 −1 ∂t u(x, t) dt , k (un − un ) = k 1 ah−2 (um n−1 2
−
2um n
+
um n+1 )
=
tm−1 2 1 a∂x u(xn , tm ) 2
+
1 ah2 ∂x4 u(ξn , tm ) ., 24
und damit τnm
=k
−1
Z
tm tm−1
∂t u(xn , t) dt − 21 {∂t u(xn , tm ) + ∂t u(xn , tm−1 )} −
1 ah2 ∂x4 u(ξn , ηm ) . 12
Auf jeder der Zellen Qm n := [xn−1 , xn+1 ] × [tm−1 , tm ] gilt folglich |τnm | ≤
1 2 |∂t3 u| k max 12 Qm n
+
1 |∂x4 u| . ah2 max 12 Qm n
Zur Absch¨atzung des (globalen) Diskretisierungsfehlers f¨ uhren wir f¨ ur Gitterfunktionen N 2 (vn )n=1 diskrete Analoga des L -Skalarprodukts und der zugeh¨origen L2 -Norm ein: (v, w)h := h
N X n=1
vn wn ,
1/2
kvkh := (v, v)h .
Satz 12.2 (Crank-Nicolson-Verfahren): Das beschriebene Crank-Nicolson-Verfahren
12.2 W¨armeleitungsgleichung (parabolisches Problem)
235
hat f¨ur hinreichend glatte L¨osung u den globalen Diskretiserungsfehler kum − Uhm kh ≤ c(u) tm {h2 + k 2 } ,
m ≥ 1,
(12.2.22)
mit einer Konstante c(u) ≈ maxQ {|∂t3 u| + a|∂x4 u|} . m m m N m Beweis: Wir setzen em := (em := n := un − Un und entsprechend e n )n=1 sowie τ m N (τn )n=1 . Mit dieser Notation gilt dann
k −1 (em − em−1 ) + 21 Ah (em + em−1 ) = τ m . Multiplikation dieser Identit¨at mit em + em−1 und Summation u ¨ ber m ergibt 1 k −1 {kem k2h − kem−1 k2h } + (Ah (em + em−1 ), em + em−1 )h = (τ m , em + em−1 )h . 2 Der kleinste Eigenwert von Ah verh¨alt sich wie λ1 = aπ 2 + O(h2) . Damit erschließen wir 1 kτ m k2h , k −1 {kem k2h − kem−1 k2h } + λ1 kem + em−1 k2h ≤ 21 λ1 kem + em−1 k2h + λ−1 2 1 bzw.
1 kem k2h ≤ kem−1 k2h + λ−1 kkτ m k2h . 2 1 Wir summieren nun u ¨ber µ = m, ..., 1 und erhalten kem k2h
≤
ke0 k2h
+
1 −1 λ k 2 1
m X µ=1
kτ µ k2h .
Mit e0 = 0 und der obigen Absch¨atzung f¨ ur den Abschneidefehler folgt schließlich die Behauptung. Q.E.D. Die u ur das autonome System (12.2.20) (mit t-unabh¨angiger ¨ blichen Einschrittformeln f¨ Matrix Ah ) lassen sich in kompakter Form schreiben, Uhm = R(−kAh )Uhm−1 , mit rationalen Funktionen R(z) =
P (z) . Q(z)
Z.B. geh¨oren zu den expliziten und impliziten Euler-Verfahren die Funktionen R(z) = 1− z bzw. R(z) = (1 + z)−1 . Das Crank-Nicolson-Verfahren wird beschrieben durch R(z) = (1− 21 z)(1+ 12 z)−1 . F¨ ur die Brauchbarkeit dieser Verfahren f¨ ur steife Anfangswertaufgaben sind die folgenden Eigenschaften wichtig: (1) A-stabil: |R(z)| ≤ 1 ,
Re z ≤ 0 ,
(2) stark A-stabil: |R(z)| < 1 , (3) steif-stabil: |R(z)| → 0 ,
Re z → −∞ ,
Re z → −∞ .
236
Ausblick auf partielle Differentialgleichungen
Das von uns favorisierte Crank-Nicolson-Verfahren ist in diesem Sinne zwar A-stabil aber nicht stark A-stabil. Dies hat nachteilige Konsequenzen im Fall von irregul¨aren Anfangswerten u0 (z.B.: lokalen Temperaturspitzen). Die durch diese Anfangsdaten induzierten hochfrequenten Fehleranteile werden durch das Crank-Nicolson-Schema nur unzureichend ausged¨ampft, so daß sich ein unphysikalisches L¨osungsverhalten zeigen kann. Man beachte, daß der kontinuierliche Differentialoperator stark d¨ampfend ist: Z Z 2 −λt |u0 (x)|2 dx , t ≥ 0 , |u(x, t)| dx ≤ e I
I
mit dem kleinsten Eigenwert des Ortsoperators, λ = aπ 2 . Dieses unliebsame Verhalten wird vermieden bei Verwendung einer Modifikation des Crank-Nicolson-Verfahrens als ein sog. Teilschrittverfahren“ bestehend aus jeweils drei sukzessiven Teilschritten vom ” Crank-Nicolson-Typ: (I + αθkAh )U m−1+θ = (I − βθkAh )U m−1
(I + βθ′ kAh )U m−θ = (I − αθ′ kAh )U m−1+θ (I + αθkAh )U m = (I − βθkAh )U m−θ
√ mit den Parametern θ = 1 − 21 2 = 0, 292893..., θ′ = 1 − 2θ und beliebigen Werten α ∈ ( 12 , 1], β = 1 − α . F¨ ur den speziellen Wert α = (1 − 2θ)(1 − θ)−1 = 0, 585786... ′ ist αθ = βθ , so daß die zu invertierenden Matrizen in den Teilschritten u ¨ bereinstimmen. Dieses Verfahren wird beschrieben durch die rationale Funktion (1 + αθ′ z)(1 + βθz)2 = ez + O(|z|3) . Rθ (z) = 2 ′ (1 − αθz) (1 − βθ z) Aus dieser Beziehung liest man ab, daß das obige Teilschrittverfahren wie das einfache Crank-Nicolson-Schema von zweiter Ordnung genau ist, und insbesondere daß es stark A-stabil ist: β |Rθ (z)| < 1 , Re z < 0 , lim |Rθ (z)| = < 1 . Re z→−∞ α Dieses Schema hat sich in der Praxis als besonders geeignet zur Behandlung von parabolischen Problemen mit nicht notwendig regul¨aren Daten erwiesen. ii) Rothe-Methode: Die Differentialgleichung wird zun¨achst mit einem A-stabilen Verfahren in der Zeit diskretisiert. Bei Verwendung z.B. des impliziten Euler-Schemas ergibt sich eine Folge von station¨aren Randwertaufgaben (vom Sturm-Liouville-Typ) U m − ak d2x U m = U m−1 + kf m , m ≥ 1 , U 0 = u0 . Diese Probleme werden nun nacheinander auf m¨oglicherweise wechselnden, dem L¨osungsverlauf angepaßten Ortsgittern diskretisiert. Das Problem ist dabei der ad¨aquate Transfer der jeweiligen Startl¨osung U m−1 vom alten auf das neue Ortsgitter. Hier zeigt sich wieder der systematische Vorteil einer Finite-Elemente-Galerkin-Methode, bei der sich ganz automatisch als richtige Wahl die L2 -Projektion von U m−1 auf das neue Gitter ergibt. Die theoretische Analyse der Rothe-Methode mit wechselnder Ortsdiskretisierung ist wesent-
12.3 Laplace-Gleichung (elliptisches Problem)
237
lich schwieriger als die der einfachen Linienmethode und kann im Rahmen dieser kurzen Einf¨ uhrung nicht beschrieben werden. ¨ iii) Globale Diskretisierung: Ahnlich wie bei den Transportproblemen k¨onnte auch bei der W¨armeleitungsgleichung eine simultane Diskretisierung (etwa mit einem Finite-ElementeGalerkin-Verfahren) auf einem unstrukturierten Gitter der ganzen (x, t)-Ebene erfolgen. Dieser theoretisch durchaus attraktive Ansatz wird aber bei h¨oher dimensionalen Problemen wegen der globalen Kopplung aller Unbekannten zu rechenaufwendig und spielt daher in der Praxis keine Rolle.
12.3 Laplace-Gleichung (elliptisches Problem) Wir verwenden wieder die Bezeichnung x := (x1 , x2 )T von oben f¨ ur Punkte der (x1 , x2 )Ebene und betrachten auf dem (offenen) Bereich Ω = {x ∈ R2 | 0 < xi < 1 (i = 1, 2)} die Differentialgleichung −∆u(x) := −∂12 u(x) − ∂22 u(x) = f (x) ,
x ∈ Ω,
(12.3.23)
mit dem sog. Laplace-Operator“ ∆ f¨ ur gegebene rechte Seite f (x) . Diese Poisson” ” Gleichung“ genannte Differentialgleichung 2. Ordnung geh¨ort zur Klasse der elliptischen“ ” Probleme. Diese sind dadurch ausgezeichnet, daß keine charakteristischen Richtungen existieren, d.h.: St¨orungen breiten sich in alle Richtungen mit unendlicher Geschwindigkeit aus. Entsprechend d¨ urfen (und m¨ ussen) analog wie beim eindimensionalen SturmLiouville-Problem auch wieder entlang des ganzen Randes ∂Ω des betrachteten L¨osungsgebiets Ω Vorgaben f¨ ur die L¨osung gemacht werden. Wir betrachten hier der Einfachheit halber nur homogene Dirichletsche Randbedingungen u(x) = 0, x ∈ ∂Ω (sog. 1. Rand” wertproblem des Laplace-Operators“). Die L¨osung u beschreibt z.B. die Auslenkung einer (idealisierten) elastischen Membran, die u ¨ber dem Gebiet Ω horizontal gespannt und mit einer Kraftdichte f vertikal belastet wird. Eine L¨osung u(x) ist i. Allg. nicht geschlossen angebbar, so daß man auf numerische Approximation angewiesen ist. Der Nachweis der Existenz von L¨osungen der Poisson-Gleichung kann hier im Rahmen dieser Einf¨ uhrung nicht beschrieben werden. Er ist wesentlich aufwendiger als das entsprechende Argument bei den eindimensionalen Sturm-Liouville-Problemen. Die Eindeutigkeit von L¨osungen folgt aber wieder mit einem einfachen Variationsargument. Seien u(i) (i = 1, 2) zwei L¨osungen mit endlicher Energie“: ” E(u(i) ) := 21 (∇u(i) , ∇u(i) )Ω − (f, u(i) )Ω < ∞ . R Hier bezeichnet (v, w)Ω := Ω v(x)w(x) dx das L2 -Skalarprodukt u ¨ber dem Gebiet Ω . (1) (2) Dann gilt f¨ ur die Differenz w = u − u (∇w, ∇w)Ω = (−∆w, w)Ω = 0 und folglich wegen der Randbedingung notwendig w ≡ konst. = 0 . Wir bemerken noch, daß die L¨osungen elliptischer Probleme auf Gebieten mit nicht glatten R¨andern (wie
238
Ausblick auf partielle Differentialgleichungen
das hier betrachtete Quadrat) bei den Eckpunkten i. Allg. lokale Irregularit¨aten, d.h. Singularit¨aten in h¨oheren Ableitungen, besitzen.
12.3.1 Differenzenverfahren Die Differenzendiskretisierung des Poisson-Problems (12.3.23) erfolgt analog wie die des ¯ wieder mit Sturm-Liouville-Problems in einer Dimension. Wir u ¨berdecken den Bereich Ω ¯ h := {x ∈ Ω| ¯ x = xij = (ih, jh)T , (i, j = einem achsen-parallelen Tensorproduktgitter Ω −1 0, ..., m + 1) mit der konstanten Gitterweite h = (m + 1) . Die Verwendung derselben festen Gitterweite in alle Ortsrichtungen ist nicht zwingend und erfolgt hier nur der Einfachheit halber. Die N = m2 inneren Gitterpunkte, bezeichnet als die Punktmenge Ωh , werden zeilenweise durchnumeriert.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
h
h
Abbildung 12.1: Diskretisierungsgitter des Modellproblems
¯ h werden Gitterfunktionen Uh := (Uij )m+1 gesucht als L¨osungen der Auf dem Gitter Ω i,j=0 Differenzengleichungen −∆h Uh = Fh ,
xij ∈ Ωh ,
(12.3.24)
mit der Notation (∆h Uh )ij := h−2 (4Uij − Ui+1,j − Ui−1,j − Ui,j−1 − Ui,j+1) (Fh )ij := f (xij ) , 1 ≤ i, j ≤ m . Die geometrische Verteilung der St¨ utzstellen f¨ ur diesen Differenzenoperator begr¨ unden seinen Namen 5-Punkte-Operator“. Entsprechend den gegebenen Randbedingungen werden ” die Randwerte U0,j = 0, Ui,0 = 0 gesetzt. Die Gitterwerte sind dann Approximationen der exakten L¨osung, Uij ≈ u(xij ) . Das Differenzenschema (12.3.24) ist ¨aquivalent zu dem
12.3 Laplace-Gleichung (elliptisches Problem)
239
linearen Gleichungssystem Ah Uh = bh
(12.3.25)
f¨ ur den Vektor Uh = (Uij )i,j=1,...,m ∈ RN der unbekannten Knotenwerte. die schon bekannte Gestalt ( Im die m×m-Einheitsmatrix) Bm −Im 4 −1 −Im Bm −Im −1 4 −1 Ah = h−2 N B = m . −Im Bm . . −1 4 .. .. . .. . .
Die Matrix hat
..
.
..
.
m.
Die rechte Seite ist bestimmt durch bh = (f (x11 ), . . . , f (xmm ))T . Die Matrix Ah ist a) eine d¨ unn besetzte Bandmatrix mit der Bandbreite 2m + 1 ; b) symmetrisch, irreduzibel und schwach diagonal dominant; c) positiv definit und M-Matrix.
Die M-Matrixeigenschaft von Ah erlaubt es, bei der Fehleranalyse f¨ ur die Differenzenapproximation (12.3.24) analog vorzugehen wie vorher beim Sturm-Liouville-Problem in einer Dimension. Satz 12.3 (5-Punkte-Schema): F¨ur die 5-Punkte-Differenzenapproximation (12.3.24) der Poisson-Gleichung (12.3.23) gilt im Falle einer hinreichend glatten L¨osung die a-priori Fehlerabsch¨atzung max |u(xij ) − Uij | ≤ xij
1 Mh2 96
,
(12.3.26)
mit der Konstante M := maxΩ {|∂14 u| + |∂24 u|}. Beweis: Der Abschneidefehler der 5-Punkte-Differenzenapproximation gen¨ ugt der Absch¨atzung max |τh | := max |fij − (∆h u)ij | ≤ Ωh
xij ∈Ωh
1 2 h 12
max{|∂14 u| + |∂24 u|} . Ω
Hieraus ersehen wir, daß die Differenzenapproximation exakt ist insbesondere f¨ ur quadratische Polynome. Die Fehlerfunktion des Verfahrens sei mit eh := uh −Uh bezeichnet. Aus der M-Matrix-Eigenschaft der zum Differenzenoperator −∆h korrespondierenden Matrix Ah folgt f¨ ur deren Inverse komponentenweise A−1 ur jede Gitterfunktion vh imh ≥ 0 . F¨ plizieren dann die Beziehungen −∆h vh ≤ 0 in Ω und vh ≤ 0 auf ∂Ωh notwendig, daß vh ≤ 0 in ganz Ωh (diskretes Maximumprinzip). Wir definieren die quadratische Funk1 tion w(x) := 48 Mh2 (x1 (1 − x1 ) + +x2 (1 − x2 )) sowie die zugeh¨orige Gitterfunktion wh . In Gitterpunkten auf dem Rand ∂Ωh ist offensichtlich wh ≥ 0 und −∆h wh = uiv − ∆w = uiv −
1 Mh2 12
,
xij ∈ Ωh ,
240
Ausblick auf partielle Differentialgleichungen
Dann ist weiter ±eh − wh ≤ 0 in Punkten auf ∂Ωh und −∆h (±eh − wh ) = ±τh −
1 Mh2 12
≤ 0,
xij ∈ Ωh .
Folglich muß −wh ≤ eh ≤ wh auf ganz Ωh sein. Dies impliziert die behauptete Fehlerabsch¨atzung.
Q.E.D.
Das Hauptproblem bei der numerischen Approximation von elliptischen Randwertaufgaben vom Typ (12.3.23) ist die effiziente L¨osung der auftretenden, global gekoppelten, linearen Gleichungssysteme. Um diesen abzusch¨atzen, betrachten wir die folgende Modellsituation: Zu der speziellen rechten Seite f (x) = 2π 2 sin(πx1 ) sin(πx2 ) geh¨ort die exakte L¨osung u(x) = sin(πx1 ) sin(πx2 ) . Aus der obigen a priori Fehlerabsch¨atzung (12.3.26) entnehmen wir hierf¨ ur max |u(xij ) − Uij | ≤ xij
1 4 2 π h 96
.
Zur Erzielung einer Genauigkeit von ε = 10−4 (vier Stellen) ist also die Gitterweite √ h ∼ 96π −2 10−2 ∼ 10−2 . erforderlich. Die Anzahl von Unbekannten im System (12.3.25) ist dann N ∼ 104 . Zur Bestimmung der Konditionierung der zugeh¨origen Systemmatrix Ah berechnen wir wieder ihre Eigenwerte und Eigenvektoren: λkl = h−2 {4 − 2 (cos(khπ) + cos(lhπ))} ,
w kl = (sin(ikhπ) sin(jlhπ))i,j=1,...,m .
Also ist λmax = h−2 {4 − 4 cos (1 − h)π} = 8h−2 + O(1) λmin = h−2 {4 − 4 cos (hπ)} = h−2 {4 − 4(1 − 21 π 2 h2 )} + O(h2 )) = 2π 2 + O(h2) und somit condnat (Ah ) ≈ 4π −2 h−2 .
F¨ ur die Gitterweite h = 10−2 folgt also condnat (Ah ) ≈ 4π −2 10−4 ≈ 5.000 . Zur Bestimmung der L¨osung des durch Diskretisierung der Randwertaufgabe (12.3.23) entstehenden (N × N)-Gleichungssystems Ah Uh = bh ben¨otigen die einfachen Fixpunktiterationen (Jacobi- und Gauß-Seidel-Verfahren) O(N 2 ) Operationen. Als direktes Verfahren erfordert das Cholesky-Verfahren bei Ber¨ ucksichtigung der speziellen Struktur der Systemmatrix O(m2 N) = O(N 2 ) Operationen zur Berechnung der Zerlegung Ah = Lh LTh und das Vorw¨arts- und R¨ uckw¨artseinsetzen. Dabei ist jedoch zu ber¨ ucksichtigen, daß letzteres O(mN) = O(N 3/2 ) Speicherpl¨atze ben¨otigt im Gegensatz zu den nur O(N) der einfachen Iterationsverfahren. In den letzten Jahren wurden sehr effiziente Verfahren zur
12.3 Laplace-Gleichung (elliptisches Problem)
241
L¨osung von Problemen des obigen Typs entwickelt (die sog. Mehrgitter-Verfahren“), die ” in der Regel die N Unbekannten mit O(N) Operationen berechnen.
12.3.2 Finite-Elemente-Galerkin-Verfahren Das Finite-Elemente-Verfahren zur Approximation der Poisson-Gleichung (12.3.23) sieht formal genauso aus wie beim Sturm-Liouville-Problem in einer Dimension. Ausgangspunkt ist wieder eine variationellen Formulierung des Problems: u ∈ V¯ :
(∇u, ∇ϕ)Ω = (f, ϕ)Ω
∀ϕ ∈ V¯ .
(12.3.27)
Dabei bezeichnet V¯ den Raum der Funktionen mit endlicher Energie E(·) . F¨ ur unsere Zwecke gen¨ ugt es zu wissen, daß dieser Funktionenraum den folgenden Raum als Teilraum enth¨alt: ¯ v st¨ V := {v ∈ C(Ω)| uckweise stetig differenzierbar, v|∂Ω = 0 } . F¨ ur Funktionen aus V gilt die mehrdimensionale Poincar´esche Ungleichung k∇vkΩ ≥ kvkΩ ,
v∈V .
¯ wieder in Dreiecke K zerlegt, wobei je zwei Zur Diskretisierung wird der Bereich Ω Dreiecke nur eine ganze Seite oder einem Eckpunkt gemeinsam haben k¨onnen, d.h. sog. h¨angende Knoten sind hier nicht erlaubt. Die Knotenpunkte dieser Triangulierung werden mit Pi bezeichnet, wobei die Art der Numerierung beliebig ist. Die Triangulierung Th ist i.allg. unstrukturiert, d.h.: Die Knotenpunkte brauchen keine zeilenweise bzw. spaltenweise Numerierung zu erlauben. Die Feinheit von Th wird durch die lokale Zellweite hK := diam(K) und die globale Gitterweite h := maxK∈Th hK beschrieben. Auf der Triangulierung Th wird der folgende Finite-Elemente-Ansatzraum st¨ uckweise linearer Funktionen definiert: Vh := {vh ∈ V | vh|K ∈ P1 (K), K ∈ Th } . Die approximierenden Probleme lauten dann u h ∈ Vh :
(∇uh , ∇ϕh )Ω = (f, ϕh )Ω
∀ϕh ∈ Vh .
(12.3.28)
(i)
Wie im eindimensionalen Fall wird eine Knotenbasis“ {ϕh , i = 1, ..., N := dim Vh } ” von Vh eingef¨ uhrt (sog. Lagrange-Basis“ ), bzgl. derer jede Funktion vh ∈ Vh eine ” Darstellung der Form besitzt N X (i) vh = vh (Pi )ϕh . i=1
Bei Verwendung dieser Basis ist das diskrete Problem (12.3.28) wieder ¨aquivalent zu einem linearen Gleichungssystem Ah Uh = bh
242
Ausblick auf partielle Differentialgleichungen
f¨ ur den Vektor Uh := (uh (Pi ))N i=1 der Knotenwerte mit der Systemmatrix (sog. Steifig” N keitsmatrix“) Ah = (aij )ij und der rechten Seite (sog. Lastvektor“) bh = (bj )N j=1 : ” (i)
(j)
aij := (∇ϕh , ∇ϕh )Ω ,
(j)
bj := (f, ∇ϕh )Ω .
Die Matrix Ah ist wieder symmetrisch und (im Hinblick auf die Poincar´esche Ungleichung) auch positiv definit. Man kann zeigen, daß ihre Spektralkondition sich auch auf allgemeinen Triangulierungen stets wie die des 5-Punkte-Differenzenoperators verh¨alt: condnat (Ah ) = O(h−2) . Dabei ist die Potenz h−2 weder durch die Raumdimension noch durch den Polynomgrad der Ansatzfunktionen sondern allein durch die Ordnung des Differentialoperators ∆ bestimmt. Mit Hilfe der Galerkin-Orthogonalit¨at“ f¨ ur die Fehlerfunktion e := u − uh , ” (∇e, ∇ϕh )Ω = 0 ,
ϕh ∈ Vh ,
erschließen wir wieder die Bestapproximationseigenschaft des Galerkin-Verfahrens: k∇ekΩ ≤ min k∇(u − ϕh )kΩ . ϕh ∈Vh
(12.3.29)
F¨ ur Funktionen v ∈ V definieren wir wieder die Knoteninterpolierende Ih v ∈ Vh durch Ih v(Pi ) = v(Pi), (i = 1, ..., N) . F¨ ur den zugeh¨origen Interpolationsfehler gilt k∇(v − Ih v)kK ≤ ci hK k∇2 vkK ,
(12.3.30)
wobei ∇2 v den Tensor der zweiten partiellen Ableitungen von v bezeichnet. Durch Kombination der Absch¨atzungen (12.3.29) und (12.3.30) erhalten wir folgendes Resultat: Satz 12.4 (FEM): F¨ur die Finite-Elemente-Galerkin-Methode (12.3.28) mit st¨uckweise linearen Ansatzfunktionen gilt die Konvergenzabsch¨atzung k∇ekΩ ≤ ci h k∇2 ukΩ .
(12.3.31)
Mit Hilfe eines Dualit¨atsarguments analog zu dem beim Sturm-Liouville-Problem verwendeten l¨aßt sich auch eine verbesserte L2 -Fehlerabsch¨atzung herleiten, kekΩ ≤ ci cs h2 k∇2 ukΩ .
(12.3.32)
Dabei ist diesmal allerdings die Absch¨atzung der Stabilit¨atskonstante cs f¨ ur das duale Problem −∆z = kek−1 Ω e in Ω ,
z|∂Ω = 0,
(12.3.33)
wesentlich komplizierter (und i. Allg. auf nicht glattberandeten Gebieten in dieser Form auch gar nicht richtig).
12.3 Laplace-Gleichung (elliptisches Problem)
243
Index L2 -Projektion, 99 ¨ Aquivalenzsatz, 192 5-Punkte-Operator, 238 A(α)-Stabilit¨at, 136 A(0)-Stabilit¨at, 136 A-stabil, 235 stark, 235 A-Stabilit¨at, 136 A-stabilit¨at, 56 Abbruchkriterium, 148 Abschneidefehler, 29, 33, 94, 120, 190, 234 absolut stabil, 54 Adams-Bashforth-Formel, 118, 131, 139 Adams-Moulton-Formel, 118, 131, 139 Anfangs-Randwertaufgabe, 223 Anfangsbedingung, 1 Anfangswertaufgabe, 1, 11 homogene, 38 Implizite, 157 L-stetige, 66 linear implizite, 157 monotone, 38 semi-monotone, 66 steife, 61 Ansatzr¨aume, 211 Aubin-Nitsche-Trick, 216 Balkenbiegung, 4 Bestapproximationseigenschaft, 211 Box-Schema, 190 Bulirsch-Folge, 153 Burgers-Gleichung, 4 Cauchy-Problem, 223 CFL-Bedingung, 224 Charakteristik, 223 charakteristisches Polynom erstes, 123 zweites, 123 Crank-Nicolson-Verfahren, 234, 235 DAE, 157 dG(0)-Verfahren, 86, 107 dG(r)-Verfahren, 88 DG-Verfahren, 230 Differentialgleichung
d-ter Ordnung, 6 explizite, 6 elliptische, 237 hyperbolische, 223 monotone, 20 parabolische, 231 System, 6 Differenzenapproximation, 189 Differenzengleichung, 29, 132 lineare, 132 Differenzenmethode A-stabile, 56 Differenzenoperator, 29 Differenzenquotient einseitiger, 204 symmetrischer, 146 zentraler, 197, 232 Differenzenverfahren explizites, 33 Diffusionsmodell, 4 diskretes Gronwallsches Lemma, 30 Diskretisierungsfehler globaler, 30 lokaler, 29, 120 duale L¨osung, 92 duales Problem, 216 Dualit¨atsargument, 91, 216, 242 Einschrittverfahren, 33 Einstr¨omrandbedingungen, 228 Energie, 237 Energieform, 208 Energiefunktional, 208 Energienorm, 229 Erhaltungsgleichungen, 223 Euler-Schema implizites, 234 Euler-Verfahren implizites, 31, 39, 49, 110 modifiziertes, 35, 49, 50 Eulersche Polygonzugmethode, 29, 34, 44, 50, 85 Existenzsatz f¨ ur DAEs, 161 Existenzsatz von Peano, 29 Extrapolation zum Limes, 47 Extrapolationssatz, 147 244
INDEX
Extrapolationstableau, 149 Federungssystem, 1 Fehlerabsch¨atzung a priori, 32, 37, 42 Fehlerentwicklung, 150 Fehlerkonstante, 139 Finite Differenzen, 8 Finite Elemente kubische, 217 lineare, 212 quadratische, 217 Finite-Elemente-Verfahren, 241 Fixpunktiteration, 66, 181 Fourier-Entwicklung, 232 diskrete, 226 Fundamentall¨osung, 194 Fundamentalmatrix, 166 Galerkin-Methode, 9 Galerkin-Orthogonalit¨at, 86, 98, 210, 242 Galerkin-Verfahren, 77, 207, 211 unstetiges, 79 Gitterfunktion, 29 Globaler Konvergenzsatz, 41 Graggsches Extrapolationsverfahren, 152 Gronwallsches Lemma, 16, 30, 104 Hauptabschneidefehler, 43, 45, 49 Heunsches Verfahren 2. Ordnung, 34, 49 3. Ordnung, 35 Index einer DAE, 159 Interpolationskonstante, 101 K¨ unstliche Diffusion, 205 Knotenbasis, 213, 241 Knoteninterpolierende, 214 Koerzivitat, 212 konsistent, 33 Konsistenz, 191 Konsistenzordnung, 33, 49, 121 Konvergenz globale, 39 Konvergenz einer LMM, 123 Konvergenzsatz, 37, 192
245
Korrektor, 139 Kuttasches Verfahren 3. Ordnung, 35 Lagrange-Basis, 241 Lagrange-Polynome, 147 Landeman¨over, 3 Laplace-Gleichung, 237 Laplace-Operator, 237 Lastfunktional, 208 Lastvektor, 242 Lax-Wendroff-Schema, 225 Leap-Frog-Schema, 227 Lineare Mehrschrittformel optimale, 131 Lineare Mehrschrittmethode optimale, 134 Linienmethode, 232 Lipschitz-Bedingung, 29, 36 Lipschitz-stetig, 18 Lipschitzbedingung, 15 Lorenz-System, 5 M-Matrix, 199, 239 Maschinengenauigkeit, 49 Mehrfachschießverfahren, 177 Mehrgitter-Verfahren, 241 Mehrschrittverfahren, 118 Methode der finiten Elemente, 212 Methode der Schrittweitenhalbierung, 43 Milne’s device, 141 Milne-Simpson-Formel, 119, 131 Mittelpunktsregel, 36, 87, 118, 151 Newton-Verfahren, 67, 181 ged¨ampftes, 71 Nullstabilit¨at, 124 numerische Differentiation, 145 Nystr¨om-Formel, 118, 131 Ordnungsbarriere, 131 Pad´e-Verfahren, 81 PECE-Form, 141 Petrow-Galerkin-Verfahren, 85 Poincar´esche Ungleichung, 170, 241 Poisson-Gleichung, 237
246
Polygonzugmethode, 118, 150, 162 Populationsmodell, 2 Pr¨adiktor, 139 Pr¨adiktor-Korrektor-Methode, 139 Projektionsmethode, 210 R-Schritt-Formel, 119 R¨ uckw¨artsdifferenzenformel, 119 R¨ uckw¨artsproblem, 92 Randbedingung, 4 Randbedingungen Dirichletsche, 169 homogene, 207 Neumannsche, 231 Randwertaufgabe, 4 Randwertaufgabe (RWA), 165 Reaktionsdynamik, 3 Residuum, 47, 78, 94 Richardson-Extrapolation, 196 Richardson-Extrapolation , 145 Ritz-Verfahren, 209 Rothe-Methode, 236 Runge-Kutta-Formel diagonal-implizite, 65 implizite, 63 Runge-Kutta-Methode, 55 Runge-Kutta-Verfahren, 80 2. Ordnung, 48 4. Ordnung, 35, 48, 50 explizite, 34 Satz vom station¨aren Limes, 22 von Arzel`a-Ascoli, 14 von der differenziellen Stabilit¨at, 18 von der diskreten Stabilit¨at, 36, 125 von der Eindeutigkeit, 17 von der Fortsetzbarkeit, 15 von der globalen Existenz, 19 von der globalen Stabilit¨at, 21 von der Konvergenz der LMM, 130 von der L¨osbarkeit von RWA, 167 von der lokalen Rindeutigkeit, 165 von der lokalen Stabilit¨at, 16 von der monotonen Gleichung, 24 von der Regularit¨at, 15
INDEX
von Newton-Kantorovich, 67 von Peano, 12 von Picard-Lindel¨of, 17 Schießmatrix, 179 Schießverfahren, 173 Schrittweitensteuerung, 46 Simpson-Formel, 122 Sobolew-Raum, 208 Sobolewsche Ungleichung diskrete, 82 St¨orung singul¨are, 203 Stabilit¨at, 190 absolute, 132 asymptotische, 21 diskrete, 36 duale, 103 exponentielle, 21 numerische, 53, 56, 132 Stabilit¨atsgebiet, 54, 132 Stabilit¨atsintervalls, 55 Stabilit¨atskonstante, 95, 101, 107 Stabilit¨atspolynom, 132 Stabilit¨atssatz, 201 Startwerte, 137 steif-stabil, 235 steife DAE, 161 Steifheit, 61 Steifigkeitsmatrix, 242 Steifigkeitsrate, 61 Stromliniendiffusion, 218, 219 Sturm-Liouville-Problem, 169, 196, 207 regul¨ares, 169 Sukzessive Approximation, 7 Summenungleichung, 30 Superkonvergenz, 91 Taylor-Entwicklung, 7 Taylor-Methode, 55 Taylor-Verfahren, 33, 43 Teilschrittverfahren, 236 Testfunktion, 207 Transportgleichung, 223 Transportterm, 211 Trapezregel, 36, 59, 85, 118, 136, 195, 234
INDEX
Upwind-Diskretisierung, 204 Variablenseparation, 231 variationelle Formulierung, 78 Variationsgleichung, 208 Variationsmethoden, 207 Variationsprinzip, 208 Verfahrensfunktion, 33 Verst¨arkungsfaktor, 54 W¨armeleitungsgleichung, 62, 231 Wellenausbreitung, 4 Wellengleichung, 223 Wendroff-Schema, 228 Wurzelbedingung, 124 Zeilensummenkriterium schwaches, 199 Zweik¨orperproblem, 1 Zweipunkt-Randwertaufgabe, 165
247