1
Numerische Behandlung partieller Differentialgleichungen
Vorlesung TU Berlin Sommersemester 2001 Stand: 5. Juli 2001
Matthias Bollh¨ofer Sekretariat MA 4–5 Institut fu ¨r Mathematik Technische Universit¨at Berlin Straße des 17. Juni 136 D–10623 Berlin
[email protected] http://www.math.tu-berlin.de/∼bolle
2
Inhaltsverzeichnis
1 Einleitung
7
1.1
Elliptische Randwertprobleme . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.2
Parabolische Anfangsrandwertprobleme . . . . . . . . . . . . . . . . . . . .
8
1.3
Hyperbolische Anfangsrandwertprobleme . . . . . . . . . . . . . . . . . . .
10
1.4
Typeneinteilung und Klassifizierung . . . . . . . . . . . . . . . . . . . . . .
10
2 Elliptische Randwertprobleme
11
2.1
Explizite L¨osungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
2.2
Maximumprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
¨ Ubungen zu Kapitel 2.2 . . . . . . . . . . . . . . . . . . . . . . . .
16
Finite Differenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
2.3.1
Einige Finite–Differenzen–Schemata . . . . . . . . . . . . . . . . . .
17
2.3.2
Das diskrete Maximumprinzip und seine Anwendungen . . . . . . .
20
2.3.3
Die Neumannsche Randbedingung . . . . . . . . . . . . . . . . . . .
25
2.3.4
Behandlung des Randes bei Nicht–Rechteckgebieten . . . . . . . . .
27
2.3.5
Betrachtung des Poissonproblemes als Matrixgleichung . . . . . . .
28
2.3.6
¨ Ubungen zu Kapitel 2.3 . . . . . . . . . . . . . . . . . . . . . . . .
34
Finite Volumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
2.4.1
Einfache Finite–Volumen–Ans¨atze . . . . . . . . . . . . . . . . . . .
38
2.4.2
Ein Finite–Volumen–Verfahren f¨ ur das Modellproblem . . . . . . .
51
2.4.3
Behandlung allgemeiner Dreiecke und Rechtecke . . . . . . . . . . .
54
2.4.4
Behandlung des Randes . . . . . . . . . . . . . . . . . . . . . . . .
56
2.4.5
Konvergenz der FVM . . . . . . . . . . . . . . . . . . . . . . . . . .
58
2.2.1 2.3
2.4
3
4
INHALTSVERZEICHNIS ¨ Ubungen zu Kapitel 2.4 . . . . . . . . . . . . . . . . . . . . . . . .
61
Finite Elemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
2.5.1
Die Grundidee der Finite–Elemente–Methode . . . . . . . . . . . .
63
2.5.2
Einfache Finite–Element–R¨aume . . . . . . . . . . . . . . . . . . .
66
2.5.3
Anwendung der Ansatzfunktionen . . . . . . . . . . . . . . . . . . .
70
2.5.4
Anwendung auf das Modellproblem . . . . . . . . . . . . . . . . . .
72
2.5.5
Behandlung allgemeiner Dreiecke und Parallelogramme . . . . . . .
75
2.5.6
Randapproximation, krumme R¨ander . . . . . . . . . . . . . . . . .
76
2.5.7
Randbedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
2.5.8
Funktionalanalytische Hilfsmittel, Sobolev–R¨aume . . . . . . . . . .
80
2.5.9
Ein Variationsproblem im Hilbert–Raum . . . . . . . . . . . . . . .
83
2.5.10 Approximationss¨atze . . . . . . . . . . . . . . . . . . . . . . . . . .
89
2.5.11 Nichtkonforme Methoden . . . . . . . . . . . . . . . . . . . . . . . .
96
¨ 2.5.12 Ubungen zu Kapitel 2.5 . . . . . . . . . . . . . . . . . . . . . . . .
97
2.4.6 2.5
3 Mehrgitterverfahren fu ¨ r elliptische Randwertprobleme
99
3.1
Modellprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2
Direkte Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.3
Warum keine einfachen Iterationsverfahren verwenden? . . . . . . . . . . . 103
3.4
Gl¨attungsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.5
Die Grobgitterkorrektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.6
Mehrgitterverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.7
3.8
99
3.6.1
Mehrgitterverfahren im eindimensionalen Fall . . . . . . . . . . . . 115
3.6.2
Mehrgitterverfahren im 2D–Fall . . . . . . . . . . . . . . . . . . . . 118
Eine elementare Konvergenzanalyse . . . . . . . . . . . . . . . . . . . . . . 122 3.7.1
Konvergenzanalyse im 1D–Fall . . . . . . . . . . . . . . . . . . . . . 123
3.7.2
¨ Ubertragung auf den 2D–Fall . . . . . . . . . . . . . . . . . . . . . 128
Mehrgitterartige Verfahren f¨ ur Variationsprobleme . . . . . . . . . . . . . . 129 3.8.1
Variationsformulierung . . . . . . . . . . . . . . . . . . . . . . . . . 129
3.8.2
Finite Elemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
INHALTSVERZEICHNIS
3.9
5
3.8.3
Mehrgitterverfahren f¨ ur FEM–Diskretisierung . . . . . . . . . . . . 130
3.8.4
Weitere mehrgitterartige Verfahren . . . . . . . . . . . . . . . . . . 133
¨ Ubungen zu Kapitel 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6
INHALTSVERZEICHNIS
Kapitel 1 Einleitung Wir werden uns mit der numerischen Behandlung einiger Klassen von Aufgabenstellungen aus dem Bereich partieller Differentialgleichungen, d.h. Differenitalgleichungen mehrerer Ver¨anderlicher besch¨aftigen. Die Problemklassen die wir betrachten wollen, sind 1. Station¨are, d.h. zeitunabh¨angige Randwertprobleme 2. Instation¨are, d.h. zeitabh¨angige Anfangswertprobleme und Anfangsrandwertprobleme Im Gegensatz zu gew¨ohnlichen Differentialgleichungen erfordert die Behandlung partieller Differentialgleichung eine ziemlich genaue Beschreibung der Differentialgleichung und nicht einfach y 0 = f (t, y) mit irgendeiner Funktion f . Dieses schr¨ankt die Problemklasse auf einige ausgew¨ahlte Gleichungen ein, die aber in der Praxis recht h¨aufig vorkommen.
1.1
Elliptische Randwertprobleme
Die erste recht einfache Klasse von Gleichungen, die wir behandeln werden, sind Probleme wie die Potentialgleichung. Beispiel 1 In einem Staudamm sickert Wasser durch den Boden. Das eigentliche Gebiet, das uns interessiert ist der Boden und die Grundwasserstr¨omung durch diesen Boden (Abbildung 1.1). Wir k¨onnen vereinfacht annehmen, dass der Staudamm wasserundurchl¨assig ist und dass der Boden selbst auf einer Erdschicht liegt, die wasserundurchl¨assig ist. Alternativ k¨onnen wir uns auch auf den Standpunkte stellen, dass bei Betrachtung eines hinreichend großen Bereichs des Bodens die Effekte des durchsickernden Wassers vernachl¨assigbar sind. Die Durchl¨assigkeit des Bodens sei durch kh in horizontaler und kv in vertikaler Richtung beschrieben. Dieses k¨onnen je nach Beschaffenheit des Bodens auch ortsabh¨angige Gr¨oßen sein, z.B. bei verschiedenen wasserdurchl¨assigen Gesteiensschichten. Dann beschreibt das Str¨omungspotential u(x, y) eine elliptische Differentialgleichung 7
8
KAPITEL 1. EINLEITUNG Abbildung 1.1: Staudamm
Wasser
Staudamm
wasserdurchl¨assiger Boden
des Typs (1.1)
∂u ∂ ∂u ∂ kh + kv =0 ∂x ∂x ∂y ∂y
Mit Ausnahme der Stelle, wo das Erdreich auf das Wasser des Staudamms trifft, ist der Fluss u ¨ber die R¨ander des Erdreiches Null, d.h. (1.2)
νx kh
∂u ∂u + νy kv = 0. ∂x ∂y
Dabei beschreibt (νx , νy ) die ¨aussere Normale in Richtung des Randes. Hier spricht man von einer sogenannten (homogenen) Neumannschen Randbedingung. In dem Bereich wo das Wasser auf den Boden trifft, kann man das Geschwindigkeitspotential explizit angeben. Es ergibt sich aus der H¨ohe h des Wasserspiegels u ¨ber dem Boden sowie der Druckh¨ohe p/(ρg). p (1.3) u= + h. ρg Dabei ist p der Wasserdruck, ρ die Dichte und g die Erdbeschleunigung. Diese Randbedingung wird auch als Dirichletbedingung bezeichnet.
1.2
Parabolische Anfangsrandwertprobleme
Die zweite Klasse von Problemen die wir betrachten werden h¨angen eng mit den elliptischen Problemen zusammen. Anstelle eines station¨aren zeitunabh¨angigen Problemes bekommen wir jetzt die Zeit als weitere Unbekannte mit hinzu. Im Falle parabolischer Gleichungen kann z.B. die W¨armeleitungsgleichung dienen. Beispiel 2 T (~x, t) sei die Temperaturverteilung in einem K¨orper. Der W¨armefluss F ist bis auf eine Materialkonstante κ gegeben durch (1.4)
F = −κ grad T.
1.2. PARABOLISCHE ANFANGSRANDWERTPROBLEME
9
Die Energie¨anderung des K¨orpers setzt sich aus dem W¨armefluss u ¨ber die Oberfl¨ache div F sowie der zugef¨ uhrten W¨arme Q zusammen. dE = − div F + Q. dt
(1.5)
¨ Weiterhin sind die Energie¨anderung und die Anderung der Temperaturverteilung proportional, d.h. dE dT (1.6) = a dt dt Dabei ist die Konstante a die spezifische W¨arme. Zusammengenommen haben wir entweder ein System von Differentialgleichungen der Form a
dT = − div F + Q dt F = −κ grad T.
oder wenn F substituieren, bekommen wir eine sogenannte parabolische Differentialgleichung der Form dT (1.7) a = div (κ grad T ) + Q. dt Somit ist ein Teil der Gleichung, n¨amlich div (κ grad T ) wieder elliptisch wie im Abschnitt 1.1. Das Gebiet, das wir betrachten wollen, sei der Einfachheit halber eine rechteckige Platte (Abbildung 1.2). Abbildung 1.2: W¨armeleitung in einer Platte thermische Konvektion
Isolation
Platte
Isolation
Isolation
An drei Seiten sei die Platte isoliert, d.h. wir haben dort (1.8)
ν > grad T = 0.
An der vierten Seite haben wir infolge der Konvektion eine Abstrahlungsbedingung der Form (1.9) ν > grad T + αT = 0
10
KAPITEL 1. EINLEITUNG
Nun beginnt zum Zeitpunkt t = 0 eine innere W¨armequelle. Somit brauchen wir noch eine Anfangsbedingung (1.10) T (~x, 0) = T0 (~x), wobei T0 (~x) eine Anfangsw¨armeverteilung ist, die mit den Randbedingungen konsistent sein muss.
1.3
Hyperbolische Anfangsrandwertprobleme
Als letzte Problemklasse betrachten wir Str¨omungsprobleme. Als Beispiel dient hier die Wellengleichung. Beispiel 3 Eine rechteckige Membrane u ist am Rand fest eingespannt, d.h. (1.11)
u(~x, t) = h(t) f¨ ur alle t > 0.
Zu Beginn hat die Membrane eine bestimmte (mit den Randbedingungen konsistente) Form (1.12)
u(~x, 0) = u0 (~x).
Nachdem die Membrane angeregt wird, etwa durch (1.13)
du(~x, 0) = g(~x), dt
l¨asst sich die Schwingung durch eine Gleichung der Form (1.14)
d2 u = c2 div ( grad u) 2 dt
beschreiben. Dabei ist c eine Materialkonstante. Wiederum bekommen wir div ( grad u) als einen Anteil in der Gleichung, hier allerdings betrachten wir die zweite Ableitung nach der Zeit.
1.4
Typeneinteilung und Klassifizierung
Die drei vorangehenden Beispiele zeigen drei Aufgabentypen. Die drei Aufgabentypen unterscheiden sich durch die Art und Weise, in der die Zeitableitung mit eingeht. Bei allen Aufgaben habe wir Randwerte am Rande des Gebietes in irgendeiner Form vorzugeben. Nehmen wir eine Zeitableitung hinzu, wie im Falle parabolischer Gleichungen, so haben wir eine weitere Anfangsbedingung mit zu ber¨ ucksichtigen. Bei h¨oheren Zeitableitungen (hyperbolischer Fall) kommt noch eine weitere Anfangsbedingung mit hinzu. Wir werden im folgenden die drei Typen von Gleichungen nacheinander untersuchen und dabei verschiedene numerische Herangehensweisen betrachten. Gemeinsam ist diesen Verfahren, dass f¨ ur die Zeitrichtung eine andere Herangehensweise verwenedt wird als f¨ ur die Ortsdiskretisierung.
Kapitel 2 Elliptische Randwertprobleme Wir haben schon in der Einleitung anhand der Potentialgleichung ein Beispiel einer elliptischen partiellen Differentialgleichung gesehen. Allgemein betrachten wir Probleme der Form (2.1)
− div (A grad u) = f.
Dabei liegt ein abgeschlossenes, zusammenh¨angendes und beschr¨anktes Gebiet Ω ∈ Rn mit st¨ uckweise glattem Rand vor. f und A sind gegebene stetige Funktionen, f : Ω → R, A : Ω → Rn,n . Genauer ist A(x) f¨ ur jedes x ∈ Ω eine symmetrische, positiv definite Matrix, mit (2.2) v > A(x)v > γv > v, f¨ ur alle x ∈ Ω, v ∈ Rn . Diese Aussage bedeutet lediglich, dass der kleinste positive Eigenwert von A(x) gleichm¨aßig, d.h. von x unabh¨angig nach unten beschr¨ankt ist. Die Funktion u : Ω → R ist unsere gesuchte Funktion. Schon f¨ ur recht einfache elliptische Aufgaben kann man sehen, dass die L¨osung, sofern sie existiert, nicht eindeutig sein kann. Man ben¨otigt weitere Randbedingungen. Dazu sei Γ = ∂Ω und (2.3)
u = g auf Γ1 ⊆ Γ
als eine m¨ogliche Randbedingung. Diese Bedingung heisst Dirichlet–Randbedingng und g : Γ → R ist eine gegebene stetige Funktion. F¨ ur den Fall, dass g ≡ 0 ist, sprechen wir auch von einer homogenen Dirichlet–Bedingung. Als eine weitere Bedingung verwenden wir (2.4) ν > A grad u = h auf Γ2 ⊆ Γ. Dabei ist h : Γ → R stetige gegebene Funktion. Dieses nennt man eine Neumann– Randbedingung. Streng genommen ist die Neumann–Bedingung der Fall h ≡ 0, den wir hier aber als homogene Neumann–Randbedingung bezeichnen wollen. ν bezeichnet das uckweise glatte R¨ander betrachten, ist ν fast ¨aussere Normalenfeld an Γ2 . Da wir nur st¨ u urlich sollten Γ1 und Γ2 vern¨ unftig zusammenpassen, d.h. ¨berall wohldefiniert. Nat¨ (2.5)
Γ1 ∩ Γ2 = ∅, Γ1 ∪ Γ2 = Γ. 11
12
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Γ2
Abbildung 2.1: Staudamm
Γ1
Γ2
Γ2 Ω Γ2
Γ2
Als Γ1 , Γ2 werden wir Vereinigungen von Randsegementen zulassen. Ausserdem sollte immer mindestens ein Randsegement Γ1 dabei sein, da sonst die Aufgabe h¨ochstens bis auf eine Konstante eindeutig bestimmt sein kann, denn sonst tauchen nur erste und zweite Ableitungen von u auf. Wir werden uns im folgenden meistens mit dem Fall n = 2 und A = I ¨ befassen. Der Ubergang zu einem allgemeineren A als der Identit¨at ist in der Regel formal recht einfach. Der Fall n = 2 ist ist normaler Weise allgemein genug, um als MusterPf¨ ur den 2 n Fall n > 2 zu dienen. Falls A = I ist, so verwenden wir anstelle von div grad u = i=1 ∂∂xu2 i den sogenannten Laplace–Operator ∆u ≡ div grad u.
2.1
Explizite Lo ¨sungen
F¨ ur sehr einfache Aufgaben kann man explizite L¨osungen bestimmen. Dies geht z.B. f¨ ur den Fall A = I und ∆u = 0 f¨ ur ganz spezielle Gebiete. Hier k¨onnen wir elegant den Weg u ¨ber die komplexe Differenzierbarkeit gehen. Sei dazu w(z) = u(z) + iv(z) eine komplex differenzierbare (holomorphe) Funktion zerlegt in ihren Realteil u und Imagin¨arteil v. Komplexe Differenzierbarkeit ist gekennzeichnet durch die Eigenschaft d 1 d d w≡ w(x + iy) + i w(x + iy) = 0. d¯ z 2 dx dy Aus der Gleichung d d w(x + iy) = −i w(x + iy) dx dy bekommt man durch nochmaliges Differenzieren nach x bzw. y d2 d2 d2 d2 w(x + iy) = −i w(x + iy) = −i w(x + iy) = − w(x + iy), dx2 dxdy dydx dy 2
2.2. MAXIMUMPRINZIP
13
d.h. ∆w = 0. Damit sind w sowie sein Real– und Imagin¨arteil L¨osungen der Gleichung, sogenannte “harmonische” Funktionen. Nehmen wir einmal an, dass unser Gebiet Ω ein Kreis umP den Nullk punkt mit Radius ρ ist. Dann k¨onnen wir w in eine Potenzreihe der Form w(z) = ∞ k=0 ck z entwickeln. Oder in Polarkoordinaten z = reiφ : w(z) ≡ w(re
ikφ
)=
∞ X
ck rk eikφ .
k=0
Ist w auf dem Kreisrand in Form einer Fourierreihe ikφ
w
(ρe ∂Ω
)=
∞ X
ak eikφ
k=0
gegeben, so ist bereits w als Ganzes bestimmt und wir bekommen ck durch ck = ak /rk . Damit haben wir f¨ ur den Fall eines kreisf¨ormigen Gebietes mit Dirichlet–Randbedingungen eine explizite L¨osung der Gleichung bestimmt.
2.2
Maximumprinzip
Nachdem wir f¨ ur einen Spezialfall eine explizite L¨osung bestimmt haben, charakterisieren wir nun elliptische Probleme anhand ihrer wichtigsten Eigenschaft, dem Maximumprinzip. Satz 4 (Maximumprinzip) Es gelten die Voraussetzungen (2.1)–(2.5). Sei f : Ω → R ¯ L¨osung der Differentialgleichung eine nichtpositive stetige Funktion und u ∈ C 2 (Ω)∩C 0 (Ω) (2.6)
− div (A grad u) = f 6 0.
Dann nimmt u sein Maximum auch auf Γ = ∂Ω an. Beweis. Sei ~x = (x1 , x2 ). Sei zun¨achst f < 0 vorausgesetzt. Nehme an, es g¨abe ~x0 ∈ Ω mit u(~x0 ) = max u(~x) > max u(~x). ~ x∈Ω
~ x∈Γ
(wegen der Kompaktheit von Ω d¨ urfen wir Maxima anstelle von Suprema verwenden) Wegen der Extremaleigenschaft von u in x0 gilt grad u(~x0 ) = 0, Hu(~x0 ) negativ semidefinit ! ∂2u ∂2u h11 h12 2 ∂x ∂x∂y Dabei ist Hu(~x) = = die Hessesche Matrix. Wir wollen ∂2u ∂2u h12 h22 ∂y∂x ∂y 2 zeigen, dass − div (A grad u(~x0 )) > 0 zeigen und damit einen Widerspruch konstruieren.
14
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Wir bekommen ∂ ∂u(~x0 ) aij (~x0 ) − div (A grad u(~x0 )) = − ∂xi ∂xj i,j=1,2 X
X ∂aij (~x0 ) ∂u(~x0 ) X ∂ 2 u(~x0 ) − aij (~x0 ) ∂xi ∂xj ∂xi ∂xj i,j=1,2 i,j=1,2 X = − aij hij = −a11 h11 − a22 h22 − 2a12 h12 = −
(2.7)
i,j=1,2
Da A(~x0 ) und −Hu(~x0 ) symmetrisch positiv (semi–)definit sind, haben beide nichtnegative Diagonaleintr¨age und es gilt a11 a22 > a212 , h11 h22 > h212 . Damit ist |a12 h12 | 6
p a11 h11 a22 h22
und wir bekommen p − div (A grad u) > −a11 h11 − a22 h22 − 2 a11 h11 a22 h22 p 2 p = −a11 h11 − −a22 h22 > 0. Dies stellt einen Widerspruch zu f < 0 dar. Damit wird das Maximum auch auf dem Rande angenommen. Nehmen wir jetzt nur f (~x) 6 0 an. Wiederum nehme an, dass u(~x1 ) = max u(~x) > max u(~x) ~ x∈Ω
~ x∈Γ
f¨ ur ein Punkt x1 aus dem Inneren von Ω. Neben u nimmt f¨ ur jedes hinreichend kleine ε > 0 die Funktion uˆ = u + ε k~x − ~x1 k22 bei einem m¨oglicherweise anderen Punkt ~x0 ihr Maximum in Innern an. Andererseits ist die Hessesche Matrix von uˆ H uˆ = Hu + 2εI. Damit k¨onnen wir (2.7) f¨ ur uˆ anstelle von u verwenden und bekommen − div (A grad uˆ(~x0 )) = −a11 (h11 +2ε)−a22 (h22 +2ε)−2a12 h12 = f (~x0 )−2ε(a11 +a22 ) < 0. Auf uˆ kann man den ersten Teil anwenden und bekommt einen Widerspruch.
2
Bemerkung 5 Es gilt sogar noch eine weitere Versch¨arfung. Nimmt u sein Maximum im Innern an, dann ist u bereits konstant. ¨ −→ Ubung 1. Man zeige das analoge Minimumprinzip. ¨ −→ Ubung 2. Zeige die Eindeutigkeit der L¨osung bei Dirichtletrandbedingungen. Die wichtigste Anwendung des Maximumprinzips aus numerischer Sicht ist die Charakterisierung von L¨osungen mit Hilfe von Differentialungleichungen.
2.2. MAXIMUMPRINZIP
15
¯ gegeben. Korollar 6 Seien u, v ∈ C 2 (Ω) ∩ C(Ω) Ist − div (A grad u) 6 − div (A grad v) in Ω und u 6 v auf Γ, dann gilt bereits u 6 v in ganz Ω. Sei jetzt A konstant. Dann gibt es eine nur von Ω und A abh¨angige Konstante c so dass sup |u(~x) − v(~x)| 6 sup |u(~x) − v(~x)| + c sup | − ∆(u − v)|. ~ x∈Ω
~ x∈Γ
~ x∈Ω
Beweis. Setze w = u − v, f = div (A grad (u − v)). Dann gilt w 6 0 auf Γ sowie div (A grad w) = f 6 0 Nach dem Maximumprinzip aus Satz 4 gilt max w(~x) 6 max w(~x) 6 0. ~ x∈Ω
~ x∈Γ
Damit ist aber w 6 0 u ¨berall. D.h. es gilt u 6 v u ¨berall. F¨ ur den zweiten Teil setzen wir ebenfalls w = u − v . Wir konstruieren jetzt eine Funktion s mit zwei Eigenschaften. 1. s > |w| auf Γ, 2. − div (A grad s) > | − div (A grad w)| in Ω. Anschließend wenden wir Teil 1 dieses Korollars an. Wir betrachten die Vergleichsfunktion h(~x) = r2 − ~x>~x. Dabei ist r > 0 so groß gew¨ahlt, dass G vom Kreis mit Radius r u ¨berdeckt wird. Per Konstruktion bekommen wir X ∂ − div (A grad h) = 2 div (Ax) = 2 ∂xi i=1,2
"
X
j=1,2
#
aij xj = 2( a11 + a22 ) > 4γ |{z} |{z} >γ
und 0 6 h 6 r2 . Damit erf¨ ullt die verschobene und skalierte Funktion s s(~x) = max |w(~y )| + ~ y ∈Γ
max~y∈Ω | − ∆w(~y )| · h(~x) 4γ
die Ungleichungen −∆s > ∓∆w in Ω sowie s > ±w auf Γ.
>γ
16
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Nach dem ersten Teil des Korollars gilt dann aber bereits auf ganz Ω s > |w|. s ist aber selbst beschr¨ankt durch max |w(~y )| + ~ y ∈Γ
r2 · max | − ∆w(~y )|. 4γ ~y∈Ω |{z} c
2 Insbesondere erhalten wir, dass f¨ ur zwei benachbarte Probleme −∆u = f in Ω, u = g auf Γ und −∆˜ u = f˜ in Ω, u˜ = g˜ auf Γ der Fehler zwischen u und u˜ global absch¨atzbar ist durch ku − u˜k∞ 6 kg − g˜k∞ + c · kf − f˜k∞ . Ω
2.2.1
Γ
Ω
¨ Ubungen zu Kapitel 2.2
¨ Ubung 1 Zeige das Minimumprinzip: Es gelten die Voraussetzungen (2.1)–(2.5). Sei f : Ω → R ¯ L¨ eine nichtpositive stetige Funktion und u ∈ C 2 (Ω) ∩ C 0 (Ω) osung der Differentialgleichung − div (A grad u) = f > 0. Dann nimmt u sein Minimum auch auf Γ = ∂Ω an.
¨ Ubung 2 Zeige die Eindeutigkeit der L¨ osung des elliptischen Randwertproblemes. Es gelten die ¯ eine Voraussetzungen (2.1)–(2.5). Sei f : Ω → R eine stetige Funktion und u ∈ C 2 (Ω) ∩ C 0 (Ω) L¨ osung der Differentialgleichung − div (A grad u) = f > 0 mit u = g auf Γ = ∂Ω, wobei g : Γ → R eine gegebene stetige Funktion ist. Dann ist u bereits eindeutig.
2.3
Finite Differenzen
Die erste recht elementare Form der Diskretisierung elliptischer partieller Differentialgleichungen besteht darin, die Differentialgleichung durch eine Differenzengleichung zu ersetzen.
2.3. FINITE DIFFERENZEN
2.3.1
17
Einige Finite–Differenzen–Schemata
Hierzu vereinfachen wir aus Gr¨ unden der Darstellung unser Modellproblem ein wenig und benutzen A = I. Als Gebiet verwenden wir zun¨achst Ω = [0, 1] × [0, 1]. Gesucht ist eine Funktion u : Ω → R die der folgenden Gleichung gen¨ ugt. − ∆u = f in Ω
(2.8) gen¨ ugt mit der Randbedingung (2.9)
u = g, auf Γ = ∂Ω.
Dabei ist f eine gegebene Funktion auf Ω und g eine gegebene Funktion auf Γ. Im Prinzip l¨asst sich vieles was hier gemacht wird, problemlos u ¨bertragen auf allgemeinere Probleme in Gebieten Ω des Rn der Form − div (A grad u) = f
(2.10)
mit Dirichlet oder Neumann–Randbedingungen. Wir wollen uns aber im folgenden auf einfache Probleme der Form (2.8) und (2.9) beschr¨anken, um die Darstellung einfach zu halten und die grundlegenden Ideen besser darstellen zu k¨onnen. Zur numerischen Behandlung dieses Problemes kannn man z.B. das Gebiet [0, 1]2 durch ein diskretes Gitter ersetzen und die N¨aherung nur an diesen Gitterpunkten verwenden. Sei etwa N eine nat¨ urliche Zahl, ein sogenannter Diskretisierungsparameter und h = N 1+1 der Abstand zwischen zwei Gitterpunkten. Mit den gleichen Bezeichnungen ersetzt man im Falle des 2D–Problems (2.8) (2.11)
Ω = [0, 1]2 → Ωh = {(kh, lh) : k, l = 0, . . . , N + 1}.
Mit Hilfe dieser diskreten Menge Ωh ersetzen wir jetzt die Differentialgleichung durch eine Differenzengleichung. Sei f¨ ur festes y ∈ [0, 1], v(x) = u(x, y). Mit Hilfe der Taylorentwicklung bekommen wir, dass (2.12)
v(x ± h) = v(x) ± hv 0 (x) +
h2 00 h3 h4 v (x) ± v 000 (x) + v 0000 (θ± ) 2 6 24
an geeigneten Zwischenstellen θ− ∈ (x−h, x), θ+ ∈ (x, x+h) (Lagrangesche Darstellung des Restgliedes bei hinreichend glattem u). Durch Addition und Umstellen beider Gleichungen bekommen wir (2.13)
− h2 v 00 (x) = −v(x − h) + 2v(x) − v(x + h) +
h4 0000 (v (θ− ) + v 0000 (θ+ )) 24
Sofern v 0000 steitg ist, k¨onnen wir noch mit Hilfe des Mittelwersatzes ein geiegnetes v 0000 (θ) mit |θ − x| < h ersetzen und erhalten (2.14)
v 0000 (θ− )+v 0000 (θ+ ) 2
1 h2 0000 − v (x) = 2 (−v(x − h) + 2v(x) − v(x + h)) + v (θ). h 12 00
durch
18
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME Abbildung 2.2: Diskretisierung des Gebietes Ω v
v
v
···
v
v
v
1−h v
v
v
···
v
v
v
1 − 2h v
v
v
···
v
v
v
.. .
.. .
.. .
.. .
.. .
.. .
2h
v
v
v
···
v
v
v
h
v
v
v
···
v
v
v
0
v
v
v
···
v
v
v
1
@ @
y
0
h
1 − 2h 1 − h
2h x
1
@ @
Die gleiche Argumentation l¨asst sich f¨ ur w(y) = u(x, y) bei festem x ∈ [0, 1] machen. Somit erhalten wir insgesamt
(2.15) − ∆u(x, y) =
−u(x − h, y) − u(x, y − h) + 4u(x, y) − u(x + h, y) − u(x, y + h) 2 4 h 2 4 h ∂ ∂ u(θ, y) + u(x, η) , |x − θ| < h, |y − η| < h. + 12 ∂x4 ∂y 4
Das Fehlerglied mit den vierten Ableitungen l¨asst amn nat¨ urlich weg. Diesen Fehler bezeichnen wir als lokalen Diskretisierungsfehler. Die Potenz 2 von h im Restglied bezeichnen wir als Konsistenzordnung. Man stellt das u ¨blicher Weise in Form eines sogenannten Differenzensterns dar. Hier in der Form
−1
(2.16)
−1 4 −1 u + O(h4 ) − h2 ∆u =
−1
2.3. FINITE DIFFERENZEN
19
Bei (2.16) spricht man vom sogenannten “F¨ unf–Punkte–Stern”, der der Diskretisierung des Laplace–Operators −∆u(x, y) entspricht. Der Stern lebt dann genau auf dem diskreten Gitter Ωh , d.h. man kann immer in f¨ unf kreuzf¨ormig benachbarten Punkten auf dem Gitter diese Relation verwenden. Zur Vereinfachung der Notation setzten wir gkl = g(kh, lh), ukl = u(kh, lh). Am Rande kann man stattdessen die vorgegebenen Randwerte einsetzen, d.h. (2.17) ukl = gkl , falls k = 0, N + 1 oder l = 0, N + 1. In gleicher Form diskretisiert man die rechte Seite f als fkl ≡ f (kh, lh). Zusammen hat das diskrete System dann die Form (2.18)
−uk−1,l − uk,l−1 + 4ukl − uk+1,l − uk,l+1 ≈ fkl , k, l = 1, . . . , N, h2
Die Gleichungen (2.17) und (2.18) bilden ein lineares Gleichungssystem mit (N + 1)2 Gleichungen und genauso vielen Unbekannten. Sofern die Existenz und Eindeutigkeit gekl¨art ist, k¨onnte man dieses Gleichungssystem theoretisch mit Standardtechniken l¨osen und bek¨ame eine diskrete N¨aherungsl¨osung (ukl )k,l=0,...,n+1 die nur auf dem Gitter Ωh lebt. Wir nehmen die obige Diskretisierung zum Anlass, u ¨ber gewisse Verallgemeinerungen nachzudenken. Zuerst einmal darf man nat¨ urlich in x und in y–Richtung verschiedene Schrittweite hx und hy verwenden. Man kann leicht nachrechnen, dass die entsprechende Differenzenformel −∆u(x, y) ≈
−u(x − hx , y) + 2u(x, y) − u(x + hx , y) −u(x, y − hy ) + 2u(x, y)u(x, y + hy ) + h2x h2y
lautet. Will man die Schrittweite noch flexibler gestalten, etwa variabel in x–Richtung, so verliert man bei der Taylorformel eine Gr¨oßenordnung beim Restglied. ¨ → Ubung 3. Wir k¨onnen weitere Approximationen an −∆u bekommen, dadurch, dass wir mehr Nachbarpunkte mit einbeziehen. Eine M¨oglichkeit besteht z.B. darin, die Punkte (x ± 2h, y), (x, y ± 2h) mit in die Diskretisierung mit einzubeziehen. Man bekommt dann folgenden Differenzenstern
1
−16
(2.19)
− 12h2 ∆u =
1
−16
60
−16
1
u + O(h6 )
−16
1
20
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
¨ −→ Ubung 4. Erw¨ahnenswert in diesem Zusammenhang ist die Tatsache, dass hier ausserhalb der Diagonale positive Gewichte auftreten. F¨ ur die noch folgende Analyse zur Existenz und Eindeutigkeit wird sich das als wenig hilfreich erweisen. Eine weitere M¨oglichkeit f¨ ur eine Approximation von −∆u ist der kompakte Neun–Punkte– Stern. Hier entsteht aber das Problem, dass man nicht durch analoge Tricks wie beim F¨ unf–Punkte–Stern alle st¨orenden Ableitungen wegbekommt. Als Ausweg dient hier die zus¨atzliche Taylor–Entwicklung von ∆u anstelle von u. Dies bedeutet aber wegen ∆u = f , dass die rechte Seite f auch auf eine bestimmte Weise linearkombiniert werden muss.
−2
−8
@ @ @ @
(2.20) −8
−2
40
1
−2
−8
8 1 f = O(h6 ) −8 u − h2 1
@ @ @ @
1
−2
¨ −→ Ubung 5
2.3.2
Das diskrete Maximumprinzip und seine Anwendungen
Wir zeigen im folgenden die diskrete Analogie des Maximumprinzips (Satz 4). Hierzu reicht es, relativ abstrakte Gitter und Differenzensterne zuzulassen. Wir ben¨otigen im folgenden eine diskrete Teilmenge Ωh ⊂ Ω ⊆ R2 sowie dort enthaltene Randpunkte Γh ⊆ Ωh . Ausserdem lassen wir nur Differenzensterne folgender Form zu: Zu jedem Punkt p = (xh , yh ) ∈ Ωh \ Γh gebe eine positive Zahl αp sowie weitere Nachbarpunkte q1 , . . . , qkp ∈ Ωh und negative Zahlen β1 , . . . , βkp , derart dass (2.21)
αp +
kp X
βi = 0
i=1
ist. Der F¨ unf–Punkte–Stern (2.16) sowie der kompakte Neun–Punkte–Stern (2.20) sind Beispiele f¨ ur solche Differenzensterne. Weiterhin sei das Gitter zusammenh¨angend in folgendem Sinne. Jeder Punkt q ∈ Ωh ist Nachbarpunkt in mindestens einem Differenzenstern zu p ∈ Ωh \ Γh . Ausserdem gibt es zu je zwei Punkten p1 , p2 ∈ Ωh \ Γh eine Folge von Punkten q1 , . . . , ql ∈ Ωh \ Γh derart, dass p1 = q1 , p2 = ql und qi und qi+1 sind gegenseitig Nachbarpunkte in ihren Differenzensternen, f¨ ur i = 1, . . . , l − 1. Mit anderen Worten, man kann sich von jedem Punkt des Gitters zu jedem anderen Punkt entlang einer Kette von Differenzensternen hangeln.
2.3. FINITE DIFFERENZEN
21
Satz 7 (Diskretes Maximumprinzip) Unter den obigen Voraussetzungen gilt f¨ ur jede Gitterfunktion u : Ωh → R: Ist in jedem Gitterpunkt p = (xh , yh ) ∈ Ωh \ Γh (2.22)
αp u(p) +
kp X
βi u(qi ) 6 0,
i=1
dann ist bereits (2.23)
max u(p) 6 max u(p). p∈Ωh
p∈Γh
Ist in jedem Gitterpunkt p = (xh , yh ) ∈ Ωh \ Γh (2.24)
αp u(p) +
kp X
βi u(qi ) > 0,
i=1
dann ist bereits (2.25)
min u(p) > min u(p).
p∈Ωh
p∈Γh
Beweis. Es reicht nat¨ urlich, die Aussage (2.23) zu zeigen. Falls maxp∈Ωh u(p) bereits f¨ ur p ∈ Γh angenommen wird, ist nichts zu beweisen. Nehme also an, es gibt ein p ∈ Ωh \ Γh , so dass u(p) dort maximal ist. Dann gilt u(p) 6
kp X −βi i=1
αp
u(qi ).
Pkp
−βi i Weil aber alle −β > 0 sind und i=1 αp = 1 ist, steht auf der rechten Seite eine αp Konvexkombination. Andererseits ist u(p) bereits maximal. Das geht nur, sofern alle u(qi ) auch maximal sind. Falls eines der u(qi ) auf dem Rande Γh liegt, sind wir fertig. Ansonsten k¨onnen wir f¨ ur jedes weitere u(qi ) wieder einen Differenzenstern finden und dasselbe Argument nochmal anwenden. 2
Bemerkung 8 Wir haben sogar folgende Versch¨arfung gleich mit bewiesen. Nimmt u unter einer der Bedingungen (2.22), (2.22) sein Maximum bzw. Minimum in Ωh \ Γh an, dann ist u bereits konstant. Wir sehen sofort, dass die Bedingungen von Satz 7 anwendbar sind, wenn wir etwa Ω = [0, 1]2 mit einem Gitter Ωh aus (2.11) u ¨berziehen und in allen inneren Punkten den F¨ unf–Punkte–Stern (2.16) oder den kompakten Neun–Punkte–Stern (2.20) verwenden. Auf den kreuzf¨ormigen Neun–Punkte–Stern (2.19) ist wegen positiver Nachbargewichte diese Theorie nicht anwendbar. Als erste Anwendung erhalten wir sofort die eindeutige L¨osbarkeit bei Verwendung des F¨ unf–Punkte–Sterns (2.16) oder des kompakten Neun–Punkte–Sterns unter Dirichletrandbedingungen (2.17).
22
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Korollar 9 Gegeben sei das diskrete Gebiet auf Ωh aus (2.11) mit Dirichletrandbedingungen (2.17) unter Verwendung von (2.16) oder (2.20) f¨ ur jeden inneren Punkt. Dann ist das zugeh¨orige lineare Gleichungssystem eindeutig l¨osbar. Beweis. Da die Gleichung linear ist, reicht es zu zeigen, dass bei rechter Seite 0 (sowohl f als auch g) nur die Nullfunktion als L¨osung in Frage kommt. Wegen Verwendung von f ≡ 0 k¨onnen wir das diskrete Maximumprinzip / Minimumprinzip aus Satz 7 gleichzeitig anwenden. und bekommen max u(p) 6 max u(p) = 0 p∈Ωh
p∈Γh
sowie min u(p) > min u(p) = 0.
p∈Ωh
p∈Γh
Also bleibt nur u ≡ 0 als einzige L¨osung u ¨brig.
2
Als zweite Anwendung k¨onnen wir den Fehler zwischen diskreter und kontinuierlicher L¨osung absch¨atzen. Die Vorgehensweise ist analog zu Korollar 6 sowohl was die Aussage als auch die Beweistechnik angeht. Zus¨atzlich ben¨otigen wir noch, dass die Differenzenstern exakt f¨ ur Polynome 2. Grades ist, ur Funktionen der Form s(x, y) = Pikd.h. f¨ 2 2 ur a + bx + cy + ex + f xy + gy liefert αp s(p) + i=1 βi s(qi ) = −∆s = −2e − 2g. Dies ist f¨ alle bisher betrachteten Differenzensterne der Fall, diese sind sogar alle noch f¨ ur Polynome dritten Grades exakt. Korollar 10 Es gelten die Voraussetzungen von Satz 7. Seien u, v zwei Gitterfunktionen auf Ωh . Ist in jedem Punkt p ∈ Ωh \ Γh αp u(p) +
kp X
βi u(qi ) 6 αp v(p) +
i=1
kp X
βi v(qi )
i=1
und u(q) 6 v(q) f¨ ur q ∈ Γ, dann gilt bereits u(p) 6 v(p) f¨ ur alle p ∈ Ωh . Nehme an, die Differenzsterne seien exakt f¨ ur Polynome zweiten Grades. Dann gibt es eine nur von Ω abh¨angige Konstante c, so dass max |u(p) − v(p)| 6 max |u(q) − v(q)| + c p∈Ωh
q∈Γh
max |αp (u(p) − v(p)) +
p∈Ωh \Γh
kp X
βi (u(qi ) − v(q))|.
i=1
Beweis. Setze w = u − v. Dann gilt w 6 0 auf Γ sowie αp w(p) +
kp X
βi w(qi ) 6 0
i=1
in Ωh \ Γh . Nach dem diskreten Maximumprinzip aus Satz 7 gilt dann bereits w(p) 6 0, f¨ ur alle p ∈ Ωh .
2.3. FINITE DIFFERENZEN
23
D.h. es gilt u 6 v u ¨berall. F¨ ur den zweiten Teil setzen wir ebenfalls w = u − v und suchen in Analogie zum Beweis von Satz 4 wieder eine Funktion s mit zwei Eigenschaften. 1. s > |w| auf Γ, Pkp Pkp βi w(qi )| in Ωh \ Γh . βi s(qi ) > |αp w(p) + i=1 2. αp s(p) + i=1 Mit dieser Funktion k¨onnen wir dann den ersten Teil des Korollars anwenden. Wir betrachten die Vergleichsfunktion h(~x) = r2 − ~x>~x. Dabei ist r > 0 so groß gew¨ahlt, dass G vom Kreis mit Radius r u ¨berdeckt wird. Per Konstruktion bekommen wir αp h(p) +
kp X i=1
βi h(qi ) = −∆h(p) = ∆ ~x>~x
=4 ~ x=p
2
und 0 6 h 6 r . Damit erf¨ ullt die verschobene und skalierte Funktion maxq∈Ωh \Γh |αq w(q) + s(p) = max |w(q)| + q∈Γh 4
Pkq
i=1
βi w(qi )|
· h(p)
die Ungleichungen αp s(p) +
kp X i=1
sowie
kp X βi s(qi ) > αp w(p) + βi w(qi ) f¨ ur alle p ∈ Ωh \ Γh i=1
s(p) > |w(p)| f¨ ur alle p ∈ Γh Nach dem ersten Teil des Korollars gilt dann bereits auf ganz Ωh s > |w|. s ist aber selbst beschr¨ankt durch kq
X r2 max |w(q)| + · max |αq w(q) + βi w(qi )|. q∈Γh 4 q∈Ωh \Γh |{z} i=1 c
2
Eine sehr einfache Anwendung von Korollar 10 ist die St¨orungsempfindlichkeit der L¨osung in Abh¨angigkeit der St¨orungen der rechten Seite f sowie der bei Dirichletrandbedingungen ¨ der Randwerte g. −→ Ubung 6. Insbesondere kann man als u, v in Korollar 10 die L¨osung des diskreten und des kontinuierlichen Problems 2.8 mit Dirichletrandbedingungen 2.9 verwenden. Insbesondere bekommt man die als Fehlerordnung genau die Konsistenzordnung heraus.
24
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Definition 11 Sei Ωh ⊆ Ω ein diskretes Gitter in R2 , derart dass zu jedem Punkt p ∈ Ωh ein Punkt q ∈ Ω mit Abstand h¨ochstens h existiert. Gibt es eine Konstante C und ein k ∈ N \ {0}, so dass f¨ ur jedes p ∈ Ωh \ Γh und jede hinreichend glatte Funktion Sei u : Ω → R der Fehler zwischen Differenzenstern und Laplaceoperator |αp u(p) +
kp X
βi u(qi ) + ∆u(p)| 6 Chk
i=1
ist, so heisst der Differenzenstern konsistent von der Ordnung k. P Wird zus¨atzlich die rechte Seite f mit durch eine Summe γ0 f (p) + i γi f (qi ) interpoliert, so heisst die Diskretisierung konsistent von der Ordnung k bzgl. −∆u = f , falls gilt: |αp u(p) +
kp X
βi u(qi ) − γ0 f (p) −
i=1
kp X
γi f (qi )| 6 Chk .
i=1
Der F¨ unf–Punkte–Stern ist beispielsweise konsistent von der Ordung 2. Dies trifft auch f¨ ur den kompakten Neun–Punkte–Stern zu, da dieser mit dem diskretisierten Anteil von f konsistent von der Ordnung 4 ist. Korollar 12 Es gelten die Voraussetzungen von Satz 7. Es sei u hinreichend glatte L¨osung des kontinuierlichen Problem (2.8) mit Dirichletrandbedingungen (2.9). uh sei L¨osung der diskreten Gleichung bei Verwendung von Differenzensternen der Konsistenzordnung k und Dirichletrandbedingungen. Ferner seien die Differenzensterne exakt f¨ ur Polynome zweiten Grades. Dann gilt f¨ ur alle p ∈ Ωh |u(p) − uh (p)| 6 Khk f¨ ur eine Konstante K. Beweis. Wir wenden Korollar 10 mit u und uh an. Da beide Funktionen Dirichletrandbedingungen verwenden vereinfacht sich die Schranke zu max |u(p) − uh (p)| 6 c p∈Ωh
max |αp (u(p) − uh (p)) +
p∈Ωh \Γh
kp X
βi (u(qi ) − uh (q))|
i=1
Sofern die rechte Seite nicht interpoliert wird, setzen wir τ (p) = αp u(p) + ∆u(p) und erhalten max |u(p) − uh (p)| 6 c p∈Ωh
= c
max |αp u(p) +
p∈Ωh \Γh
kp X
i=1
βi u(qi ) +
βi u(qi ) − f (p)|
i=1
max |τ (p) − ∆u(p) − f (p)| = c
p∈Ωh \Γh
Pkp
max |τ (p)| 6 cC hk .
p∈Ωh \Γh
Interpolieren wir die rechte Seite mit, so setzen wir τ (p) = αp u(p)+ P ik i=1 γi u(qi ) und bekommen jetzt direkt
Pkp
i=1
βi u(qi )−γ0 u(p)−
2.3. FINITE DIFFERENZEN
max |u(p) − uh (p)| 6 c p∈Ωh
= c
25
max |αp u(p) +
p∈Ωh \Γh
kp X
βi u(qi ) − γ0 u(p) −
i=1
ik X
γi u(qi )|
i=1
max |τ (p)| 6 cC hk .
p∈Ωh \Γh
2 Wir haben bis jetzt f¨ ur eine breite Klasse von Differenzenverfahren Konvergenz zeigen k¨onnen. Dies gilt bisher unter Verwendung von Dirichlet-Randbedingungen, einer hinreichenden Glattheit der L¨osung und Beschr¨rankung auf einfache Gebiete, die mit Rechteckgittern vern¨ unftig diskretisiert werden k¨onnen.
2.3.3
Die Neumannsche Randbedingung
Wir haben bisher nur Dirichlet–Randbedingungen der Form u = g auf Γ behandelt. In diesem Abschnitt holen wir das f¨ ur die Neumannsche Randbedingung nach. Sei also auf einem St¨ uck Γ2 des Randes eine Randbedingung der Form ν > grad u = gˆ gegeben. Sei p ∈ Γ2 ein Randpunkt und nehme an, dass u auch auf einem etwas gr¨oßeren Ω umfassenden Gebiet noch definiert ist. Mit Hilfe der Taylorentwicklung bekommen wir f¨ ur die Funktion s± (t) ≡ u(p ± tν) in Richtung der ¨ausseren Normalen (siehe Abbildung 2.3): s± (t) = s± (0) ± ts0± (0) +
t3 t2 > t2 00 > s± (0) ± s000 (θ) = u(p) ± tν grad u(p) + ν Hu(p)ν + O(h3 ). 2 6 ± 2
Dabei ist Hu(p) die Hessesche Matrix von u in p. Also ist u(p + hν) − u(p − hν) s+ (h) − s− (h) = = ν > grad u(p) + O(h2 ) 2h 2h Speziell im Falle des Einheitsquadrates bekommen wir f¨ ur einen Punkt (x, y) = (1, lh) am u(1+h,lh)−u(1−h,lh) ∂u(1,lh) rechten Rande des Gitters ∂x = +O(h2 ) und damit die Randbedingung 2h (2.26)
u(1 + h, lh) − u(1 − h, lh) = gˆ(1, h) 2h
In v¨olliger Analogie sind der linke, untere und obere Rand zu bearbeiten. Die Bedingungen an den Differenzenstern bleiben die gleichen, sofern man p = (1, lh) jetzt nicht mehr als
26
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME Abbildung 2.3: Neumannsche Randbedingung
Γ2
ν @ @
p + hν
−ν
@ @
p − hν
Randpunkt ansieht. Deshalb bleibt Satz 7 und Korollar 12 g¨ ultig, hier mit der Konsistenzordnung h¨ochstens 2. Wir bekommen durch Hinzunahme der Knoten der Form u(1 − h, lh) und analoger Punkte an den anderen R¨andern zus¨atzliche Unbekannte mit in unser System. Damit passt die Anzahl Gleichungen nicht mehr. Dies muss man dadurch ausgleichen, dass an den Stellen wie (1, lh), wo die Neumannsche Randbedingung verwendet wird, eine weiterer Differenzenstern f¨ ur die Randpunkte wie (1, lh) mit hinzugenommen wird. D.h. man erg¨anzt noch die Gleichung −u(1, (l − 1)h) − u(1 − h, lh) + 4u(1, lh) − u(1, (l + 1)h) − u(1 + h, lh) = f (1, lh), h2 damit wieder genauso viele Gleichungen wie Unbekannte verwendet werden (siehe Abbildung 2.4).
Abbildung 2.4: Neumannsche Randbedingung am Rechteckrand u
u
u
u
u
u
u
u
u
u j
u
u
u
u
u j
u j
u u(1 + h, lh) j
u
u
u
u
u j
u
u
u
u
u
u
u
Γ2
u
2.3. FINITE DIFFERENZEN
2.3.4
27
Behandlung des Randes bei Nicht–Rechteckgebieten
Die bisherige Diskretisierung hatte den Nachteil, dass sie nur auf rechteckigen und ¨ahnlichen Gebieten verwendet werden kann. Schon bei recht einfache Problemen mit teilweise glatten R¨andern passt dieses Konzept nicht mehr (siehe Abbildung 2.5). Abbildung 2.5: Gitter im allgemeinen Gebiet
Nehme etwa an, dass an einer Stelle (x, y) ∈ Ω der Punkt (x + h, y) 6∈ Ω liegt, aber stattdessen ein Punkt (x + h0 , y) ∈ Γ Randpunkt ist, etwa mit Dirichletrandbedingungen (Abbildung 2.6). In diesem Fall liefert die Taylorentwicklung g(x + h0 , y) = u(x + h0 , y) = u(x, y) + h0 sowie u(x − h, y) = u(x, y) − h
∂u(x, y) h02 ∂ 2 u(x, y) h03 ∂ 3 u(θ+ , y) + + ∂x 2 ∂x2 6 ∂x3
∂u(x, y) h2 ∂ 2 u(x, y) h3 ∂ 3 u(θ− , y) + − . ∂x 2 ∂x2 6 ∂x3
Um eine m¨oglichst hohe Konsistenzordnung zu erreichen, bilden wir h0 u(x − h, y) + hu(x + h0 , y). Damit erhalten wir h0 h2 + hh02 ∂ 2 u(x, y) = h0 u(x − h, y) + hu(x + h0 , y) − (h0 + h) u(x, y) + O(h4 ). 2 ∂x2 Damit verlieren wir eine Ordnung in der Konsistenz, weil die dritte Ableitung nicht mehr verschwindet. Der F¨ unf–Punkte–Stern w¨are jetzt −u(x, y − h) + 2u(x, y) − u(x, y + h) −h0 u(x − h, y) + (h0 + h) u(x, y) − hu(x + h0 , y) + 2 h2 h0 h2 + hh02
28
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME Abbildung 2.6: Randapproximation
(x − h, y)
(x, y)
(x + h0 , y)
und ergibt bis auf einen Fehler O(h) gerade −∆u. Die Voraussetzungen von Satz 7 und Korollar 12 bleiben davon allerdings unber¨ uhrt, die Approximationsordnung ist aber geringer.
2.3.5
Betrachtung des Poissonproblemes als Matrixgleichung
Wir betrachten jetzt f¨ ur den sehr einfachen Fall des Einheitsquadrates mit einheitlicher 1 Maschenweite h = N +1 und Dirichlet–Randbedingungen die diskrete Gleichung (2.18) (f¨ unf–Punkte–Stern). F¨ ur Ω = [0, 1]2 ist Ωh = {(kh, lh) : 0 6 k, l 6 N + 1} das zugeh¨orige Gitter und −uk−1,l − uk,l−1 + 4ukl − uk+1,l − uk,l+1 ≈ fkl , k, l = 1, . . . , N, h2 sowie ukl = gkl , falls k = 0, N + 1 oder l = 0, N + 1 ein System von (N + 1)2 linearen Gleichungen mit genauso vielen Unbekannten darstellt, k¨onnen wir eine Matrix Ah , einen Vektor U sowie eine rechte Seite F angeben, so dass (2.27)
Ah U = F
ein ¨aquivalentes Gleichungssystem in Matrixschreibweise ist. Zu diesem Zweck unterdr¨ ucken wir gleich alle ukl auf dem Rand und ersetzen diese Werte durch gleich durch die Randwerte. Die verbleibenden inneren Punkte nummerieren wir von links unten zeilenweise bis rechts oben (Abbildung 2.7). Mit dieser Anordnung erhalten wir etwa 4u11 − u21 − u12 g10 + g01 (2.28) = f11 + 2 h h2
2.3. FINITE DIFFERENZEN
29
Abbildung 2.7: Lexikographische Anordnung v
v
v
v
v
v
v
v 21 22 23 24 25 v 16 17 18 19 20 v 11 12 13 14 15 v 6 7 8 9 10 v 1 2 3 4 5
v v v v v v
v
v
v
v
v
v
als erste Gleichung, −u11 + 4u21 − u31 − u22 g20 = f + 21 h2 h2
(2.29)
als zweite Gleichung usw. Insgesamt erhalten wir
(2.30)
Ah =
1 h2
h2 Th + 2IN −IN .. . −IN .. .
..
.
..
. −IN 2 −IN h Th + 2IN
.
Dabei ist Th die N × N –Matrix −1 . . 1 −1 . . . . Th = 2 ... ... h −1 −1 2
(2.31)
2
.
Der Vektor U ist U = (u11 , u21 , . . . , uN 1 ; . . . ; u1N , u2N , . . . , uN N )> entsprechend der lexikographischen Ordnung. Die rechte Seite F besteht im wesentlichen aus den Eintr¨agen fkl in derselben Reihenfolge, aber es kommen f¨ ur k = 1, N oder l = 1, N
30
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
noch die Randbedingungen hinzu, so wie z.B. in (2.28) oder (2.29). Sei dazu fkl 1 6 k, l 6 N 1 fkl + h2 gk−1,l k = 1, 1 6 l 6 N 1 g k = N, 1 6 l 6 N f + kl h2 k+1,l 1 fkl + h2 gk,l−1 l = 1, 1 6 k 6 N 1 ˆ fkl + h2 gk,l+1 l = N, 1 6 k 6 N (2.32) fkl = 1 f + [g + g ] k=1=l=1 k−1,l k,l−1 kl h2 1 fkl + h2 [gk−1,l + gk,l+1 ] k = 1, l = N f + 1 [g + gk,l−1 ] k = N, l = 1 kl h12 k+1,l fkl + h2 [gk+1,l + gk,l+1 ] k = l = N Damit haben wir dann
F = fˆ11 , fˆ21 , . . . , fˆN 1 ; . . . ; fˆ1N , fˆ2N , . . . , fˆN N
>
Mit Hilfe der Matrixschreibweise vereinfacht sich f¨ ur das Modellproblem die numerische ¨ L¨osung. −→ Ubung 9. F¨ ur den kompakten Neun–Punkte–Stern kann man eine ¨ahnliche ¨ Matrixdarstellung ermitteln. −→ Ubung 10. Als n¨achstes werden wir die Eigenwerte und Eigenvektoren von Ah bestimmen. Diese lassen sich recht einfach in Analogie zu den Eigenfunktionen des kontinuierlichen Laplace– Operators −∆u herleiten. Als erstes bekommen wir die Eigenfunktionen des zweidimensionalen Problems −∆u = f in Ω, u = 0 on ∂Ω durch Produkte von Sinusfunktionen. Wir haben f¨ ur beliebige k, l ∈ N \ {0} −∆ [sin(kπx) sin(lπy)] = k 2 + l2 π 2 · sin(kπx) sin(lπy). Die homogene Randbedingung wird ebenfalls durch erf¨ ullt, da dort gerade Nullstellen der Sinus–Funktionen liegen. F¨ ur k, l 6 sind sechs dieser Funktionen examplarisch in Abbildung 2.8 dargestellt. Es liegt nahe im Falle der diskretisierten Gleichung −ui−1,j − ui,j−1 + 4uij − ui+1,j − ui,j+1 = h2 fij die gleichen Eigenfunktionen, nat¨ urlich auf das Gitter Ωh beschr¨ankt zu verwenden. Wir schreiben die Eigenvektoren wieder als Gitterfunktionen e(k,l) : Ωh → R anstelle einer Vektordarstellung. Wir setzen (2.33)
(k,l)
eij
≡ e(k,l) (ih, jh) = sin(kπih) sin(lπjh)
Dann erhalten wir mit Hilfe des Additionstheorems sin(φ ± ψ) = sin φ cos ψ ± sin ψ cos φ die Gleichung −e(k,l) ((i − 1)h, jh) + 2e(k,l) (ih, jh) − e(k,l) ((i + 1)h, jh) = 2(1 − cos(kπh))e(k,l) (ih, jh) −e(k,l) (ih, (j − 1)h) + 2e(k,l) (ih, jh) − e(k,l) (ih, (j + 1)h) = 2(1 − cos(lπh))e(k,l) (ih, jh)
2.3. FINITE DIFFERENZEN
31
Abbildung 2.8: Einige Eigenfunktionen von −∆u
k=1 l=1
k=1 l=2
k=2 l=1
k=2 l=2
k=2 l=3
k=3 l=2
32
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Durch Addition beider Gleichungen erkennen wir, dass ein von i und j unabh¨angiges Vielfaches 2(2 − cos(kπh) − cos(lπh)) von e(k,l) (ih, jh). F¨ ur i, j = 1, N treffen die Nullstellen von e(k,l) zusammen mit den Randwerten (hier homogen). Also sind die Vektoren (k) (2.34) = sin(kπih) sin(lπjh) e(k,l) = eij i,j=1,...,N
i,j=1,...,N
die wir als diskrete Punkte der Eigenfunktionen bekommen haben genau die Eigenvektoren der diskreten Matrix Ah aus (2.30). Die zugheh¨origen Eigenwerte sind
(2.35)
h2 λkl = 2(1 − cos(kπh) + 1 − cos(lπh)) kπh kπh lπh lπh = 2(1 − cos2 + sin2 + 1 − cos2 + sin2 ) 2 2 2 2 kπh lπh = 4(sin2 + sin2 ), 2 2
und zwar k¨onnen wir das f¨ ur k, l = 1, . . . , N machen. Ab k, l = N + 1, N + 2, . . . bekommen wir wieder dieselben Werte wie bei k, l = 0, 1, . . ., weil wir ja nur diskrete Punkte betrachten. Allerdings kehren sich Reihenfolge und Vorzeichen um. Bei den Eigenvektoren f¨allt insbesondere auf, dass mit zunehmenden N h¨ohere und h¨ohere Frequenzen mit hineinkommen. Die Eigenwerte sind als Funktion λkl bis auf den Faktor
1 h2
in Abbildung 2.9 abgetragen.
Abbildung 2.9: Eigenwerte fu ¨ r N = 3, 7
Die Eigenwerte lassen sic n¨aherungsweise darstellen als λkl = π 2 (k 2 + l2 ) + O(h4 )
2.3. FINITE DIFFERENZEN
33
Insbesondere beobachtet man, dass der kleinste Eigenwert λ11 ≈ 2π 2 gegen¨ uber dem 2π 2 2 2 2 gr¨oßten Eigenwert λN N ≈ 2π N = h2 einen Faktor h kleiner ist. Dies bedeutet, dass bei kleiner werdender Schrittweite der Quotient quadratisch w¨achst. Wir werden noch sehen, dass diese Eigenschaft zu wesentlichen Problemen bei der numerischen L¨osung des linearen Gleichungssystemes f¨ uhren kann. Als letzten Punkt erw¨ahnen wir noch die enge Beziehung des zweidimensionalen Problemes mit dem analogen eindimensionalen Problem −u00 = f in [0, 1], u(0) = u(1) = 0. Die entsprechende Diskretisierung mit Hilfe von (2.14) liefert −u00 (x) =
1 (−u(x − h) + 2u(x) − u(x + h)) + O(h2 ). h2
¨ −→ Ubung 7: Man zeige: • Die zugeh¨orige Matrix im eindimensionalen Fall ist gerade Th aus (2.31). • Die Eigenfunktionen im 2D–Fall sind die Tensorprodukte der Eigenfuntkionen im 1D–Fall • Die Eigenvektoren (Gitterfunktionen) im 2D–Fall sind die diskreten Tensorprodukte der Eigenvektoren im 1D–Fall Die diskrete Gleichung Ah U = F aus (2.27) ist ¨aquivalent zu der Lyapunov–Gleichung Th u + uTh = f +
1 g. h2
Dabei sind u, f, g jetzt N × N –Matrizen u = (ukl )k,l=1,...,N , f = (fkl )k,l=1,...,N und die Eintr¨age von g sind entsprechend den Randbedingungen wie z.B. in (2.28) oder (2.29) gew¨ahlt. Die Darstellung als Lyapunov–Gleichung sieht in diesem Falle wesentlich eleganter aus als die lexikographische Umordnung. Die Lyapunov–Gleichung ist ebenfalls linear in u. Man kann zeigen, dass die zur Lyapunov–Gleichung ¨aquivalente Matrix durch Th ⊗ IN + IN ⊗ Th gegeben ist. Dabei ist ⊗ das Kroneckerprodukt von Matrizen. Hier haben wir ¨ Th ⊗ IN + IN ⊗ Th = Ah (−→ Ubung 8). Die Beobachtung, dass sich die Eigenvektoren durch Tensorierung ergeben, kann man ebenfalls auf die Lyapunov–Gleichung verschieben. Sogar die Eigenwerte lassen sich bei einer ¨ Lyapunovgleichung durch Summenbildung u 8). ¨bertragen (−→ ebenfalls Ubung Die Matrix und ihre Eigenwerte und Eigenvektoren werden uns noch in Kapitel 3 begegnen, wenn wir uns mit numerischen Verfahren, insbesondere Mehrgitterverfahren besch¨aftigen werden.
Zusammenfassung
34
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Wir haben in diesem Abschnitt die Finite–Differenzen–Methode als eine M¨oglichkeit der numerischen Behandlung elliptischer Randwertprobleme gesehen. Der Zugang ist recht einfach durch lokale Approximation mittels Taylorformel und die Theorie zeigt, dass bei gen¨ ugender Glattheit der L¨osung die Konsistenzordnung auch der Konvergenzordnung entspricht. F¨ ur ein Rechteckgebiet haben wir diese Diskretisierung in Matrixschreibweise untersucht und dabei explizite Formeln f¨ ur die Matrix selbst als auch f¨ ur ihre Eigenwerte und Eigenvektoren bekommen.
2.3.6
¨ Ubungen zu Kapitel 2.3
¨ Ubung 3 Bestimme eine Formel zur Approximation von −∆u(x, y) anhand der Gitterpunkte (x, y), (x − hxl , y), (x + hxr , y) sowie (x, y − hyl ) und (x, y + hyr ). Wie groß ist der Diskretisierungsfehler, wenn hxl und hxr bzw. hyl und hyr nicht zwingend u ¨bereinstimmen? ¨ Ubung 4 Zeige, dass bei hinreichend glattem u(x, y), ∆u durch folgenden Differenzenstern approximiert werden kann:
1
−16
−12h2 ∆u =
1
−16
60
−16
1
u + O(h6 )
−16
1
Wie lautet das Restglied?
¨ Ubung 5 Zeige, dass bei hinreichend glatten u(x, y) und f (x, y), −∆u − f = 0 durch folgenden Differenzenstern approximiert werden kann:
−2
−8
@ @ @ @
−8
−2
40
−8
Wie lautet das Restglied?
1
−2
−8
u − h2
@ @ @ @
−2
1
8
1
1
f = O(h6 )
2.3. FINITE DIFFERENZEN
35
¨ Ubung 6 Zeige folgendes St¨ orungsresultat. Es gelten die Voraussetzungen von Satz 7. Seien ˜ f, f : Ωh → R sowie g, g˜ : Γ→ R gegebene Gitterfunktionen (etwa Diskretisierungen geeigneter stetiger Funktionen). u, u ˜ : Ωh → R seien Gitterfunktionen, die L¨ osung der diskreten Gleichungen αp u(p) +
kp X
βi u(qi ) = f (p) f¨ ur alle p ∈ Ωh , u(p) = g(p) f¨ ur alle p ∈ Γh
kp X
βi u ˜(qi ) = f˜(p) f¨ ur alle p ∈ Ωh , u ˜(p) = g˜(p) f¨ ur alle p ∈ Γh .
i=1
bzw. αp u ˜(p) +
i=1
Dann gibt es eine nur von Ω abh¨ angige Konstante c, so dass max |u(p) − u ˜(p)| 6 max |g(q) − g˜(q)| + c
p∈Ωh
q∈Γh
max |f (p) − f˜(p)|.
p∈Ωh \Γh
¨ Ubung 7 Betrachte die eindimensionale Laplace–Gleichung −u00 = f in [0, 1], u(0) = u(1) = 0. sowie die zweidimensionale Laplace–Gleichung −∆u00 = f in [0, 1]2 , u = 0 auf ∂[0, 1]2 . Zeige: 1. Die zugeh¨ orige Matrix bei der Dreipunktdiskretisierung im eindimensionalen Fall ist gerade Th aus (2.31). 2. Die Eigenfunktionen im 2D–Fall sind die Tensorprodukte der Eigenfuntkionen im 1D–Fall 3. Die Eigenvektoren (Gitterfunktionen) im 2D–Fall sind die diskreten Tensorprodukte der Eigenvektoren im 1D–Fall
¨ Ubung 8 Seien A ∈ Rm,n , B ∈ Rp,q gegeben. Das Kroneckerprodukt C = A ⊗ B is definiert als die Matrix a11 B · · · a1n B .. .. C =A⊗B = . . am1 B · · · amn B
Sei jetzt m = n, p = q. Betrachte die Sylvestergleichung S(X) ≡ AX + XB = C, wobei X, C ∈ Rn,p . Zeige: 1. Die Gleichung ist linear in X, d.h. S ist ein linearer Operator 2. Ist x Rechtseigenvektor von A, y H Linkseigenvektor von B, dann ist xy H Eigenvektor von S
36
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME 3. Seien λ1 , . . . , λn die Eigenwerte von A und µ1 , . . . , µp die Eigenwerte von B. Dann sind λi + µj , f¨ ur alle i = 1, . . . , n, j = 1, . . . , p die Eigenwerte von S. x11 .. . xn1 .. 4. Sei vec X = . . Dann ist die Sylvestergleichung ¨ aquivalent zu x1p .. . xnp (Ip ⊗ A + B > ⊗ In )vec X = vec C 5. Wende die ersten 4 Eigenschaften auf die Beziehungen zwischen der eindimensionalen und zweidimensionalen Laplace–Gleichung an (Lyapunovgleichung, d.h. symmetrischer Fall, A = B). Was stellst du fest?
¨ Ubung 9 Gegeben seien die beiden Testfunktionen 1. u1 (x, y) = 16 xy − xy 2 − x2 y + x2 y 2 2. u2 (x, y) = sin(πx) cos(πy) L¨ ose die Differentialgleichung −∆u = f in [0, 1]2 , u = g auf ∂[0, 1]2 mit Hilfe Finiter Differenzen (5–Punkte-Stern). Als g verwende jeweils u1 und u2 . Als f verwende jeweils −∆u1 und −∆u2 . Stelle die numerische und die analytische L¨ osung sowie den Fehler uh −u1/2 f¨ ur N = 10, 20, 40, 80 graphisch dar. Was stellst du fest?
¨ Ubung 10 Gegeben seien die beiden Testfunktionen 1. u1 (x, y) = 16 xy − xy 2 − x2 y + x2 y 2 2. u2 (x, y) = sin(πx) cos(πy) L¨ ose die Differentialgleichung −∆u = f in [0, 1]2 , u = g auf ∂[0, 1]2 mit Hilfe Finiter Differenzen (kompakter 9–Punkte-Stern). Als g verwende jeweils u1 und u2 . Als f verwende jeweils −∆u1 und −∆u2 . Stelle die numerische und die analytische L¨ osung sowie den Fehler uh − u1/2 f¨ ur N = 10, 20, 40, 80 graphisch dar. Was stellst du fest?
2.4
Finite Volumen
Wir werden nun eine Verallgemeinerung der Finiten Differenzenmethode kennenlernen, die sogenannte Finite–Volumen–Methode. Der Nachteil der Finiten Differenzen besteht darin,
2.4. FINITE VOLUMEN
37
dass man eigentlich sinnvoll nur auf rechteckigen Gebieten oder vergleichbaren Gebieten arbeiten kann. Desweiteren sind lokale Verfeinerungen, die m¨oglicherweise problembedingt erforderlich sind nur unter großem Aufwand wie etwa einem globalen Strecken oder Stauchen des Gitters in x oder y–Richtung m¨oglich. Dies alles macht diesen Ansatz nicht sonderlich flexibel. Die Finite–Volumen–Methode kann man als Verallgemeinerung dieses Ansatzes sehen. Wir betrachten dazu wieder die allgemeinere Form der Differentialgleichung − div (A grad u) = f in Ω mit u = g auf Γ1 , ν > A grad u = gˆ auf Γ2 . Wir diskretisieren das Gebiet Ω jetzt dadurch, dass wir es mit einem Netz kleiner Zellen Ωi u ¨berziehen, die im Innern etwa polygonal seien. Auf diese Weise haben wir (2.36)
Ω=
N [
Ωi
i=1
Wir fordern ferner dass der Schnitt zweier Zellem Ωi und Ωj entweder leer, deckungsgleich ist oder aus einer gemeinsamen Kante Γij = Ωi ∩ Ωj
(2.37)
besteht, wobei die Kante Γij durch eine Gerade parametrisiert werden soll (Da die Zellen im Innern Polygone sein sollen). Genauer noch wir verlangen, dass zwei benachbarte Polygone sich nur an einer gemeinsamen Kante schneiden sollen und lassen damit keine versetzten Polygone zu. Unzul¨assige Zelleinteilung HH H HH H
Zul¨assige Zelleinteilung HH H
HH H
Weiterhin soll jede Zelle konvex sein mit h¨ochstens der Ausnahme, dass Zellen die am Rand gelegen sind, nicht konvexe Teile des Randes Γ enthalten d¨ urfen. D.h. alle inneren Zellen Ωi sind konvexe Polygone. Siehe Abbildung 2.10 als Beispiel f¨ ur eine m¨ogliche Zelleinteilung. Wir haben damit f¨ ur jedes Ωi mit Hilfe des Gaußschen Integralsatzes Z Z Z (2.38) f (~x) d~x = − div (A(~x) grad u(~x)) d~x = − ν(s)> A(s) grad u(s) ds Ωi
Ωi
∂Ωi
Den Rand Γi jedes Ωi kann man nun st¨ uckweise in Geradenst¨ ucke Γij , zwischen Ωi und Ωj zerlegen. F¨ ur die Geradenst¨ ucke hat man stetig differenzierbare Funktionen γij : [0, 1] →
38
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME Abbildung 2.10: Zelleinteilung von Ω mittels finiter Volumen Ω
Ωi
Γij , so dass γij (t) ein Weg mit positiver Orientierung (d.h. gegen den Uhrzeigersinn) ist So ist f¨ ur jede innere Zelle Ωi das Randintegral darstellbar als Z
>
ν(s) A(s) grad u(s) ds =
Γi
Z
X
j: Ωj Nachbarzelle von Ωi
1
ν(γij (t))> A(γij (t)) grad u(γij (t)) γij0 (t) dt.
0
Damit haben wir das Problem reduziert einmal auf die Approximation der rechten Seite Z
f (~x) d~x,
Ωi
dies kann aber mit Hilfe einer Kubaturformel geschehen. Zum anderen brauchen wir noch die Approximationen an die Normalenableitungen von u entlang jedes Weges Γij f¨ ur das Integral Z 1 ν(γij (t))> A(γij (t)) grad u(γij (t)) γij0 (t) dt. 0
Haben wir diese, so ist das Kurvenintegral durch eine Quadraturformel zu bestimmen.
2.4.1
Einfache Finite–Volumen–Ans¨ atze
Die einfachste M¨oglichkeit ist, den Wert der Normalenableitung entlang γij durch den Wert von u in Ωi und Ωj zu approximieren. Nehmen wir etwa an, dass u in jeder Zelle Ωi durch einen konstanten Wert uΩi angen¨ahert wird. Dann l¨asst sich nat¨ urlich die Normalenableitung entlang γij durch den Wert am Mittelpunkt n¨ahern (Mittelpunktregel) und die Normalenableitung l¨asst sich mit Hilfe der Differenz der Werte uΩi und uΩj ausdr¨ ucken.
2.4. FINITE VOLUMEN
39 C Γ ij C C C ν : C C Ωi C C C
Ωj
Dieses einfache Vorgehen hat einen Nachteil. Man kann durch diese Differenzbildung die Normalenableitung fast gar nicht von irgendeiner anderen (m¨oglicherweise krummen) Richtungsableitung unterscheiden. Dies sollte vermieden werden. Aus diesem Grund konstruiert man eine weitere zus¨atzliche duale Zelleinteilung, die man dadurch bekommt, dass man die Mittelsenkrechten der Geraden Γij zwischen Γi und Γj betrachtet. Aus deren Schnittpunkten wird die duale Zelleinteilung konstruiert. Damit das klappt, darf man nur solche Polygone zulassen, bei denen sich die Mittelsenkrechten in einem Punkt innerhalb des Polygons schneiden. Das ist der Fall beispielsweise bei Dreiecken mit maximal rechtem Winkel und sowie symmetrischen Trapezen mit Innenwinkel von mind. 45◦ der Fall (etwa Rechtecken).
A X XXX AXXX XXX A XX A A A A A
B B
B B PP PP B PP B PP PP B PBP P B
Die Zelleinteilung in Abbildung 2.10 erf¨ ullt diese Anforderungen nicht. Man m¨ usste die Zellen ggf. in weitere Dreiecke zerlegen. Eine Zerlegung, die diese Anforderungen erf¨ ullt, ist z.B. in Abbildung 2.11 zu sehen. Zu dieser Zelleinteilung bekommen wir die duale Zelleinteilung dadurch, dass wir die Schnittpunkte der Mittelsenkrechten bilden und diese Schnittpunkte miteinander verbinden. Anstelle der urspr¨ unglichen Zelleinteilung verwenden wir nun die duale Zelleinteilung f¨ ur die Randintegrale. Wir bezeichnen die neue duale Zelleinteilung mit VS asst sich formal i anstelle von Ωi . Diese l¨ n so beschreiben. Zur gegebenen Zelleinteilung Ω = i=1 Ωi finden wir eindeutig bestimmte Knoten P1 , . . . , Pm ∈ Ω, die genau den Eckpunkten der Polygone entsprechen. Zu jedem Knoten Pi gibt es dann genau ein Volumen Vi der dualen Zelleinteilung mit der Eigenschaft, dass (2.39) Vi = {~x ∈ Ω : k~x − Pi k2 6 k~x − Pj k2 f¨ ur alle j 6= i} .
40
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Abbildung 2.11: zul¨ assige Zelleinteilung mit Dreiecken und Rechtecken Ω
Ωi
Abbildung 2.12: Duale Zelleinteilung
Ω
Vi
2.4. FINITE VOLUMEN
41
Die Schnittkante zweier Volumina Vi und Vj bezeichnen wir mit Zij = Vi ∩ Vj .
(2.40)
Wie im Falle der urspr¨ unglichen Zelleinteilung haben zwei benachbarte Volumina eine Gerade als Schnittkannte. Wir bezeichnen mit Ni die Menge der Nachbarpunkte von Pi , d.h. (2.41) Ni = {Pj : Pi und Pj sind Eckpunkte desselben Polygons Ωk f¨ ur ein k} . Selbst wenn wir nun mit Hilfe der dualen Zelleinteilung die Kurvenintegrale der Form Z XZ > − ν A grad u ds = f (x) dx j∈Ni
Zij
Vi
behandeln, so m¨ ussen wir diese immer noch numerisch approximieren. Das kann jetzt auf verschiedene Weise erfolgen. Die erste M¨oglichkeit (im Falle A = I) besteht darin, dass wir die Normalenableitung ν > grad u ≡ ∂u approximieren durch ∂ν ∂u( 12 (Pi + Pj )) u(Pj ) − u(Pi ) = + O(kPj − Pi k22 ) ∂ν kPj − Pi k2 ¨ (−→ Ubung 11) und das Integral selbst etwa durch den Wert an der Stelle 12 (Pi + Pj ) approximieren, d.h. Z ∂u u(Pj ) − u(Pi ) . ds ≈ |Zij | kPj − Pi k2 Zij ∂ν Auf diese Weise bekommen wir f¨ ur jedes Volumen Vi eine lineare Gleichung, in der nur die Werte von u an den Stellen Pi und Pj ∈ Ni auftauchen. Damit erhalten wir ein lineares Gleichungssystem f¨ ur u(P1 ), . . . , u(Pm ). Diese Technik wird als Box–Schema bezeichnet. Wir betrachten ein Beispiel. Beispiel 13 Wir betrachten das Modellproblem −∆u = f in Ω = [0, 1]2 . Als Zelleinteilung w¨ahlen wir eine gleichm¨aßige Zerlegung in Qudrate der Seitenl¨ange h = N 1+1 . D.h. wir haben f¨ ur k, l = 0, . . . , N die Zellen Ωkl = [kh, (k + 1)h] × [lh, (l + 1)h]. Die dazu duale Zelleinteilung in Kontrollvolumina bekommt man durch Verschiebung um h2 in beide Richtungen (R¨ander werden abgeschnitten), d.h. Vkl = [(k− 12 )h, (k+ 12 )h]×[(l− 12 )h, (l+ 21 )h]∩Ω, k, l = 0, . . . , N + 1.
Ωkl Vkl
42
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Die Knotenpunkte sind Pkl = (kh, lh), k, l = 0, . . . , N + 1. F¨ ur jedes einzelne innere Kontrollvolumen bekommen wir Z ∂u u(Pk+1,l ) − u(Pkl ) u(Pk,l+1 ) − u(Pkl ) ds = h +h kPk+1,l − Pkl k kPk,l+1 − Pkl k ∂Vkl ∂ν u(Pk−1,l ) − u(Pkl ) u(Pk,l−1 ) − u(Pkl ) +h +h + O(h3 ) kPk−1,l − Pkl k kPk,l−1 − Pkl k = u(Pk+1,l ) + u(Pk,l+1 ) + u(Pk−1,l ) + u(Pk,l−1 ) − 4u(Pkl ) + O(h3 ). Wir sehen also, dass die F¨ unf–Punkte–Diskretisierung als Spezialfall der Box–Methode wieder herauskommt. Man kann etwas eleganter vorgehen, als die Richtungsableitung mit Hilfe der Taylorformel zu diskretisieren. Wir nehmen an, dass u nur aus einem bestimmten Funktionenraum Sh gegeben ist, in welchem wir die partiellen Ableitungen explizit angeben k¨onnen. Zus¨atzlich soll dieser Raum endlichdimensional sein. Wir verwenden dazu den Sh als Unterraum von Mt,h . (2.42) Mt,h = {f ∈ C(Ω) : f ist Polynom vom Grade 6 t auf jedem Ωk , k = 1, . . . , n} ist der Raum der st¨ uckweise Polynome vom Grade 6 t die insgesamt stetig sind. Beispiele f¨ ur m¨ogliche R¨aume Sh sind z.B. auf den Seiten 43–47 aufgef¨ uhrt. Im Unterraum Sh k¨onnen wir eine Basis (2.43) ψ1 , . . . , ψN finden und u ∈ Sh darstellen als (2.44)
u(~x) =
N X
ψl (~x)ul .
l=1
Wir verwenden nun (2.44) als Ansatz f¨ ur u. Mit diesem Ansatz bekommen wir N Z N X X > ail ul . f dx = − ν A grad ψl ds ul = Vi ∂V i l=1 l=1 | {z }
Z
ail
Jedes einzelne Integral erstreckt sich jetzt nur noch u ¨ber eine einzelne vorgegebene Basisfunktion und lediglich die Koeffizienten u1 , . . . , uN sind zu bestimmen um u zu bekommen. D.h. statt der Normalenableitung von u k¨onnen wir dieselbe von den vorgegebenen ψ1 , . . . , ψN in jedem Ωk der urspr¨ unglichen Zelleinteilung berechnen. Weil der Integrationsweg senkrecht zu den R¨andern Γkl von Ωk verl¨auft, ist die Normalenableitung h¨ochstens (wenn u ¨berhaupt) im Schnittpunkt mit der Normalen Zij unstetig, dies ist aber lediglich ein einzelner Punkt im Integral D.h. jedes Integral ail l¨asst sich zerlegen in Z XZ > (2.45) ν A grad ψl ds = ν > A grad ψl ds, Vi
j∈Ni
Zij
2.4. FINITE VOLUMEN
43
wobei die Gradienten von ψl jetzt explizit berechnet werden k¨onnen. Anstelle von m Integralen f¨ ur u u ur jede einzelne ¨ber jedes einzelne Segment Zij von Vi erhalten wir nun f¨ gegebene Basisfunktion ψl , l = 1, . . . , N jeweils m Integrale u ¨ber jedes zu Vi geh¨orige Zij . Hier tauchen nun zwei Probleme auf. 1. Wir ben¨otigen genauso viele Volumina Vi wie Basisfunktionen Ψl , also N = m (abgesehen von gewissen Randbedingungen). 2. Wir k¨onnen in der Praxis nicht ernsthaft f¨ ur jede einzelne Basisfunktion Integrale u ¨ber m Volumina oder deren zugeh¨orige Kanten ausrechnen. Der erste Teil erfordert eine Abstimmung der Kontrollvolumina Vi und des Ansatzraumes aufeinander. Der zweite Teil kann erf¨ ullt werden, sofern wir in Mt,h Basisfunktionen mit lokalem Tr¨ager konstruieren. Wir betrachten eine Reihe von m¨oglichen Polynomr¨aumen.
Lineare Ansatzfunktionen im Dreieck Als ersten Raum betrachten wir eine Triangulierung des Grundgebietes Ω mit Hilfe von Dreiecken Ωi , i = 1, . . . , n. Der Raum Sh sei definiert als Sh = {p ∈ M1,h : p ist linear auf jedem Ωi , i = 1, . . . , n} ⊆ C(Ω). Die Elemente p aus Sh sind stetig und st¨ uckweise auf jedem einzelnen Dreieck linear. Sie haben die st¨ uckweise die Form p (x, y) = a00 + a10 x + a01 y. Ωi
Auf einem einzelnen Dreieck kann p eindeutig durch Vorgabe der Werte an den drei Eckpunkten bestimmt werden (siehe Abbildung 2.13 f¨ ur Beispiele, wo an den Eckpunkten die Werte 1 und zweimal 0 vorgegeben worden sind). Abbildung 2.13: Lineare Ansatzfunktionen x @ @ @ @
x
@ @ @ @ @ @ @ @x
44
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Hieraus folgt, dass durch die Gesamtheit der Knotenpunkte P1 , . . . , Pm jede stetige, st¨ uckweise lineare Funktion aus p ∈ Sh durch Vorgabe der Werte p(P1 ), . . . , p(Pm ) eindeutig bestimmt ist. Beispielsweise k¨onnen wir eine Funktion zusammenzusetzen, indem wir verlangen, dass diese Funktion nur an genau einem Knotenpunkt Pi den Wert 1 hat und Null ist an allen anderen Knotenpunkten. Mit anderen Worten wir geben als (p(P1 ), . . . , p(Pm )) die Einheitsvektoren vor. Damit haben wir auf jedem Dreieck drei Werte festgelegt und damit lokal genau eine lineare Funktion festgelegt (Abbildung 2.14). Abbildung 2.14: Zusammengesetzte stu ¨ ckweise lineare Basisfunktion
Dies k¨onnen wir aber in jedem Knotenpunkt Pi machen. Auf diese Weise bekommen wir wie folgt eine Basis ψ1 , . . . , ψm von Sh . Jedes ψi ist eindeutig durch Vorgabe and den Knotenstellen P1 , . . . , Pm bestimmt mittels (2.46)
ψi (Pj ) = δij , i, j = 1, . . . , m.
Man bezeichnet ψ1 , . . . , ψm als die nodale Basis oder Knotenbasis des Raumes Sh . denn jede Funktion s ∈ Sh darstellbar ist als s(x, y) =
m X
s(Pl ) ψl (x, y),
l=1
uft man durch Einsetzen der ¨ahnlich der Lagrange–Darstellung bei Polynomen (dies u ¨berpr¨ Knotenpunkte P1 , . . . , Pm ). Wollen wir eine Basisfunktion ψi zusammensetzen, so brauchen wir nur diejenigen Dreiecke zu betrachten, die Pi als Eckpunkt enthalten. Auf einem einzelnen Dreieck Ωj gibt es jeweils drei M¨oglichkeitenm die Werte 1 sowie zweimal 0 vorzugeben. Wir bezeichnen die drei
2.4. FINITE VOLUMEN Ω
45 Ω
Ω
Ansatzfunktionen mit ψ1 j , ψ2 j und ψ3 j . Dann k¨onnen wir damit jede Basisfunktion aus ψi zusammensetzen. Die Dimension des Raumes ist genau die Anzahl Knotenpunkte Pi und damit exakt die Anzahl Kontrollvolumina Vi . Ausserdem haben die ψi einen lokalen Tr¨ager, denn nur in der Umgebung Ni von Pi ist die Funktion von Null verschieden, siehe Abbildung 2.14. Quadratische Ansatzfunktionen im Dreieck Als zweites Beispiel f¨ ur einen Raum betrachten wir den Raum der st¨ uckweise quadratischen Polynomen bei einer gegebenen Triangulierung Ω1 , . . . , Ωn des Grundgebietes, d.h. es ist Sh = {p ∈ M2,h : p ist quadratisch auf jedem Ωi , i = 1, . . . , n} Die Funktionen p ∈ Sh lassend sich st¨ uckweise in der Form p(x, y) = a00 + a10 x + a01 y + a20 x2 + a02 y 2 + a11 xy darstellen. Auf einem Dreieck l¨asst sich p eindeutig festlegen, sofern man neben den Eckpunkten der Dreiecke noch die Seitenmittelpunkte mit hinzunimmt. Neben den Knotenpunkten P1 , . . . , Pm bekommen wir zus¨atzliche Knotenpunkte S1 , . . . , Smˆ f¨ ur jeden einzelnen Seitenmittelpunkt (Abbildung 2.15). Abbildung 2.15: Quadratische Ansatzfunktionen
x @ @ @ @ x
x
@ @x @ @ @ @ @ @x x
46
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Als Basis bekommen wir ¨ahnlich wie im Falle linearer Ansatzfunktion ψi (Pj ) = δij , ψi (Sk ) = 0, i, j = 1, . . . , m, k = 1, . . . , m, ˆ ψˆk (Sl ) = δkl , ψˆk (Pi ) = 0, k, l = 1, . . . , m, ˆ i = 1, . . . , m. Man kann in diesem Fall zeigen, dass die zusammengesetzten Funktionen stetig sind (dies folgt aus der Eindeutigkeit der Interpolationbedingungen auf den Kanten). Jede Funktion s ∈ Sh l¨asst sich in Analogie zum Falle st¨ uckweise linearer Funktionen darstellen als s(x, y) =
m X
s(Pi ) ψi (x, y) +
i=1
m ˆ X
s(Sk ) ψˆk (x, y).
k=1
Jetzt haben wir allerdings ein Problem, denn wir haben erheblich mehr Basisfunktionen als Kontrollvolumina. Allerdings k¨onnen wir auf sehr einfache Weise Abhilfe schaffen. Wir zerlegen jedes einzelne Dreieck entlang der Seitenmittelpunkte in vier Dreiecke und erhalten ˆ 1, . . . , Ω ˆ 4n (siehe Abbildung 2.16). somit eine Trianguleriung Ω Abbildung 2.16: Dreieck zerlegt in vier kongruente Teildreiecke v
J
J J
J
J v Jv
J
J
J
J J
J J
J J
v v Jv
ˆ 1, . . . , Ω ˆ 4n Anstatt der alten Kontrollvolumina V1 , . . . , Vm verwenden wir nun die zu Ω geh¨origen dualen Kontrollvolumina Vˆ1 , . . . , Vˆm+mˆ . Per Konstruktion bekommen wir jetzt f¨ ur jeden Punkt Pi und jeden Seitenmittelpunkt Sk ein eigenes Kontrollvolumen. Damit ist wieder f¨ ur eine gleiche Anzahl von Basisfunktionen und Kontrollvolumina gesorgt. Bilineare Ansatzfunktionen im Rechteck Neben der Zerlegung eines Gebietes Ω in Dreiecke kann man nat¨ urlich auch Kombinationen von Dreiecken und Rechtecken verwenden. Speziell die Kombination linearer Ansatzfunktionen auf Dreiecken mit bilinearen Ansatzfunktionen auf Rechtecken ist hier eine denkbaren Kombination mit Blick auf die Abstimmung zwischen Anzahl Basisfunktionen (Dimension des Ansatzraumes) und Anzahl Kontrollvolumina. Im folgenden betrachten wir der Einfachheit halber nur eine Zerlegung des Gebietes Ω in Rechteckelemente Ω1 , . . . , Ωn . Der Raum Sh w¨are Sh = {p ∈ M2,h : p ist bilinear auf jedem Ωi , i = 1, . . . , n}
2.4. FINITE VOLUMEN
47
und die Funktionen aus Sh lassen sich lokal auf jedem Rechteck in der Form p(x, y) = a00 + a10 x + a01 y + a11 xy schreiben. Eine solche Funktion p ist auf einem Rechteck durch Vorgabe der vier Werte an den Eckpunkten des Rechteckes eindeutig bestimmt (siehe Abbildung 2.17). Abbildung 2.17: Bilineare Ansatzfunktionen x
x
x
x
Wie im Falle linearer Ansatzfunktionen im Dreieck k¨onnen wir zu jedem Punkt Pi genau eine stetige Basisfunktion ψi definieren, die nur auf den benachbarten Rechtecken lebt, ψi (Pj ) = δij , i, j = 1, . . . , m. Die Dimension des Raumes stimmt mit der Zahl der Kontrollvolumina u ¨berein. Biquadratische Ansatzfunktionen im Rechteck Als letztes Beispiel von Ansatzr¨aumen betrachten wir biquadratische Funktionen auf einer Zerlegung des Gebietes in Rechteckgebiete Ωi . Genauso wie man Dreiecke mit linearen Ansatzfunktionen mit Rechtecken und bilinearen Ansatzfunktionen koppeln kann, so kann man quadratische Ansatzfunktionen im Dreieck mit biquadratischen Ansatzfungktionen in Rechteck kombinieren. Dies gilt insbesondere auch was die Konstruktion der passenden Kontrollvolumina angeht. Der Einfachheit betrachten mir wieder nur Rechteckelemente. Damit ist Sh definiert durch Sh = {p ∈ M4,h : p ist biquadratisch auf jedem Ωi , i = 1, . . . , n} und die Funktionen aus Sh lassen sich lokal auf jedem Rechteck in der Form p(x, y) = a00 + a10 x + a20 x2 + a01 y + a02 y 2 + a11 xy + a21 x2 y + a12 xy 2 + a22 x2 y 2 . schreiben. Geben wir neben den vier Werten in den Eckpunkten noch die Werte an den Seitenhalbierenden sowie im Mittelpunkt vor, dann ist p eindeutig bestimmt (siehe Abbildung 2.18).
48
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Abbildung 2.18: biquadratische Ansatzfunktionen
x
x
x
x
x
x
x
x
x
2.4. FINITE VOLUMEN
49
Wir bezeichnen mit S1 , . . . , Smˆ wieder die Seitenhalbierenden der Rechtecke und mit M1 , . . . , Mn die Mittelpunkte der Rechtecke. Dann bekommen wir als Basisfunktionen ψi (Pj ) = δij , ψi (Sk ) = 0, ψi (Mq ) = 0, i, j = 1, . . . , m, k = 1, . . . , m, ˆ q = 1, . . . , n, ψˆk (Sl ) = δkl , ψˆk (Pi ) = 0, ψˆk (Mq ) = 0, k, l = 1, . . . , m, ˆ i = 1, . . . , m, q = 1, . . . , n, ψ˜q (Mr ) = δqr , ψ˜q (Pi ) = 0, ψ˜q (Sk ) = 0, q, r = 1, . . . , n, i = 1, . . . , m, k = 1, . . . , m. ˆ Auch hier sind die zusammengesetzten Funktionen wieder stetig. Die Tatsache, dass wir jetzt f¨ ur S1 , . . . , Smˆ und M1 , . . . , Mn keine Kontrollvolumina haben, umgehen wir wie im Falle quadratischer Ansatzfunktionen durch eine weitere Unterteilung der Rechtecke entlang der Seitenmitten durch den Mittelpunkt des Rechteckes (Abbildung 2.19). Abbildung 2.19: Rechteck zerlegt in vier kongruente Teilrechtecke v
v
v
v
v
v
v
v
v
ˆ 1, . . . , Ω ˆ 4n und Damit bekommen wir eine Zerlegung des Gebietes in verfeinerte Rechtecke Ω dazu verwenden wir die dual erzeugten Kontrollvolumina Vˆ1 , . . . , Vˆm+m+n . So wie wir diese ˆ Kontrollvolumina erzeugt haben, gibt es jetzt genauso viele Volumina Vi wie Basisfunktionen.
Nachdem wir anhand einiger Beispiele gesehen haben, wie die Ansatzr¨aume konstruiert werden k¨onnen, ist klar, dass wir (nach eventueller Neufassung der Kontrollvolumina) zu jedem Kontrollvolumen Vi genau eine Basisfunktion ψi , i = 1, . . . , m bekommen. Wir haben somit ein Gleichungssystem der Form (2.47)
Ah u = f.
Dabei ist (2.48)
Ah = (akl )k,l=1,...,m , akl = −
Z ∂Vk
(2.49)
u=
m X
ψk uk ,
k=1
(2.50)
fk =
Z Vk
f dx.
ν > A grad ψl ds,
50
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Wir haben hier noch konkret die Berechnung bzw. Approximation der akl sowie fk zu diskutieren. Wir fangen mit der rechten Seite an. Dazu ersetzen wir f durch seine Interpolierende, d.h. f¨ ur die Werte an den Knotenpunkten setzen wir die Werte von f ein und nehmen diese Werte als Koeffizienten der bzgl. der Basisfunktionen ψk . Definition 14 Nehme an, das Gebiet Ω sei in Zellen Ω1 , . . . , Ωn unterteilt. P1 , . . . , Pm seien die Knotenpunkte der Zelleinteilung. Sei Sh ⊆ Mt,h ein m–dimensionaler Unterraum derart, dass f¨ ur alle vorgegebenen Werte f1 , . . . , fm ∈ R genau eine Funktion ψ ∈ Sh existiert mit ψ(Pi ) = fi , i = 1, . . . , m. Zu einer Funktion f : Ω → R bezeichnen wir die eindeutig bestimmte Funktion fI ∈ Sh mit f (Pi ) = fI (Pi ), i = 1, . . . , m als die Interpolierende von f .
Wir finden somit Koeffizienten f1 , . . . , fm derart, dass (2.51)
fI (~x) =
m X
fk ψk (~x)
k=1
ist. Im Falle der vier betrachteten Ansatzr¨aume, bekommen wir fk sehr einfach durch fk = f (Pk ), k = 1, . . . , m. Da die einzelnen Funktionen jetzt st¨ uckweise Polynome sind setzen wir Z Z m X fk ≈ fI dx = (2.52) fl ψl (~x) dx. Vk
l=1
Vk
R Die Integrale Vk ψl (~x) dx lassen sich explizit berechnen. Haben die ψl lokalen Tr¨ager wie bei den vier genannten Beispielen, so m¨ ussen f¨ ur jedes k nur wenige Integrale explizit bestimmt werden. Als letzten Schritt haben wir die Integrale f¨ ur akl zu bestimmen. Es ist klar, dass das Randintegral wieder in die Summe der Einzelsegmente Zkl zerlegt wird. akl = −
(2.53)
X Z
j: Pj ∈Nk
ν > A grad ψl ds.
Zkj
Da die ψl st¨ uckweise Polynome sind und h¨ochstens an einer Stelle s entlang Zkj undefiniert sind, k¨onnen wir ν > A grad ψl mit Hilfe von Quadraturformeln bestimmen, die sinnvoller Weise die gleiche Ordnung haben sollten wie der Raum Sh . So k¨onnte man beispielsweise mit Hilfe der Interpolierenden Z Zkj
>
ν A grad ψl ds ≈
Z Zkj
ν > A grad ψl
I
ds
w¨ahlen. Dies w¨ urde lediglich die Werte von ν > A grad ψl an den Stellen Pj und Pk erfordern. R ∂ψl Sofern A konstant ist, k¨onnen wir das Integral Zkj ∂Aν ds so explizit berechnen.
2.4. FINITE VOLUMEN
2.4.2
51
Ein Finite–Volumen–Verfahren fu ¨ r das Modellproblem
Wir f¨ uhren die Finite–Volumen–Methode an einem einfachen Modellbeispiel vor. Sei dazu wieder Ω = [0, 1]2 und A = I. Wir verwenden eine Triangulierung des Gebietes in rechtwinklige Dreiecke mit Seitenl¨ange h in x– und y–Richtung (siehe Abbildung 2.20). Abbildung 2.20: Zelleinteilung von [0, 1]2 mit Dreiecken
@
@ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ .. @ @ @Ω @ @ . @ @ @ @ @ @ @ @ @ @ @ @ @ 2h @ @@ @ @ @ @ @ @ @ @ @ @ @ @ @ @ h @ @ @ @ @ @ @ @ @ @
@ @
@ @
@ @
@ @
@ @
@
h
2h
@ @
@ @
@ @ @ @
@ @
@ @
@ @ @ @ @ @ Ω @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ 2h @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ h @ @ @ @ @ @ @ @ @ @ @
. −→ ..
@ @
@ @
@ @ @ @
@ @
@ @
···
h
@ @
@ @
···
2h
Wir beginnen mit der rechten Seite. Zu diesem Zweck muss f¨ ur jede Ansatzfunktion ψ auf einem Dreieck D ein Integral in x– sowie ein Integral in y–Richtung entlang der Mittelsenkrechten gebildet werden. Aus Symmetriegr¨ unden reicht es, das Dreieck D0 mit den Eckpunkten (0, 0), (h, 0) und (0, h) zu betrachten. Mit Blick auf die Einteilung in Finite Volumen (siehe Abbildung 2.21) m¨ ussen wir dort drei Teilintegrale u ¨ber die Teildreiecke h h h zu den Eckpunkten ( 2 , 0), (h, 0) und ( 2 , 2 ) und den Eckpunkten (0, h2 ), (0, h) und ( h2 , h2 ) sowie das Teilquadrat mit den Eckpunkten (0, 0), ( h2 , 0), ( h2 , h2 ) und (0, h) betrachten. (0, h) @ @@ @ @@ @ @ @ @ @@
(0, 0)
(h, 0)
D.h. wir betrachten die zugeh¨origen drei Fl¨achenintegrale Z h Z h−y Z h Z h−y Z 2 ψ(x, y) dx dy, ψ(x, y) dx dy, 0
h 2
h 2
0
0
h 2
Z
h 2
ψ(x, y) dx dy.
0
F¨ ur ψ gibt es drei verschiedene Ansatzfunktionen x y x+y p(x, y) = , q(x, y) = , r(x, y) = 1 − h h h
52
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
die jeweils in genau einem der Eckpunkte Null sind. Wir bekommen f¨ ur p h 2
Z
Z
0
h−y h 2
h2 p(x, y) dx dy = , 12
Z
h h 2
h−y
Z 0
h2 p(x, y) dx dy = , 48
Z
h 2
Z
0
h 2
p(x, y) dx dy =
0
h2 . 16
Die analoge Vorgehensweise bei q ergibt aus Symmetriegr¨ unden h 2
Z
Z
0
h−y h 2
h2 q(x, y) dx dy = , 48
Z
h h 2
h−y
Z 0
h 2
h2 q(x, y) dx dy = , 12
Z
h2 r(x, y) dx dy = , 48
Z
0
h 2
Z 0
h2 q(x, y) dx dy = . 16
Als letztes bekommen wir f¨ ur ψ = r Z 0
h 2
Z
h−y h 2
h2 r(x, y) dx dy = , 48
Z
h h 2
Z 0
h−y
0
h 2
Z
h 2
r(x, y) dx dy =
0
h2 . 8
¨ → Ubung 12 Diese Formeln gelten gleichlautend f¨ ur jedes Dreieck mit den Eckpunkten (kh, lh), ((k + 1)h, lh) und (kh, (l+1)h). Aus Symmetriegr¨ unden erhalten wir f¨ ur das D0 gegen¨ uberliegende Dreieck D1 mit den Eckpunkten (h, h), (h, 0) und (0, h) und die dortigen Ansatzfunktionen dieselben Werte. Sei jetzt ψkl , k, l = 0, . . . , N + 1 eine Basisfunktion, die in genau einem der Knotenpunkte Pkl = (kh, lh) den Wert 1 hat und sonst u ¨berall Null ist. Wir bekommen f¨ ur die zugeh¨origen Volumina Vkl , Vk−1,l , Vk+1,l , Vk,l−1 , Vk,l+1 , Vk−1,l−1 , Vk+1,l+1 , Vk−1,l+1 , Vk+1,l−1 (siehe Abbildung 2.21) folgende Werte. Abbildung 2.21: Basisfunktion ψkl und umgebende Volumina
@
@ @ @
@ @ @ @ @ @ @
@ @ @
Z Vkl
2
ψkl ds = h
@ @ @
@ V @ kl @ @
@ @ @
1 1 1 1 1 1 7 + + + + + = h2 12 12 8 12 12 8 12
F¨ ur die anderen Integrale erhalten wir durch a¨hnliche Vorgehensweise analoge Ergebnisse. 2 Insgesamt haben wir bis auf einen Faktor h24 folgende Werte
2.4. FINITE VOLUMEN
53 1
2
0
2
14
2
0
2
1
Nach der Behandlung der rechten Seite m¨ ussen wir nun die Kurvenintegrale f¨ ur jede Any x+y x satzfunktion ψ der Form p(x, y) = h , q(x, y) = h , r(x, y) = 1− h auf dem Referenzdreieck mit den Eckpunkten (0, 0), (h, 0) sowie (0, h) bestimmen. Genauer sind das Kurvenintegral von (0, h/2) bis (h/2, h/2) und von (h/2, 0) bis (h/2, h/2) betrachten. (0, h) @ @ 6@ @ -@ @
(0, 0) D.h. wir betrachten
h 2
∂ψ(x, h2 ) dx, ∂y
Z
∂p(x, h2 ) dx = 0, ∂y
Z
Z 0
Wir bekommen
h 2
Z 0
Z 0
Z 0
h 2
h 2
(h, 0)
∂q(x, ∂y
∂r(x, ∂y
h ) 2
h ) 2
h 2
∂ψ( h2 , y) dy. ∂x
h 2
∂p( h2 , y) 1 dy = , ∂x 2
0
0
1 dx = , 2
Z
1 dx = − , 2
Z
h 2
∂q( h2 , y) dy = 0, ∂x
h 2
∂r( h2 , y) 1 dy = − , ∂x 2
0
0
Diese Formeln gelten gleichlautend f¨ ur jedes Dreieck mit den Eckpunkten (kh, lh), ((k + 1)h, lh) und (kh, (l + 1)h). Aus Symmetriegr¨ unden erhalten wir f¨ ur das D0 gegen¨ uberliegende Dreieck D1 mit den Eckpunkten (h, h), (h, 0) und (0, h) und die dortigen Ansatzfunktionen dieselben Werte bis auf die Orientierung. Sei jetzt ψkl , k, l = 0, . . . , N + 1 eine Basisfunktion, die in genau einem der Knotenpunkte Pkl = (kh, lh) den Wert 1 hat und sonst u ur die zugeh¨origen Volumina Vkl , Vk−1,l , Vk+1,l , ¨berall Null ist. Wir bekommen f¨ Vk,l−1 , Vk,l+1 , Vk−1,l−1 , Vk+1,l+1 , Vk−1,l+1 , Vk+1,l−1 (siehe Abbildung 2.21) folgende Werte. Z ∂ψkl 1 1 1 1 1 1 1 1 − ds = + + + + + + + = 4. 2 2 2 2 2 2 2 2 ∂Vkl ∂ν
54
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
F¨ ur die anderen Integrale gehen wir ¨ahnlich vor und bekommen folgende Werte. 0
−1
0
−1
4
−1
0
−1
0
Dieser Teil zumindest ist mit dem F¨ unf–Punkte–Stern identisch. Zusammengefasst bekommen wir f¨ ur jedes (innere) Kontrollvolumen Vkl (2.54) − uk−1,l − uk,l−1 + 4ukl − uk+1,l − uk,l+1 =
h2 [fk−1,l+1 + 2fk−1,l + 2fk,l−1 24 +14fkl + 2fk+1,l + 2fk,l+1 + fk+1,l−1 ]
F¨ ur die am Rand gelegenen Volumina Vkl mit k = 0, N + 1, l = 0, N + 1 existieren die Beitr¨age mit negative Indizes oder Indizes N + 2 nat¨ urlich nicht. Diese sind in (2.54) wegzulassen. Desweiteren haben die dortigen Volumina nur die halbe Gr¨oße, d.h. die Beitr¨age einiger Teilintegrale fallen weg. Die hier vorgef¨ uhrte Technik l¨asst sich auch auf andere Zelleinteilungen und Ansatzfunk¨ tionen u 13. ¨bertragen. −→ Ubung
2.4.3
Behandlung allgemeiner Dreiecke und Rechtecke
Wir haben anhand des Modellproblemes A = I, Ω = [0, 1]2 und linearer Ansatzfunktionen auf Dreiecksnetze nur einen Spezialfall behandelt. Tats¨achlich stellt aber die Behandlung allgemeinerer Dreiecke keine wesentlichen Mehraufwand dar. Sei dazu D0 das Referenzdreieck mit den Eckpunkten (0, 0) (h, 0) und (0, h) und D ein Dreieck in allgemeiner Lage. Dann k¨onnen wir sehr einfach eine affin lineare Transformation T finden, welche D auf D0 abbildet. (2.55) T : D → D0 , T (~x) = T ~x + ~b. ¨ → Ubung 16. Eine Ansatzfunktion ψ auf D l¨asst sich sofort mittels (2.56)
ψ(~x) = ψ0 (T (~x))
definieren, wobei ψ0 die entsprechende Ansatzfunktion auf dem Referenzdreieck ist. Das gleiche gilt f¨ ur den Fall, dass D0 und D Rechtecke sind. Mit Hilfe dieser linearen Transformation bekommen wir sofort die Ansatzfunktionen auf Zellen (Dreiecke und Rechtecke) in
2.4. FINITE VOLUMEN
55
allgemeiner Lage. Wichtiger ist aber, dass die zugeh¨origen Integrale nicht neu berechnet werden m¨ ussen. Wir bekommen n¨amlich Z Z Z (2.57) | det T | ψ(~x) dV = ψ0 (T (~x)) | det T | dV = ψ0 (~x) dV, D
D
D0
d.h. bis auf den konstanten Faktor | det T | der die Volumen¨anderung von D0 gegen¨ uber D angibt, ist das Integral identisch mit dem Wert auf dem Referenzgebiet. Das gleiche gilt auch f¨ ur die Kurvenintegrale entlang von Kantenst¨ ucken Γ bzw. Γ0 der Zellen D und D0 . Sei dazu etwa γ : [0, 1] → Γ eine Parametrisierung einer Kante, d.h. γ(t) = P t + (1 − t)Q f¨ ur geeignete Punkte P und Q. Mit γ0 (t) = T (γ(t)) = T P t + (1 − t)T Q erhalten wir eine Parametrisierung der entsprechende Kante im Referenzelement. Dann gilt: Z Z 0 > kT γ k ν grad ψ(~x) ds = (T ν)> ( grad ψ0 )(T (~x)) kT γ 0 (t)k ds Γ ZΓ1 (T ν)> grad ψ0 (T (γ(t))) kT γ 0 (t)k dt = Z0 1 ν0> grad ψ0 (γ0 (t)) kγ00 (t)k dt = Z0 = ν0> grad ψ0 (~x) ds. Γ0
Wir bekommen also (2.58)
kT (P − Q)k
Z
>
ν grad ψ(~x) ds =
Z
ν0> grad ψ0 (~x) ds
Γ0
Γ
und k¨onnen wiederum die Werte auf dem Kantenst¨ uck des Referenzelements verwenden. Allerdings handelt es sich bei dem Weg Γ0 nicht mehr zwingend um die Mittelsenkrechte des Referenzdreieckes. Die Mittelpunkte der Seiten eines Dreieckes werden zwar wieder auf die Mittelpunkte abgebildet, Winkel (wie der rechte Winkel bei Mittelsenkrechten) jedoch bleiben dabei nicht erhalten. Die Berechnung gestaltet sich also dementsrpechend schwerer. In Spezialf¨allen ist es einfacher gleich das allgemeine Integral Z ν > grad ψ(~x) ds Γ
berechnen. Z.B. f¨ ur lineare Ansatzfunktionen auf einem Dreieck gilt die einfache Formel Z ν > grad ψ(~x) ds = ν > grad ψ(~x) kP − Qk. Γ
Bei quadratischen Funktionen muss man den Gradienten explizit ausrechnen und eine ¨ Quadraturformel in Abh¨angigkeit von P und Q bestimmt werden. → Ubung 14. Etwas gl¨ ucklicher sieht die Situation f¨ ur den Fall von Rechtecken aus. Hier reicht (2.58) vollst¨andig aus, da lediglich verschoben und gedreht werden braucht. Damit bleiben die Mittelsenkrechten erhalten.
56
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
2.4.4
Behandlung des Randes
Wir haben bisher noch nicht die Einbeziehung der Randbedingungen diskutiert. Wir holen das jetzt f¨ ur die zwei gel¨aufigsten Randbedingungen, die Dirichlet–Randbedingung und die Neumannsche Randbedingung nach. Behandlung der Dirichlet–Randbedingung Sei etwa eine Dirichlet–Randbedingung der Form u = g auf Γ1 ⊆ Γ gegeben. Nehme an, es existiere bekannte eine Funktion u0 : Ω → R mit u0 (x) = g(x) f¨ ur alle x ∈ Γ1 . Dann ist f¨ ur jedes Kontrollvolumen Vi (oder Ω selbst) Z Z Z Z > > f dx = − ν A grad u ds = − ν A grad (u − u0 ) ds − ν > A grad u0 ds. Vi
∂Vi
∂Vi
Ersetzen wir u durch (2.59)
∂Vi
uˆ = u − u0 ,
als Unbekannte, dann bekommen wir f¨ ur unsere neue gesuchte Funktion uˆ die Gleichung Z Z Z > (2.60) ν > A grad u0 ds. f dx + − ν A grad uˆ ds = ∂Vi
Vi
∂Vi
Mit anderen Worten, die neue Funktion uˆ erf¨ ullt eine analoge Gleichung mit einer anderen rechten Seite. Da auch das zu u0 zugeh¨orige Integral berechnet bzw. approximiert werden muss, reicht es, ein u0 ∈ Sh anzugeben. Sei dazu u0 die eindeutig bestimmte Funktion in Sh mit g(Pi ) Pi ∈ Γ1 (2.61) . u0 (Pi ) = 0 Pi 6∈ Γ1 Nun wissen wir, dass das gesuchte uˆ eine homogene Randbedingung auf Γ1 erf¨ ullt. Dies fließt in den Ansatzraum Sh direkt ein. Sei dazu (2.62)
Sh,0 = {ψ ∈ Sh : ψ(Pi ) = 0, f¨ ur alle Pi ∈ Γ1 }.
Der Raum Sh als Ansatzraum f¨ ur u wird dann durch Sh,0 ersetzt. Im Falle der vier vorgestellten Ansatzr¨aume bedeutet dies lediglich, dass diejenigen Basisfunktionen weggelassen werden k¨onnen, die zu Punkten Pi ∈ Γ1 geh¨oren. Dirichletrandbedingung fu ¨ r das Modellproblem Wir f¨ uhren das am Modellproblem vor. Betrachten wir der Einfachheit eine Randbedingung der Form u = g auf ∂[0, 1]2 .
2.4. FINITE VOLUMEN
57
Als Funktionenraum Sh verwenden wir wieder die stetigen st¨ uckweise linearen Funktionen 2 bez¨ uglich einer gleichm¨aßigen Triangulierung von [0, 1] . Wir haben bereits gesehen, dass die Funktionen ψkl die im Punkte Pkl = (kh, lh) 1 sind und sonst u ¨berall Null, eine Basis bilden. Wir bekommen X u0 (x, y) = g(kh, lh) ψkl (x, y). k=0,N +1 ∨ l=0,N +1
Anstelle von Sh = span {ψkl : k, l = 0, . . . , N + 1} verringert sich unser Ansatzraum auf Sh,0 , wobei (2.63) Sh,0 = span {ψkl : k, l = 1, . . . , N }. F¨ ur die Finite–Volumen–Methode bedeutet das, dass im gleichen Umfang, in dem Basisfunktionen weggelassen werden auch die zugeh¨origen Kontrollvolumina wegzulassen sind. Dies kann man auch anders herum so interpretieren, dass das Integral u ¨ber diese Kontrollvolumina sowieso Null ist und daher keinen Beitrag liefert. Insgesamt ¨andert sich die rechte Seite Z Z f dx + ν > grad u0 ds Vkl
∂Vkl
nur f¨ ur solche k, l, die in Randn¨ahe (k = 1, N oder l = 1, N ) liegen, weil u0 nur mit Hilfe der ψkl definiert ist, die ihren Knotenpunkt Pkl auf dem Rand haben. Sei etwa f¨ ur k = 1 und 1 < l < N V1l ein solches Kontrollvolumen. Dann ist Z Z Z > > ν grad u0 ds = g(0, (l + 1)h) ν grad ψ0,l+1 ds + g(0, lh) ν > grad ψ0l ds ∂V1l ∂V1l ∂V1l Z = g(0, lh) ν > grad ψ0l ds ∂V1l
= −g(0, lh) ≡ −g0l . Wir sehen an diesem Beispiel, dass wie bei den finiten Differenzen f¨ ur die auf dem Rand gelegenen ukl hier einfach die Randbedingung eingesetzt werden darf. Zu beachten ist hierbei ¨ allerdings, dass die Herleitung hier auf ganz andere Weise entstanden ist. Die Ubereinstimmung liegt auch an dem Modellproblem, weil f¨ ur V1l die Kurvenintegrale f¨ ur ψ0,l±1 verschwinden und lediglich das Integral f¨ ur ψ0l bleibt. ¨ → Ubung 15. Behandlung der Neumann–Randbedingung Die zweite m¨ogliche Randbedingung, die wir beachten m¨ ussen, ist die Neumannsche Randbedingung. Diese verschwindet aber auf nat¨ urliche Weise. Ist etwa ν > A grad u = gˆ auf ∂Γ2 , so ist f¨ ur jedes am Rand gelegene Volumen Vi eine Seite Zi ganz auf dem Rand Γ gelegen. Gehen wir davon aus, dass die Volumina sauber mit den R¨andern Γ1 und Γ2 abschließen, so ergibt sich im Falle eines Randst¨ uckes Zi nur die M¨oglichkeit Zi ⊆ Γ1 oder Zi ⊆ Γ2 .
58
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Im ersten Fall wird das Integral wie gew¨ohnlich berechnet, sofern das Kurvenst¨ uck Zi das zul¨asst. Im zweiten Fall aber bekommen wir Z Z > ν A grad u ds = gˆ ds Zi
Zi
und insgesamt ¨andert sich das Integral u ¨ber das Kontrollvolumen Vi durch Verschieben des Integrals u ¨ber das Segment Zi in die rechte Seite. Z Z X Z > (2.64) − ν A grad u ds = f dx + gˆ ds. j: Pj ∈Ni Pj 6∈Γ
Zij
Vi
Zi
Neumannrandbedingung fu ¨ r das Modellproblem Auch dies f¨ uhren wir anhand des Modellproblemes vor. Sei etwa ∂u = 0 auf {0} × [0, 1] = Γ2 . ∂ν Nehmen wir etwa an, dass V0l , 1 < l < N ein solches mit dem Rand abschließendes Volumen sei. Dann ist Z Z ∂u ∂u ds = − ds − ∂V0l \Γ2 ∂ν ∂V0l ∂ν Z Z Z ∂ψ0l ∂ψ0l ∂ψ0,l−1 = −u0l ds − u1l ds − u0,l−1 ds ∂ν ∂V0l \Γ2 ∂ν ∂V0l \Γ2 ∂ν ∂V0l \Γ2 Z ∂ψ0,l+1 −u0,l+1 ds ∂ν ∂V0l \Γ2 3u0l − u1l − u0,l−1 − u0,l+1 = . 2 Wir bekommen also anstelle von (2.54) jetzt f¨ ur V0l die Gleichung −u0,l−1 + 3u0l − u1l − u0,l+1 h2 = [f0,l−1 + 14f0l + 4f1l + 3f0,l+1 + 2f1,l−1 ] . 2 48 Bei der den Randintegralen wie auch bei der rechten Seite ist zu beachten, dass die Volumina nur die halbe Gr¨oße haben und deshalb Integrale u ¨ber Teilkurven/Teilgebiete der Dreiecke wegfallen.
2.4.5
Konvergenz der FVM
Wir gehen in diesem Abschnitt kurz auf die Konvergenzeigenschaften ein. Auf eine ausf¨ uhrliche Betrachtung soll hier verzichtet werden. F¨ ur die vorgestellten Verfahren f¨ uhrt man eine Norm ein, die ungef¨ahr dem entspricht, was man bei der Diskretisierung der Normalenableitung mittels zentraler Differenzen macht.
2.4. FINITE VOLUMEN
59
Wir machen hier die Einschr¨ankung A = I und u = 0 auf ∂Ω. Die Idee ist die folgende. F¨ ur die in den vorherigen Abschnitten vorgestellten Ansatzr¨aume gilt, dass die Funktionen ψ ∈ Sh auf jedem Dreieck h¨ochstens quadratisch und auf jedem Rechteck h¨ochstens biquadratisch sind. Betrachten wir zun¨achst die Einschr¨ankung einer h¨ochstens quadratischen Funktion ψ auf eine Gerade innerhalb eines Dreiecks. D.h. wir betrachten statt ψ(~x) lediglich ψ((1 − t)P + tQ), wobei P und Q Randpunkte des Dreiecks sind. Dann ist ψ((1 − t)P + tQ) h¨ochstens ein quadratisches eindimensionales Poynom in t. Als n¨achstes untersuchen wir eine h¨ochstens biquadratische Funktion ψ ∈ Sh f¨ ur den Fall eines Rechteckes. Schr¨anken wir ψ auf eine Gerade innerhalb des Rechteckes ein, die parallel zu einer der Kanten ver¨auft, so bekommen wir wiederum f¨ ur geeignete Punkte P , Q, dass ψ((1 − t)P + tQ) ein quadratisches eindimensionales Polynom in t ist (weil wegen der Parallelit¨at der Geraden zu den Seiten eine der Komponenten x oder y konstant ist). Wir erhalten unter diesen Bedingungen f¨ ur jede Funktion ψ ∈ Sh aus einem (oder einer Kombination) der vier Ansatzr¨aume und Randpunkten P, Q ∂ψ( P +Q ) ψ(Q) − ψ(P ) Q−P 2 = , wobei ν = . ∂ν kQ − P k kQ − P k Falls nun f¨ ur konkrete Eckpunkte Pi , Pj eines gemeinsamen Dreiecks oder Rechtecks der Mittelpunkt der Strecke Pi Pj zusammenf¨allt mit dem Mittelpunkt der Mittelsenkrechten Zij dann bekommen wir f¨ ur unsere Ansatzfunktionen ψ ∈ Sh Z P +P ∂ψ( i 2 j ) ∂ψ(s) ψ(Pj ) − ψ(Pi ) (2.65) ds = Zij = |Zij | . ∂ν ∂ν kPj − Pi k Zij Pj
JJ Zij
JJ
J J
Q Q ] J Q
ν J J Q J
J
Q J Q
J
J
J
J J
J Pi
J
J
Q Q
J J
Q Q J
J
Q Q J
J
JJ
JJ
¨ Dies folgt aus der Mittelpunktregel f¨ ur eindimensionale Integrale. Ubrigens gilt f¨ ur lineare Ansatzfunktionen im Dreieck sowie bilineare Ansatzfunktionen im Rechteck diese Formel immer (auch wenn die beiden Strecken sich nicht in einem gemeinsamen Mittelpunkt schneiden). Denn die Richtungsableitung ist eine Konstante und damit ist es egal ob die Richtungsableitung im Mittelpunkt oder sonst wo gebildet wird. Seien ψ1 , . . . , ψm die Knotenbasis von Sh und v, w ∈ Sh konkrete Funktionen mit m m X X v(~x) = v(Pl )ψl (~x), w(~x) = w(Pl )ψl (~x) l=1
l=1
60
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
gegeben, dann ist Z ∂Vi
X ∂v v(Pj ) − v(Pi ) ds = |Zij | . ∂ν kP j − Pi k j∈N i
Als Norm f¨ uhrt man ein kvk =
X
|Zij |
Zij ,i<j
(v(Pj ) − v(Pi ))2 . kPj − Pi k
D.h. man quadriert die Differenz v(Pj ) − v(Pi ) gegen¨ uber dem Integral. Nun gilt f¨ ur unsere Matrix Ah = (aij )i,j =
Z ∂Vi
∂ψj ds ∂ν
i,j
die Gleichung X
w(Pi )aij v(Pj ) =
i,j
X
w(Pi )
i
Z ∂Vi
∂v ds. ∂ν
Weiterhin gilt wieder f¨ ur den Fall, dass der Mittelpunkt von Zij mit dem Mittelpunkt der Strecke Pi Pj zusammenf¨allt ! Z Z X X X ∂v ∂v ds = v(Pi ) ds v(Pi ) Zij ∂ν ∂Vi ∂ν i i j∈Ni ! Z X ∂v = v(Pi ) ds Zij ∂ν Zij ! Z X ∂v ds = (v(Pi ) − v(Pj )) Zij ∂ν Z ,i<j ij
X
=
Zij ,i<j
|Zij |
(v(Pj ) − v(Pi ))2 kPj − Pi k
= kvk2 . Damit haben wir
> v(P1 ) v(P1 ) .. .. 2 Ah = kvk . . v(Pm ) v(Pm )
und Ah erzeugt auf nat¨ urliche Weise eine Norm auf Sh . F¨ ur diese Matrixnorm kann man zeigen, dass im Falle einer quasiuniformen Zelleinteilung (keine entarteten Dreiecke oder Rechtecke) eine Absch¨atzung der Form ku − uh k 6 ch
!1/2 X ∂ 2 u 2 dV ∂xk ∂xl Ω k,l=1,2
Z
2.4. FINITE VOLUMEN
61
gilt, sofern u hinreichend glatte L¨osung der Differentialgleichung −∆u = f ist und uh unsere N¨aherung ist. Dies gilt auch wenn die Mittelpunkte der Strecken Pi Pj und Zij nicht zusammenfallen. Falls aber die Mittelpunkte zusammenfallen und u hinreichend glatt ist, gilt sogar !1/2 2 Z 3 X ∂u 2 X ∂ 2 u 2 X ∂ u u2 + ku−uh k 6 Ch2 + + dV . ∂x ∂x ∂x k k ∂xl j ∂xk ∂xl Ω k=1,2 k,l=1,2 j,k,l=1,2 Wir haben also ein ¨ahnliches Konvergenzresultat wie im Falle finiter Differenzen. Die Beschr¨ankung auf Zelleinteilungen, bei denen die Mittelpunkte zusammenfallen ist sicherlich restriktiv. Man kann diese Bedingung noch ein wenig abschw¨achen und bekommt zum Teil die gleichen Ergebnisse. In jedem Fall ist diese Bedingung bereits allgemeiner als bei den Gittern der Finiten Differenzen. Z.B. kann man auf einem Rechteckgebiet sowohl in x– als auch in y–Richtung irgendeine Einteilung der Achsen vornehmen. Das so konstruierte Rechteckgitter erf¨ ullt die Bedingung immer noch genauso wie das Dreiecksgitter, welches man durch Halbieren der Rechtecke in eine feste Richtung bekommt.
2.4.6
¨ Ubungen zu Kapitel 2.4
¨ Ubung 11 Sei f : R → R dreimal stetig differenzierbar, x ∈ R und h > 0. Dann gilt f 0 (x) =
f (x + h) − f (x − h) h2 000 + f (θ), 2h 6
f¨ ur ein θ ∈ (x − h, x + h).
¨ Ubung 12 Sei Funktion ψ eine der folgenden Funktionen p(x, y) =
x y x+y , q(x, y) = , r(x, y) = 1 − . h h h
Bestimme jeweils die drei Fl¨ achenintegrale Z 0
h 2
Z
h−y
ψ(x, y) dx dy, h 2
Z
h Z h−y
h 2
ψ(x, y) dx dy,
0
Z 0
h 2
Z
h 2
ψ(x, y) dx dy.
0
¨ ¨ Ubung 13 Ubertrage die Finite–Volumen–Methode f¨ ur das Modellproblem −∆u = f auf [0, 1]2 f¨ ur den Fall bilinearer Ansatzfunktionen und einer gleichm¨ aßigen Zelleinteilung des Gebietes in Quadrate der Seitenl¨ ange h.
¨ Ubung 14 Es sei ψ(x, y) = a00 + a10 x + a01 y + a20 x2 + a02 y 2 + a11 xy eine beliebige quadratische Funktion. P und Q seien zwei Punkte in der Ebene und γ(t) = P t + (1 − t)Q. Bestimme eine Formel f¨ ur Z ν > grad ψ(~x) ds.
γ([0,1])
62
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
¨ Ubung 15 Gegeben seien die beiden Testfunktionen 1. u1 (x, y) = 16 xy − xy 2 − x2 y + x2 y 2 2. u2 (x, y) = sin(πx) cos(πy) L¨ ose die Differentialgleichung −∆u = f in [0, 1]2 , u = g auf ∂[0, 1]2 mit Hilfe Finiter Volumen. Als g verwende jeweils u1 und u2 . Als f verwende jeweils −∆u1 und −∆u2 . Stelle die numerische und die analytische L¨ osung sowie den Fehler uh − u1/2 f¨ ur N = 10, 20, 40, 80 graphisch dar. Was stellst du fest?
¨ Ubung 16 Sei D ein allgemeines Dreieck mit den Eckpunkten P, Q, R. Bestimme eine affin lineare Funktion T (~x) = T ~x + ~b, derart, dass T (D) = D0 das Referenzdreieck D0 = {(x, y) : 0 6 x, y 6 h, x + y 6 h} ist.
2.5
Finite Elemente
Wir betrachten nun einen Ansatz, der mathematisch am weitesten ausgereift ist und auch von der Praxis her am meissten eingesetzt wird, die Finite–Elemente–Methode (FEM). Hier kommen mehrere Dinge zusammen, die aber eng mit einander verkn¨ upft sind • Man interessiert sich nicht f¨ ur gen¨aherte Funktionswerte von u an diskreten Stellen, sondern will wieder eine Funktion u haben. P • Man betrachtet f¨ ur u nur eine Linearkombination i ui ψi (~x) auf einem endlichdimensionalen Unterraum. Die Funktionen ψi sind selbst auf Ω definiert. • Man geht u ¨ber zu einer sogenannten schwachen Formulierung und kann den Glattheitsgrad von u reduzieren, da die Funktionen ψi i.a. die scharfen Glattheitsforderungen der Differentialgleichung gar nicht oder nur in Spezialf¨allen erf¨ ullen k¨onnen Die drei Punkte sind eigentlich schon selbstredend als Begr¨ undung f¨ ur diesen Ansatz. Sie zeigen gleichzeitig die Schwachpunkte der Finiten Differenzen (zum Teil auch bei den Finiten Volumen) auf. Vor allem die in der Praxis oftmals nicht zu erf¨ ullenden Glattheitsbedingungen wie etwa in Korollar 12 sind sicherlich problematisch. Hinzu kommen die mangelnde Flexibilit¨at bei komplexeren Geometrien und Probleme bei lokalen Verfeinerungen der Diskretisierung falls erforderlich. Die Features der FEM sind dagegen genau diese: • Anwendung auch bei komplexen Geometrien m¨oglich • problemangepasste lokale Adaption der Diskretisierung • Erheblich geringere Glattheitsbedingungen
2.5. FINITE ELEMENTE
63
• Mathematisch fundierte Theorie mit Hilfe von Sobolev–R¨aumen Wir werden zun¨achst eine einfache Einf¨ uhrung in die Technik der FEM machen und anschließend die Theorie dazu eingehend untersuchen.
2.5.1
Die Grundidee der Finite–Elemente–Methode
Wir betrachten wieder das allgemeine Problem − div (A grad u) = f in Ω mit Randbedingungen u = g auf Γ1 und ν > A grad u = gˆ auf Γ2 . Dabei seien Γ1 und Γ2 nicht¨ uberlappende Teile des Randes Γ = ∂Ω die zusammengenomme ¨ gerade Γ ergeben. Die erste Vereinfachung die wir vornehmen, ist der Ubergang zur sogenannten schwachen Formulierung. Dazu multiplizieren wir die Differentialgleichung von links mit einer beliebigen differenzierbaren Testfunktion und integrieren u ¨ber Ω Z Z vf dV − div (A grad u) = f in Ω ⇒ − v div (A grad u) dV = Ω
Ω
Nun glit f¨ ur eine differenzierbare skalare Funktionen v sowie ein differenzierbares Vektorfeld w ~ folgende Gleichung div (v w) ~ = v div w ~ + grad v > w. ~ Dies kann man als Verallgemeinerung der Produktregel sehen. Speziell f¨ ur w ~ = A grad u bekommen wir div (vA grad u) = v div (A grad u) + grad v > A grad u. Dieses k¨onnen wir nun einsetzen und den Gaußschen Integralsatz anwenden. Z Z vf dV = − v div (A grad u) dV Ω Z Ω Z > = grad v A grad u dV − div (vA grad u) dV ZΩ ZΩ grad v > A grad u dV − vν > A grad u ds = Ω
Γ
Jetzt bauen wir noch die Randbedingungen ein. Nehmen wir an, u l¨asst sich schreiben als u0 + uˆ, wobei u0 = g auf Γ1 ,
64
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
dann ist uˆ Null auf dem Randst¨ uck Γ1 und wir beschr¨anken uns bei v ebenfalls auf solche differenzierbaren Funktionen, die auf Γ1 verschwinden. Damit bekommen wir insgesamt Z Z Z Z > > vf dV = grad v A grad uˆ dV + grad v A grad u0 dV − vˆ g ds. Ω
Ω
Ω
Γ2
Nun ist lediglich uˆ unsere gesuchte Funktion und wir bekommen durch Umstellen die Gleichung Z Z Z Z > > (2.66) grad v A grad uˆ dV = vf dV − grad v A grad u0 dV + vˆ g ds, Ω
Ω
Ω
Γ2
f¨ ur alle differenzierbaren Testfunktionen v mit v = 0 auf Γ1 . Dabei ist u = u0 + uˆ zerlegt in eine gegebene Funktion u0 mit u0 = g auf Γ1 sowie eine gesuchte Funktion uˆ mit uˆ = 0 auf Γ1 . Was n¨ utzt uns nun diese sogenannte schwache Formulierung (2.66)? Zun¨achst einmal brauchen wir f¨ ur uˆ keine zweimalige stetige Differenzierbarkeit annehmen, sondern es reicht wenn uˆ einmal differenzierbar ist in dem Sinne, dass der Gradient grad uˆ noch u ¨ber Ω quadratisch integrierbar ist. Die gleichen Forderungen gelten auch f¨ ur die Testfunktion v. Funktionen die diese schwachen Forderung noch erf¨ ullen, sind z.B. Funktionen, die insgesamt stetig und st¨ uckweise linear sind. Die Unstetigkeitsstellen des Gradienten m¨ ussen dabei auf eine Menge vom Maß 0 reduziert sein. Das ist etwa der Fall, wenn das Gebiet mit einem Dreiecksnetz u uckweise auf jedem Dreieck li¨berzogen wird und man stetige st¨ neare Funktionen hat. Also: Die Glattheitsforderung sind in der schwachen Formulierung (2.66) erheblich abger¨ ustet worden. Dies ist ein wesentlicher Punkt f¨ ur die Praxis, da die Probleme nicht immer auf zweimal stetig differenzierbare Funktionen f¨ uhren. Die geringeren Glattheitsforderungen haben eine wesentliche Konsequenz. Wir k¨onnen wieder die gesuchte Funktion uˆ sowie die Testfunktionen v ansetzen als Funktionen eines recht einfachen Raumes, z.B. uˆ, v ∈ Sh ⊆ Mt,h aus (2.42), d.h. z.B. stetige, s¨ uckweise Polynome. Haben wir in Sh irgeneine bekannte Basis ψ1 , . . . , ψm , so haben uˆ und v Darstellungen der Form v(x, y) =
m X i=1
vi ψi (x, y), uˆ(x, y) =
m X
ˆ j ψj (x, y). u
j=1
Mit diesem Ansatz gehen wir dann in die Gleichung (2.66), genauer zun¨achst in die linke Seite und bekommen Z Z m X > > ˆj. grad v A grad uˆ dV = vi grad ψi A grad ψj dV u Ω Ω i,j=1 {z } | aij
2.5. FINITE ELEMENTE
65
Wir brauchen also nicht mehr Integrale u ¨ber die unbekannte Funktion uˆ oder alle Testfunktionen v bilden, sondern lediglich u ¨ber alle Paare ψi , ψj von Basisfunktionen. Setzen wir etwa Z (2.67)
Ah = (aij )i,j=1,...,m =
grad ψi> A grad ψj dV
Ω
i,j=1,...,m
und bezeichnen wir mit v und u ˆ die Koordinatenvektoren v1 u ˆ1 v = ... , u ˆ = ... , (2.68) vm u ˆm so erhalten wir (2.69)
Z
grad v > A grad uˆ dV = v> Ah u ˆ.
Ω
Wir gehen in gleicher Weise f¨ ur die rechte Seite von (2.66) vor und erhalten f¨ ur v Z Z m X vf dV = vi ψi f dV , Ω i=1 | Ω {z } fi
Z
>
grad v A grad u0 dV =
Ω
m X
vi
i=1
und Z
>
vν gˆ ds =
Γ2
m X
vi
i=1
Z |Ω
grad ψi> A grad u0 dV {z } bi
Z
ψi ν > gˆ ds . | Γ2 {z } g ˆi
Setzen wir nun
Z
f = (fi )i=1,...,n , fi = ψi f dV, Ω Z b = (bi )i=1,...,n , bi = grad ψi> A grad u0 dV Ω
und g ˆ = (ˆ gi )i=1,...,n , g ˆi =
Z
ψi ν > gˆ ds,
Γ2
dann l¨asst sich die rechte Seite schreiben als Z Z Z > (2.70) vf dV − grad v A grad u0 dV + vν > gˆ ds = v> (f − b + g ˆ) . Ω
Ω
Γ2
Auf unserem endlichdimensionalen Raum Sh ist damit (2.66) ¨aquivalent zu v > Ah u ˆ = v> (f − b + g ˆ) , f¨ ur alle v ∈ Rm . Dies ist aber sofort gleichbedeutend mit (2.71)
Ah u ˆ =F ≡f −b+g ˆ
66
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
und in dieser Gleichung sind lediglich noch die Koeffizienten u ˆ von uˆ zu bestimmen. Die restlichen Terme erstrecken sich u ¨ber Integrale die man m¨oglicherweise exakt aber zumindest mit Hilfe von Quadraturformeln und Kubaturformeln n¨aherungsweise bestimmen kann. Das einzige Problem, was noch bleibt, ist die sinnvolle Auswahl eines endlichdimensionalen Raumes Sh von Funktionen, die auf Γ1 verschwinden.
2.5.2
Einfache Finite–Element–R¨ aume
Wir werden im folgenden einige Beispiele betrachten und alte Bekannte aus dem Abschnitt u ¨ber Finite Volumen wiedertreffen. Allerdings k¨onnen hier jetzt erheblich mehr R¨aume zugelassen werden, da wir lediglich die geringe Restriktion der Nullbedingung auf Γ1 haben. Auch die Darstellung l¨asst sich vereinfachen. Wir verwenden als Einteilung von Ω der EInfacheit halber ausschließlich Dreieckselemente und Parallelogramme. Sei dazu Ω = ∪ni=1 Ωi zerlegt in Dreiecke und Parallelogramme, die entweder disjunkt sind, einen gemeinsamen Eckpunkt oder eine gemeinsame Kannte haben. Ausnahmen sollen lediglich die am Rand gelegenen Zellen sein. Die Matrix Ah l¨asst sich dann schreiben als Ah =
n X
Ai,h .
i=1
Jedes Ai,h ist dabei die Restriktion auf ein einzelnes Ωi . Hieraus ergibt sich sofort folgende (i) Konsequenz. Die Eintr¨age akl von Ai,h k¨onnen nur f¨ ur solche k, l von Null verschieden sein, f¨ ur die die Basisfunktionen ψk und ψl auf Ωi leben. Diese sind in der Praxis sehr wenige. Damit ist diese Darstellung sehr bequem, weil viele kleine Matrizen nur zusammensummiert werden brauchen.
Lineare Ansatzfunktionen im Dreieck Hier haben wir bereits gesehen, dass in jedem einzelnen Dreieck durch Vorgabe der Werte an den Eckpunkten eine lineare Funktion eindeutig bestimmt ist. Wir sparen uns hier weitere Details. Wir verweisen lediglich darauf, dass f¨ ur den Fall, dass alle Ωi Dreiecke sind, mit den stetigen st¨ uckweise linearen Funktionen ψ1 , . . . , ψm , welche die Bedingung ψi (Pj ) = δij , i, j = 1, . . . , m in den Knotenpunkten P1 , . . . , Pm der Triangulierung erf¨ ullen, die kanonische Knotenbasis gegeben ist.
2.5. FINITE ELEMENTE
67
Quadratische Ansatzfunktionen im Dreieck Hier gilt analoges wie im Falle linearer Ansatzfunktionen. Durch Vorgabe der Werte an den Eckpunkten sowie Seitenmittelpunkten ist eine quadratische Funktion eindeutig bestimmt. Betrachten wir den Fall, dass alle Ωi Dreiecke sind und nehmen wir die Seitenmittelpunkte S1 , . . . , Smˆ mit hinzu. Die stetigen st¨ uckweise quadratischen Funktionen ˆ ˆ ψ1 , . . . , ψm , ψ1 , . . . , ψmˆ , welche die Bedingung ψi (Pj ) = δij , ψi (Sk ) = 0, i, j = 1, . . . , m, k = 1, . . . , m, ˆ ψˆk (Sl ) = δkl , ψˆk (Pi ) = 0, k, l = 1, . . . , m, ˆ i = 1, . . . , m. erf¨ ullen, sind hier die kanonische Knotenbasis. Ho ¨here Ansatzfunktionen im Dreieck Im Prinzip l¨asst sich der Polynomgrad weiter hoch treiben. Als Skizze betrachten wir mal die Lage der Knoten f¨ ur Polynome vierten und f¨ unften Grades (Abbildung 2.22). Abbildung 2.22: Lage der Knoten bei Polynomen 4. und 5. Grades x @ @ x @ @
x @ @ x @x @ @
@ @x @
x @x @
@ @
x @ @
@ @
x @ @
x
@ @
x
@x @ @
@ @x
@ @x
@ @x @ @ @ x @x x @x @ @ @ @ @x x @x @ x @x
Interpolationsbedingungen Es gilt, dass f¨ ur ein Polynom k–ten Grades insgesamt (k+1)(k+2) 2 erforderlich sind. Davon kann Geraden finden, auf denen bis zu k + 1 Bedingungen liegen, aber niemals mehr als k + 1 (da auf jeder Geraden nur ein eindimensionales Polynom k–ten Grades vorliegt). Ansatzfunktionen mit Ableitungen im Dreieck Anstatt immer mehr Knoten vorzugeben und dort eine Lagrange–Interpolationsbedingung der Form p(xi , yi ) = Pi vorzugeben, kann man alternativ dazu auch Ableitungen vorgeben. Ein Beispiel hierf¨ ur ist das Argyris–Element. Hier werden an den Ecken partielle Ableitungen und and den Seitenmittelpunkten Normalenableitungen vorgegeben. Wir verwenden folgende Symbole.
68
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME v Funktionswert mzus¨ v atzlich erste partielle Ableitungen (2 St¨ uck) mzus¨ v atzlich zweite partielle Ableitungen (3 St¨ uck) - Normalenableitung
In Abbildung 2.23 sind die Interpolationsbedingungen skizziert. Wir haben an jedem Eckpunkt 6 Bedingungen und drei zus¨atzliche Bedingungen an den Seitenmittelpunkten, also insgesamt 21. Man kann jetzt eindeutig ein Polynom vom Grade 5 bestimmen. Abbildung 2.23: Lage der Interpolationsbedingungen beim Argyris–Element v m @ @ @
m v
@ @ @ @ @
?
@ @ @ @m v
Das so konstruierte Polynom 5. Grades ergibt insgesamt, sofern man mehrere Dreiecke aneinandersetzt eine stetig differenzierbare Funktion. Dies kann man sich so u ¨berlegen. Zun¨achst einmal ist entlang jeder Kante durch Vorgabe der Werte bis zur zweiten Ableitung ein eindeutiges eindimensionales Polynoma 5. Grades gegeben. Somit k¨onnen wir schon einmal Stetigkeit erreichen. Die Einschr¨ankung der Normalenableitung der Funktion auf die entsprechende Kante ist ein eindimensionales Polynom 4. Grades. F¨ ur dieses Polynom sind an den Eckpunkten Funktionswert und Ableitung sowie im Seitenmittelpunkt der Funktionswert vorgegeben. Damit ist aber ein Polynom 4. Grades eindeutig bestimmt. Mit 21 Freiheitsgraden bekommt man insgesamt schon ein System recht stattlicher Gr¨oße. Man kann die Zahl der Freiheitsgrade etwas reduzieren und bekommt dann das Bell–Element. Als eine weitere Variante sei hier noch Clough–Tocher–Element erw¨ahnt, bei dem das Dreieck am Fl¨achenschwerpunkt in drei Dreiecke zerlegt wird. Die Ansatzfunktion wird durch Zusammensetzen von Polynomen auf jedem der drei Teildreiecke gebildet.
Bilineare Ansatzfunktionen im Parallelogramm Neben den bisher betrachteten Dreieckselementen kann man auch Parallelogramme untersuchen. Die einfachste Variante (siehe Abschnitt 2.4.1) sind bilineare Ansatzfunktionen
2.5. FINITE ELEMENTE
69
p(x, y) = a00 + a10 x + a01 y + a11 xy. Man kann durch die Vorgaben an den vier Eckpunkten das Polynom eindeutig bestimmen. Insgesamt kann man die Knotenbasis mittels ψi (Pj ) = δij , i, j = 1, . . . , m, wobei P1 , . . . , Pm die Menge der Eckpunkte ist, festlegen. Biquadratische Ansatzfunktionen im Parallelogramm In Analogie zu den quadratischen Funktionen im Dreieck kann man hier durch Hinzunahme der Seitenmittelpunkte sowie des Mittelpunktes des Parallelogramms ein biquadratisches Polynom p(x, y) = a00 + a10 x + a20 x2 + a01 y + a11 xy + a21 x2 y + a02 y 2 + a12 xy 2 + a22 x2 y 2 eindeutig bestimmen. Durch Erg¨anzen der Eckpunkte P1 , . . . , Pm durch die Seitenmittelpunkte S1 , . . . , Smˆ sowie die Fl¨achenmittelpunkte M1 , . . . , Mn bekommt man die Knotenbasis (oder kanonische Basis oder nodale Basis) mittels ψi (Pj ) = δij , ψi (Sl ) = 0, ψi (Mr ) = 0 ˆ ˆ ψk (Pj ) = 0, ψk (Sl ) = δij , ψˆk (Mr ) = 0 ψ˜q (Pj ) = 0, ψ˜q (Sl ) = 0, ψ˜q (Mr ) = δij
i, j = 1, . . . , m k, l = 1, . . . , m ˆ q, r = 1, . . . , n
Polynome ho ¨heren Grades im Parallelogramm Wir skizzieren nachfolgend die Konstruktion von Polynomen h¨oheren Grades k der Form pk (x, y) =
k X
aij xi y j
i,j=1
f¨ ur k = 3, 4. Die Konstruktion von Abbildung 2.24 l¨asst sich nat¨ urlich beliebig weiterf¨ uhren. Allerdings erh¨oht sich dabei auch jedesmal die Zahl der Unbekannten betr¨achtlich. Ansatzfunktionen der Serendipity–Klasse im Parallelogramm Neben den bisher betrachteten Polynomen lassen sich auch noch Polynome nur durch Vorgabe der Werte auf den R¨andern bestimmen. Die zugeh¨orige Klasse von Polynomen ist von der Form k X pk (x, y) = aij xi y j . i,j=1 i61∨j61
Im einfachsten Falle k = 1 bek¨ame mann p1 (x, y) = a00 + a10 x + a01 + a11 xy, was genau dem bilinearen Ansatz entspricht. F¨ ur k = 2 sieht das Polynom aber schon anders aus: p2 (x, y) = a00 + a10 x + a20 x2 + a01 y + a11 xy + a21 x2 y 2 + a20 y 2 ,
70
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Abbildung 2.24: Lage der Knoten bei Polynomen 3. und 4. Grades je Variable x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
d.h. man unterschl¨agt das Glied a22 x2 y 2 . Die Konstruktion der Randbedingungen entspricht genau der bei den gew¨ohnlichen Parallelogrammen, jedoch l¨asst man die inneren Punkte einfach weg (Abbildung 2.25). Abbildung 2.25: Lage der Knoten bei Serendipty–Polynomen 2.,3. und 4. Grades x
x
x
x
x
x
x x
x
x x
x
2.5.3
x
x
x
x
x x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
Anwendung der Ansatzfunktionen
Wir haben jetzt eine Reihe von Ansatzr¨aumen kennengelernt. Diese haben allesamt gemeinsame Eigenschaften 1. Die kanonische Basis (soweit wir sie definiert haben) besteht aus Funktionen mit R lokalem Tr¨ager. Damit fallen Integrale der Form Ωk grad ψi> A grad ψj dV f¨ ur fast alle Paare i, j weg. 2. Die Funktionen lassen sich i.a. mit Hilfe von Interpolationsbedingungen formulieren 3. Die Funktionen sind insgesamt stetig, teilweise sogar stetig differenzierbar
2.5. FINITE ELEMENTE
71
Wir definieren jetzt etwas allgemeiner die Interpolierende einer Funktion. Wir haben einfache Einsetzfunktionale der Form Lp ≡ p(xi , yi ) = fi aber auch Vorgabe von Ableitungen wie etwa Lp ≡
∂p(xi , yi ) = gi ∂x
gesehen. Abstrakt sind dies alles lineare Funktionale auf dem Referenzelement. S Definition 15 Sei Ω = ni=1 Ωi Zerlegung des Gebietes in Dreiecke oder Parallelogramme. (i) (i) Seien auf jedem Ωi , s lineare Interpolationsbedingungen L1 , . . . , Ls der Form (i)
(i)
Lt p = ft
gegeben und nehme an, dass durch die Interpolationsbedingungen auf Ωi eine eindeutige Funktion auf Ωi definiert ist. Ausserdem gebe es bei zwei benachbarten Elementen Ωi , Ωj zu jeder auf der gemeinsamen (i) Kante gelegenen Interpolationsbedingung Lt eine entsprechende Interpolationsbedingung (j) (i) (j) Lr . D.h. Lt = Lr im Falle der Vorgabe von Funktionswerten oder Ableitungen von (i) (j) Funktionswerten, Lt = −Lr im Falle der Vorgabe von Normalenableitungen. Bezeichne den zugeh¨origen Raum mit Sh . Bezeichne die Gesamtheit der Interpolationsbedingungen mit L1 , . . . , Lm , wobei Interpolationsbedingungen auf einer gemeinsamen Kante zweier Dreiecke nur einaml gez¨ahlt werden. Zu einer hinreichend glatten Funktion f : Ω → R bezeichnen wir mit fI : Ω → R die zu f geh¨orende Interpolierende, d.h. fI ∈ Sh ist die Funktion, mit Li fI = Li f, f¨ ur alle i = 1, . . . , m. Mit ψ1 , . . . , ψm bezeichnen die Knotenbasis, welche durch Vorgabe der Einheitsvektoren entsteht, d.h. Li ψj = δij , f¨ ur alle i, j = 1, . . . , m. Hinweis: verlangen wir von Sh zus¨atzlich, dass durch die Vorgabe von Interpolationsbedingungen auf den Kanten die Einschr¨ankung einer Funktion auf diese Kante eindeutig bestimmt ist, so ist bereits Sh ⊆ C(Ω). Wir werden im folgenden nur genau solche R¨aume Sh betrachten. Man spricht dann von konformen Finiten Elementen (wir werden den Begriff sp¨ater noch pr¨azisieren). Wir haben jetzt einerseits Integrale der Form Z grad ψk> A grad ψl dV Ωi
zu bestimmen. Dies ist bei den bisher betrachteten Ansatzr¨aumen explizit m¨oglich, sofern A eine recht einfache Funktion ist, z.B. (st¨ uckweise) Polynome. Ansonsten haben wir
72
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
zus¨atzlich noch eine Kubaturformel zu verwenden. Wir haben bereits gesehen, dass die Matrix (“Steifigkeitsmatrix”) Z > Ah = grad ψk A grad ψl dV Ω
k,l=1,...,m
durch Aufspaltung in die einzelnen Elemente Z > grad ψk A grad ψl dV Ai,h = Ωi
k,l=1,...,m
und Summation dar¨ uber gebildet werden kann. Es reicht also, f¨ ur jedes Element Ωi die Integrale auszurechnen. Wegen der lokalen Tr¨ager der Funktionen ψ1 , . . . , ψm reicht es sogar nur Integrale u ur die beide in Ωi ¨ber diejenigen Funktionen ψk , ψl zu berechnen, f¨ nicht verschwinden, d.h. ihr Tr¨ager supp ψk , supp ψl ⊃ Ωi umfasst auch Ωi . Im einfachsten Falle (homegene Dirichlet–Randbedingungen) brauchen wir lediglich noch Z ψk> f dV Ωi
berechnen. Dies kann man nat¨ urlich wiederum nur, sofern f elementar genug ist. Ansonsten hat man eine kanonische PmKubaturformel, die sich durch Ersetzen von f mittels der Interpolierenden fI (x, y) = j=1 Lj f ψj (x, y) ergibt. Bezeichne mit Z > ψk ψl dV Mh = Ω
k,l=1,...,m
die sogenannte Massematrix. Auch diese Matrix l¨asst sich in die Summe u ¨ber alle Elemente aufspalten. Z n X > ψk ψl dV . Mh = Mi,h , Mi,h = Ωi
i=1
k,l=1,...,m
Wir sehen dann, dass
f1 ψk> ψl dV = Mh ... Ω fm
Z
gegeben ist. Dabei sind f1 , . . . , fm die Interpolationsbedingungen angewendet auf f , d.h. Li f = fi (also Funktionswerte, Werte der Ableitungen, usw.). Damit haben wir neben Ai,h noch die Matrix Mi,h aufzustellen. F¨ ur die Matrix Mi,h gelten die gleichen Kommentare bez¨ uglich Tr¨ager von Basisfunktionen, wie bei Ai,h . Allerdings k¨onnen wir diese einfachen Integrale immer ausrechnen, ohne Zuhilfenahme weiterer Quadraturformeln (das Ersetzen von f durch fI ist bereits hier die entsprechende Approximation gewesen).
2.5.4
Anwendung auf das Modellproblem
Wir betrachten als Sonderfall das Problem −∆u = f in [0, 1]2
2.5. FINITE ELEMENTE
73 u = 0 auf ∂[0, 1]2 .
Als Triangulierung des Gebietes verwenden wir Dreiecke mit Seitenl¨ange h = und y–Richtung.
1 N +1
in x–
@ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ − @ Ω 1 1 @ @ k+ ,l+ @ @ @ @ 2 2 @ @ @ @ @ @ + @ @ @ Ω 1 1 @ @ @ k+ 2 ,l+ 2@ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @
@
@
@
Entsprechend der Skizze betrachten wir ein beliebiges Dreieck Ω+ . Auf Ω+ sind k+ 12 ,l+ 12 k+ 12 ,l+ 12 lediglich die drei Basisfunktionen ψkl , ψk+1,l , ψk,l+1 von Null verschieden. Wir bekommen als Ai,h und Mi,h jeweils eine 3 × 3–Matrix die den Integralen u ¨ber die drei Basis–Funktionen entsprechen. Wir bezeichnen die entsprechenden Matrizen in Analogie zu den Elementen mit + − , A− , Mk+ , Mk+ . A+ 1 1 k+ 1 ,l+ 1 ,h k+ 1 ,l+ 1 ,h ,l+ 1 ,h ,l+ 1 ,h 2
2
2
2
2
2
2
2
A+ , k+ 12 ,l+ 12 ,h
Wir bekommen f¨ ur die 3 × 3–Teilmatrix von die zu den Basisfunktionen ψkl , ψk+1,l , ψk,l+1 in dieser Reihenfolge geh¨ort, folgende Werte: 2 −1 −1 1 −1 1 0 . 2 −1 0 1 + Analog erhalten wir f¨ ur die entsprechende Teilmatrix von Mk+ : 1 ,l+ 1 ,h 2
2
2 1 1 1 1 2 1 . 24 1 1 2 F¨ ur das entsprechende Dreieck Ω− ergeben sich bis auf Permutation die gleichen k+ 21 ,l+ 12 ,h Werte, sofern man die Basisfunktionen in der Reihenfolge ψk+1,l , ψk,l+1 , ψk+1,l+1 w¨ahlt: 1 0 −1 2 1 1 1 1 0 1 −1 , 1 2 1 . 2 24 −1 −1 2 1 1 2
74
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Ordnen wir die Basisfunktionen “zeilenweise” von links unten nach rechts oben, so wird Ah durch Summation folgender Matrizen gebildet, hier am Beispiel einer 9 × 9–Matrix. @
@ @ @ @ @ @ @ @ @ @ @
2 −1 −1 1 −1 0 2Ah =
−1 0
+
+
1
2 −1 −1 1 −1
+
1
2 −1 −1 −1 −1
+
−1 0
0
2
+
0 −1
1 −1 −1 2
1
0 −1
0 −1
1 −1 −1 2
+
0 −1
−1 0
0
1
1
0 −1
0 −1
1 −1 −1 2
2 −1 −1 1 −1
0
−1 0 2
+
1 0 −1
0 −1 1 −1 −1 2
Im Prinzip wird die gleiche Technik bei der Summation von Mh verwendet, nat¨ urlich mit anderen Werten.
2.5. FINITE ELEMENTE
2.5.5
75
Behandlung allgemeiner Dreiecke und Parallelogramme
Wir werden nun sehen, dass die Behandlung allgemeiner Dreiecke nicht viel schwieriger ist, als die Behandlung im Falle des Referenzdreiecks, zumindest im Falle A = I. Gleiches gilt f¨ ur Parallelogramme. Sei wieder D0 das Referenzdreieck mit den Eckpunkten (0, 0) (h, 0) und (0, h) und D ein Dreieck in allgemeiner Lage in Ω. Die affin lineare Transformation T : D → D0 , T (~x) = T ~x + ~b.
(2.72)
bilde D auf D0 ab. Genau dieselbe Argumentation greift, wenn D ein Parallelogramm und D0 das Quadrat mit den Eckpunkten (0, 0), (h, 0), (0, h) und (h, h) ist. Nehme an, dass auf dem Referenzelement Ansatzfunktionen ψ01 , . . . , ψ0s gegeben sind entsprechend den Freiheitsgeraden auf dem Element. Die Ansatzfunktionen ψi , ψj auf D lassen sich sofort mittels (2.73) ψi (~x) = ψ0p (T (~x)), ψj (~x) = ψ0q (T (~x)) auf zwei der s Ansatzfunktionen ψ0p und ψ0q in D0 zur¨ uckf¨ uhren. Wir bekommen dann Z Z grad ψi (~x)> grad ψj (~x) dV = grad [ψ0p (T (~x))]> grad [ψ0q (T (~x))] dV D ZD = grad ψ0p (T (~x))> T T > grad ψ0q (T (~x)) dV D
Mit Hilfe des Transformationssatzes gilt dann Z Z > (2.74) | det T | grad ψi (~x) grad ψj (~x) dV = D
grad ψ0p (~x)> T T > grad ψ0q (~x) dV.
D0
Die Matrix T T > ist konstant. Sei etwa B = T T > /| det T | = (bkl )k,l=1,2 . Dann gilt f¨ ur das rechte Integral von (2.74) (bis auf einen Faktor 1/| det T |) Z Z ∂ψ0p (~x) ∂ψ0q (~x) p q > grad ψ0 (~x) B grad ψ0 (~x) dV = b11 dV ∂x ∂x D0 D0 Z ∂ψ0p (~x) ∂ψ0q (~x) +b22 dV ∂y ∂y D0 Z p ∂ψ0 (~x) ∂ψ0q (~x) ∂ψ0p (~x) ∂ψ0q (~x) +b12 + dV. ∂x ∂y ∂y ∂x D0 Wir brauchen also lediglich auf dem Referenzelement die Integrale u ¨ber die Produkte der einzelnen partiellen Ableitungen zu bilden und dann die mit den Gewichten aus B/| det T | behafteten Matrizen zu addieren. Insbesondere brauchen wir in diesem Falle die Integrale nicht neu zu berechnen, sondern k¨onnen sie mit Hilfe einmal auf dem Referenzelement berechneter Werte auf das allgemeine Element umzutransformieren. Z.B. im Falle linearer Elemente brauchen wir drei verschiedene 3 × 3–Matrizen (f¨ ur die drei verschiedenen F¨alle von partiellen Ableitungen). 1 −1 0 1 0 −1 2 −1 −1 1 1 1 −1 1 0 , 0 0 0 , −1 0 1 . 2 2 2 0 0 0 −1 0 1 −1 1 0
76
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Diese drei Matrizen werden linearkombiniert (mit den Koeff. von B/| det T |). Ggf. m¨ ussen die Eintr¨age in einer anderen Reihenfolge genommen werden, je nachdem, in welcher Reihenfolge die Basisfunktionen genommen werden. Im Falle einer beliebigen Funktion A, klappt dieser Trick nicht ganz. Aber auch dort k¨onnen wir das Problem vereinfachen, denn Z Z > (2.75) | det T | grad ψi (~x) A(~x) grad ψj (~x) dV = grad ψ0p (~x)> B(~x) grad ψ0q (~x) dV, D
D0
wobei B = T A(T −1 (~x))T > gesetzt wird. Wir k¨onnen also wiederum ein Integral auf dem Referenzelement betrachten, allerdings haben wir i.a. ein nicht konstantes B. Sofern jedoch A konstant ist, k¨onnen wir einfach genauso fortfahren wie sonst. Ansonsten bleibt uns nicht erspart, f¨ ur dieses allgemeine A die Integrale auf dem Referenzelement neu zu berechnen. In der Praxis kann man dies wieder mit Hilfe von Kubaturformeln machen, so dass der Aufwand sich in Grenzen h¨alt. Bei den Eintr¨agen der Massematrix ist das erheblich einfacher. Hier bekommen wir in v¨olliger Analogie Z Z (2.76) | det T | ψi (~x)ψj (~x) dV = ψ0p (~x)> ψ0q (~x) dV. D
D0
Hier brauchen wir lediglich zu skalieren.
2.5.6
Randapproximation, krumme R¨ ander
Wir gehen jetzt auf die Behandlung krummer R¨ander ein. Hier gibt es im wesentlichen zwei Dinge zu bemerken. Zum einen kann es sein, dass der Rand des Gebietes (teilweise) durch eine so komplexe Kurve beschrieben ist, dass die Integration einer solchen Kurve gar nicht elementar machbar ist. In diesem Fall braucht man auf jeden Fall eine Kubaturformel und bekommt sowieso einen Diskretisierungsfehler hinein. Desweiteren k¨onnte man nat¨ urlich einen krummen Rand durch einen Polygonzug ann¨ahern und in Kauf nehmen, dass die Randbedingung nicht exakt erf¨ ullt ist. In beiden F¨allen spricht man von einer nichtkonformen Approximation. Lediglich f¨ ur den Fall, dass man den Rand explizit parametrisieren kann und diese Kurve auch hinreichend einfach ist, z.B. ein quadratisches Polynom, kann man sogenannte isoparametrische Elemente verwenden. Wir f¨ uhren das am Beispiel eines quadratischen Polynoms vor. Nehme an, dass drei Eckpunkte P1 , P2 , P3 sowie ein weiterer Punkt P das Dreieck D parametrisieren in der Form, dass durch P1 , P, P2 ein quadratisches Polynom geht, welches den Rand beschreibt. D.h. ein Rand des Dreieckes ist keine Gerade sondern eine Parabelst¨ uck. Wir k¨onnen dann eine quadratische Funktion T finden, T : D → D0 finden in der Form T (~x) = T ~x + ~b +
~x> S1~x ~x> S2~x
mit drei 2 × 2 Matrizen T, S1 , S2 und einem Vector ~b, so dass das Bild von T genau das Referenzdreieck ist. und P auf den Mittelpunkt von T (P1 ) und T (P2 ) abgebildet wird.
2.5. FINITE ELEMENTE
77
Diese quadratische Funktion ist durch Vorgabe von 6 Punkte eindeutig bestimmt. Man 3 3 kann z.B. durch Hinzuf¨ ugen der Punkte P1 +P und P2 +P , die wieder auf die Mittelpunkte 2 2 im Referenzdreieck abgebildet werden sollen, die Funktion T festlegen. Dann liefert uns der Transformationssatz: Z Z > grad ψi (~x) A(~x) grad ψj (~x) dV = grad [ψ0p (T (~x))]> A(~x) grad [ψ0q (T (~x))] dV D ZD = grad ψ0p (~x)> B(~x) grad ψ0q (~x) dV, D0
wobei B(~x) = | det grad T −1 (~x)| · grad T (~x) A(T −1 (~x)) grad T (~x)> . Bei krummen R¨andern gehen wir also bei der Berechnung genau so vor wie im gew¨ohnlichen Fall. Unterschied ist hier einmal, dass man eine nichtlineare Transformation hat und dass man wie im Falle eines nichtkonstanten A die Integrale u ¨ber die einzelnen partiellen Ableitungen i.a. nicht explizit sondern mit Hilfe von Kubaturformeln berechnen muss. Speziell im Falle eines konstanten A und der quadratischen Funktion T Im Falle der Massematrix ergibt sich wiederum eine Vereinfachung, Z Z ψi (~x)ψj (~x) dV = ψ0p (~x)> ψ0q (~x) | det grad T −1 (~x)| dV. D
D0
Die Umkehrfunktion kann man i.a. vermeiden. Ist etwa T (~z) = ~x, so ist A(T −1 (~x)) = A(~z), | det grad T −1 (~x)| =
1 . | det grad T (~z)|
Bei Kubaturformeln braucht man i.a. auch nur einige diskrete Punkte ~z zu wissen, die ins Referenzdreieck abgebildet werden. Betrachten wir beispielsweise das Dreieck D mit den Eckpunkten (0, 0), (0, h), (h, 0) und dem zus¨atzlichen Punkt ( 12 , 34 ). Die Abbildung T (x, y) =
x y−
2xy 3h
bildet die drei Eckpunkte wieder auf sich selbst ab, der zus¨atzliche Punkt wird aber auf den Mittelpunkt ( h2 , h2 ) der beiden Punkte (0, h) und (h, 0) abgebildet. Die Seitenmittelpunkte (0, h2 ) und ( h2 , 0) werden auch wieder auf sic selbst abgebildet. Damit ist das Bild des krummen Dreiecks, welches durch (0, 0), (0, h), (h, 0) und ( 12 , 34 ) geht, ein normales 2 ¨ Dreieck. Ubrigens, die dritte krumme Kante im krummen Dreieck wird durch y = h − xh parametrisiert.
2.5.7
Randbedingungen
Wir gehen abschließend auf die Behandlung der Randbedingungen ein.
78
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Wir haben gesehen, dass im Falle allgemeiner Randbedingungen der Form u = g auf Γ1 ⊆ ∂Ω, ν > A grad u auf Γ2 ⊆ ∂Ω die rechte Seite von (v, u) auf (v, f ) −
Z
>
grad v A grad u0 dV +
Ω
Z
vˆ g ds
Γ2
ge¨andert werden muss. Dabei ist u0 eine a priori zu w¨ahlende hinreichen glatte Funktion, die mit g auf dem Rande u ¨bereinstimmt. Desweiteren ist die gesuchte Funktion uˆ anstelle von u eine Funktion, die 0 ist auf dem Rande Γ1 . Dies bedeutet f¨ ur die Gleichung, dass die Gleichung Z Z > (2.77) a(v, uˆ) = (v, f ) − grad v A grad u0 dV + vˆ g ds, f¨ ur alle v Ω
Γ2
einiger Modifikationen bedarf. Als erstes betrachten wir die Bedingung, dass uˆ = 0 auf Γ1 ist. Dies k¨onnen wir dadurch erreichen, dass wir den Raum Sh = span {ψ1 , . . . , ψm } reduzieren auf einen Raum (2.78) Sh,0 = p ∈ Sh : p = 0 Γ1
Rein praktisch bedeutet das, dass f¨ ur alle Interpolationsbedingungen Li der Form Li p ≡ p(Pi ), bei der lediglich Punkte Pi einzusetzen sind, Punkte Pi ∈ Γ1 als rechte Seite immer die 0 bekommen. D.h. die zu Li geh¨orige kanonische Basisfunktion ψi wird einfach weggelassen. Die Punkte Pi k¨onnen einmal die Eckpunkte der Dreiecke oder Parallelogramme sein, die auf dem Randst¨ uck Γ1 liegen. Es kann aber durchaus auch passieren, wie im Falle quadratischer Funktionen auf Dreieckselementen, dass Punkte Pi den Seitenmittelpunkten entsprechen. Liegen solche Punkte auf dem Rande, so sind diese zugeh¨origen kanonischen Basisfunktionen ebenfalls wegzulassen. Um die Notation etwas zu vereinfachen, nehmen wir an, dass die Funktionale L1 , . . . , Lmˆ nicht zu Interpolationsbedingungen der Form Li p ≡ p(Pi ) f¨ ur Punkte Pi auf dem Rande geh¨oren, sehr wohl aber die Funktionale Lm+1 , . . . , Lm . Unter ˆ den Funktionalen Lm+1 , . . . , Lm sollen die Funktionale Lm+1 , . . . , Lm˜ kanonischezu Punkˆ ˆ ten auf dem Randst¨ uck Γ2 geh¨oren. Und lediglich die restlichen Funktionale Lm+1 , . . . , Lm ˜ m¨ogen zu Punkten auf dem Randst¨ uck Γ1 geh¨oren und Interpolationsbedingungen der Form Li p ≡ p(Pi ) sein. Dann ist der Raum Sh,0 einfach (2.79)
Sh,0 = span {ψ1 , . . . , ψm˜ }.
Umgekehrt k¨onnen wir nat¨ urlich sofort eine Funktion u0 angeben, welche g auf dem Rande approximiert. Wir w¨ahlen (2.80)
u0 (x, y) :=
m X
j=m+1 ˜
g(Pj )ψj (x, y).
2.5. FINITE ELEMENTE Wir bezeichnen mit
79
g(Pm+1 ) gm+1 ˜ ˜ .. g = ... = . g(Pm ) gm
den zugeh¨origen Koordinatenvektor. F¨ ur die Funktion gˆ k¨onnen wir nat¨ urlich eine a¨hnliche Approximation vornehmen. Wir w¨ahlen (2.81)
gˆI (x, y) :=
m ˜ X
gˆ(Pj )ψj (x, y)
j=m+1 ˆ
als Approximation an gˆ. Wir bezeichnen mit g ˆm+1 gˆ(Pm+1 ) ˆ ˆ .. g ˆ = ... = . gˆ(Pm˜ ) g ˆm˜ den zugeh¨origen Koordinatenvektor. Mit diesen Vereinbarungen lautet die linke Seite in der endlichdimensionale Version von (2.77) jetzt m ˜ X (2.82) vi a(ψi , ψj )uj , i = 1, . . . , m. ˜ i,j=1
Die rechte Seite lautet entsprechend " m # Z m ˜ m m ˆ X X X X vi (ψi , ψj )fj − a(ψi , ψj )gj + (2.83) ψi ψj ds g ˆj , i = 1, . . . , m. ˜ i=1
j=1
j=m+1 ˜
j=m+1 ˜
Γ2
F¨ ur die Neumannsche Randbedingung kommen noch Kurvenintegrale hinzu. Wir bezeichnen die zugeh¨orige Matrix mit Z (2.84) Nh = (nij )i,j=1,...,m , nij = ψi ψj ds. Γ2
Es versteht sich selbstredend, dass nur die nij von Nh zu berechnen sind, die auch ben¨otigt werden. Wir formulieren das Problem jetzt in Matrixschreibweise. Wir bezeichnen mit Ah wieder die Matrix Ah = (a(ψi , ψj ))i,j=1,...,m . Wir partitionieren die Matrix in der Form A11 A12 A13 , (2.85) Ah = A > 12 A22 A23 > > A13 A23 A33
80
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
wobei der erste Diagonalblock exakt den ersten m ˆ Unbekannten entspricht, der zweite genau den n¨achsten m− ˜ m ˆ Unbekannten und der letzte Block schließlich den letzten m− m ˜ Unbekannten. Die analoge Partitionierung f¨ ur Mh , Nh und u sei M11 M12 M13 O O O u1 > M22 M23 , Nh = O N22 O , u = u2 . Mh = M12 (2.86) > > M13 M23 M33 O O O u3 Dann lautet die diskrete Gleichung A11 A12 u1 M11 M12 M13 A13 0 = f− (2.87) g0 + . > A> u2 M12 M22 M23 A23 N22 g ˆ0 12 A22 Man kann alternativ dazu auch die Nebenbedingung, dass die Koeffizienten aus u3 = 0 sein sollen, auch implizit durch eine zus¨atzliche Gleichung forden, ohne Ah explizit zurechtstutzen zu m¨ ussen. D.h. man betrachte das System 0 M11 M12 M13 0 A11 A12 A13 > A> u = M12 ˆ0 . M22 M23 f + 0 + N22 g 12 A22 A23 0 O O O g0 O O I Eine Reduktion auf die ersten m ˜ Gleichungen und Unbekannten liefert aber dasselbe System.
2.5.8
Funktionalanalytische Hilfsmittel, Sobolev–R¨ aume
Wir werden nun den analytischen Hintergrund der FEM eingehender beleuchten. Hierbei m¨ ussen wir zun¨achst Begriffe der Funktionalanalysis einf¨ uhren, die notwendig f¨ ur das Verst¨andnis sind. Wir haben gesehen, dass die schwache Formulierung die Berechnung von Ausdr¨ ucken der Form Z Z vf dV, grad v > grad u dV Ω
Ω
erforderte. Durch naive Betrachtung sehen wir, dass man so ungef¨ahr Funktionen ben¨otigt, deren Ableitung noch quadratisch integrierbar sind. Wir werden dieses im folgenden mit Hilfe der Sobolevr¨aume pr¨azisieren. Definition 16 F¨ ur zwei Funktionen v, u ∈ C ∞ (Ω) definieren wir Z vu dV (v, u) = Ω
sowie f¨ ur ein m ∈ N (v, u)m =
X
(
06l6k6m
∂kv ∂ku , ). ∂xl ∂y k−l ∂xl ∂y k−l
2.5. FINITE ELEMENTE
81
Das Skalarprodukt (v, u)m induziert eine Norm, die wir mit p kukm = (u, u)m bezeichnen. Desweiteren f¨ uhren wir eine Seminorm ein. Wir bezeichnen diese mit s X ∂ mu ∂ mu |u|m = ( l m−l , ). ∂x ∂y ∂xl ∂y m−l 06l6m Bemerkung. • F¨ ur uns besonders interessant ist der Fall m = 0, 1. F¨ ur m = 0 finden wir das normale L –Skalarprodukt (v, u) wieder, f¨ u r m = 1 bekommen wir (v, u)1 = 2 R > (v, u) + Ω grad v grad u dV . Der zweite Anteil entspricht genau unserer Bilinearform a(v, ur den Fall A = I. Die Seminorm |u|1 ist in diesem Falle p u), zumindest f¨ |u|1 = a(u, u) genau die von a(v, u) induzierte Seminorm. • Der Raum C ∞ (Ω) versehen mit dem Skalarprodukt (v, u)m ist zwar im algebraischen Sinne ein euklidischer Vektorraum, er ist jedoch nicht vollst¨andig. Wir korrigieren das dadurch, dass wir ihn vervollst¨andigen und diesen Raum dann mit H m (Ω) bezeichnen.
Definition 17 Der Raum H m (Ω) sei die Vervollst¨andigung von C ∞ (Ω) bez¨ uglich der Norm k • km . Der Raum H0m (Ω) sei die Vervollst¨andigung von C0∞ (Ω) bez¨ uglich der Norm k • km . Dabei ist C0∞ (Ω) der Raum mit u = 0 auf ∂Ω f¨ ur alle u ∈ C0∞ (Ω). Bemerkung: F¨ ur m = 0 bekommen wir H 0 (Ω) = H00 (Ω) = L2 (Ω), den Raum der quadratisch (Lebesgue–) integrierbaren Funktionen, insbesondere ist die Nullrandbedingung der bedeutungslos. Die oben eingef¨ uhrte Seminorm | • |m hat eine besondere Bedeutung im Raum H0m (Ω) (und nur bei Nullrandbedingungen). Sie ist n¨amlich ¨aquivalent zur gew¨ohnlichen Norm k • km . Dies liefert die Friedrichsche Ungleichung. Satz 18 (Friedrichsche Ungleichung) Nehme an, dass Ω in einem Rechteck der Seitenl¨angen p und q eingeschlossen ist. Dann gilt f¨ ur alle Funktionen u ∈ H01 (Ω) kuk0 6 min{p, q} |u|1 . Beweis. Weil C0∞ (Ω) dicht in H01 (Ω) ist, reicht es u ∈ C0∞ (Ω) zu betrachten. Nehme o.B.d.A. an, dass die Funktionen ausserhalb von Ω im Rechteck durch Null fortgesetzt werden. Ausserdem k¨onnen wir der Einfachheit Ω ⊆ [0, p] × [0, q] und p 6 q annehmen. Z x Z x ∂u(s, y) ∂u(s, y) ds = ds. ⇒ u(x, y) = u(0, y) + ∂x ∂x 0 0
82
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Die rechte Seite l¨asst sich leicht mit Hilfe der Cauchy–Schwarzschen Ungleichung absch¨atzen. Wir bekommen 2 Z x ∂u(s, y) 2 1· ds u(x, y) = ∂x 0 2 Z x Z x ∂u(s, y) 2 6 1 ds · ds ∂x 0 0 2 Z p ∂u(s, y) 6 p· ds. ∂x 0 Hieraus folgt durch Integration der Ungleichung u ¨ber x 2 2 Z p Z p Z pZ p ∂u(s, y) ∂u(s, y) 2 2 u(x, y) dx 6 p · ds dx = p · ds. ∂x ∂x 0 0 0 0 Integration u ¨ber y vervollst¨andigt die Aussage 2 Z qZ p Z pZ q ∂u(s, y) 2 2 u(x, y) dx dy 6 p · ds dy ∂x 0 0 0 0 2 2 Z pZ q ∂u(s, y) ∂u(s, y) 2 + ds dy. 6 p · ∂x ∂y 0 0 2 Die Anwendung f¨ ur m > 1 erfolgt nat¨ urlich durch Anwendung der Friedrichschen Ungleichung auf die Ableitungen. Im Raum H m (Ω) k¨onnen wir sehr leicht einen Differnzierbarkeitsbegriff pr¨agen. Sind etwa u ∈ C ∞ (Ω) und v ∈ C0∞ (Ω), so gilt mittels partieller Integration (
∂ mu ∂ mv m , v) = (−1) (u, ), ∂xl ∂y m−l ∂xl ∂y m−l
weil v auf dem Rande 0 ist. Wir k¨onnen nun diese Beziehung nutzen um f¨ ur Funktionen m m aus H und H0 den Begriff der schwachen Ableitung einzuf¨ uhren. Definition 19 F¨ ur Funktionen u ∈ H m (Ω) (oder u ∈ H0m (Ω)) definieren wir die schwachen m–ten Ableitungen (l = 0, . . . , m) von u durch (2.88)
(
∂ mv ∂ mu m , v) := (−1) (u, ), ∂xl ∂y m−l ∂xl ∂y m−l
f¨ ur alle Funktionen v ∈ C0∞ (Ω). Definition 19 l¨asst vermuten, dass die schwachen Ableitungen nur unvollst¨andig definiert sind, weil lediglich v ∈ C0∞ (Ω) verlangt wird. Dem ist aber nicht so.
2.5. FINITE ELEMENTE
83
Man kann den Begriff der schwachen Ableitung auch dazu nutzen, um eine alternative Definition der Sobolev–R¨aume zu bekommen (verwende den Raum L2 (Ω) der quadratisch integrierbaren Funktionen statt H m (Ω) in der Definition). Dies f¨ uhrt in den meisten F¨allen auf genau dieselben R¨aumen (Ausnahmen sind R¨aume, in denen Kegelbedingung verletzt ist). Es stellt sich nat¨ urlich nun die Frage, inwiefern diese neu eingef¨ uhrte R¨aume zur Beschreibung der Finiten Elemente geeignet sind. Es gilt der folgende Satz. S Satz 20 Es sei k > 1 und das Gebiet Ω zerlegt in Teilgebiete Ω = ni=1 Ωi . Eine Funktion ¯ i ) sei f¨ ur alle i = 1, . . . , n. Dann ist u u : Ω → R erf¨ ulle die Bedingung, dass u ∈ C k (Ω ¯i Ω ¯ ist. in H k (Ω) genau dann, wenn u ∈ C k−1 (Ω) Beweis. Siehe z.B. das Buch von Braess.
2
Der Fall k = 1 spiegelt genau den Fall wider, den wir brauchen.
2.5.9
Ein Variationsproblem im Hilbert–Raum
Wir werden uns nun mit dem theoretischen Hintergrund der FEM besch¨aftigen. Dabei werden wir das lineare Gleichungssystem a¨quivalent in ein Minimierungsproblem umformulieren und von diesem Problem Existenz und Eindeutigkeit zeigen. Der dazu ben¨otigte Raum ist schlicht ein Hilbert–Raum, wie z.B. L2 , H 1 oder H01 . Sei H mit einem inneren Produkt (•, •) ein Hilbertraum. Wir bezeichnen mit H ∗ = {f ∈ Abb (H, R) : f ist linear} den Raum aller linearen Abbildungen von H nach R und mit H 0 den Raum der stetigen linearen Abbildungen von H nach R. Hier ein Hinweis. Eine lineare Abbildung l : H → R ist genau dann stetig, wenn sie beschr¨ankt ist. Beschr¨ankt bedeutet, dass eine positive Konstante 0 < L < ∞ existiert, so dass f¨ ur alle v ∈ H |l(v)| 6 Lkvk ¨ gilt. Dabei ist kvk die von (•, •) induzierte nat¨ urliche Norm auf diesem Raum. −→ Ubung 19. Nehmen wir als Beispiel den Raum L2 (Ω) der quadratisch integrierbaren Funktionen. W¨ahlen wir ein festes l ∈ L2 (Ω) aus, so ist f¨ ur dieses feste l die Abbildung v → (v, l) ein lineare Abbildung oder ein lineares Funktional. In diesem Beispiel stellt (•, •) das gew¨ohnliche L2 –Skalarprodukt dar. Von dieser linearen Abbildung bekommen wir sofort mit Hilfe der Cauchy–Schwarzschen Ungleichung, dass sie stetig ist, denn |(v, l)| 6 klk kvk
84
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
und weil l ∈ L2 (Ω) liegt, ist L = klk < ∞. Dieses Argument gilt u ¨brigens nicht nur im Raum L2 (Ω) sondern in jedem Hilbert–Raum. Es gilt auch die Umkehrung, d.h. jedes stetige also beschr¨ankte Funktional l ∈ H 0 l¨asst sich bereits in der Form l(v) = (v, ˆl) f¨ ur ˆ ein l ∈ H schreiben. Dieses bezeichnet man als den Rieszschen Darstellungssatz, welchen wir als Sonderfall wieder bekommen werden. D.h. im Hilbertraum ist H = H 0 . Wir werden nachher den Strich 0 etwas anders verwenden. Jetzt schon einmal eine Warnung davor. Auf H sei ein weiteres Skalarprodukt a(v, u) gegeben. Ausserdem sei l ∈ H ∗ ein fest vorgegebenes lineares (aber nicht notwendigerweise stetiges) Funktional. Wir betrachten das Funktional a(v, v) (2.89) J(v) = − l(v), f¨ ur alle v ∈ H. 2 Wir werden sehen, dass die Minimierung dieses Funktionals gleichbedeutend mit der L¨osung ¨ von a(v, u) = l(v), f¨ ur alle v ∈ H ist. −→ Ubung 24: Analoges Problem im Rn . Im Hinterkopf haben wir nat¨ urlich genau unsere Situation aus der schwachen Formulierung f¨ ur a(u, u) sowie f¨ ur l(v). Wir werden sehen, dass sich die Stetigkeitsformulierung bzgl. l noch weiter abschw¨achen l¨asst. Satz 21 (Eindeutigkeitssatz) Sei H ein euklidischer Vektorraum (nicht notwendigerweise Hilbertraum). Sei l ∈ H ∗ eine lineare (aber nicht notwendigerweise stetige/beschr¨ankte) Abbildung. J(u) ist genau dann f¨ ur ein u ∈ H minimal, wenn u die Gleichung a(v, u) = l(v), f¨ ur alle v ∈ H
(2.90)
erf¨ ullt. Insbesondere existiert h¨ochstens eine Minimall¨osung u ∈ H. Beweis. Wir schreiben J um. J(v) =
1 1 a(v − u, v − u) − a(u, u) + [a(v, u) − l(v)] . 2 2
Erf¨ ullt nun u die Gleichung (2.90), dann ist J(v) = 12 a(v − u, v − u) − 21 a(u, u) und damit minimal genau dann, wenn a(v − u, v − u) minimal ist. Da aber a(•, •) ein Skalarprodukt ist, ist dies genau dann der Fall, wenn v = u ist. Sei nun umgekehrt J(u) minimal, dann bekommen wir f¨ ur einen beliebigen Vektor v = u+w J(u) 6 J(v) = J(u + w) 1 1 a(w, w) − a(u, u) + [a(u + w, u) − l(u + w)] = 2 2 1 a(w, w) + J(u) + a(w, u) − l(w) = 2 Wegen J(v) > J(u) folgt 1 a(w, w) + a(w, u) − l(w) > 0 2
2.5. FINITE ELEMENTE
85
Die letzte Ungleichung gilt f¨ ur jedes (in der Norm) noch so kleines w. Sei etwa w = εwˆ f¨ ur ein wˆ mit Norm 1 und ε > 0. 1 =⇒ 0 6 lim ε a(w, ˆ w) ˆ + a(w, ˆ u) − l(w) ˆ = a(w, ˆ u) − l(w). ˆ ε→0 2 Weil die gleiche Argumentation mit −wˆ anstelle von wˆ auch gilt, bleibt nur a(w, ˆ u) − l(w) ˆ =0 u ˆ und damit nat¨ urlich auch jedes w = εwˆ erf¨ ullt die Gleichung (2.90). ¨brig. D.h. jedes w Erf¨ ullen u und uˆ die Gleichung (2.90), so folgt sofort a(w, u − uˆ) = 0, f¨ ur alle w ∈ H. Mit w = u − uˆ sieht man sofort, dass nur u = uˆ sein kann.
2
Wir haben also unter ganz allgemeinen Bedingungen gezeigt, dass die Minimierung des Funktionals J ¨aquivalent zur L¨osung der linearen Gleichung a(v, u) = l(v), f¨ ur alle v ∈ H ist, sofern letztere u ¨berhaupt eine L¨osung besitzt. Besitzt das System eine L¨osung, so ist sie eindeutig. Wir erinnern uns daran, dass wir es hier mit einem abstrakten Hilbertraum H zu tun haben und nicht notwendigerweise mit dem Rn . Sonst w¨are die Existenz nat¨ urlich sofort gesichert. Der Raum an den wir hier eher denken sollten, ist der Sobolevraum H01 (Ω) in seiner ganzen Allgemeinheit (also weit mehr als nur ein Finite–Elemente–Raum Sh,0 ). F¨ ur die Existenz einer L¨osung muss die durch das Skalarprodukt a(•, •) induzierte Norm mindestens so stark wie die nat¨ urliche Norm des Hilbertraumes sein, die durch (•, •) erzeugt wird. Definition 22 Sei H Hilbertraum bzgl. des inneren Produktes (•, •) und U ⊆ H ein dichter Unterraum von H. Nehme an, dass ein weiteres inneres Produkt a(•, •) auf U existiert, derart, dass U bzgl. der von a(•, •) erzeugten Norm bereits vollst¨andig ist und eine Konstante 0 < γ < ∞ existiert mit γ(u, u) 6 a(u, u), f¨ ur alle u ∈ U. Wir bezeichnen mit U 0 ⊆ H ∗ die Menge derjenigen linearen Abbildungen von H nach R, deren Einschr¨ankung auf U stetig ist, d.h. p ur alle v ∈ U }. U 0 = {l ∈ H ∗ : es existiert 0 < L < ∞, so dass |l(v)| 6 L a(v, v) f¨ Die obige Definition sieht ziemleich umst¨andlich und k¨ unstlich aus. Tats¨achlich ist sie aber auf den Umstand hin ausgerichtet, dass etwa beim Modellproblem die rechte Seite (v, f ) sich auf das innere Produkt des gr¨oßeren Hilbertraumes L2 (Ω) bezieht, die linke Seite a(v, u) dort aber das innere Produkt des kleineren Hilbertraumes H01 (Ω) ist (genau genommen sagt erst die Friedrichsche Ungleichung, dass a(v, u) gleichberechtigt dem H 1 –Produkt (v, u)1 ist). Die Konvergenz in der H 1 –Norm zieht nat¨ urlich die Konvergenz in der L2 –Norm nach
86
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
sich, da man ja noch die Konvergenz der schwachen Ableitungen fordert. D.h. in diesem Falle ist γ = 1. Wir sind von dieser Situation nur ein klein wenig abgewichen, als das wir lineare Abbildungen wie etwa (v, f ) zulassen, von denen wir die Stetigkeit lediglich verlangen, sofern v ∈ U ist. Auch das tr¨agt der Situation beim Modellproblem Rechnung. Die rechte Seite (v, f ) dort ist ja f¨ ur alle v ∈ L2 (Ω) definiert, dort sogar immer noch stetig. Damit J ein stetiges Funktional auf U wird, braucht l aber auch nur dort stetig zu sein. Man kann U 0 noch anders definieren. Wir definieren dazu f¨ ur l ∈ H 0 die Norm |l(v)| k|lk| = sup p . v∈U a(v, v) Dieses stellt eine Norm auf H 0 dar, weil |l(v)| 1 |l(v)| klk sup p 6 √ sup ≡ √ < ∞. γ v∈U kvk γ v∈U a(v, v) p Jedes Element l ∈ H 0 erf¨ ullt sofort die Ungleichung |l(v)| 6 k|lk| a(v, v), f¨ ur alle v ∈ U . |l(v)| 0 Andererseits sind die Elemente aus U genau diejenigen, f¨ ur die supv∈U √ endlich ist. a(v,v)
∗
D.h. die Vervollst¨andigung des Raumes H bzgl. k| • k| in H ist identisch mit U 0 . Es gilt die Beziehung U ⊆ H ⊆ U 0 , man nennt das einen sogenannten Gelfand–Dreier. Satz 23 (Existenzsatz von Lax–Milgram) Sei H ein Hilbertraum bzgl. (•, •) und U ⊆ H ein dichter Unterraum, der bzgl. a(•, •) vollst¨andig sei. Nehme an, es gebe eine Konstante 0 < γ < ∞ derart, dass γ(v, v) 6 a(v, v), f¨ ur alle v ∈ U.
(2.91)
Sei l ∈ U 0 . Dann besitzt f¨ ur jede abgeschlossene und konvexe Teilmenge K ⊆ U die Einschr¨ankung J von J auf K eine Minimall¨osung u ∈ K. K
Beweis. J ist wegen p 1 √ J(v) > a(v, v) − k|lk| a(v, v) > γkvk 2
√
γ kvk − k|lk| 2
>
1 √ k|lk|2 ( γkvk − k|lk|)2 − 2 2
nach unten beschr¨ankt. Damit besitzt J zumindest ein Infimum, welches endlich ist. Es bleibt zu kl¨aren, ob dieses Infimum auch Grenzwert einer Folge aus K ist. Sei dazu µ = inf v∈K J(v) und (vn )n∈N sei eine Folge mit lim J(vn ) = µ.
n→∞
Es ist bisher u ¨berhaupt nicht gekl¨art, ob diese Folge selbst konvergiert. Dies k¨onnen wir wie folgt sehen. γkvm − vn k2 6 a(vm − vn , vm − vn ) a(vn , vn ) + a(vm , vm ) vn + vm vn + vm = 4 − a( , ) 2 2 2
2.5. FINITE ELEMENTE
87
vn + vm = 4 ) J(vn ) + J(vm ) − 2J( 2 | {z } ∈K
6 4 [J(vn ) + J(vm ) − 2µ]
Die rechte Seite besteht nur aus Elementen von K. Von denen wissen wir aber, dass sich J f¨ ur hinreichend große n, m > N sich beliebig dicht dem Wert µ n¨ahert, d.h. es existiert ε mit γkvm − vn k2 6 ε, f¨ ur alle n, m > N. Damit bildet die Folge (vn )n∈N eine Cauchy–Folge und konvergiert gegen ein Element ¯ = K. Weil J stetig in U ist, gilt bereits J(v) = µ. v∈K 2 Als Sonderfall der S¨atze 21 und 23 erhalten wir den Rieszschen Darstellungsatz (zum Beweis nehme einfach a(•, •) = (•, •) sowie U = H in den beiden S¨atzen 21 und 23). Wir haben jetzt Existenz und Eindeutigkeit gekl¨art. Jetzt m¨ ussen wir beide S¨atze nur noch auf unser Problem anwenden. Der abstrakten Dualraum U 0 aus Definition 22 und Satz 23 hat im Falle von H = L2 (Ω) und U = H01 (Ω) eine besondere Bedeutung. Als Folgerung aus Satz 21 und 23 wissen wir, dass jedes Element l ∈ H 0 identifiziert werden kann mit einem Element ˆl ∈ H, derart, dass l(v) = (v, ˆl) ist. Damit k¨onnen wir die Norm k| • k| umschreiben, |(v, ˆl)| k|lk| = sup p . v∈U a(v, v) F¨ ur Elemente ˆl aus H liefert die Vervollst¨andigung von H bzgl. dieser Norm damit genau denselben Dualraum U 0 . Diese Beziehung verwendet man im Falle von H = L2 (Ω) und U = H0m (Ω) um R¨aume H0−m (Ω) := U 0 zu definieren. Definition 24 F¨ ur Funktionen u ∈ L2 (Ω) und m ∈ N definieren wir die Norm kuk−m =
|(v, u)| . v∈H0m (Ω) kvkm sup
Die Vervollst¨andigung von L2 (Ω) bzgl. k • k−m bezeichnen wir mit H0−m (Ω). F¨ ur Elemente l ∈ H0−1 bekommen wir sofort die Absch¨atzung |l(v)| 6 klk−m kvkm . Korollar 25 Sei Ω ein abgeschlossenes und beschr¨anktes Gebiet in R2 und m ∈ N. Sei Sh,0 ein beliebiger abgeschlossener Unterraum von H0m (Ω) und f ∈ H0−m (Ω). Dann besitzt das Problem (2.92) (v, u)m = f (v), f¨ ur alle v ∈ Sh,0 genau eine L¨osung u ∈ Sh,0 . Die L¨osung von (2.92) ist identisch mit der Minimierung des Funktionals J(v) = 21 (v, v)m − f (v).
88
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Beweis. Wir wenden die in den vorherigen S¨atzen 21 und 23 aufgestellte Theorie auf den Hilbertraum H = L2 (Ω) bzgl. des L2 –Skalarproduktes (•, •) und U = H0m (Ω) bzgl. des inneren Produktes a(•, •) = (•, •)m aus Definition 16 an. Als K w¨ahlen wir Sh,0 . 2 Wir interessieren uns eigentlich f¨ ur den Fall m = 1 und (2.93)
a(v, u) =
Z
grad v > A grad u dV
Ω
und nicht f¨ ur (v, u)1 =
Z
vu dV +
Ω
Z
grad v > grad u dV,
Ω
so wie in Korollar 25. Dazu m¨ ussen wir an A einige Bedingungen stellen (vgl. (2.2)). Sei 2,2 dazu A : Ω → R punktweise eine symmetrische positiv definite Matrix, derart dass die einzelnen Komponenten aij ∈ L2 (Ω) sind. Nehme an, es exisitieren Konstanten 0 < γ 6 Γ < ∞, so dass f¨ ur alle ~x ∈ Ω und u ∈ R2 gilt: γu> u 6 u> A(~x)u 6 Γu> u.
(2.94)
Bemerkung. Bedingung (2.94) ist ¨aquivalent mit der Forderung, dass der kleinste und gr¨oßte Eigenwert von A(~x) gleichm¨assig nach unten bzw. oben durch positive Konstanten ¨ beschr¨ankt sind. −→ Ubung 20. Korollar 26 Sei Ω ein abgeschlossenes und beschr¨anktes Gebiet in R2 und A : Ω → R2,2 erf¨ ulle die obigen Bedingungen (symmetrisch, pos. def., Komponenten aus L2 (Ω) sowie (2.94)). Sei Sh,0 ein beliebiger abgeschlossener Unterraum von H01 (Ω) und f ∈ H0−1 (Ω). Sei jetzt a(v, u) aus (2.89). Dann besitzt das Problem (2.95)
a(v, u) = f (v), f¨ ur alle v ∈ Sh,0
genau eine L¨osung v ∈ Sh,0 . Die L¨osung von (2.92) ist identisch mit der Minimierung des Funktionals J(v) = 21 a(v, v) − f (v). Beweis. Wir wenden Korollar 25 an. Das einzige, was wir zu zeigen haben ist, dass a(•, •) auf H01 (Ω) eine zu (•, •) ¨aquivalente Norm definiert. Das sehen wir so. a(u, u) =
Z
grad u> A grad u dV
ΩZ
6 Γ grad u> grad u dV Z Ω Z > 6 u u dV + Γ grad u> grad u dV Ω
Ω
6 max{1, Γ}(u, u)1 .
2.5. FINITE ELEMENTE
89
Die umgekehrte Richtung geht im Prinzip genauso, aber hier brauchen wir noch die Friedrichsche Ungleichung aus Satz (18). Z grad u> A grad u dV a(u, u) = Ω Z > γ grad u> grad u dV Ω Z Z γ γ > > u u dV + grad u> grad u dV 2 min{p, q}2 Ω 2 Ω γ 1 > min{ , 1}(u, u)1 . 2 min{p, q}2 2 Bemerkung. Als Sonderfall von f ∈ H0−1 (Ω) k¨onnen wir nat¨ urlich f ∈ L2 (Ω) und (v, f ) w¨ahlen. Wir haben somit die Existenz und Eindeutigkeit der schwachen Formulierung gezeigt. Dabei kann man sich auf irgendeinen abgeschlossenen Unterraum Sh,0 (z.B. H0m (Ω) selbst oder ein Finite–Elemente–Raum) beziehen. Der allgemeinste Fall ist nat¨ urlich H0m (Ω) und wir m¨ ussen als n¨achstes noch kl¨aren, inwiefern die Beschr¨ankung auf Sh,0 eine bei der Qualit¨at der Approximation von u ∈ H0m (Ω) mittels uh ∈ Sh,0 darstellt. Im Falle inhomogener Randbedingungen ¨andert sich die rechte Seite von (v, f ) auf (v, f ) − a(v, u0 ). Auch diese rechte Seite stellt f¨ ur v ∈ H0m (Ω) ein stetiges Funktional dar, d.h. es −m ur den inomogenen ex. l ∈ H0 (Ω) mit l −m (v) = (v, f ) − a(v, u0 ). Wir brauchen also f¨ H0
(Ω)
Fall keine neue Theorie, sondern erhalten Existenz und Eindeutigkeit wieder als Sonderfall von Korollar 26. Den Fall der Neumannschen Randbedingung behandeln wir hier nicht. Siehe z.B. das Buch von Braess.
2.5.10
Approximationss¨ atze
Wir haben gesehen, dass unter sehr allgemeinen Bedingungen die Differentialgleichung im Raume H01 (Ω) bereits eine eindeutige L¨osung besitzt. In der Praxis arbeiten wir aber nur mit FEM–R¨aumen, die zwar dort drin enthalten sind, m¨oglicherweise aber viel zu klein oder zu grob sein k¨onnten um die theoretische L¨osung zu approximieren. Im folgenden sei wieder Z a(v, u) = grad v > A grad u dV Ω
und A erf¨ ulle die Bedingungen (2.94). Die folgenden S¨atze werden zwar nur f¨ ur diesen Fall m m formuliert, tats¨achlich kann man p sie aber auf jeden H0 oder H und eine Bilinearform a(v, u) anwenden, deren Norm a(u, u) ¨aquivalent zur gew¨ohnlichen k • km –Norm ist. Wir haben damit zu l ∈ H0−1 (Ω) einmal das kontinuierliche Problem (2.96)
a(v, u) = l(v), f¨ ur alle v ∈ H01 (Ω)
90
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
mit eindeutiger L¨osung u ∈ H01 (Ω) sowie f¨ ur einen (endlichdimensionalen) Unterraum Sh,0 1 von H0 (Ω) das Problem a(vh , uh ) = l(vh ), f¨ ur alle vh ∈ Sh,0
(2.97)
mit eindeutiger L¨osung uh ∈ Sh,0 . ¨ Die erste Aussage u ¨ber die Qualit¨at der Approximation uh an u ist gleichzeitig eine Uberraschung. Das nachfolgende Lemma zeigt, dass man von der Gr¨oßenordnung her u mit Hilfe irgendeines Elmentes vh aus Sh,0 nicht wesentlich besser approximieren kann als mit uh . Lemma 27 (C´ ea) Unter obigen Voraussetzungen gilt. Es gibt eine Konstante K, so dass inf ku − vh k1 6 ku − uh k1 6 K inf ku − vh k1
vh ∈Sh,0
vh ∈Sh,0
Beweis. Es reicht die rechte Ungleichung zu zeigen, weil die linke Ungleichung offensichtlich richtig ist. F¨ ur alle v ∈ Sh,0 gilt a(v, u − uh ) = 0. Das stimmt insbesondere f¨ ur v = vh − uh , wobei vh ∈ Sh,0 eine weitere Funktion aus Sh,0 ist. Hieraus folgt mit Hilfe der Friedrichschen Ungleichung (Satz 18) und (2.94) ku − uh k21 = ku − uh k20 + |u − uh |21 1 + min {p, q}2 a(u − uh , u − uh ) 6 γ 2 1 + min {p, q} = a(u − vh , u − uh ) + a(vh − uh , u − uh ) | {z } γ =0
2p
p 1 + min {p, q} a(u − vh , u − vh ) a(u − uh , u − uh ) γ Γ + Γ min {p, q}2 6 ku − vh k1 ku − uh k1 . γ | {z } 6
K
Auf beiden Seiten kann man einmal ku − uh k1 k¨ urzen. Ausserdem hat man noch freie Wahl bei vh ∈ Sh,0 . Die Ungleichung gilt also insbesondere f¨ ur das “beste” vh ∈ Sh,0 . 2 Das besondere bei diesem Lemma ist, dass man sich lediglich Gedanken dar¨ uber machen 1 muss, wie ich ein Element aus H0 mit Hilfe von Funktionen aus Sh,0 m¨oglichst gut approximiere. Ob es sich bei dieser Approximation um die L¨osung des diskreten Problems handelt, ist unerheblich. Die einfachste M¨oglichkeit, Funktionen aus H01 mit Hilfe von Funktionen aus Sh,0 zu approximieren ist mittels Interpolation. Hier werden wir einen allgemeinen Satz zur Lagrange–Interpolation wiederfinden, im gewissen Sinne als Analogie zur Taylorapproximation. Nehmen wir letztere als Beispiel. Eine hinreichend glatte Funktion f kann im Intervall [−h, h] durch das Taylorpolynom p(x) = f (0) + f 0 (0)x +
f 00 (0) 2 f (m−1) (0) m−1 x + ··· + x 2 (m − 1)!
2.5. FINITE ELEMENTE
91
approximiert werden F¨ ur den Fehler gilt f (m) (θ) m ur ein θ ∈ (−1, 1) f (x) − p(x) = x , f¨ m!
(2.98)
oder in der Integraldarstellung des Restgliedes (ohne dieses omin¨ose unbekannte θ) f (x) − p(x) =
x
Z 0
f (m) (t) (x − t)m−1 dt. (m − 1)!
Wir k¨onnen nun den Fehler zwischen f und p mit Hilfe der L2 –Norm messen. Mit Hilfe der Cauchy–Schwarzschen Ungleichung bekommen wir zun¨achst
Z 0
x
2 2 Z x (m) Z x f (m) (t) f (t) m−1 (x − t) dt dx 6 dt · (x − t)2m−2 dt (m − 1)! (m − 1)! 0 0 2 Z x (m) x2m−1 f (t) 6 dt · (m − 1)! 2m − 1 0
und damit folgt Z
h 2
(f (x) − p(x)) dx 6
−h
Z
h
x
Z
−h
0
f (m) (t) (m − 1)!
2
dt ·
x2m−1 dx 2m − 1
2 f (m) (t) x2m−1 6 dt · dx (m − 1)! 2m − 1 0 0 2 Z 0 Z −h (m) x2m−1 f (t) + dt · dx (m − 1)! 2m − 1 −h 0 2 Z h (m) Z h 2m−1 f (t) x = dt · dx (m − 1)! 0 0 2m − 1 2 Z −h (m) Z 0 2m−1 f (t) x dt · dx + (m − 1)! −h 2m − 1 0 Z h 2 h2m (m) = f (t) dt 1 4(1 − 2m ) (m!)2 −h Z
Also erhalten wir (2.99)
h
Z
h
hm kf − pk0 6 q |f |m . 1 2 (1 − 2m ) m!
Dabei muss man ber¨ ucksichtigen, dass das Gebiet Ω = [−h, h] von h abh¨angt. Im Falle des Intervalls [−1, 1] (d.h. h = 1) etwa, verschwindet die h–Abh¨angigkeit sofort und es bleibt eine Konstante vor dem Integral. Die Absch¨atzung (2.99) zeigt insbesondere, dass der Fehlerterm aus der Lagrangeschen Darstellung des Restgliedes (2.98) abgesch¨atzt werden kann durch die L2 –Norm der m–ten Ableitung (bis auf eine Konstante). Desweiteren
92
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
braucht dazu nur f ∈ H m ([−1, 1])∩C m−1 ([−1, 1]) zu sein, also die ersten m−1 Ableitungen muss man wegen des Taylorpolynoms schon vern¨ unftig bilden k¨onnen, die m–te Ableitung braucht aber lediglich in L2 zu sein. F¨ ur die Interpolation mittels Polynomen gilt der folgende Satz angewendet auf ein allgemeines Gebiet (ohne h–Abh¨angigkeit). Satz 28 Ω sei ein Gebiet mit Lipschitz–stetigem Rand. Weiterhin seien s = m(m+1) Inter2 polationsbedingungen L1 , . . . , Ls gegeben, die f¨ ur alle Funktionen aus C k (Ω) wohldefiniert sind (z.B. Interpolationsbedingungen an die Funktion oder deren Ableitungen an gewissen Punkten). Zu jeder Vorgabe von Funktionswerten f1 , . . . , fs ∈ R existiere ein eindeutiges Polyonom p vom Grad m − 1 mit Li p = fi , i = 1, . . . , s. Sei f¨ ur eine Funktion m k u ∈ H (Ω) ∩ C (Ω), uI das zugeh¨orige Interpolationspolynom. Dann gilt ku − uI km 6 c|u|m . Beweis. Wir geben hier nur eine Skizze an. Wir f¨ uhren auf H m (Ω) ∩ C k (Ω) die Hilfsnorm k|uk| = |u|m +
s X
|Li u|
i=1
ein. F¨ ur diese Hilfsnorm sehen wir sofort k|u − uI k| = |u − uI |m +
s X
|Li (u − uI )| = |u|m .
i=1
Es bleibt noch zu zeigen, dass die Konvergenz in der k| • k| die Konvergenz in der k • k–Norm nach sich zieht, d.h. dass eine Konstante c ex. mit ku − uI km 6 ck|u − uI k|. Dieses folgt im wesentlichen daraus, dass jede beschr¨anke Teilmenge von H m bzgl. k • km bereits kompakt in H m−1 bzgl. k • km−1 ist (Relichscher Auswahlsatz). Denn aus der Konvergenz in der Hilfsnorm k| • k| folgt die Beschr¨anktheit der k • km –Norm und damit die teilweise Konvergenz in der k • km−1 –Norm. Der fehlende Anteil zur k • km –Norm ist |•|m und der steckt gl¨ ucklicherweise gerade in der Hilfsnorm k|•k|, konvergiert also auch. 2 Die Forderung u ∈ H m ∩ C k kann man fallen lassen, sofern man m > k + die Raumdimension, also hier d = 2).
d 2
w¨ahlt (d ist
Man kann Satz 28 noch ein klein wenig verallgemeinern, indem man noch einen in H m beschr¨ankten linearen Operator L anwendet, dessen Kern die Polynome vom Grade m − 1 enth¨alt. In dieser Form wird Satz 28 aus als das Lemma von J.H.Bramble und S.R. Hilbert bezeichnet. Als wichtigste Anwendung dieser lokalen Absch¨atzung des Interpolationsfehlers erhalten wir eine globale Absch¨atzung bei st¨ uckweiser Interpolation. Hierzu m¨ ussen wir noch zwei Dinge tun. Erstens m¨ ussen wir von einer Folge von Triangulierungen beschreiben, was die Abh¨angigkeit von einem Diskretisierungsparameter meint und damit verbunden m¨ ussen wir daf¨ ur Sorge tragen, dass die Dreiecke nicht entarten. Zweitens k¨onnen wir im allgemeinen nicht erwarten, dass die st¨ uckweise Interpolierende, die wir global verwenden, noch die hohen Glattheitsbedingungen erf¨ ullt, wie bei der lokalen Absch¨atzung.
2.5. FINITE ELEMENTE
93
S Definition 29 Sei Ω = ni=1 Ωi eine Zerlegung von Ω in Dreiecke. Zu jedem Dreieck Ωi sei KA (Ωi ) der kleinste Kreis, der Ω¯i ganz enth¨alt (Aussenkreis). KI (Ωi ) sei der gr¨oßte Kreis, der noch ganz in Ω¯i enthalten ist (Innenkreis). Wir bezeichnen mit h den maximalen Durchmesser h = maxi diam KA (Ωi ) aller Aussenkreise. Wir bezeichnen die Triangulierung mit Th = {Ω1 , . . . , Ωn }. Sei nun (Th )h eine Folge von Triangulierungen. Diese Folge heisst quasiuniform, falls es eine Konstante K gibt, so dass diam KA (Ωi ) 6 K diam KI (Ωi ), f¨ ur alle Ωi ∈ Th und alle h. Die Beschr¨ankung auf quasiuniforme Triangulierungen sichert, dass die lineare Transformation von einem beliebigen Dreieck Ωi auf das Referenzdreieck der Seitenl¨ange h (in x– sowie y–Richtung) und zur¨ uck gleichm¨aßig beschr¨ankt ist. Als zweites f¨ uhren wir jetzt eine von der Triangulierung abh¨angige Norm ein. Definition 30 Sei Th = {Ω1 , . . . , Ωn } eine Triangulierung des Gebietes Ω. Sei u ∈ H m (Ω¯i ) f¨ ur alle i = 1, . . . , m. Setze v u n uX kukm,h = t kuk2m . i=1
Ωi
Sofern u ∈ H m (Ω) ist, stimmt diese Norm mit der gew¨ohnlichen Norm k•km wieder u ¨berein. Gedacht ist bei dieser Norm etwa an st¨ uckweise Polynome (z.B. lineare Funktionen) die insgesamt zumindest noch stetig sind. Mit Hilfe dieser gitterabh¨angingen Norm sind wir jetzt in der Lage eine Fehlerabsch¨atzung zwischen Funktionen aus H m und st¨ uckweise Polynomen herzuleiten. Satz 31 (Interpolationsfehler) Sei Ω ein Gebiet mit Lipschitzstetigem Rand. Nehme an auf Ω sei eine quasiuniforme Triangulierung (Th )h gegeben. Nehme an, auf jedem Dreieck Ωi ∈ Th gebe es s = m(m + 1)/2 Interpolationsbedingungen, die wohldefiniert f¨ ur Funktiok nen aus C (Ω) sind und ein eindeutiges Polynom vom Grade m − 1 festlegen. Ausserdem sollen sich die lokalen Interpolationsbedingungen auf ganz Ω konsistent zu globalen Interpolationsbedingungen entsprechend Definition 15 vervollst¨andigen lassen. Dann gibt es eine Konstante K, so dass f¨ ur alle Funktionen u ∈ H m (Ω) ∩ C k (Ω) und l = 0, 1, . . . , m gilt: ku − uI kl,h 6 Khm−l |u|m . Beweis. Zu jedem Dreieck Ωi ∈ Th finden wir eine lineare Transformation L : Ωi → D0 , wobei D0 das Referenzdreieck D0 = {x, y ∈ R : 0 6 x, y, x + y 6 1} mit Kantenl¨ange 1. Wir k¨onnen L schreiben als L = hL~x + ~b. Der Faktor h vor dem L steht dort aus Skalierungsgr¨ unden, da ein Dreieck mit Fl¨acheninhalt O(h2 ) auf ein Dreieck mit Fl¨acheninhalt 1 transformiert wird. Die Quasiuniformit¨at sichert uns, dass kLk und kL−1 k gleichm¨aßig 2
94
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
beschr¨ankt sind unabh¨angig von h und i. Wir betrachten das Integral u ¨ber das Quadrat einer beliebigen p–ten Ableitung Z Ωi
∂ pu ∂xq ∂y p−q
2
dV, 0 6 q 6 p.
Der Transformationssatz (Substitution ~x → ~y = L−1 (~x)) bringt uns einen Faktor | det(hL)| hinein. Die p–te Ableitung dagegen liefert infolge der Kettenregel einen Faktor der Gr¨oßenordnung k(hL)−1 kp . Da die Ableitung quadriert wird, quadriert sich auch dieser Faktor und wir erhalten eine Faktor in der Gr¨oßenordnung h−2p kL−1 k2p h2 | det L|. Wegen der glm. Beschr¨anktheit von L und L−1 bekommen wir Z Ωi
∂ pu ∂xq ∂y p−q
2
2−2p
dV 6 c1 h
Z D0
∂ pu ∂xq ∂y p−q
2
dV.
Die gleiche Argumentation geht auch in die umgekehrte Richtung und liefert entsprechend Z D0
∂ pu ∂xq ∂y p−q
2
2p−2
dV 6 c2 h
Z Ωi
∂ pu ∂xq ∂y p−q
2
dV.
Anwendung auf die Norm k • km,l liefert ku − uI k2l,h =
X
ku − uI k2l
Ωi ∈Th
Ωi
X Z ∂ p (u − uI ) 2 = dV q ∂y p−q ∂x Ω i Ωi ∈Th 06q6p6l 2 Z p X X ∂ (u − uI ) 2−2p 6 c1 h dV q ∂y p−q ∂x D 0 Ωi ∈Th 06q6p6l X 6 c1 h2−2l ku − uI k2l X
D0
Ωi ∈Th
6 c1 h2−2l
X
ku − uI k2m
Ωi ∈Th
6 cc1 h2−2l
X
|u|2m
Ωi ∈Th
6 cc1 c2 h2−2l h2m−2 | {z } K
D0
D0
X
Ωi ∈Th
|u|2m
Ωi
= Kh2m−2l |u|2m .
2
2.5. FINITE ELEMENTE
95
Verwenden wir z.B. stetige st¨ uckweise lineare Elemente, so erhalten wir eine Fehlerabsch¨atzung der Form ku − uI k0,h = ku − uI k0 6 Kh2 |u|2 , ku − uI k1,h = ku − uI k1 6 Kh|u|2 . Dabei muss allerdings u ∈ H 2 (Ω) ∩ C(Ω) = H 2 (Ω) sein. F¨ ur stetige st¨ uckweise quadratische Polynome erhalten wir sogar ku − uI k0 6 Kh3 |u|3 , ku − uI k1 6 Kh2 |u|3 , ku − uI k2,h 6 Kh|u|3 . Hier hat man die Ordnung noch mal um 1 erh¨oht, ben¨otigt aber auch eine entsprechend glattere Funktion u ∈ H 3 (Ω). Die Fehlerabsch¨atzungen sind f¨ ur beliebige allgemeine Funktionen u ∈ H m (Ω) ∩ C(Ω) formuliert. Anwenden wollen wir es mit Hilfe des C´ea–Lemmas 27 aber nur auf die L¨osung einer partiellen Differentialgleichung. Das Problem in der Praxis ist allerdings, dass die L¨osung u der Differentialgleichung nicht immer entsprechend glatt ist, bzw. dass man an die R¨ander h¨ohere Glattheitsforderungen stellen muss, um eine entsprechend glatte L¨osung zu bekommen. Dann muss aber auch die Triangulierung die h¨oheren Glattheitsforderungen erf¨ ullen (im g¨ unstigsten Fall reichen dazu isoparametrische Elemente). Unter etwas eingeschr¨ankten Bedingungen gilt folgender Regularit¨atssatz. Satz 32 Das Problem (2.96) mit l ∈ L2 (Ω) hat bei hinreichend glattem A eine eindeutige ullt ist. L¨osung u ∈ H02 (Ω), sofern einer der folgenden F¨alle erf¨ • Ω ist konvex und besitze einen polygonalen Rand • Ω besitze einen C 2 –Rand. In beiden F¨allen existiert eine Konstante c mit kuk2 6 cklk0 . Im Falle einer L¨osung von a(v, u) = l(v) bekommen wir immer kuk21 6 c˜ a(u, u) = c˜ l(u) 6 c˜ klk−1 kuk1 , d.h. kuk1 6 c˜klk−1 . Die Aussage im obigen Satz geht aber dar¨ uber hinaus und wird als 2 H –Regularit¨at bezeichnet. Als Konsequenz aus dem C´ea–Lemma 27, der Interpolationsfehlerabsch¨atzung aus Satz 31 sowie der H 2 –Regularit¨at der L¨osung aus Satz 32 bekommen wir folgenden Approximationssatz f¨ ur finite Elemente. Satz 33 Sei Ω ein Gebiet, welches die Anforderungen des vorherigen Satzes 32 erf¨ ullt. Auf Ω sei eine Folge (Th ) quasiuniformer Trianugulierungen gegeben. Dann gilt f¨ ur die Finite–Elemnt–R¨aume basierend auf stetigen st¨ uckweise Polynomen bei Lagrange– Interpolationsbedingungen f¨ ur den Fehler zwischen exakter L¨osung u ∈ H02 (Ω) und N¨aherungsl¨osung uh ∈ Sh,0 ku − uh k1 6 chkuk2 6 cˆhklk0 , ku − uh k0 6 ch2 kuk2 6 cˆh2 klk0 .
96
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
Beweis. Da wir H 2 –Regularit¨at voraussetzen, ist u ∈ H02 stetig. Die Bedingungen f¨ ur die Lagrange–Interpolation in Satz 31 sind durch u erf¨ ullt. Nach dem C´ea–Lemma 27 sehen wir sofort ku − uh k1 6 c inf ku − vh k1 vh ∈Sh,0
= c inf ku − vh k1,h vh ∈Sh,0
6 c˜ cKh|u|2 6 c˜ cKhkuk2 6 c˜ cˆK} hklk0 . |c{z konstant Damit ist die erste der beiden Absch¨atzungen gezeigt. F¨ ur die zweite brauchen wir einen funktionalanalytischen Kunstgriff (Dualit¨atsargument), der unter dem Namen Nitsche–Trick bekannt geworden ist. Die folgende Ungleichung l¨asst sich viel allgemeiner zeigen, wir werden sie aber nur hier f¨ ur unseren Spezialfall zeigen. Es gilt folgende Ungleichung ku − uh k0 6 Cku − uh k1
inf v∈Sh,0 kug − vk1 . kgk0 g∈H01 (Ω) sup
Dabei ist ug ∈ H01 (Ω) L¨osung der Aufgabe a(v, ug ) = (v, g), f¨ ur alle v ∈ H01 (Ω). Wir nehmen erst mal an, dass diese Absch¨atzung richtig sei. Dann bekommen wir nach dem ersten Teil des Beweises inf v∈Sh,0 kug − vk1 ku − uh k0 6 Cku − uh k1 sup kgk0 g∈H01 (Ω) 6 Cku − uh k1
cˆhkgk0 g∈H01 (Ω) kgk0 sup
6 Cˆ cch2 kuk2 6 Cˆ c2 h2 klk0 . Den Beweis des Daulit¨atsargumentes lassen wir hier weg. Siehe z.B. das Buch von Braess. 2 Wir haben hier insbesondere gesehen, dass unter entsprechenden Regularit¨atsannahmen der Fehler in der L2 –Norm mit h2 gegen Null geht. Gr¨oßere Ordnungen bekommen wir f¨ ur quadratische und kubische usw. FEM–R¨aume, sofern die L¨osung des Problemes eine h¨ohere Glattheit hat. Dies setzt aber glatte R¨ander und entsprechende Elemente f¨ ur die Randbehandlung voraus.
2.5.11
Nichtkonforme Methoden
Wir gehen hier kurz auf weitere Betrachtungen der FEM aus Sicht der Approximationstheorie ein. In der Praxis ist unsere rechte Seite l(v) nicht exakt zu berechnen, sondern
2.5. FINITE ELEMENTE
97
es ist nur lh (v) zu bekommen. Genauso ist die Bilinearform a(v, u) i.a. nich exakt auf Sh gegeben, sondern lediglich eine Approximation ah (v, u). Beides kann z.B. durch Kubaturformeln hervorgerufen werden. Schließlich kann es sein, dass die Randapproximation nicht exakt erf¨ ullbar ist (krumme R¨ander). Man m¨ochte nat¨ urlich trotzdem wissen, wann und ob u ¨berhaupt eine Approximation in vergleichbar hoher Ordnung wie im vorherigen Abschnitt zu erwarten ist (O(h2 )). Die Lemmata von Strang zeigen hier im wesentlichen, dass bei einem Konsistenzfehler in a und l in der gleichen Gr¨ossenordnung wie der Approximationsfehler (also i.a. O(h2 )) die Approximationsordnung nicht verringert wird. Sind dagegen die etwa homogenen Randbedingungen nicht l¨anger erf¨ ullt, so bleibt der Fehler in der 1–Norm bei O(h), in der L2 –Norm geht er jedoch von O(h2 ) auf O(h3/2 ) herunter. Die Idee hinter diesen Betrachtungen ist, dass mit h → 0 der Fehler bei der Randapproximation mittels polygonaler Gebiete (Dreiecke) der Fehler in der Gr¨oßenordnung O(h3 ) liegt, w¨ahrend er global sowieso nur bei O(h2 ) ist. Damit ist der Fehler bei der Randapproximation geringer als bei der Approximation mittels st¨ uckweiser Polynome. Leider klappt dieses Argument nur bei der k • k1 –Norm richtig. Bei der k • k0 –Norm verliert man leider doch eine halbe h–Potenz.
2.5.12
¨ Ubungen zu Kapitel 2.5
¨ Ubung 17 Seien u, v ∈ C1 (Ω), sowie Z Z (u, v) = uv dV, a(u, v) = Ω
grad u> grad v dV, [u, v] = (u, v) + a(u, v).
Ω
¨ Welche der folgenden Bilinearformen sind Skalarprodukte? Andert sich etwas, wenn u, v auf einem messbaren St¨ uck des Randes verschwinden?
¨ Ubung 18 D0 = {(x, y) : 0 6 x, y, x + y 6 h} sei das Referenzdreieck mit Seitenl¨ ange h. Bestimme f¨ ur die drei Ansatzfunktionen ψ1 (x, y) =
y x+y x , ψ2 (x, y) = , ψ3 (x, y) = 1 − h h h
den Wert der Integrale (ψi , ψj ), a(ψi , ψj ), i, j = 1, 2, 3, wobei (u, v) =
Z D0
uv dV, a(u, v) =
Z
grad u> grad v dV.
D0
¨ Ubung 19 Sei V ein Banachraum, d.h. ein Vektorraum mit einer Norm k • k, der bzgl. dieser Norm vollst¨ andig ist. Sei l : V → R eine lineare Abbildung. Zeige: l ist stetig auf ganz V genau dann, wenn l beschr¨ ankt ist. Hinweis: l heisst beschr¨ ankt, falls eine Konstante 0 < L < ∞ existiert, mit |l(x)| 6 L kxk, f¨ ur alle x ∈ V.
98
KAPITEL 2. ELLIPTISCHE RANDWERTPROBLEME
¨ Ubung 20 Sei dazu A : Ω → Rn,n punktweise eine symmetrische Matrix. Zeige: es exisitieren Konstanten γ 6 Γ ∈ R, so dass γu> u 6 u> A(~x)u 6 Γu> u, f¨ ur alle ~x ∈ Ω, u ∈ Rn genau dann, wenn −∞ < γ 6 λmin (A(~x)), λmax (A(~x)) 6 Γ < ∞. Dabei bezeichnen λmin (A(~x) und λmax (A(~x)) den kleinsten und gr¨ oßten Eigenwert von A(~x).
¨ Ubung 21 Gegeben seien die beiden Testfunktionen 1. u1 (x, y) = 16 xy − xy 2 − x2 y + x2 y 2 2. u2 (x, y) = sin(πx) cos(πy) L¨ ose die Differentialgleichung −∆u = f in [0, 1]2 , u = g auf ∂[0, 1]2 mit Hilfe linearer Finiter Elemente bei einer gleichm¨ aßigen Einteilung in Dreiecke mit Seitenl¨ ange h = N 1+1 ind x– und y–Richtung. Als g verwende jeweils u1 und u2 . Als f verwende jeweils −∆u1 und −∆u2 . Stelle die numerische und die analytische L¨ osung sowie den Fehler uh − u1/2 f¨ ur N = 10, 20, 40, 80 graphisch dar. Was stellst du fest?
¨ ¨ Ubung 22 Ubertrage die Finite–Elemente–Methode f¨ ur das Modellproblem −∆u = f auf [0, 1]2 f¨ ur den Fall bilinearer Ansatzfunktionen und einer gleichm¨ aßigen Zelleinteilung des Gebietes in Quadrate der Seitenl¨ ange h.
¨ Ubung 23 Gegeben Sei eine Triangulierung eines Gebietes Ω in Form einer Liste von Dreiecken und Knoten (MATLAB–Programm wird zur Verf¨ ugung gestellt) Bestimme f¨ ur jedes Dreieck die lokale Steifigkeitsmatrix sowie die lokale Massematrix f¨ ur st¨ uckweise lineare Elemente. Verwende die so erzeugte Liste von Matrizen zur L¨ osung des Problem Z Z > grad vh grad uh dV = vh f dV Ω
Ω
mit homogenen Randbedingungen und f ≡ 1.
¨ Ubung 24 Gegeben Sei eine symmetrisch positiv definite Matrix A ∈ Rn,n sowie b ∈ Rn . F¨ ur 1 > n > alle v ∈ R sei J(v) = 2 v Av − v b. Zeige mit Hilfe des Differentialkalk¨ uls J(v) ist minimal genau dann, wenn Av = b ist.
Kapitel 3 Mehrgitterverfahren fu ¨ r elliptische Randwertprobleme In diesem Kapitel untersuchen wir zun¨achst die gew¨ohnlichen Mehrgitterverfahren f¨ ur zwei sehr einfache Modellprobleme. Die Techniken und Erkenntnisse hier lassen sich nat¨ urlich in allgemeinerem Rahmen durchf¨ uhren. Insbesondere kann man die Techniken auch als Motivation f¨ ur die Konstruktion algebraischer Mehrgitterverfahren verstehen. Als Literatur kann [6, 7, 9] sowie die dort enthaltenen Referenzen empfohlen werden.
3.1
Modellprobleme
Wir betrachten zwei einfache Modellprobleme von Differentialgleichungen. Zun¨achst einmal ein einfaches eindimensionales Problem. Gesucht ist eine Funktion u : [0, 1] → R die der folgenden Gleichung gen¨ ugt. (3.1)
− u00 (x) = f (x), f¨ ur alle x ∈ [0, 1]
sowie (3.2)
u(0) = g0 , u(1) = g1 .
Dabei ist f eine gegebene Funktion auf [0, 1]. Ebenfalls gegeben sind g0 , g1 ∈ R. Das analoge Problem in zwei Raumdimensionen ist das bereits bekannte Modellproblem, das wir f¨ ur finite Differenzen, finite Volumen und FEM verwendet haben. (3.3)
− ∆u = f, in Ω
sowie (3.4)
u = g, auf ∂Ω
Dabei bezeichnen mit Ω das Gebiet Ω = [0, 1] × [0, 1] und f ist eine gegebene Funktion auf Ω und g eine gegebene Funktion auf ∂Ω. 99
¨ ELLIPTISCHE RANDWERTPROBLEME 100KAPITEL 3. MEHRGITTERVERFAHREN FUR Im Prinzip l¨asst sich vieles was hier gemacht wird, problemlos u ¨bertragen auf allgemeinere n Probleme in Gebieten Ω des R der Form (3.5)
− div (A grad u) = f in Ω,
(3.6)
u = g auf Γ1 , ν > A grad u = h, auf Γ2 .
Dabei ist A : Ω → Rn×n eine f¨ ur alle Werte aus Ω symmetrisch positiv definite Matrix derart, dass der kleinste Eigenwert von A nach unten durch eine positive Konstante beschr¨ankt ist. Γ1 ∪ Γ2 = ∂Ω und f, g, h sind gegebene Funktionen. ν bezeichnet die a¨ussere Normale. Wir wollen uns aber im folgenden auf einfache Probleme der Form (3.1) und (3.2) beschr¨anken, um die Darstellung einfach zu halten und die grundlegenden Ideen besser darstellen zu k¨onnen. Die Anwendung finiter Differenzen auf das eindimensionale Gebiet liefert ein diskretes Gebiet k (3.7) : k = 0, . . . , N + 1}. Ωh = { N +1 Geometrisch kann man diese Einteilung so interpretieren: v
0
v
h
v
v
···
v
1 − 2h 1 − h
2h
v
1
Mit den gleichen Bezeichnungen haben wir im zweidimensionalen Fall (3.8)
Ωh = {(kh, lh) : k, l = 0, . . . , N + 1}.
Mit Hilfe der Taylorentwicklung bekommen wir, dass (3.9)
− y 00 (x) =
1 (−y(x − h) + 2y(x) − y(x + h)) + O(h2 ). h2
In Form eines Sterns sieht das so aus. −1
2
−1
Am Rande kann man die vorgegebenen Randwerte einsetzen. Zusammen hat das diskrete System dann die Form (3.10)
− u((i − 1)h) + 2u(ih) − u((i + 1)h) = h2 f (ih), i = 1, . . . , N,
wobei u(0) = g0 , u(1) = g1 vorgegeben sind. Setzen wir ui = u(ih), i = 1, . . . , N, fi = f (ih), i = 2, . . . , N − 1, f1 = f (h) +
g0 g1 , fN = f (1 − h) + 2 2 h h
3.1. MODELLPROBLEME
101
Abbildung 3.1: Diskretisierung des Gebietes Ω v
v
v
···
v
v
v
1−h v
v
v
···
v
v
v
1 − 2h v
v
v
···
v
v
v
.. .
.. .
.. .
.. .
.. .
.. .
2h
v
v
v
···
v
v
v
h
v
v
v
···
v
v
v
0
v
v
v
···
v
v
v
1
@ @
y
0
h
1 − 2h 1 − h
2h x
1
@ @
und −1 . . 1 −1 . . . . Th = 2 ... ... h −1 −1 2
(3.11)
2
.
Dann haben wir ein Gleichungssystem der Form (3.12)
Th u = f.
Dabei sind u, f die Vektoren, die ui , fi als Komponenten haben. Die gleiche Argumentation im zweidimensionalen Fall ergibt den bereits bekannten “F¨ unf– Punkte–Stern” (2.16).
−1
−1
4
−1
−1
¨ ELLIPTISCHE RANDWERTPROBLEME 102KAPITEL 3. MEHRGITTERVERFAHREN FUR Hier bekommen wir in v¨olliger Analogie zu dem eindimensionalen Fall eine diskrete Gleichung die auf dem zweidimensionalen Gitter Ωh lebt d.h. setzen wir uij = u(ih, jh) dann haben wir ein diskretes Problem der Form − ui−1,j − ui,j−1 + 4uij − ui+1,j − ui,j+1 = h2 f (ih, jh)
(3.13)
f¨ ur i, j = 1, . . . , N mit entsprechenden Randbedingungen. Setzt man wieder die Vorgaben auf dem Rand ein, so bekommt man ein System der Form (3.14)
Ah u = f
wobei Ah eine N 2 × N 2 Matrix ist. x entspricht der der diskreten Funktion auf den inneren Gitterpunkten ohne Rand, und f der Funktion f unter Ber¨ ucksichtigung der Randpunkte. Man kann im Falle von Ah zeigen, dass 2 h Th + 2IN −IN ... 1 −IN (3.15) Ah = 2 .. h .
... ..
. −IN 2 −IN h Th + 2IN
.
¨ −→ Ubung (8). Nun stellt sich die Frage, wie man dieses Gleichungssystem in der Praxis l¨osen soll. Bei dem 1D–Problem stellt sich eigentlich nicht so sehr die Frage, denn die Matrix ist tridiagonal, symmetrisch und positiv definit und nat¨ urlich w¨are die Cholesky–Zerlegung eine gute und schnelle M¨oglichkeit (Kosten ungef¨ahr 9N Operationen). Im 2D–Fall klappt dieser Trick aber nicht mehr so. Sehen wir uns einmal f¨ ur zunehmendes N an, wie lange eine Cholesky– Zerlegung, z.B. in MATLAB dauern w¨ urde. Bei realistischen Problemen kann ohne weiteres N 2 ≈ 106 und gr¨oßer vorkommen. Diese M¨oglichkeit m¨ ussen wir bei numerischen Tests im Auge behalten.
3.2
Direkte Verfahren
Die hier zugrunde liegende Matrix ist symmetrisch positiv definit. Der hierf¨ ur angepasste direkte L¨oser wird als Cholesky–Zerlegung bezeichnet. Grundlage hierf¨ ur ist die folgende Zerlegung der Ausgangsmatrix A. 1 > α v> α 0 0 α v α (3.16) A= = , 0 S 0 I v B v I >
wobei S = B − vvα das Schur–Komplement (oder auch die Restmatrix) bezeichnet. Von diesem weiss man, dass es wieder positiv definit ist. Wendet man sukzessive (3.16) auf S anstelle von A an so erh¨alt man schließlich eine Zerlegung der Form (3.17)
A = (D − E)D−1 (D − E)> .
3.3. WARUM KEINE EINFACHEN ITERATIONSVERFAHREN VERWENDEN?
103
Dabei entstehen D, E w¨ahrend der Zerlegung. Man beachte, dass im allgemeinen das Schur– Komplement sich w¨ahrend der Elimination immer weiter auff¨ ullt. Nat¨ urlich kann man im eindimensionalen Fall des Modellproblems einfach die Cholesky– Zerlegung verwenden und das Problem dadurch in sehr kurzer Zeit l¨osen. Der eindimensionale Fall dient hier auch mehr der Illustration statt der ernsthaften Behandlung. Im zweidimensionalen Fall ist der Aufwand schon erheblich h¨oher und selbst bei Verwendung vielf¨altiger Techniken zur Minimierung des Rechenaufwandes l¨asst sich eigentlich im g¨ unstigsten Fall nicht viel mehr als O(N 3 ) erreichen. D.h. man hat man hat einen Rechenaufwand der deutlich mehr als linear mit der Zahl der Unbekannten steigt. Hinzu kommt der enorme Speicheraufwand der in der gleichen Gr¨oßenordnung liegt. Im dreidimensional Fall verschlechtert sich diese Beziehung noch mehr. Wir betrachten das mal f¨ ur den zweidimensionalen Fall (3.3) mit Hilfe von MATLAB. Dort verwenden wir zun¨achst einen (heuristischen aber recht effizienten) Algorithmus um die Unbekannten geschickt durchzunummerieren. Der Algorithmus wird mit “symmetric minimum degree” bezeichnet. Anschließend verwenden wir eine Cholesky–Zerlegung basierend auf dieser Anordnung der Unbekannten. Wir betrachten Rechenaufwand und Speicherbedarf in Abh¨angigkeit von N . Die Ergebnisse sind in Tabelle 3.1 zusammengefasst.
Tabelle 3.1: Direkte Verfahren fu ¨ r die 2–dim. Laplace–Gl. Problem– gr¨oße 1/31 961 1/63 3969 1/127 16129 1/255 65025 h
Rechenzeit Speicherbedarf ( flops ) (Nichtnullel.) 2.68 · 105 1.11 · 104 2.95 · 106 6.55 · 104 7 2.89 · 10 3.56 · 105 2.92 · 108 1.89 · 106
Wir sehen das prognostizierte Verhalten, wenn auch erkennbar ist, dass sich der Algorithmus noch recht gut verh¨alt.
3.3
Warum keine einfachen Iterationsverfahren verwenden?
Wir haben bereits im vorherigen Abschnitt gesehen, dass direkte Verfahren aus Gr¨ unden der Rechenzeit aber auch vor allem wegen ihres Speicherbedarfs ab einer gewissen Problemgr¨oße nicht mehr in Frage kommen. Wir untersuchen im folgenden einige einfache Standarditerationsverfahren zur L¨osung der Probleme (3.1), (3.3) bzw. ihrer diskretisierten Varianten (3.10), (3.13). Wir werden dabei sehen, dass diese erhebliche Zeit, d.h. sehr viele Iterationsschritte ben¨otigen und daher so nicht verwendet werden k¨onnen.
¨ ELLIPTISCHE RANDWERTPROBLEME 104KAPITEL 3. MEHRGITTERVERFAHREN FUR Wir beginnen mit sehr einfachen Iterationsverfahren der Form x(k+1) = x(k) + B −1 (b − Ax(k) ), k = 0, 1, 2, . . .
(3.18)
mit Startvektor x(0) . Hier verwenden wir als Startwert die 0. B soll hier eine nichtsingul¨are Approximation an A darstellen. Die Theorie solcher Verfahren (siehe z.B. [8, 5]) besagt, dass die Folge der x(k) gegen die L¨osung von Ax = b konvergiert, sofern der Spektralradius ρ(T ) = max{|λ| : λ Eigenwert von T } kleiner als 1 ist f¨ ur T = I − B −1 A. Als Approximationen B an die Ausgangsmatrix betrachten wir mehrere Varianten. Wir nehmen an, es sei A = D−E−E > eine Zerlegung der Ausgangsmatrix in den Diagonalanteil D, den negativen strikten unteren Dreiecksanteil E und entsprechend E > den negativen oberen Dreiecksanteil aus Symmetriegr¨ unden. Als erstes nehmen wir den Diagonalanteil B = D von A. Das zugeh¨orige Verfahren ist auch als Gesamtschrittverfahren oder Jacobi– Verfahren bekannt. Als zweites betrachten wir den unteren Dreiecksanteil von B = D − E von A. Das zugeh¨orige Iterationsverfahren wird als Einzelschrittverfahren oder Gauß– Seidel–Verfahren bezeichnet. Es soll in diesem Zusammenhang so verstanden werden, dass man B −1 nat¨ urlich nicht explizit bildet sondern stattdessen immer ein Gleichungssystem mit B l¨ost. Wir bekommen in Abh¨angigkeit von N folgende Ergebnisse, die in Tabelle 3.2 zusammengefasst sind. Dabei haben wir x(0) = 0 gew¨ahlt und als Abbruchkriterium kb − Ax(k) k∞ 6 10−8 kbk∞ gew¨ahlt. Tabelle 3.2: Standarditerationsverfahren fu ¨ r die 2–dim. Laplace–Gl.
h
Problem– gr¨oße 1/31 961 1/63 3969 1/127 16129
Jacobi Rechenzeit Anzahl ( flops ) Iterationen 7 5.43·10 3834 9.06·108 15354 1.48·1010 61432
Gauß–Seidel Rechenzeit Anzahl ( flops ) Iterationen 7 3.43·10 1918 5.73·108 7678 9 9.37·10 30717
Das Ergebnis ist ¨ahnlich niederschmetternd wie zuvor das Experiment mit dem direkten L¨oser. Zwar ben¨otigen wir erheblich weniger Speicher, die Zahl der Iterationen ist aber derart hoch, dass diese Techniken nicht weiter in Frage kommen. Nun k¨onnen wir nat¨ urlich anstelle von diesen einfachen Iterationsfverfahren auch polynomielle Beschleunigungstechniken verwenden, speziell hier ist nat¨ urlich das cg–Verfahren die naheliegende Variante, da die Ausgangsmatrix symmetrisch positiv definit ist. Als Vorkonditionierung B an A ben¨otigen wir hier aber eine symmetrisch positiv definite Matrix. Wir k¨onnen einmal wieder B = D als Diagonalanteil verwenden und zum anderen ersetzen wir das Gauß–Seidel Verfahren durch seine symmetrisierte Variante B = (D−E > )D−1 (D−E). Tabelle 3.3 zeigt, dass das Ergebnis zwar schon besser ist, aber es ist weit entfernt von effizient. Allem Anschein nach sind diese Approximationen an die Ausgangsmatrix zu grob.
3.3. WARUM KEINE EINFACHEN ITERATIONSVERFAHREN VERWENDEN?
105
Tabelle 3.3: cg–Verfahren fu ¨ r die 2–dim. Laplace–Gl.
h
Problem– gr¨oße 1/31 961 1/63 3969 1/127 16129 1/255 65025
Jacobi Vork. Rechenzeit Anzahl ( flops ) Iterationen 1.29·106 59 7 1.09·10 120 7 9.06·10 245 7.45·108 499
sym. Gauß–Seidel Vork. Rechenzeit Anzahl ( flops ) Iterationen 1.16·106 34 6 9.08·10 64 7 7.00·10 121 5.09·108 218
Nat¨ urlich k¨onnen wir versuchen andere allgemeine Techniken zu verwenden. Die symmetrisierte Variante des Gauß–Seidel Verfahrens (D − E)D−1 (D − E)> kann man als angen¨aherte Cholesky–Zerlegung von A interpretieren, wenn auch der Fehler sicherlich sehr groß ist. Ein Beispiel f¨ ur eine etwas aufwendigere Approximation w¨are die unvollst¨andige Cholesky–Zerlegung, bei der man nur dort Eintr¨age speichert, wo bereits in der Ausgangsmatrix Nichtnullelemente vorhanden sind. Wir erinnern uns daran, dass folgende Gleichung Grundlage f¨ ur die Cholesky–Zerlegung ist. A=
α v> v B
=
α 0 v I
1 α
0 0 S
α v> 0 I
,
> ˜ die dadurch entsteht, wobei S = B − vvα . Wir ersetzen einfach S durch eine N¨aherung S, v i vj dass nur die Eintr¨age bij von B durch bij − α ersetzt werden, die vorher schon von Null verschieden waren. Wie beim symmetrischen Gauß–Seidel–Verfahren bekommen wir eine approximative Zerlegung der Matrix A in der Form
ˆ − E) ˆ D ˆ −1 (D ˆ − E) ˆ >. A ≈ (D Die so entstehende approximative Cholesky–Zerlegung wird auch als ICHOL(0) bezeichnet (ILU(0) im unsymmetrischen Fall). Die Kosten dieser Zerlegung liegen in derselben Gr¨oßenordnung wie die Anzahl der Nichtnullelemente der Matrix. Ein vertretbarer und geringer Rechenaufwand also. Es bleibt die Frage wie sich das cg–Verfahren mit der unvollst¨andigen Cholesky–Zerlegung als Vorkonditionerer in der Praxis verh¨alt. Dieses zeigt uns Tabelle 3.4 Die numerischen Ergebnisse zeigen schon eine erhebliche Steigerung gegen¨ uber dem cg– Verfahren mit Jacobi–Vorkonditionierung und auch gegen¨ uber dem symmetrisierten Gauß– Seidel als Vorkonditionerer. Nichtsdestotrotz auch hier knickt das Verfahren f¨ ur große N nach und nach ein. Feststellung: • Direkte L¨oser kommen wegen des hohen Speicherbedarfs aber auch wegen der Rechenzeit nicht in Betracht.
¨ ELLIPTISCHE RANDWERTPROBLEME 106KAPITEL 3. MEHRGITTERVERFAHREN FUR Tabelle 3.4: ICHOL(0) cg–Verfahren fu ¨ r die 2–dim. Laplace–Gl.
h
Problem– gr¨oße 1/31 961 1/63 3969 1/127 16129 1/255 65025
ICHOL(0) Vork. Rechenzeit Anzahl ( flops ) Iterationen 5 9.40·10 29 7.40·106 55 7 5.69·10 104 8 4.51·10 204
• Einfache Iterationsverfahren (Jacobi, Gauß–Seidel) bieten zwar eine Alternative bzgl. Speicherplatz, sind aber zu langsam. • Aufwendigere Techniken wie die unvollst¨andige Cholesky–Zerlegung funktionieren erheblich besser und sind auch nicht sonderlich speicherplatzintensiv, aber f¨ ur große N auch nicht mehr befriedigend.
3.4
Gl¨ attungsanalyse
Wir nehmen die obigen Beobachtungen zum Anlass, zu untersuchen warum sich die obigen Verfahren so schlecht verhalten. Um die Problematik einfach zu halten, betrachten wir zun¨achst den eindimensionalen Fall, bei dem Jacobi–Verfahren und Gauß–Seidel–Verfahren sogar noch schlechter abschneiden. Der Fehler e(k) = x − x(k) der Gleichung Ax = b l¨asst sich schreiben als e(k+1) = x − x(k+1) = x − x(k) − B −1 (Ax − Ax(k) ) = (I − B −1 A)e(k) . D.h. die Fehlerkomponenten werden mit der Matrix (I − B −1 A) ged¨ampft. Im Falle der Modellprobleme sowie der Jacobi–Gl¨attung ist diese Matrix recht einfach zu beschreiben. Denn dann ist B nur ein Vielfaches der Identit¨at und die Eigenvektoren sind die von A. Im Falle des eindimensionalen Problems (3.1) haben wir f¨ ur ein beliebiges k ∈ N \ {0} −(sin(kπx))00 = k 2 π 2 · sin(kπx), f¨ ur alle x ∈ [0, 1] und sin(kπ · 0) = sin(kπ · 1) = 0. D.h. die Funktionen sin(kπx) sind Eigenfunktionen der homogenen Differentialgleichung −u00 (x) = f (x) in [0, 1], u(0) = u(1) = 0. Es liegt nahe im Falle der diskretisierten Gleichung −ui−1 + 2ui − ui+1 = h2 fi
¨ 3.4. GLATTUNGSANALYSE
107
die gleichen Eigenfunktionen, natu¨ urlich auf das Gitter beschr¨ankt zu verwenden. Wir (k) setzen si = sin kπih Dann erhalten wir mit Hilfe des Additionstheorems sin(φ ± ψ) = sin φ cos ψ ± sin ψ cos φ die Gleichung (k)
(k)
(k)
(k)
−si−1 + 2si − si+1 = 2(1 − cos(kπh))si
F¨ ur i = 1, N treffen die Nullstellen von s(k) zusammen mit den Randwerten (hier homogen). Also sind die Vektoren (k) (3.19) s(k) = si = sin(kπih) i=1,...,N
i=1,...,N
die wir als diskrete Punkte der Eigenfunktionen bekommen haben genau die Eigenvektoren der diskreten Matrix Th aus (3.11). Die zugheh¨origen Eigenwerte sind kπh kπh kπh + sin2 ) = 4 sin2 , 2 2 2 und zwar k¨onnen wir das f¨ ur k = 1, . . . , N machen. Ab k = N + 1, N + 2, . . . bekommen wir wieder dieselben Werte wie bei k = 0, 1, . . ., weil wir ja nur diskrete Punkte betrachten. Allerdings kehren sich Reihenfolge und Vorzeichen um. Die gleiche Argumentation l¨asst ¨ sich auf zwei Raumdimensionen fortsetzen. Siehe (2.34), (2.35) und Ubung 8. (3.20)
h2 λk = 2 − 2 cos(kπh) = 2(1 − cos2
Die Eigenvektoren sind f¨ ur N = 3 (gr¨ une Sterne) und N = 7 (rote K¨astchen) in Abbildung 3.2 abgetragen. Bei den Eigenvektoren f¨allt insbesondere auf, dass mit zunehmenden N h¨ohere und h¨ohere Frequenzen mit hineinkommen. Bei N = 3, 7 haben wir in Abbildung 3.2 einmal auf der linken Seite die niedrigen Frequenzen mit Eigenvektoren f¨ ur beide N , auf der rechten Seite die f¨ ur N = 7 zus¨atzlichen Frequenzen. Die Eigenwerte sind bis auf den Faktor h12 in Abbildung 3.3 abgetragen. Dabei ist zu beachten, dass h12 unterschiedlich f¨ ur N = 3 und N = 7 w¨are. Nachdem wir Eigenvektoren und Eigenwerte betrachtet haben, sehen wir uns an, wie die Fehler in Richtung der Eigenvektoren durch das Jacobi–Verfahren ged¨ampft werden. Ist PN also ein gegebener Fehler e = k=1 αk s(k) bez¨ uglich der Basis s(1) , . . . , s(N ) dargestellt, so ist
N X h2 h2 (I − Th )e = αk (s(k) − Th s(k) ) 2 2 k=1 N X 2 kπh = αk 1 − 2 sin s(k) . 2 k=1 , k = 1, . . . , N treten gerade als D¨ampfungsfaktoren auf. Nur f¨ Die Terme 1 − 2 sin2 kπh ur 2 k um N/2 herum sind diese Werte richtig klein. Wir sehen das in Abbildung 3.4.
Also werden Anteile der L¨osung in Richtung gewisser Frequenzen s(k) nur unzureichend ged¨ampft. Wir k¨onnen versuchen dieses D¨ampfungsverhalten durch Einbringen eines D¨ampfungsparameters ω zu beeinflussen.
¨ ELLIPTISCHE RANDWERTPROBLEME 108KAPITEL 3. MEHRGITTERVERFAHREN FUR
Abbildung 3.2: Eigenvektoren fu ¨ r N = 3, 7
k=1
k=4
k=5 k=2
k=6
k=3 k=7
¨ 3.4. GLATTUNGSANALYSE
109
Abbildung 3.3: Eigenwerte fu ¨ r N = 3, 7
Abbildung 3.4: Gewichte 1 − 2 sin2
cos(kπh)
k
kπh 2
fu ¨ r N = 31, d.h. h =
1 31
¨ ELLIPTISCHE RANDWERTPROBLEME 110KAPITEL 3. MEHRGITTERVERFAHREN FUR D.h. wir setzen x(k+1) = x(k) + ωB −1 (b − Ax(k) ) was im Falle des Jacobi–Verfahrens folgende Fehlerd¨ampfung liefern w¨ urde. (I −
N X ωh2 ωh2 Th )e = αk (s(k) − Th s(k) ) 2 2 k=1
=
N X
αk (1 − 2ω sin2
k=1
kπh (k) )s . 2
Wir k¨onnen nun versuchen ω zu optimieren, d.h. ω so zu w¨ahlen, dass max |1 − 2ω sin2
k=1,...,N
kπh | = min 2
ist. Es stellt sich allerdings heraus, dass dann bereits ω = 1 ist. Wir k¨onnen mit ω also das globale Verhalten nicht verbessern. Was wir aber machen k¨onnen, ist ω so zu w¨ahlen, dass f¨ ur m¨oglichst viele Frequenzen s(k) der Wert |1 − 2ω sin2 kπh | gleichm¨aßig von 1 weg 2 beschr¨ankt ist. Das erreichen wir dadurch, dass wir ω = 32 w¨ahlen. In dem Fall ist n¨amlich f¨ ur k > N/2 4 4 kπh 4 1 2 > sin2 > · = . 3 3 2 3 2 3 Und somit ist kπh 1 (3.21) |6 . max |1 − 2ω sin2 k>N/2 2 3 Wir erhalten somit ein Verfahren, dass f¨ ur die hohen Eigenfrequenzen s(k) , k > N/2 ein sehr gutes D¨ampfungsverhalten hat, aber f¨ ur die verbleibenden niedrigen Frequenzen keine Verbesserung bringt. Wir illustrieren das D¨ampfungsverhalten in der folgenden Abbildung 3.5 f¨ ur einige ausgesuchte Frequenzen. Wir sehen in Abbildung 3.5 insbesondere, dass nur hohe Frequenzen ged¨ampft werden, w¨ahrend die niedrigen Frequenzen nahezu unver¨andert bleiben. Wir haben gesehen, dass wir durchaus in der Lage sind ein Verfahren zu konstruieren, welches auf einem großen Unterraum sehr gut arbeitet. Um aber ein Verfahren zu bekommen, welches das Problem vern¨ unftig approximiert, m¨ ussen wir noch etwas tun.
3.5
Die Grobgitterkorrektur
Wir motivieren im folgenden die sogenannte Grobgitterkorrektur. Aus Abschnitt 3.4 haben wir entnommen, dass wir Verfahren, die auf einem sehr großem Spektrum zufriedenstellend arbeiten relativ leicht konstruieren k¨onnen. Wir sprechen von einer sogenannten Gl¨attung, in Anlehnung an den Effekt, dass hohe Frequenzen stark reduziert werden, w¨ahrend niedrige Frequenzen nahezu unver¨andert bleiben. Nun wissen wir
3.5. DIE GROBGITTERKORREKTUR
111
Abbildung 3.5: Gegl¨ attete Eigenvektoren (N = 7), vorher (rot), nachher (gru ¨ n)
k=1
k=4
k=5 k=2
k=6
k=3 k=7
¨ ELLIPTISCHE RANDWERTPROBLEME 112KAPITEL 3. MEHRGITTERVERFAHREN FUR (siehe z.B. Abbildung 3.2, dass mit zunehmendem N immer mehr hohe Frequenzen in unser Problem hineinkommen. Anders herum gesagt, bei kleinerem N haben wir vornehmlich niedrige Frequenzen. Wir k¨onnen also erwarten, dass der verbleibende Fehler nach der Gl¨attung auf einem gr¨oberen Gitter approximiert werden kann. Im folgenden m¨ ussen wir ¨ lediglich die Uberg¨ange zwischen feinerem Gitter un gr¨oberen Gitter beschreiben. Wir beginnen mit dem Schritt vom feineren Gitter zum gr¨oberen Gitter. In diesem Falle sprechen wir von einer sogenannten Restriktion. Haben wir etwa zwei Gitter Ωh und ΩH mit H = 2h gegeben, so k¨onnten wir nat¨ urlich ΩH wegen der gr¨oberen Maschenweite als Teilmenge von Ωh interpretieren und schlichtweg die triviale Restriktion auf diese Punkte verwenden. Abbildung 3.6 illustriert diese Art der Restriktion. Identifizieren wir N −1 jedes x ∈ RN , y ∈ R 2 mit der Stelle im geometrischen Gitter, so k¨onnen wir statt von x1 , . . . , xN nun von x(h), . . . , x((N − 1)h) im Falle des feineren Gitters sprechen, bzw. von y(H), . . . , y( N 2−1 H) anstelle von y1 , . . . , y N −1 . Diese Notation veranschaulicht die Lage der 2 Unbekannten und erlaubt eine einfache Beschreibung der Restriktion. D.h. y ∈ ΩH ist definiert durch N −1 (3.22) y(iH) = x(iH) = x(2ih), i = 1, . . . , , x ∈ Ωh . 2 Abbildung 3.6: Triviale Restriktion Ωh → ΩH 0
1−H
H
x
x
6
6
x
x
x
0
h
2h
1
x
···
x
6
x
x
···
x
1 − 2h
6
x
1−h
x
1
Dass die triviale Restriktion aus Abbildung 3.6 nicht sehr viel Sinn macht zeigt schon folgende Plausibilit¨atsbetrachtung. Ignorieren wir jeden zweiten Knoten, so gehen die durch diese Knoten verursachten Fehler gar nicht mit ein. Wir k¨onnen diese Fehler nicht korrigieren und somit auch keine berauschende Konvergenz erwarten, wenn u ¨berhaupt. Viel mehr Sinn macht bei der Restriktion die Mittellung u ¨ber die Nachbarn, d.h. y ∈ ΩH wird definiert durch 1 1 1 N −1 (3.23) y(iH) = x(iH − h) + x(iH) + x(iH + h), i = 1, . . . , , x ∈ Ωh . 4 2 4 2 Dieses kann man wieder mit Hilfe eines Sterns verdeutlichen 1 4
1 2
1 4
3.5. DIE GROBGITTERKORREKTUR
113
Geometrisch illustriert Abbildung 3.7 diese Art der Restriktion. Abbildung 3.7: Gemittelte Restriktion Ωh → ΩH 0
1−H
H
x
x
6S 7 o S S S S S x x
6S o S S S S S x x
0
2h
h
3h
···
1
x
··· 7 x
1 − 3h
x
6S 7 o S S S S S x x
1 − 2h
1−h
6
x
1
Neben der Restriktion ben¨otigen wir als n¨achstes die umgekehrte Richtung, n¨amlich die Einbettung des gr¨oberen Gitters ΩH in das feinere Gitter Ωh . Diese Einbettung nennt man u urlich in ¨blicher Weise Prolongation. Es ist naheliegend, die Punkte des groben Gitters nat¨ das feinere Gitter einzubetten. Die fehlenden Punkte im feineren Gitter kann man mittels linearer Interpolation aus den Nachbarn des groben Gitters bekommen. D.h. wir bekommen folgende Interpolationsvorschrift f¨ ur einen gegebenen Wert y ∈ ΩH um daraus x ∈ Ωh zu konstruieren. Wir nutzen wieder die Schreibweise x(ih), y(iH) als Gitterfunktionen um Beziehungen zwischen den Komponenten von x, y und den zugeh¨origen Gittern zu erleichtern.
(3.24) x(ih) =
(
y(jH) 1 y(jH) 2
falls i = 2j
+ 12 y(jH + H) falls i = 2j + 1
, i = 1, . . . , N, y ∈ ΩH .
Anhand von Abbildung 3.8 erkennt man bereits, dass hier das Prinzip der Restriktion umgekehrt wird. In Matrixschreibweise l¨asst sich die Restriktion aus (3.23) darstellen mit Hilfe der Matrix 1 2 1 1 2 1 1 (3.25) R= . . . . . . 4 . . . 1 2 1 Die Prologation P ist bis auf einen Faktor 2 die transponierte Matrix. (3.26)
P = 2R> .
Nach den Betrachtungen die wir in Abschnitt 3.4 angestellt haben wissen wir, dass das ged¨ampfte Jacobi–Verfahren eine gl¨attende Wirkung hat. Speziell die hohen Frequenzen werden gleichm¨assig ged¨ampft. Was fehlt, ist eine Korrektur der niedrigen Frequenzen.
¨ ELLIPTISCHE RANDWERTPROBLEME 114KAPITEL 3. MEHRGITTERVERFAHREN FUR Abbildung 3.8: Interpolation (Prolongation) ΩH → Ωh 0
1−H
H
x
x
···
S S S S S S w ? x
S S S S S S / w ? x x
x
0
h
3h
2h
1
x
x
S S S S S S / w ? x x
···
1 − 3h
1 − 2h
/ ? x x
1−h
1
Deshalb kombinieren wir das ged¨ampfte Jacobi–Verfahren mit einer Korrektur auf dem gr¨oberen Gitter. Im n¨achsten Korrekturschritt w¨ahlen wir als Approximation anstelle des Diagonalanteils von Th die exakte Korrektur, allerdings auf dem gr¨oberen Gitter ΩH . 1
(3.27)
x(k+ 2 ) = x(k) + 23 · 1
h2 (b 2
− Th x(k) ) 1
x(k+1) = x(k+ 2 ) + P TH−1 R(b − Th x(k+ 2 ) ) Das so entstandene Verfahren bezeichnet man als (exaktes) Zweigitter–Verfahren. Im Gegensatz zum sp¨ateren Mehrgitterverfahren betrachten wir zun¨achst nur diesen Fall. Die Verallgemeinerung auf mehrere Gitter l¨asst sich dann rekursiv weiterf¨ uhren. Nat¨ urlich ist das Zweigitter–Verfahren noch keine echte Alternative, weil man das Problem der Dimension N auf eins der Gr¨oße N 2−1 reduziert hat. F¨ ur das Problem der Gr¨oße N 2−1 haben wir aber erst mal die exakte L¨osung z.B. mittels Cholesky–Verfahren unterstellt. Nichtsdestotrotz k¨onnen wir nat¨ urlich dieses einfache Zweigitter–Verfahren bez¨ uglich Iterationsschritten, Gl¨attungsverhalten mit dem gew¨ohnlichen Jacobi– oder Gauß–Seidel–Verfahren vergleichen. Tabelle 3.5 zeigt die gravierende Unterschiede. Der Voll¨andigkeit halber m¨ ussen wir er¨ahnen, dass einmalig der Aufwand f¨ ur die Cholesky-Zerlegung mit hinzukommt. Dieser Aufwand ist vernachl¨assigbar, da das ganze Problem tridiagonal ist und sowieso nur zur Illustration dient. Im zweidimensionalen Fall w¨are die Cholesky–Zerlegung bereits erheblich teurer.
3.6
Mehrgitterverfahren
Wir werden jetzt im folgenden das bisher motivierte Zweigitterverfahren zum Mehrgitterverfahren verallgemeinern. Dabei werden wir auch auf den zweidimensionalen Fall eingehen sowie den Einfluss der Zahl der Gl¨attungs– bzw. Korrekturschritte auf die Konvergenz untersuchen. Außerdem untersuchen wir weitere G¨atter wie z.B. das Gaß–Seidel–Verfahren.
3.6. MEHRGITTERVERFAHREN
115
Tabelle 3.5: Zweigitterverf. fu ¨ r die 1–dim. Laplace–Gl.
h 1 31 1 63 1 127 1 255 1 511 1 1023 1 2047
3.6.1
Jacobi Zeit Anzahl ( flops ) Iter. 1.3·106 3784 1.0·107 15154 7 8.5·10 60632 6.8·108 242555 — — —
Gauß–Seidel Zeit Anzahl ( flops ) Iter. 7.6·105 1893 6.2·106 7578 7 5.0·10 30317 4.0·108 121272 — — —
Zweigitterverf. Zeit Anzahl ( flops ) Iter. 1.9·104 17 4 3.6·10 16 4 7.3·10 16 1.5·105 16 5 2.9·10 16 5.9·105 16 6 1.2·10 16
Cholesky (flops) 5.7·101 1.2·102 2.5·102 5.1·102 1.0·103 2.0·103 4.1·103
Mehrgitterverfahren im eindimensionalen Fall
Bisher haben wir nur zwei Gitter betrachtet. Dies ist zwar vom Prinzip her ausreichend, weil man nat¨ urlich die Idee rekursiv weiterentwickeln kann. Jedoch muss dies auch in der Praxis durch einen Algorithmus umgesetzt werden. Wir motivieren dies anhand des Zweigitterverfahrens. Nach (3.27) bekommen wir durch Kombinations von Gl¨attung und Grobgitterkorrektur eine neue N¨aherung x(k+1) durch folgende Berechnungsvorschrift. 1
x(k+ 2 ) = x(k) + 23 ·
h2 (b 2
− Th x(k) )
1
1
x(k+1) = x(k+ 2 ) + P TH−1 R(b − Th x(k+ 2 ) ) Wir betrachten den Fall mehrerer hierarchischer Gitter Ωh1 ⊆ Ωh2 ⊆ · · · ⊆ Ωhl . Der Einfachheit halber seien sie durch Halbieren der Schrittweite gegeben, d.h. hs+1 = hs /2, s = 1, 2, . . . , l − 1, wobei h1 = N11+1 . Zu jedem dieser Gitter haben wir die diskretisierte ¨ Gleichung in Form der Matrix Ths , s = 1, 2, . . . , l. Die Ubergangsmatrizen (Restriktion und Prolongation) seien jetzt mit (3.28)
Rs : Ωhs → Ωhs−1 , Ps : Ωhs−1 → Ωhs , s = 2, 3, . . . , l
bezeichnet. Eigentlich wollen wir nur das System Thl xhl = bhl auf dem feinsten Gitter l¨osen. Was wir jetzt machen ist im zweiten Schritt der kombinierten Iteration TH−1 durch weitere rekursive Aufrufe zu ersetzen. D.h. statt ein Gleichungssystem 1 der Form TH y = bH mit bH = R(b − Th x(k+ 2 ) ) exakt zu l¨osen, verwenden wir wieder einen Schritt des Zweigitteralgorithmus.
¨ ELLIPTISCHE RANDWERTPROBLEME 116KAPITEL 3. MEHRGITTERVERFAHREN FUR Algorithmus 34 (Mehrgitterschritt) Gegeben: hs f¨ ur ein s ∈ {1, 2, . . . , l}, eine zugeh¨orige rechte Seite bhs , eine N¨aherungsl¨osung xhs . Der folgende Algorithmus berechnet rekursiv eine neue N¨aherung yhs . Falls Sonst
s = 1, l¨ose Th1 yh1 = bh1 direkt. 2 yhs := xhs + 23 · h2 (bhs − Ths xhs ) xhs−1 := 0, bhs−1 := Rs (bhs − Ths yhs ) Rufe Algorithmus 34 auf mit hs−1 , bhs−1 , xhs−1 . Verwende das Ergebnis yhs−1 aus dem rekursiven Aufruf um yhs zu definieren. yhs := yhs + Ps yhs−1 .
In der Praxis rufen wir Algorithmus 34 in jedem Iterationsschritt k nur einmal auf dem (k) feinsten Gitter auf. D.h. wir verwenden hs = hl , bhl , xhl = xhl , der Rest erfolgt rekursiv. (k+1) Die neue N¨aherung ist dann xhl = y hs . Wir erw¨ahnen noch der Vollst¨andigkeit halber, dass sich das Mehrgitterverfahren durch mehrere Schritte Vorgl¨attung und Nachgl¨attung sowie mehrere rekursive Aufrufe verallgemeinern l¨asst. Hierzu w¨ahlen wir zwei Parameter ν1 , ν2 ∈ N die die Anzahl G¨attungsschritte beschreiben soll sowie einen weiteren Parameter µ ∈ N, der die Anzahl rekursiver Aufrufe steuert. Mit Hilfe der Parameter ν1 , ν2 , µ k¨onnen wir nun das allgemeine Mehrgitterverfahren definieren. Zum Zwecke der Allgeinheit ersetzen wir unsere konkrete Matrix Ths durch eine allgemeine Matrix Ahs , die z.B. im Moment Ths selbst sein kann oder sp¨ater die 2 analoge Matrix aus dem zweidimensionalen Problem (3.15). Den Gl¨atter 23 · h2s I ersetzen wir durch einen abstrakten Gl¨atter Sh−1 . s Algorithmus 35 (Mehrgitterschritt) Gegeben: hs f¨ ur ein s ∈ {1, 2, . . . , l}, eine zugeh¨orige rechte Seite bhs , eine N¨aherungsl¨osung xhs . Der folgende Algorithmus berechnet rekursiv eine neue N¨aherung yhs . Falls Sonst
s = 1, l¨ose Ah1 yh1 = bh1 direkt. yhs := xhs Vorgl¨attung Fu ¨r k = 1, 2, . . . , ν1 yhs := yhs + Sh−1 (bhs − Ahs yhs ) s Grobgitterkorrektur Fu ¨r k = 1, 2, . . . , µ xhs−1 := 0, bhs−1 := Rs (bhs − Ahs yhs ) Rufe Algorithmus 35 auf mit hs−1 , bhs−1 , xhs−1 . Verwende das Ergebnis yhs−1 aus dem rekursiven Aufruf um yhs zu definieren. yhs := yhs + Ps yhs−1 . Nachgl¨attung Fu ¨r k = 1, 2, . . . , ν2 yhs := yhs + Sh−1 (bhs − Ahs yhs ) s
3.6. MEHRGITTERVERFAHREN
117
Beim genaueren Hinsehen sieht man, dass bei mehrmaliger Anwendung von Algorithmus 35 eigentlich nur die Summe ν = ν1 + ν2 von nu1 und ν2 ben¨otigt wird. Wenden wir Algorithmus 35 mit µ = 1 and, so k¨onnen wir in Abbildung 3.9 eine Skizze des rekursiven Aufrufs sehen (l = 4). Man bezeichnet dies als “V–Zyklus”. Abbildung 3.9: Schema eines Mehrgitterschrittes “V–Zyklus” Vorgl¨attung
}
}
A
Restriktion A AA U
Vorgl¨attung
}
}
A Restriktion A AAU
Vorgl¨attung
Nachgl¨attung
Prolongation
Nachgl¨attung
Prolongation }
}
Nachgl¨attung
A Restriktion A
Prolongation AAU
Grobgitterkorrektur
Verwenden wir anstelle von µ = 1 jetzt µ = 2, dann werden in jedem Schritt zwei rekursive Aufrufe statt einem durchgef¨ uhrt. Da dies aber auf jedem Gitter hs geschieht, steigt die Zahl der Aufrufe deutlich an. Da dies graphisch wie ein immer wiederholtes “W” aussieht, bezeichnet man dies als “W–Zyklus”. Abbildung 3.10 zeigt die Aufrufe. Abbildung 3.10: Schema eines Mehrgitterschrittes “W–Zyklus” Gl¨attung: v
Grobgitterkorrektur:
v A AU
v A AU v v
v A U A
v A A U U A A
A U A v v A A U UA A
v
A AU
v v A A AU UA
A AU v v
v
A A AU UA
Wir erg¨anzen diese Abbildungen jetzt durch einige numerische Experimente. Dabei vergleichen wir einmal das Mehrgitterverfahren mit gr¨oßtm¨oglicher Zahl Gitter mit dem Zweigitterverfahren. Zum anderen testen wir das Verhalten bei Zunahme von Gl¨attungsschritten. Als Mehrgittervarianten w¨ahlen wir den “V–Zyklus” sowie den “W–Zyklus”. Tabelle 3.6 zeigt die Ergebnisse.
¨ ELLIPTISCHE RANDWERTPROBLEME 118KAPITEL 3. MEHRGITTERVERFAHREN FUR Tabelle 3.6: Mehrgitterverf. fu ¨ r die 1–dim. Laplace–Gl.
h 1 511 1 1023 1 2047 1 4095
Zweigitterv. Zeit Anz. (flops) Iter. 2.9·105 16 5 5.9·10 16 6 1.2·10 16 2.4·106 16
V–Zykl.,ν = 1 Zeit Anz. (flops) Iter. 5.8·105 21 6 1.2·10 21 6 2.5·10 22 4.9·106 22
V–Zykl.,ν = 2 Zeit Anz. (flops) Iter. 5.7·105 15 6 1.2·10 16 6 2.4·10 16 4.9·106 16
W–Zykl.,ν = 1 Zeit Anz. (flops) Iter. 2.4·106 17 6 5.5·10 17 7 1.2·10 16 2.6·107 16
W–Zykl.,ν = 2 Zeit Anz. (flops) Iter. 1.6·106 9 6 3.7·10 9 6 9.2·10 10 1.8·107 9
Tabelle 3.6 zeigt, dass durch Zunahme eines Gl¨attungsschrittes die Zahl der Iterationen nat¨ urlich verringert wird, aber auf Kosten zus¨atzlicher Gl¨attungen pro Schritt auf jedem Gitter. Der W–Zyklus ist nat¨ urlich aufwendiger, hat daf¨ ur weniger Iterationen. Da dieses Beispiel nur eindimaensional ist, sind die numerischen Beispiele sehr akademisch. Insbesondere w¨are nat¨ urlich die Cholesky–Zerlegung f¨ ur tridiagonale Matrizen hier das schnellste Verfahren. Das ¨andert sich im zweidimensionalen Fall.
3.6.2
Mehrgitterverfahren im 2D–Fall
Wir u ¨bertragen nun das Mehrgitterverfahren auf den zweidimensionalen Fall. Das einzige, was wir daf¨ ur tun m¨ ussen ist Restriktion und Prolongation zu u ¨bertragen. Es ist klar, dass die triviale Restriktion auch hier nicht allzuviel Sinn macht. Als erstes Beispiel w¨ahlen wir jeden Knoten aus dem groben Gitter als Mittel u ¨ber sein Analogon im feinen Gitter sowie sechs seiner Nachbarn. Zu diesem Zweck sei x ∈ Ωh und y ∈ ΩH . Wir schreiben x, y wieder als Gitterfunktionen in der Form x(ih, jh), y(ih, jH).
y(iH, jH) =
1 1 x(iH, jH) + [x(iH − h, jH) + x(iH + h, jH) 4 8 + x(iH, jH − h) + x(iH, jH + h)
(3.29)
+x(iH − h, jH − h) + x(iH + h, jH + h)] , i, j = 1, . . . ,
N −1 , x ∈ Ωh . 2
3.6. MEHRGITTERVERFAHREN
119
In Form eines Stern sieht das so aus.
(3.30)
1 8
1 8
1 8
1 4
1 8
1 8
1 8
Ein weiteres Besipiel w¨are die fehlenden Nachbarn auch mit einzubeziehen. Zum Beispiel so. 1 16
1 8
1 16
1 4
1 8
@ @ @ @
1 8
(3.31)
@ @ @ @ 1 16
1 8
1 16
Die hierzu passende Prolongationen sehen dann so aus. Sei dazu y ∈ ΩH . Dann wird x ∈ Ωh wie folgt definiert. Als erstes die Analogie zu (3.30):
(3.32) x(ih, jh) =
y(kH, lH)
1 2
i = 2k, j = 2l
1 2
[y(kH, lH) + y(kH + H, lH)]
i = 2k + 1, j = 2l
1 2
[y(kH, lH) + y(kH, lH + H)]
i = 2k, j = 2l + 1
[y(kH, lH) + y(kH + H, lH + H)] i = 2k + 1, j = 2l + 1
i, j = 1, . . . , N, y ∈ ΩH im Falle von Restriktion (3.29),(3.30). Als zweites f¨ ur den Fall von Restriktion (3.31) w¨are die Analogie bei der Prolongation diese.
(3.33) x(ih, jh) =
y(kH, lH) 1 2
[y(kH, lH) + y(kH + H, lH)]
i = 2k, j = 2l i = 2k + 1, j = 2l
1 [y(kH, lH) + y(kH, lH + H)] i = 2k, j = 2l + 1 2 1 [y(kH, lH) + y(kH, lH + H) i = 2k + 1, 4 +y(kH + H, lH + H) + y(kH + H, lH)] j = 2l + 1
i, j = 1, . . . , N, y ∈ ΩH .
¨ ELLIPTISCHE RANDWERTPROBLEME 120KAPITEL 3. MEHRGITTERVERFAHREN FUR Bezeichnen wir die daraus resultierenden Matrizen wieder mit R : Ωh → ΩH und P : ΩH → Ωh so gilt in beiden F¨allen P = 4R> und wir erhalten damit das Mehrgitterverfahren f¨ ur das zweidimensionale Problem (3.3). Tabelle 3.7 wendet wieder Algorithmus 35 an. Diesmal mit den Restriktionen, Prolongationen aus (3.29), (3.32). Als D¨ampfungsparameter f¨ ur das 2 Jacobi–Verfahren verwenden wir wieder 3 (man kann zeigen, dass die analoge Aussage aus dem eindimensionalen Fall im zweidimensionalen Fall auch g¨ ultig ist). Als Vergleichswerte nehmen wir das in den Experimenten bisher schnellste Verfahren, die Cholesky–Zerlegung. Tabelle 3.7: Mehrgitterverf. fu ¨ r die 2–dim. Laplace–Gl.
h 1 31 1 63 1 127 1 255
Cholesky Zeit (flops) 2.7·105 3.0·106 2.9·107 2.9·108
V–Zykl.,ν = 1 Zeit Anz. (flops) Iter. 2.2·106 44 6 9.5·10 45 4.0·107 46 8 1.7·10 48
V–Zykl.,ν = 2 Zeit Anz. (flops) Iter. 1.7·106 26 6 7.7·10 27 3.2·107 27 8 1.3·10 28
W–Zykl.,ν = 1 Zeit Anz. (flops) Iter. 6 3.7·10 40 7 1.6·10 40 7.0·107 40 8 2.9·10 40
W–Zykl.,ν = 2 Zeit Anz. (flops) Iter. 6 2.3·10 20 7 1.0·10 20 4.5·107 21 8 1.9·10 21
Das direkte Verfahren schneidet immer noch ganz gut ab. Wir k¨onnen das Mehrgitterverfahren noch etwas verbessern. Anstelle des ged¨ampften Jacobi–Gl¨atters kann man das ganz normale Gauß–Seidel–Verfahren einsetzen. Ausserdem k¨onnen wir einen Schritt des Mehrgitterverfahrens als Vorkonditionierer f¨ ur ein cg–Verfahren einsetzen. Wir erkl¨aren kurz, wie man das macht. Bei dem Mehrgitterverfahren handelt es sich um ein zusammengesetztes Iterationsverfahren (Vorgl¨attung, Grobgitterkorrektur, Nachgl¨attung). Im Prinzip kann jedes zusammengesetze iterative Verfahren gelesen werden als ein Schritt eines anderen Verfahren. Betrachten wir zum Beispiel das kombinierte Verfahren x(k+1/2) = x(k) + B1 (b − Ax(k) ) x(k+1) = x(k+1/2) + B2 (b − Ax(k+1/2) ) mit zwei irgendwie gew¨ahlten Approximationen B1 , B2 an A−1 . Der erste Schritt besitzt die Iterationsmatrix I −B1 A, der zweite Schritt I −B2 A. F¨ ur das zusammengesetzte Verfahren bekommt man I − BA ≡ (I − B2 A)(I − B1 A) = I − [B2 + B1 − B2 AB1 ] A | {z } B
Wir k¨onnen also (zumindest formal) die beiden Schritte in einem Schritt zusammenfassen. ⇒ x(k+1) = x(k) + [B1 + B2 − B2 AB1 ] (b − Ax(k) ) Dieses Prinzip ist nat¨ urlich auf mehr als 2 Schritte u ¨bertragbar. Ein einfaches Beispiel ist das symmetrische Gauß–Seidel Verfahren, das aus dem Gauß–Seidel–Verfahren mit Vorw¨artseinsetzen gefolgt von dem Gauß–Seidel–Verfahren mit R¨ uckw¨artseinsetzen zusammengefasst werden kann. Sei dazu wieder A zerlegt in A = D − E − E > mit Diagonalanteil
3.6. MEHRGITTERVERFAHREN
121
D, negativem strikten unteren Dreiecksanteil E und entsprechend E > dem negativen oberen Dreiecksanteil (aus Symmetriegr¨ unden). Dann ist B1 = (D − E)−1 , B2 = (D − E > )−1 und wir erhalten B = B1 + B2 − B2 AB1 = (D − E)−1 + (D − E > )−1 − (D − E > )−1 A(D − E)−1 = (D − E > )−1 (D − E > ) + (D − E) − A (D − E)−1 = (D − E > )−1 D(D − E)−1
Letzteres ist gerade die Inverse des symmetrischen Gauß–Seidel–Verfahrens. Vom Prinzip her k¨onnen wir beim Mehrgitterverfahren genauso vorgehen. Ein Schritt des Zweigitterverfahrens (der Einfachheit halber) besitzt die zusammengesetzte Iterationsmatrix (3.34)
µ ν1 I − M2 A ≡ (I − Sh2 Ah2 )ν2 (I − P2 A−1 h1 R2 Ah2 ) (I − Sh2 Ah2 )
Hier haben wir gleich insgesamt k = ν1 + µ + ν2 einzelne Iterationsschritte zusammenzufassen. Dies ist formal etwas aufwendiger. Wir beschreiben daher kurz die Herangehensweise. Ist etwa ein aus k Schritten zusammengesetztes iteratives Verfahren gegeben durch die Iterationsmatrix (I − Ak A)(I − Ak−1 A) · · · (I − A1 A) ≡ I − BA so erhalten wir durch Aufl¨osen nach B die Formel B = [I − (I − Ak A)(I − Ak−1 A) · · · (I − A1 A)] A−1 . Tats¨achlich taucht A−1 nur formal auf. Durch Ausmultiplizieren k¨onnten wir verfizieren, dass sich A−1 immer gegen A herausk¨ urzt. Trotzdem ist diese Formel nicht praktikabel, wenn wir sie etwa beim Mehrgitterverfahren einsetzen wollen. Uns w¨are uns lieber, wenn wir ein Schema h¨atten, das wir so auch ohne zus¨atzlichen Aufwand umsetzen k¨onnten. Sei dazu etwa Bl,k ≡ [I − (I − Ak A)(I − Ak−1 A) · · · (I − Al A)] A−1 . Dann ist B = B1,k und wir erhalten die Rekursionsformel
(3.35)
B ≡ = = =
B1,k [I − (I − Ak A)(I − Ak−1 A) · · · (I − A1 A)] A−1 [I − (I − Ak A)(I − Ak−1 A) · · · (I − A2 A)] A−1 (I − AA1 ) + A1 B2,k (I − AA1 ) + A1
Allgemein haben wir damit eine rekursive Darstellung von B = B1,k f¨ ur s = 1, 2, . . . , k − 1.
(3.36)
s
Bs,k = Bs+1,k (I − AAs ) + As Bk,k = Ak
Die Anwendung von B auf einen Vektor x w¨ urde jetzt so aussehen.
¨ ELLIPTISCHE RANDWERTPROBLEME 122KAPITEL 3. MEHRGITTERVERFAHREN FUR Berechne y = Bb y=0 for s = 1, 2, . . . , k if s > 1: b = b − Ad Bestimme d = As b (ggf. durch L¨osen eines Gleichungssystems) y =y+d Dieses Schema l¨asst sich nat¨ urlich auch auf einen Schritt des Zweigitter– oder des Mehrgitterverfahrens anwenden. Damit bekommen wir auf dem feinsten Gitter einen Vorkonditionierer des cg–Verfahrens in Form eines Mehrgitterschrittes. Um sicherzustellen, dass der aus einem Schritt des Mehrgitterverfahrens entstandene Vorkonditionierer symmetrisch ist, muss lediglich ν1 = ν2 gew¨ahlt werden und bei der Nachgl¨attung Sh>s anstelle von Shs verwendet werden. Die Darstellung (3.34) bezieht sich nur auf das Zweigitterverfahren. Man kann sich u ¨berlegen, das im Falle des Mehrgitterverfahrens die zu (3.34) analoge Iterationsmatrix gegeben ist durch Ml , welche selbst rekursiv f¨ ur s = l, l − 1, . . . , 2 definiert ist. s>1: (3.37) s = 1 :
I − Ms A = (I − Shs Ahs )ν2 (I − Ps Ms−1 Rs Ahs )µ (I − Shs Ahs )ν1 , M1 = A−1 1
Tabelle 3.8 zeigt die deutliche Verbesserung bei der Kombination des cg–Verfahrens mit einer Mehrgittervorkonditionierung. Tabelle 3.8: cg mit Mehrgittervork. fu ¨ r die 2–dim. Laplace–Gl.
h 1 31 1 63 1 127 1 255
V–Zykl.,ν1 ged. Jacobi Zeit Anz. (flops) Iter. 6.8·105 11 2.9·106 11 7 1.3·10 12 7 5.3·10 12
= ν2 = 1 Gauß–Seidel Zeit Anz. (flops) Iter. 6.6·105 9 2.8·106 9 7 1.2·10 9 7 4.7·10 9
W–Zykl.,ν1 = ν2 = 1 ged. Jacobi Gauß–Seidel Zeit Anz. Zeit Anz. (flops) Iter. (flops) Iter. 1.1·106 10 9.7·105 8 6 4.7·10 10 4.3·106 8 7 7 2.0·10 10 1.8·10 8 7 7 8.2·10 10 7.5·10 8
Wir haben in diesem Abschnitt ein– und zweidimensionale Mehrgitterverfahren gesehen in ¨ verschiedenen Raumdimensionen und mit verschiedenen Gl¨attern. Die Uberlegenheit dieser Verfahren ist anhand numerischer Beispiele demonstriert worden.
3.7
Eine elementare Konvergenzanalyse
In diesem Abschnitt geben wir eine genaue Konvergenzanalyse des Zweigitterverfahrens an. Wir beschr¨anken uns dabei auf den eindimensionalen Fall. Auf den zweidimensionalen ¨ Fall werden wir aber auch kurz eingehen und die Ubertragungen andiskutieren.
3.7. EINE ELEMENTARE KONVERGENZANALYSE
123
Wir unterscheiden in diesem Abschnitt zwischen feinem Gitter Ωh und groben Gitter ΩH . Zur besseren Unterscheidung tragen die entsprechenden Eigenvektoren deshalb einen zus¨atzlichen Index.
3.7.1
Konvergenzanalyse im 1D–Fall
Wir gehen bei der Konvergenzanalyes in drei Schritten vor. Schritt eins ist die Gl¨attung, der zweite Schritt besteht aus der Restriktion und der dritte schließlich behandelt die Prolongation. Alle drei zusammen liefern dann die Fehlerabsch¨atzung f¨ ur einen Schritt des Mehrgitterverfahrens. Wie PN wir bereits im(k)Abschnitt 3.4 gesehen haben ist bei gegebenen Eingangsfehler e = attung gegeben durch k=1 αk cos(kπh)sh der Fehler nach einem Schritt Gl¨ N
(I − ω
(3.38)
X kπh (k) h2 Th )e = αk (1 − 2ω sin2 )sh . 2 2 k=1 (k)
Dabei w¨ahlen wir ω = 23 , um die G¨attungseigenschaft zu sichern. sh =
sin(ikπh)
, i=1,...,N
k = 1, . . . , N sind die Eigenvektoren von Th aus (3.19). Th besitzt nach (3.20) die Eigen(k) werte λh = h42 sin2 kπh . Wir betrachten den Fall, dass das exakte Zweigitterverfahren 2 ν = ν1 Schritte Vorgl¨attung sowie µ = 1 Schritt Grobgitterkorrektur verwendet. Man kann u ¨brigens zeigen, dass beim exakten Zweigitterverfahren mehr als eine Grobgitterkorrektur keine Verbesserung bringen, weil ein Schritt Grobgitterkorrektur eine exakte orthogonale Projektion im Sinne des durch Th erzeugten inneren Produktes darstellt. Schritt 1: die Gl¨ attung Wenden wir insgesamt ν Gl¨attungsschritte an, so erhalten wir in Analogie zu (3.38) nun N
X 2 h2 4 kπh ν (k) Th )ν e = αk (1 − sin2 ) sh . (I − 3 2 3 2 k=1
(3.39)
Gleichung (3.39) beschreibt die Fehlergewichte nach ν Schritten Gl¨attung. Aus (3.21) wis ν 6 1ν ist. sen wir, dass f¨ ur k > N/2, 1 − 34 sin2 kπh 2 3 Wir kommen nun zum anschließenden Korrekturschritt. Der Fehler ist dann 2 h2 (3.40) Th )ν e. f = (I − P TH−1 RTh )(I − 3 2 Mit Hilfe von (3.39) bekommen wir f =
N X
αk (1 −
4 2 kπh ν (k) sin ) (I − P TH−1 RTh )sh 3 2
=
N X
αk (1 −
4 2 kπh ν (k) 4 kπh (k) sin ) (sh − 2 sin2 P TH−1 Rsh ) 3 2 h 2
k=1
(3.41)
k=1
¨ ELLIPTISCHE RANDWERTPROBLEME 124KAPITEL 3. MEHRGITTERVERFAHREN FUR Schritt 2: die Restriktion Als n¨achstes betrachten wir die Restriktion y = Rs(k) . Wegen
sin((i − 1)kπh) + 2 sin(ikπh) + sin((i + 1)kπh) =
sin(ikπh) cos(kπh) − sin(kπh) cos(ikπh) +2 sin(ikπh) + sin(ikπh) cos(kπh) + sin(kπh) cos(ikπh) = 2 (1 + cos(kπh)) sin(ikπh)
(3.42)
bekommen wir f¨ ur die Restriktionsvorschrift (3.23) 1 1 N −1 1 , x ∈ Ωh . y(iH) = x(iH − h) + x(iH) + x(iH + h), i = 1, . . . , 4 2 4 2 (k)
folgende Beziehung (angewendet auf jedes einzelne sh ): 1 (k) 1 (k) 1 (k) sh (jH − h) + sh (jH) + sh (jH + h) 4 2 4 1 + cos(kπh) = sin(jkπH) 2 kπh N −1 = cos2 sin(jkπH), j = 1, . . . , . 2 2
y(jH) =
(3.43)
Dabei haben wir nur gerade Werte i = 2j verwendet und 2ih = jH ausgenutzt. Folgerung: (k)
Rsh = cos2
(3.44)
kπh (k) s , k = 1, . . . , N. 2 H
Aus Symmetriegr¨ unden gilt bereits (k)
Rsh = − cos2 ( N2+1 )
und Rsh
( N +1 )
wird auf sH 2
Sei f = (I − P TH−1 RTh )(I − f =
=
N X k=1 N X
kπh (N +1−k) N +1 sH , k= , . . . , N. 2 2
= 0 abgebildet. Die Analyse ben¨otigt diese Details aber nicht. 2 h2 T )ν e. 3 2 h
Damit erhalten wir f¨ ur unser Zweigitterverfahren
αk (1 −
4 2 kπh ν (k) 4 kπh (k) sin ) (sh − 2 sin2 P TH−1 Rsh ) 3 2 h 2
αk (1 −
4 2 kπh ν (k) 4 kπh 2 kπh (k) sin ) (sh − 2 cos2 sin P TH−1 sH ) 3 2 h 2 2
k=1 N X
4 2 kπh ν (k) 4 H2 (k) 2 kπh 2 kπh = αk (1 − sin ) (sh − 2 cos sin P sH ) 2 kπH 3 2 h 2 2 4 sin 2 k=1 (3.45)
=
N X k=1
αk (1 −
4 2 kπh ν (k) (k) sin ) (sh − P sH ). 3 2
3.7. EINE ELEMENTARE KONVERGENZANALYSE
125
(k)
Dabei haben wir ausgenutzt, dass nach (3.20), sH Eigenvektor von TH−1 zum Eigenwert H2 = 4 sin2 kπH 4 cos2 2
h2 kπh 2
sin2
kπh 2
ist. (3.45) zeigt eindrucksvoll, dass nach einem Schritt Grobgitterkorrektur der Fehler genau (k) (k) durch den Fehler sh − P sH bestimmt wird. D.h. das ist der Fehler der zwischen den (k) interpolierten Eigenvektoren P sh des gr¨oberen Gitters (die zu den niedrigen Frequenzen (k) geh¨oren) und den Eigenvektoren sh des feineren Gitters entsteht. Wir erwarten, dass (k) dieser Fehler klein ist, sofern k < N/2 ist, also in dem Fall wo sh selbst zu den niedrigen Frequenzen z¨ahlt. Aus Abschnitt 3.4 werden die hochfrequenten Anteile f¨ ur k > N/2 durch die Gl¨attung ged¨ampft werden. Dieser Anteil entspricht gerade dem Faktor (1− 34 sin2 kπh )ν . 2 Schritt 3: die Prolongation (k)
Als letzten Schritt ist jetzt die Prolongation x = P sH zu untersuchen. F¨ ur gerades i = 2j ist nach (3.24) (3.46)
x(ih) = sin(jkπH) = sin(ikπh) = − sin(i(N + 1 − k)πh).
Ansonsten ist f¨ ur ungerades i = 2j + 1 nach (3.24) 1 1 sin(jkπH) + sin((j + 1)kπH) 2 2 1 1 = sin((i − 1)kπh) + sin((i + 1)kπh) 2 2 = cos(kπh) sin(ikπh) = cos(kπh) sin(i(N + 1 − k)πh)
x(ih) =
(3.47)
Wir k¨onnen die Gleichungen (3.46), (3.47) f¨ ur gerades und ungerades i vereinheitlichen. Es ist f¨ ur gerades i = 2j x(ih) =
1 + cos(kπh) 1 − cos(kπh) sin(ikπh) − sin(i(N + 1 − k)πh) 2 2
und f¨ ur ungerades i = 2j + 1 x(ih) =
cos(kπh) + 1 cos(kπh) − 1 cos(kπh) sin(ikπh) + cos(kπh) sin(i(N + 1 − k)πh). 2 cos(kπh) 2 cos(kπh)
D.h. wir haben unter Ausnutzung der Additionstheoreme f¨ ur alle i = 1, . . . , N (3.48)
x(ih) = cos2
kπh kπh sin(ikπh) − sin2 sin(i(N + 1 − k)πh). 2 2
Hieraus folgt sofort (3.49)
(k) P sH
=
h
(k) (N +1−k) sh , sh
i cos2 kπh 2 . − sin2 kπh 2
¨ ELLIPTISCHE RANDWERTPROBLEME 126KAPITEL 3. MEHRGITTERVERFAHREN FUR F¨ ur den Fehler f des Zweigitterverfahrens aus (3.45) folgt hieraus f =
N X
αk (1 −
k=1 N X
4 2 kπh ν (k) (k) sin ) (sh − P sH ) 3 2
4 kπh ν (k) h (k) (N +1−k) i = αk (1 − sin2 ) (sh − sh , sh 3 2 k=1 =
N X
αk (1 −
=
N X
(αk + αN +1−k ) (1 −
k=1
cos2 kπh 2 − sin2 kπh 2
)
i 4 2 kπh ν 2 kπh h (k) (N +1−k) sin ) sin sh + sh 3 2 2
k=1
4 2 kπh ν 2 kπh (k) sin ) sin s 3 2 2 h
Als Fehlergewichte treten also die Faktoren (1 − 43 sin2 αk + αN +1−k anstelle von αk ).
kπh ν ) 2
sin2
kπh 2
auf (neben der Summe
Die Funktion
4 2 tπ ν 2 tπ sin ) sin , t ∈ [0, 1] 3 2 2 beschreibt genau das Zusammenspiel zwischen Gl¨attung und Grobgitterkorrektur. Der Anteil (1 − 43 sin2 tπ2 )ν stammt aus der Gl¨attung und ist f¨ ur t > 1/2 (entspricht k > N/2) 2 tπ betraglich klein. Der Anteil sin 2 kommt durch die Grobgitterkorrektur hinzu und ist f¨ ur t 6 1/2 (entspricht k 6 N/2) klein. Also muss das Produkt immer betraglich klein sein. fν (t) = (1 −
Wir betrachten einmal f¨ ur ν = 1 die Werte der Funktion fν und ihrer Gl¨attungs– und Grobgitterkorrekturanteile. Siehe Abbildung (3.11). Wir stellen insbesondere fest, dass in Abh¨angigkeit von ν folgende betragliche Maxima f¨ ur fν auftreten (Tabelle (3.9)). Tabelle 3.9: Konvergenzraten fu ¨ r das exakte Zweigitterverfahren ν
1
2
3
ν>2
ρ = max |fν (t)|
1 3
1 9
34 45
3 νν 4 (ν + 1)ν+1
t∈[0,1]
Diese Maxima sind alle gleichm¨aßig beschr¨ankt f¨ ur Werte die deutlich kleiner als 1 sind. Zusammengefasst erhalten wir folgenden Satz. Satz 36 Das exakte Zweigitterverfahren (k Schritte) mit ged¨ampftem Jacobi–G¨atter (ω = 2 ) und ν Gl¨attungsschritten liefert folgende Fehlerabsch¨atzung angewendet auf das eindi3 mensionale Modellproblem (3.1) (unter Verwendung der Diskretisierung (3.10) und Restriktion, Prolongation aus (3.23), (3.24)):
3.7. EINE ELEMENTARE KONVERGENZANALYSE
127
Abbildung 3.11: Gl¨ attung, Grobgitter und Kombination beider (ν = 1)
Gl¨attung
Grobgitterkorrektur
Kombination: Zweigitterverfahren
¨ ELLIPTISCHE RANDWERTPROBLEME 128KAPITEL 3. MEHRGITTERVERFAHREN FUR
k 2 h2 −1 ν k (I − P TH RTh )(I − ek2 6 2ρk kek2 , f¨ ur alle e ∈ Rn , Th ) 3 2 wobei f¨ ur ρ die Werte aus Tabelle (3.9) gelten. (k)
Beweis. Dies folgt sofort aus den obigen Betrachtungen, weil die sh , k = 1, . . . , N orthogonal zueinander sind. Der Faktor 2 ergibt sich aus der Absch¨atzung hP i1/2 hP i1/2 N 2 N 2 (α + α ) 6 2 α . Dieser Faktor tritt bei 2 und mehr k N +1−k k=1 k=1 k Schritten nicht mehr zus¨atzlich auf, da nach einem Schritt des Zweigitterverfahrens dieser Anteil symmetrisiert ist. 2 √ Als Abbruchkriterium f¨ ur das Mehrgitterverfahren ist bisher immer eps ≈ 1.5 · 10−8 gew¨ahlt worden (verglichen mit der Ausgangsnorm). Nach 16 bzw. 17 Schritten ist im Falle von ν = 1 gerade 2ρ1 6 ≈ 4.6 · 10−8 sowie 2ρ1 7 ≈ 1.5 · 10−8 . Somit reichen 16–17 Schritte f¨ ur diese Genauigkeit aus. Tabelle (3.5) zeigt genau dieses Verhalten!
3.7.2
¨ Ubertragung auf den 2D–Fall
Wir betrachten jetzt grob die Verallgemeinerung auf den zweidimensionalen Fall. Als erstes bekommen wir die Eigenfunktionen des zweidimensionalen Problems −∆u = f in Ω, u = 0 on ∂Ω durch Tensorproduktbildung der eindimensionalen Eigenfunktionen bekommen. Als Eigenwerte und Eigenvektoren der Matrix Ah bekommen wir (siehe (2.34), (2.35)) e(k,l) (ih, jh) = sin(ikπh) sin(jlπh)m 4 2 kπh 2 lπh + sin . λk,l = 2 sin h 2 2 Die Gl¨attungsanalyse aus Abschnitt 3.4 liefert hier ebenfalls ω = 23 . Das liegt daran, dass durch das Tensorieren der Eigenfunktion/Eigenvektoren, f¨ ur k > N/2 oder l > N/2 der zugeh¨orige Eigenvektor bereits hochfrequent ist. Wichtigstes algebraisches Hilfsmittel im zweidimensionalen Fall ist die Tatsache, dass Ah = Th ⊗ I + I ⊗ Th ¨ ist, wobei ⊗ das Kroneckerprodukt zweier Matrizen bezeichnet (siehe Ubung 8). Diese Darstellung erlaubt es i.w. die eindimensionalen Anteile in x–Richtung und y–Richtung weitestgehend separat zu behandeln und auf den eindimensionalen Fall zur¨ uckzuf¨ uhren. Satz 36 kann fast wortw¨ortlich u ¨bertragen werden. Einziger Unterschied ist, dass der Trick mit dem Faktor 2 nicht mehr klappt. Zusammengefasst erhalten wir folgenden Satz.
¨ VARIATIONSPROBLEME 3.8. MEHRGITTERARTIGE VERFAHREN FUR
129
Satz 37 Das exakte Zweigitterverfahren (k Schritte) mit ged¨ampftem Jacobi–G¨atter (ω = 2 ) und ν Gl¨attungsschritten liefert folgende Fehlerabsch¨atzung angewendet auf das zwei3 dimensionale Modellproblem (3.3) (unter Verwendung der Diskretisierung (3.13) und Restriktion, Prolongation aus (3.29), (3.32)). k 2 h2 −1 ν ek2 6 (2ρ)k kek2 , f¨ k (I − P TH RTh )(I − Th ) ur alle e ∈ Rn , 3 2 wobei f¨ ur ρ die Werte aus Tabelle (3.9) gelten. Die Ergebnisse dieses Abschnittes gelten nur f¨ ur das exakte Zweigitterverfahren. Eine Verallgemeinerung auf den Fall des Mehrgitterverfahrens fehlt bisher und soll auch aus Gr¨ unden der einfacheren Darstellung weggelassen werden.
3.8
Mehrgitterartige Verfahren fu ¨ r Variationsprobleme
Wir haben uns bisher auf sehr spezielle F¨alle des Mehrgitterverfahrens beschr¨ankt. Dies war lediglich ein Modellproblem auf einem Rechteckgitter (in 2D) mit spezieller Diskretisierung und daf¨ ur zurechtgeschnittenen Restriktionen und Prolongationen. Der f¨ ur diese Problemklasse ad¨aquate Zugang besteht u ¨blicher Weise in Finite–Elemente–Methoden(FEM). Als Literatur sei z.B. [3, 13] verwiesen. Es gibt aber auch viele weitere B¨ ucher.
3.8.1
Variationsformulierung
Dazu wird das Problem (3.5), (3.6) aus Abschnitt 3.1 (3.50)
− div (A grad u) = f, in Ω
(3.51)
u = g auf Γ1 , ν > A grad u = h, auf Γ2 .
durch Integration in die schwache Formulierung (2.66) u uhrt. Betrachten wir der Ein¨berf¨ fachheit den Fall homgener Randbedingungen. Zu gegebenen f ∈ H0−1 (Ω) bestimme ein u ∈ H01 (Ω), so dass (3.52) a(v, u) = f (v), f¨ ur alle v ∈ H01 (Ω). Dieses Problem besitzt eine eindeutige L¨osung.
3.8.2
Finite Elemente
Bei der Beschr¨ankung von v auf einen Ansatzraum finiter Elemente, etwa lineare Elemente auf Dreiecksnetzen bekommen wir dann eine eindeutige L¨osung uh ∈ Sh,0 des Problemes (3.53)
a(vh , uh ) = f (vh ), f¨ ur alle vh ∈ Sh,0 .
¨ ELLIPTISCHE RANDWERTPROBLEME 130KAPITEL 3. MEHRGITTERVERFAHREN FUR Eine M¨oglichkeit ist, das Modellgebiet Ω = [0, 1]2 mit einem Dreiecksnetz zu u ¨berziehen (Abbildung 3.12). Abbildung 3.12: Triangulierung des Gebietes Ω
@ @
y
x
@ @
Auf dem Raum Sh das Variationsproblem (3.52), (3.53) ¨aquivalent zu (3.54)
3.8.3
Ah u = b h .
Mehrgitterverfahren fu ¨ r FEM–Diskretisierung
Wie bereits bei der Verwendung finiter Differenzen so wird auch bei der Verwendung finiter Elemente eine Hierarchie verwendet. Die Hierarchie der Gitter bei der Differenzenmethode wird ersetzt durch hierarchisch geschachtelte Dreiecksnetze Ωh1 ⊆ Ωh2 ⊆ · · · ⊆ Ωhl und daraus resultiert eine entsprechende nat¨ urliche Einbettung der zugeh¨origen Ansatzr¨aume Sh1 ⊆ Sh2 ⊆ · · · ⊆ Shl . Die Einteilung des Problems (3.53) in eine Hierarchie von Ansatzr¨aumen ist Grundlage f¨ ur viele mehrgitterartige Verfahren. Daf¨ ur braucht man lediglich Interpolationsoperatoren vom gr¨oberen Gitter in das feinere Gitter. Diese sind kanonisch, weil die R¨aume ineinander geschachtelt sind. Betrachten wir etwa ein Beispiel wo die Hierarchie der Triangulierung durch sukzessive Viertelung der bestehenden Dreiecke entsteht (Abbildung 3.13). (k)
Verwenden wir etwa st¨ uckweise lineare Basisfunktionen ψh zur Triangulierung der Seitenl¨ange h eines Dreiecks sowie eine beliebige st¨ uckweise lineare Basisfunktion ψH zur Triangulierung der Seitenl¨ange H = 2h.
¨ VARIATIONSPROBLEME 3.8. MEHRGITTERARTIGE VERFAHREN FUR
Abbildung 3.13: Verfeinerte Triangulierung
131
¨ ELLIPTISCHE RANDWERTPROBLEME 132KAPITEL 3. MEHRGITTERVERFAHREN FUR Eine Basisfunktion ψH kann durch Wahl der Funktionswerten in den Eckpunkte der Dreiecke beschrieben werden. Im Falle von ψH k¨onnen wir annehmen, dass es einen festen Punkt (x0 , y0 ) = (iH, jH) gibt an dem ψH gerade den Wert 1 hat und sonst u ¨berall 0 ist. D.h. wir haben ψH (x, y) =
1 falls (x, y) = (x0 , y0 ) 0 falls |x − x0 | = lH oder |y − y0 | = mH, l, m = 1, 2, 3, . . .
in den Eckpunkten und ψH linear auf jedem Dreieck. Die benachbarten Basisfunktionen auf dem feineren Gitter erf¨ ullen analoge Bedingungen: (k) (k) 1 falls (x, y) = (x0 , y0 ) (k) ψh (x, y) = 0 falls |x − x0 | = lh oder |y − y0 | = mh, l, m = 1, 2, 3, . . . (k)
(k)
Dabei sind die Punkte (x0 , y0 ) gerade (x0 , y0 ) und dessen Nachbarpunkte auf dem feinen Gitter (k)
(k)
(x0 , y0 ) ∈ {(x0 , y0 ), (x0 ± h, y0 ), (x0 , y0 ± h), (x0 + h, y0 + h), (x0 − h, y0 − h)}. (k)
In Abbildung 3.14 sind ψH und ψh geometrisch dargestellt. Abbildung 3.14: Basisfunktionen grobes Gitter, feines Gitter
(0)
Ist ψh die Basisfunktion mit gleichem Mittelpunkt (x0 , y0 ) wie ψH , so k¨onnen wir sehr (k) leicht ψH als Linearkombination der ψh darstellen. Es gilt: (3.55)
(0)
ψH = ψh +
1 X (k) ψ . 2 k6=0 h
¨ VARIATIONSPROBLEME 3.8. MEHRGITTERARTIGE VERFAHREN FUR
133
Abbildung 3.15: Basisfkt. grobes Gitter bzgl. der Basisfktn. des feinen Gitters
(k)
Dabei sind die verbleibenden (sechs) Basisfunktionen ψh , k 6= 0 jeweils nur mit tet. Beziehung (3.55) ist sehr anschaulich in Abbildung 3.15 dargestellt.
1 2
gewich-
Mit Hilfe von (3.55) erhalten wir auf nat¨ urliche Weise den Prolongationsoperator Ps und als Transponierte die Restriktion. (3.56)
Ps : Shs−1 → Shs , Rs = Ps> , s = 2, . . . , l.
Dass die Restriktion genau die Transponierte der Interpolation ist, kann man am besten dadurch verstehen, dass per Konstruktion der finiten Element–R¨aume und ihrer Basen gilt: (3.57)
Ahs−1 = Ps> Ahs Ps , s = 2, . . . , l.
Damit ist die exakte Grobgitterkorrektur I − Ps Ahs−1 Ps> Ahs ein orthogonaler Projektor im Sinne des durch Ahs definierten inneren Produktes. Nachdem wir gesehen haben, dass bei den Finite–Elemente–Methoden unter Verwendung der sogenannten nodalen Basis (lokaler Tr¨ager) auf nat¨ urliche Weise Restriktions– und Prolongationsoperatoren entstehen, l¨asst sich das Mehrgitterverfahren nat¨ urlich sofort u ¨bertragen. Wir verwenden einfach Algorithmus 35 mit den f¨ ur die FEM nat¨ urlichen Ps , Rs aus (3.56) und den entsprechenden Matrizen Ahs , die aus der Diskretisierung hervorgehen. Insbesondere sind wir nicht mehr an Rechteckgitter gebunden, sondern die Interpolation passt sich der nat¨ urlichen gebietsabh¨angigen Einbettung des gr¨oberen Raumes SH in den feineren Raum Sh an.
3.8.4
Weitere mehrgitterartige Verfahren
Vor einigen Jahren sind in der numerischen Behandlung der FEM Methoden vorgestellt worden, die ebenfalls die Hierarchie der R¨aume SH , Sh beutzen, jedoch etwas anders aufge-
¨ ELLIPTISCHE RANDWERTPROBLEME 134KAPITEL 3. MEHRGITTERVERFAHREN FUR baut sind. Der erste Verfahren dieser Art ist die sogenannte Hierarchische Basis [14]. Dabei wird vereinfacht gesagt ein Basiswechsel von der nodalen Basis auf dem feinsten Gitter hin zu einer Hierarchischen Basis durchgef¨ uhrt, bei der zun¨achst die Basis des gr¨obsten Gitters verwendet wird. Diese wird dann erg¨anzt durch Basisfunktionen des n¨achst feineren Gitters, um so eine Basis des zweitgr¨obsten Raumes zu bekommen. Dieses Verfahren wird von Raum zu Raum fortgesetzt (siehe Abbildung 3.16). Man kann zeigen, dass zumindest in zwei Raumdimensionen die so transformierte Matrix lediglich mit einer Diagonalskalierung versehen werden muss, damit man bei Anwendung des cg–Verfahrens eine von h fast unabh¨angige (logarithmisch) Zahl von Iterationen zu bekommen. Die Matrix wird in dieser Basisdarstellung u ¨blicher Weise nicht gebildet, weil die Martix deutlich mehr Nichtnulleintr¨age hat als bei der nodalen Basis.
Abbildung 3.16: Hierarchische Basis
v v
v v
v
v
v v
v
v
v
v
v
v
v
v
v
v
v
v
v v
v
v v
v v
v
v v
v v
v
v v
v
v
v v
v
v
v v
v
v
v v
v
v
vvvvvvvvvvvvvvv v v v v v v v v vvvvvvvvvvvvvvv v v v v v v v v vvvvvvvvvvvvvvv v v v v v v v v vvvvvvvvvvvvvvv v v v v v v v v vvvvvvvvvvvvvvv v v v v v v v v vvvvvvvvvvvvvvv v v v v v v v v vvvvvvvvvvvvvvv v v v v v v v v vvvvvvvvvvvvvvv
In drei Raumdimensionen erweist sich dieses Verfahren jedoch als unbefriedigend. Der Ersatz hierf¨ ur besteht in der Verwendung eines Erzeugendensystems, wo man die Basis nicht einfach nur erg¨anzt, sondern durch erheblich mehr Funktionen der jeweils feineren Gitter erg¨anzt. Auf die Details dieses Verfahrens soll hier verzichtet werden und auf die einschl¨agige Literatur verwiesen werden, die u ¨blicher Weise unter dem Stichwort BPX (nach den Anfangsbuchstaben der Autoren) [4] zu finden ist.
¨ 3.9. UBUNGEN ZU KAPITEL 3
135
Weitere Techniken die zur Klasse der geometrischen Mehrgitterverfahren z¨ahlen, sind die in [1, 2] vorgestellte Klasse der AMLI–Verfahren. Die Bezeichnung algebraisch bezieht sich dabei nicht auf eine von der Geometrie losgel¨oste Herangehensweise, sondern auf die verwendeten Techniken wie etwa approximative Schur–Komplementbildung und die damit verbundenen Beweistechniken. Ebenfalls Techniken der unvollst¨andigen Dreieckszerlegung aber wiederum bei bekannter Geometrie und Hierarchie verwenden Arbeiten in [11, 10, 12]. Diese sind speziell als robuste Mehrgitterverfahren f¨ ur die Konvexions–Diffusionsproblematik konstruiert.
3.9
¨ Ubungen zu Kapitel 3
¨ Ubung 25 Betrachte das Problem −∆u = 1 in Ω, u = 0 auf ∂Ω, wobei Ω = [0, 1]2 . Verwende finite Differenzen (5–Punkte–Stern) mit h = Teste folgende Verfahren:
1 N +1 ,
N = 10, 20, 40, 80.
1. Cholesky–Zerlegung 2. Umnummerierung der Knoten mittels Minimum Degree sowie Cholesky–Zerlegung 3. Jacobi–Verfahren 4. Gauß–Seidel–Verfahren 5. cg–Verfahren Was stellst du fest?
¨ Ubung 26 Betrachte das Problem −∆u = 1 in Ω, u = 0 auf ∂Ω, wobei Ω = [0, 1]2 . Verwende finite Differenzen (5–Punkte–Stern) mit h = N 1+1 , N = 10, 20, 40, 80. Zur L¨ osung verwende das Mehrgitterverfahren mit 7–Stern Restriktion/Interpolation. Verwende jeweils eine Vor– und eine Nachgl¨ attung. Als Gl¨ atter verwende 1. Jacobi mit ω =
2 3
2. Vorw¨ arts– / R¨ uckw¨ arts– Gauß–Seidel Vergleiche die Ergebnisse mit dem Verfahren, das man bekommt, wenn man die Mehrgitterapproximation als Vorkonditionierer f¨ ur das cg–Verfahren einsetzt. Was stellst du fest?
Index Elliptische Randwertprobleme, 5, 9 Beispiel, 5 Eindeutigkeit der L¨osung, 14 Finite Differenzen, 15 Matrixschreibweise, 26 Maximumprinzip, 11 Maximumprinzip, diskretes, 18 Minimumprinzip, 14 Neumann–Randbedingung, 23 Rand bei Nicht–Rechteckgebieten, 25 Hyperbolische Probleme, 8 Beispiel, 8 Parabolische Probleme, 6 Beispiel, 6
136
Literaturverzeichnis [1] O. Axelsson and P. Vassilevski. Algebraic multilevel preconditioning methods I. Numer. Math., 56:157–177, 1989. [2] O. Axelsson and P. Vassilevski. Algebraic multilevel preconditioning methods II. SIAM J. Numer. Anal., 27:1569–1590, 1990. [3] D. Braess. Finite Elemente. Springer-Verlag, 1992. [4] J. H. Bramble, J. E. Pasciak, and J. Xu. Parallel multilevel preconditioners. Math. Comp., 55:1–22, 1990. [5] W. Bunse and A. Bunse-Gerstner. Numerische lineare Algebra. B.G. Teubner Stuttgart, 1985. [6] W. Hackbusch. Multigrid Methods and Applications. Springer-Verlag, 1985. [7] W. Hackbusch. Theorie und Numerik elliptischer Differentialgleichungen. B.G. Teubner Stuttgart, 1986. [8] W. Hackbusch. Iterative L¨ osung großer schwachbesetzter Gleichungssysteme. B.G. Teubner Stuttgart, 1991. [9] W. Hackbusch. Iterative L¨ osung großer schwachbesetzter Gleichungssysteme. B.G. Teubner Stuttgart, second edition, 1993. [10] A. Reusken. Fourier analysis of a robust multigrid method for convection–diffusion equations. Numer. Math., 71:365–397, 1995. [11] A. Reusken. A multigrid method based on incomplete Gaussian elimination. Numer. Lin. Alg. w. Appl., 3:369–390, 1996. [12] A. Reusken. On a robust multigrid solver. Computing, 56:303–322, 1996. [13] H. Schwarz. Methode der finiten Elemente. B.G. Teubner Stuttgart, 1991. [14] H. Yserentant. On the multisplitting of finte element spaces. Numer. Math., 49:379–412, 1986.
137