Mathematik fu r Ingenieure II (fu r Informatiker)
Claus Hillermeier
Sommersemester 2001
Institut fu r Angewandt...
52 downloads
726 Views
563KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Mathematik fu r Ingenieure II (fu r Informatiker)
Claus Hillermeier
Sommersemester 2001
Institut fu r Angewandte Mathematik Friedrich-Alexander-Universit at Erlangen
Inhaltsverzeichnis 2 Vektoren
2.1 Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Die Vektorraumaxiome . . . . . . . . . . . . . . . . . 2.1.2 Beispiele von Vektorraumen . . . . . . . . . . . . . . 2.1.3 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . 2.1.4 Untervektorraume . . . . . . . . . . . . . . . . . . . . 2.2 Lineare Unabhangigkeit . . . . . . . . . . . . . . . . . . . . 2.3 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . 2.4 Summe zweier Vektorraume . . . . . . . . . . . . . . . . . . 2.5 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . 2.5.1 De nition und elementare Eigenschaften . . . . . . . 2.5.2 Bild und Kern . . . . . . . . . . . . . . . . . . . . . . 2.5.3 Projektionsabbildungen . . . . . . . . . . . . . . . . 2.5.4 Injektive lineare Abbildungen . . . . . . . . . . . . . 2.5.5 Der Vektorhomomorphiesatz . . . . . . . . . . . . . . 2.5.6 Der Raum der Homomorphismen . . . . . . . . . . . 2.6 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 De nition einer Matrix uber K . . . . . . . . . . . . 2.6.2 Eine Matrix als Darstellung einer linearen Abbildung 2.6.3 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . 2.6.4 Rang einer Matrix . . . . . . . . . . . . . . . . . . . 2.6.5 Determinanten . . . . . . . . . . . . . . . . . . . . . 2.7 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 2.7.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . 2.7.2 Losungsmenge . . . . . . . . . . . . . . . . . . . . . . 2.7.3 Explizite Losung: Cramersche Regel . . . . . . . . . . 2.7.4 Numerische Losung: Gau'scher Algorithmus . . . . . 2.8 Skalarprodukt und Orthogonalitat . . . . . . . . . . . . . . . 2.8.1 De nition des Skalarprodukts . . . . . . . . . . . . . 2.8.2 Langenmessung . . . . . . . . . . . . . . . . . . . . . 2.8.3 Winkelmessung . . . . . . . . . . . . . . . . . . . . . 2.8.4 Orthogonale Abbildungen . . . . . . . . . . . . . . . 2.9 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . 2.9.1 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . 2.9.2 Eigenwerte und charakteristisches Polynom . . . . . .
i
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1 1 3 4 5 7 9 14 17 17 19 20 21 22 24 27 27 29 32 35 38 45 45 45 47 48 53 53 54 55 57 60 60 62
2 Vektoren 2.1
Vektorr aume
2.1.1 Die Vektorraumaxiome
Aus dem Physikunterricht ist die physikalische Groe "Kraft\ wohlvertraut. Sie ist durch ihre Starke und ihre Richtung im dreidimensionalen Raum (d.h. dem Raum unserer Anschauung) charakterisiert. Geometrisch lat sich eine Kraft daher als gerichtete Strecke (d.h. "Pfeil\) *a der Form % darstellen, wobei die Lange des Pfeiles die Starke der Kraft angibt. Gerichtete Strecken dieser Art bezeichnen wir als Vektoren des (dreidimensionalen) Anschauungsraumes. Bemerkung:
Da eine Kraft durch Lange und Richtung des zugehorigen Pfeiles vollstandig beschrieben ist { die Information u ber den Aufpunkt (= Punkt, an dem die Kraft angreift) wird separat angegeben und ist nicht Teil des Kraftvektors selbst {, enthalt der Anfangspunkt des Kraftpfeils keine Information uber den Kraftvektor und ist in diesem Sinne als beliebig anzusehen. Um dies zu modellieren, werden alle gerichteten Strecken, die durch Parallelverschiebung auseinander hervorgehen, miteinander identi ziert, also als gleich angesehen. Streng genommen fassen wir also alle gleichlangen, gleichgerichteten Pfeile in einer Aquivalenzklasse zusammen und be trachten eine solche Aquivalenzklasse von Pfeilen als mathematisches Modell eines Kraftvektors. Aufpunktunabhangige Pfeile (bzw. Pfeilklassen) wie der Kraftvektor werden auch als freie Vektoren des Anschauungsraumes bezeichnet. Das Attribut frei\ unterscheidet besagte Vektoren " von einem zweiten Typus gerichteter Strecken im Anschauungsraum, den sogenannten Ortsvektoren (siehe Abschnitt 2.1.4), die stets an den Ursprung angeheftet sind.
Die physikalische Beobachtung lehrt: Greifen an einem Punkt zwei verschiedene Krafte an, so ergibt sich der Vektor der wirksamen Gesamtkraft durch Vervollstandigung der beiden Kraftvektoren zu einem Parallelogramm. Diese physikalische Beobachtung legt es nahe, uber die Parallelogrammkonstruktion eine Addition von Vektoren des Raumes zu de nieren: 1 1
1
b
a+b
1 a
Mit geometrischen Argumenten lasst sich leicht zeigen, dass die Vektoren des Raumes bezuglich der so de nierten Addition eine kommutative Gruppe bilden. Ein "Pfeil\ der * La*nge 0 reprasentiert das Nullelement 0 . Zu *a invers ist derjenige Vektor, bezeichnet als * a , der dieselbe Lange hat wie a , aber die entgegengesetzte Richtung: 1
1
−a
a
1
* a angreift (mit 2 R ), so Wenn nun an einem Punkt das -fache einer gegebenen Kraft * * kann der zugehorige Kraftvektor b aus a durch Streckung um den Faktor gewonnen werden: *
8 > <
b hat die jj-fache Lange von a und die Richtung von > *
:
*
a fur > 0 a fur < 0 keine fur = 0: *
Durch die geometrische Konstruktion der Streckung ist eine auere Verknupfung de * niert, namlich die Multiplikation eines Vektors a des Raumes mit einer reellen Zahl 2 R . * Fur diese auere Verknupfung, geschrieben als a , gilt oensichtlich: 1 *a = *a * * ( a ) = ( ) a
fur alle Vektoren *a des Raumes fur alle *a und 8 ; 2 R
Daruber hinaus spielen die Addition von Vektoren und die auere Multiplikation nach Art von Distributivgesetzen zusammen: *
*
( a + b ) = a + b ( + ) *a = *a + *a *
*
Verknupfungen mit diesen Eigenschaften lassen sich nicht nur uber den Vektoren des physikalischen dreidimensionalen Raumes konstruieren, sondern auch uber vielen anderen Mengen mathematischer Objekte. Fur die auere Multiplikation kommt dabei nicht nur der Korper der reellen Zahlen in Betracht. Auch andere (Zahl-)Korper (wie z.B. Q oder C ) k onnen prinzipiell diese Rolle spielen. Wir verallgemeinern daher die bei Vektoren des physikalischen Raumes vorgefundene Situation zu folgender De nition des abstrakten Vektorraumes: Eine Menge V heit Vektorraum uber dem Korper K , wenn es eine innere Verknupfung "+\ (genannt Addition) gibt, so dass (V1) (V; +) eine kommutative Gruppe ist, und wenn es eine auere Verknupfung (genannt Multiplikation mit Skalaren oder kurz: skalare Multiplikation)
! V* : (K;*aV) ! 7 a 2 V
*
gibt mit folgenden Eigenschaften (8 ; 2 K ; *a; b 2 V ; 1 bezeichne das Einselement von K ): (V2) 1 *a = *a (V3) ( *a ) = ( ) *a *
*
(V4) (*a + b ) = *a + b
2
(V5) ( + ) *a = *a + *a Die Elemente von V heien Vektoren, die von K Skalare. K selbst wird auch Skalarenkorper genannt. In den Vektorraum-Beispielen, die uns begegnen werden, ist der Skalarenkorper meist R , gelegentlich einmal C . Weitere Bezeichnungen: Das neutrale Element bezuglich der Addition* in V heit auch Nullvektor, geschrieben * * * 0 . Das zu a 2 V inverse Element wird als a geschrieben und auch der zu a negative Vektor genannt. Wenn der Vektor-Charakter aus dem Zusammenhang klar hervorgeht, werden wir ab jetzt die Vektorpfeile uber den Buchstabensymbolen weglassen. 2.1.2 Beispiele von Vektorraumen a) Im R n , der Menge der n-Tupel reeller Zahlen, konnen wir eine Addition dadurch
de nieren, dass wir komponentenweise die gewohnte Addition in R ausfuhren: Seien x := (x1 ; : : : ; xn) und y := (y1; : : : ; yn) 2 R n (beliebig) gegeben, so wird die Summe x + y erklart durch x + y := (x1 + y1 ; : : : ; xn + yn ) 2 R n :
Analog lat sich de nieren, wie man ein n-Tupel x = (x1 ; : : : ; xn) 2 R n mit einer reellen Zahl zu multiplizieren hat: x := (x1 ; : : : ; xn ) 2 R n :
Die beiden "neuen\ Rechenoperationen (= Verknupfungen) sind einfach dadurch entstanden, dass wir das, was wir sonst - bereits gewohntermaen - mit reellen Zahlen tun, nun eben mit jeder (reellen) Komponente des n-Tupels tun. Daher ubertragen sich auch die Rechenregeln fur reelle Zahlen auf diese beiden Verknupfungen im R n . Man weist also ohne Schwierigkeit nach, dass fur die soeben de nierte Addition und skalare Multiplikation im R n die Vektorraumaxiome (V1) bis (V5) gelten. Insbesondere ist 0 := (0; : : : ; 0) 2 R n der Nullvektor und (x1 ; : : : ; xn) := ( x1 ; : : : ; xn ) das zu (x1 ; : : : ; xn) inverse Element. R n wird also mit diesen Verkn upfungen zu einem Vektorraum uber dem Korper R . b) Sei X eine (beliebige) Menge und Abb(X; R ) die Menge aller Abbildungen f : X ! R . Die Funktionswerte jeder solchen Funktion f sind also reelle Zahlen. Wir konnen daher aus zwei Funktionen f und g 2 Abb(X; R ) eine neue Funktion, genannt f + g, gewinnen, die jedem Argument x 2 X die Summe der Funktionswerte f (x) und g (x) zuweist: f +g :
! R 7 f (x) + g(x) : !
X x
Da die so de nierte Addition von Funktionen argumentweise (d.h. fur jedes einzelne Funktionsargument x 2 X ) auf die Addition in R zuruckgefuhrt wurde, ubertragen sich die Rechenregeln fur reelle Zahlen auf diese Verknupfung. 3
(Abb(X; R ); +) ist also eine kommutative Gruppe, mit der Nullabbildung 0 : X ! R ; 0(x) = 0 2 R 8 x 2 X als Nullvektor und f : X ! R ; ( f )(x) := f (x) als der zu f negativen Abbildung. Analog lat sich argumentweise eine skalare Multiplikation mit einer Zahl 2 R de nieren durch (f ) : X ! R ; (f )(x) := f (x) 8 x 2 X: Da somit sowohl Addition wie auch skalare Multiplikation von reellwertigen Funktionen (also Abbildungen nach R ) uber die Addition bzw. Multiplikation in R de niert worden sind, ubertragen sich die Rechenregeln fur reelle Zahlen auf Abb(X; R ), und die Vektorraumaxiome (V2) bis (V5) sind ebenfalls erfullt. Abb(X; R ) ist also ein Vektorraum uber R (kurz: ein reeller Vektorraum). 2.1.3 Rechenregeln
Aus den Vektorraumaxiomen (V1) bis (V5) lassen sich leicht folgende Rechenregeln herleiten, die fur jeden beliebigen Vektorraum V uber einem Korper K gelten: * * v 2V (i) 0 *v = 0 8 * * 0 = 0 8 2K * (ii) Aus *v = 0 fur ein* 2 K ; *v 2 V folgt: * = 0 oder v = 0 (iii) ( 1) *v = *v (inverser oder negativer Vektor zu *v ) 8 *v 2 V . Exemplarisch beweisen wir (ii), also die Aussage * * * * " v = 0 *=)* = 0 oder v = 0 \: Sei also v = 0 . Zwei Falle lassen sich unterscheiden: ) = 0. In diesem Fall ist die Aussage trivialerweise erfullt. ) 6= 0. Dann muss es zu ein inverses Element 1 bezuglich der Multiplikation in K geben, d.h. 1 = 1. Damit folgt: *
v
* (V2) 1 *v = ( 1 ) *v (V3) 1 ( v ) = = * (Voraussetz.) 1 * 0 (i) = = 0:
q.e.d.
4
2.1.4 Untervektorraume
Wir betrachten nun Teilmengen U V eines Vektorraumes V uber dem Korper K . Klarerweise lassen sich Elemente aus U miteinander addieren und mit Elementen aus K multiplizieren. Dennoch ist nicht jede Teilmenge U V automatisch selbst ein Vektorraum (uber K ), denn es kann z.B. vorkommen, dass x + y 2= U , obwohl x; y 2 U : U
.
x x+y y
In diesem Fall liefert die Addition in V keine Addition (d.h. innere Verknupfung) U U ! U , wie es fur einen Vektorraum U erforderlich ware. Damit die auf V de nierte Addition und Skalarmultiplikation auch auf der Teilmenge U V eine Addition U U ! U und eine Skalarmultiplikation K U ! U induzieren, muss also gelten: (U1) x; y 2 U =) x + y 2 U (d.h. U ist abgeschlossen gegenuber der Addition) (U2) x 2 U; 2 K =) x 2 U (d.h. U ist abgeschlossen gegenuber der Multiplikation mit Skalaren). Weiterhin muss U , um Vektorraum sein zu konnen, eine Gruppe bezuglich der Addition * bilden, insbesondere also das neutrale Element 0 (d.h. den Nullvektor) enthalten. Folglich muss notwendigerweise gelten: (U3) U 6= ;. Tatsachlich sind die Bedingungen (U1) bis (U3) nicht nur notwendig, sondern auch bereits hinreichend dafur, dass die Teilmenge U V mit der durch V gegebenen Addition und Skalarmultiplikation selbst ein Vektorraum uber K ist. Wir nennen daher eine Teilmenge U V , die die Bedingungen (U1) bis (U3) erfullt, einen Untervektorraum von V (oder kurz: Unterraum von V). Bemerkung: Damit U eine Untergruppe von V bezuglich der Addition bilden kann, muss laut Abschnitt 1.6 gelten: Fur jedes x 2 U ist auch ( x) 2 U . Bedingung (U2) stellt dies in der Tat sicher, denn aus (U2) folgt: ( 1) x 2 U , und Rechenregel (iii) besagt: ( 1) x = ( x) .
5
Beispiele: *
(1) In einem beliebigen Vektorraum V sind die Teilmengen f 0 g und V stets Untervektorraume von V . (2) Im dreidimensionalen Anschauungsraum wahlen wir einen Punkt aus und bezeichnen * ihn als Nullpunkt 0 . * Nun betrachten wir die Menge aller gerichteten Strecken, deren Anfangspunkt 0 ist. Im Unterschied zu den zu Beginn dieses Kapitels betrachteten freien Vektoren * (aufpunktunabhangig!) werden die Pfeile mit xiertem Anfangspunkt 0 als Ortsvektoren des Anschauungsraumes bezeichnet. Mit den bereits de nierten Verknupfungen fur gerichtete Strecken, also der Addition mittels Parallelogrammkonstruktion und der Skalarmultiplikation mittels Streckung, bildet die Menge der Ortsvektoren einen Vektorraum uber R . Da jedem Ortsvektor eindeutig ein Punkt des Raumes { namlich der Endpunkt der Strecke { zugeordnet werden kann (! Name!), konnen wir die Menge von Ortsvektoren auch als Menge der Punkte des Anschauungsraumes auassen. Die Untervektorraume dieses * (Vektor-)Raumes sind { auer f 0 g und dem gesamten Raum selbst { die Ebenen durch den Nullpunkt und die Geraden durch den Nullpunkt: 1
Gerade durch 0 1
.
0
1 Ebene durch 0 (Nachweis: siehe geometrische Eigenschaften der Parallelogrammkonstruktion und der Streckung!)
Wir merken noch an, dass der Durchschnitt zweier Untervektorraume von V stets wieder ein Untervektorraum von V ist.
6
2.2
Lineare Unabh angigkeit
Wir betrachten einen Vektorraum V uber dem Korper K , k Vektoren v1 ; : : : ; vk 2 V und k Skalare 1; : : : ; k 2 K . Wegen der Abgeschlossenheit von V gegenuber Addition und Skalarmultiplikation ist (1 v1 + : : : + k vk ) wieder ein Vektor aus V . Wir nennen (1 v1 + : : : + k vk ) 2 V eine Linearkombination der Vektoren v1 ; : : : ; vk . Wir halten nun das k-Tupel (v1; : : : ; vk ) fest und bilden alle moglichen Linearkombinationen dieser Vektoren v1 ; : : : ; vk 2 V . Die auf diese Weise erzeugte Menge von Linearkombinationen wird auch lineare Hulle von (v1; : : : ; vk ) genannt und mit L(v1 ; : : : ; vk ) bezeichnet: (
k X
L(v1 ; : : : ; vk ) :=
i=1
)
i v i j i 2 K :
Die Summe zweier Linearkombinationen von (v1; : : : ; vk ) ist wieder eine Linearkombination von (v1; : : : ; vk ): (1 v1 + : : : + k vk ) + (1 v1 + : : : + k vk ) = (Vektorraumaxiom V5) (1 + 1 ) v1 + : : : + (k + k ) vk = Auch ist fur jedes 2 K das -fache einer Linearkombination von (v1 ; : : : ; vk ) wieder eine solche: (1 v1 + : : : + k vk ) (V4),=(V3) (1 )v1 + : : : + (k )vk : Da weiterhin L(v1 ; : : : ; vk ) nicht leer ist, erfullt die Teilmenge L(v1; : : : ; vk ) V die Bedingungen (U1) bis (U3) und ist somit ein Untervektorraum von V . Ein Tupel (v1; : : : ; vk ) von k Vektoren aus V heit linear abhangig, wenn man einen dieser k Vektoren als Linearkombination der ubrigen (k 1) Vektoren schreiben kann. Diesen Vektor kann man aus dem Tupel (v1 ; : : : ; vk ) entfernen, ohne die lineare Hulle zu andern, d.h. die lineare Hulle der ubrigen (k 1) Vektoren ist identisch mit L(v1 ; : : : ; vk ). Begrundung: Sei vk = 1v1 + : : : + k 1vk 1. Dann gilt: 1 v1 + : : : + k 1 vk 1 + |{z} k vk = (1 + k 1 )v1 + : : : + (k 1 + k k 1 )vk 1 : {z } | [k (1 v1 +:::+k
1
vk
1
)]
2 L(v1 ;::: ;vk 1 )
Wenn das Tupel (v1 ; : : : ; vk ) nicht linear abhangig ist (d.h. wenn man keinen Vektor als Linearkombination der anderen erhalten kann), so heit es linear unabhangig. Im Beispiel des Vektorraumes der Ortsvektoren des Anschauungsraumes (siehe Abschnitt 2.1.4) sind zwei Vektoren (bzw. Punkte) a und b genau dann linear abhangig, wenn a durch eine Streckung in b uberfuhrt werden kann (a = b), d.h. wenn beide Punkte auf derselben Geraden durch den Ursprung liegen:
.
a
. b
.
0
7
Ansonsten spannen die Strecken 0!a und 0!b ein nichtverschwindendes Parallelogramm auf und sind linear unabhangig:
.
.
b
.
.
0
a
Fur den rechentechnischen Umgang mit dem Begri der linearen Unabhangigkeit ist die folgende, etwas formale De nition zweckmaiger. De nition: Ein Tupel (v1 ; : : : ; vk ) von Vektoren eines Vektorraumes V uber K heit linear unabhangig, wenn eine Linearkombination von v1; : : : ; vk * nur dann Null (d.h. der Nullvektor 0 ) sein kann, wenn alle KoeÆzienten i verschwinden, d.h. wenn * aus 1 v1 + : : : + k vk = 0 2 V folgt: 1 = : : : = k = 0 2 K : Um nachzuweisen, dass die beiden De nitionen der linearen Unabhangigkeit aquivalent sind, ist zu zeigen: ) (v1 ; : : : ; vk ) linear unabhangig gema formaler De nition =) kein vi ist Linearkombination der ubrigen (k 1) Vektoren. ) Kein vi ist Linearkombination der anderen =) (v1; : : : ; vk ) linear unabhangig gema formaler De nition. Exemplarisch wollen wir ) zeigen (per Widerspruchsbeweis): k * P Gelte also () : ivi = 0 =) i = 0 8 i 2 f1; : : : ; kg. i=1 Angenommen, es gabe ein j 2 f1; : : : ; kg, so dass vj eine Linearkombination der ubrigen Vektoren ware, d.h. vj = 1 v1 + : : : + j 1 vj 1 + j +1vj +1 + : : : + k vk =
k X
i vi :
i=1 i6=j
Dann ware aber die Linearkombination k X i=1 i6=j
*
i vi + ( 1) vj = 0 ;
obwohl nicht alle KoeÆzienten Null sind, da ja ( 1) 6= 0. Widerspruch zu () ! 8
q.e.d.
2.3
Basis und Dimension
Sei V ein Vektorraum uber dem Korper K . Ein Tupel (v1 ; : : : ; vn) von n Vektoren aus V heit eine Basis von V , wenn es folgende zwei Bedingungen erfullt: a) L(v1 ; : : : ; vn) = V b) (v1; : : : ; vn) ist linear unabhangig. n P
Aussage a) bedeutet, dass man jeden Vektor v 2 V als Linearkombination v = ivi i=1 schreiben kann. Mittels der Basisvektoren v1; : : : ; vn kann man also per Linearkombination den ganzen Vektorraum V erzeugen oder "aufspannen\. Aussage b) bewirkt, dass sich jedes v 2 V auf genau eine Weise als Linearkombination schreiben lat: Satz: Ist (v1 ; : : : ; vn ) eine Basis von V , dann gibt es zu jedem v 2 V genau ein n-Tupel (1 ; : : : ; n) 2 K n (also: ein n-Tupel von KoeÆzienten), so dass gilt: v=
n X i=1
i vi :
Beweis: Wegen L(v1 ; : : : ; vn) = V gibt es zu jedem v 2 V mindestens ein solches Koef ziententupel (1 ; : : : ; n) 2 K n . Angenommen, es gabe deren zwei, also v = 1 v1 + : : : + *nvn = 1v1 + : : : + nvn. Dann ware (1 1)v1 + : : : + (n n)vn = v v = 0 . Aufgrund der linearen Unabhangigkeit von (v1 ; : : : ; vn) folgt daraus (i i) = 0 und damit i = i 8 i = 1; : : : ; n. q.e.d. Anhand dieses Beweises zeigt sich, dass die formale De nition der linearen Unabhangigkeit in der Tat "praxistauglich\ ist. Beispiele (und Gegenbeispiele) fur Basen: 1) Analog zum dreidimensionalen Anschauungsraum wird auch die (zweidimensionale) * Zeichenebene durch die Wahl eines Nullpunkts 0 zu einem Vektorraum uber R , dem Raum der Ortsvektoren der Zeichenebene (siehe Abschnitt 2.1.4). In diesem Vektorraum lasst sich die Basis-Eigenschaft direkt veranschaulichen: V2
V
V1
.
0
(v1; v2 ) ist Basis
1
1
.
0
(v) ist zwar linear unabhangig (gema formaler De nition!), aber L(v) 6= Zeichenebene (sondern nur: Gerade) Daher: (v) keine Basis. 9
V2
V1
V3
Zwar gilt L(v1 ; v2; v3) = Zeichenebene, aber: (v1 ; v2; v3 ) linear abhangig =) keine Basis. 2) Wenn wir besagte Zeichenebene mit einem rechtwinkligen Koordinatensystem aus* statten (beachte: damit ist auch 0 festgelegt!) und auf jeder Koordinatenachse die Lange 1 (in der gewahlten Einheit, z.B. 1cm) abtragen, erhalten wir eine spezielle Basis (v1 ; v2) dieses Vektorraumes V :
b
x
1 v2 1 0
v1
1 a
Jeder Vektor x 2 V wird nun eindeutig durch seine KoeÆzienten (a; b) 2 R 2 bezuglich dieser Basis charakterisiert, d.h. x = av1 + bv2 . Die Werte der beiden KoeÆzienten (auch Koordinaten genannt) ergeben sich durch senkrechte Projektion von x auf die beiden Koordinatenachsen. Da umgekehrt jedes Koordinatentupel (a; b) 2 R 2 genau eine Linearkombination av1 + bv2 und damit genau einen Vektor aus V spezi ziert, etabliert die Zuordnung Vektor ! Koordinatentupel (bei festgehaltener Basis!) eine Eins-zu-Eins-Korrespondenz (= Bijektion) zwischen V und R 2 , die sogenannte Koordinatenabbildung. Wir werden sp ater sehen, dass diese Bijektion auch die Verknupfungsstruktur beider Vektorraume aufeinander abbildet. Die beschriebene "rechtwinklige Einheitsbasis\ erlaubt es also, den R 2 in der Zeichenebene zu veranschaulichen. (Analoges gilt fur die Beziehung zwischen dem R 3 und dem dreidimensionalen Anschauungsraum).
10
3) Im R n ist die sogenannte "kanonische Basis\ oder Standardbasis (e1; : : : ; en) de niert als e1 = (1; 0; : : : ; 0) e2 = (0; 1; : : : ; 0) ... en = (0; 0; : : : ; 1): Wenn wir vermoge der Koordinatenabbildung die Zeichenebene mit dem R 2 und den Anschauungsraum mit dem R 3 identi zieren, so lasst sich die Standardbasis leicht veranschaulichen: R2
R3
e3 =(0,0,1)
e2 =(0,1)
.. e1 =(1,0)
e2 =(0,1,0) e1 =(1,0,0)
Wir fragen uns nun, ob ein Vektorraum zwei Basen mit unterschiedlich vielen Basisvektoren haben kann. Bei der Beantwortung hilft uns folgender Satz, der uber das Auswechseln von Vektoren einer Basis Auskunft gibt. Austauschsatz: Sei V ein Vektorraum uber K und (b1 ; : : : ; bn ) eine Basis von V . Seien weiterhin die m Vektoren (a1 ; : : : ; am ) aus V linear unabhangig, wobei m n. Dann lassen sich in der Basis (b1 ; : : : ; bn) m Vektoren bi gegen die Vektoren aj aus (a1 ; : : : ; am ) austauschen, d.h. bei geeigneter Numerierung gilt: (a1 ; : : : ; am ; bm+1 ; : : : ; bn) ist ebenfalls eine Basis von V: Beweis durch Induktion: () (Ind.anf.) Fur m = 0 ist die Aussage richtig. ( ) Wir nehmen an, die Behauptung gelte fur m 1, d.h. es gelte L(a1 ; : : : ; am 1 ; bm ; : : : ; bn ) = V und (a1; : : : ; am 1; bm ; : : : ; bn) ist linear unabhangig. Dann gilt wegen am 2 V : ()
am =
m X1
11
i=1
i ai +
n X j =m
j bj :
Dabei konnen die j nicht alle verschwinden, da sonst (a1; : : : ; am) nicht linear unabhangig ware. Durch Umbenennung der bj konnen wir daher stets erreichen, dass der KoeÆzient von bm nicht verschwindet: m 6= 0. wegen()
=)
m X1
bm = |
n X 1 j i ai bj + am m j =m+1 m i=1 m {z } 2L(a ;::: ;am ;bm ;::: ;bn ) 1
1
+1
Daraus folgt zweierlei: (A) bm 2 L(a1 ; : : : ; am 1 ; am ; bm+1 ; : : : ; bn) und damit V = L(a1 ; : : : ; am 1 ; bm ; : : : ; bn ) = L(a1 ; : : : ; am 1 ; am ; bm; : : : ; bn) = L(a1 ; : : : ; am ; bm+1 ; : : : ; bn) (B) am 2= L(a1 ; : : : ; am 1 ; bm+1 ; : : : ; bn), denn sonst ware bm 2 L(a1 ; : : : ; am 1 ; bm+1 ; : : : ; bn ) im Widerspruch zur Induktionsannahme. Folglich ist (a1 ; : : : ; am 1 ; am ; bm+1; : : : ; bn) linear unabhangig. Mit f(A) und (B)g ist aber genau der Induktionsschluss von (m 1) nach m vollzogen. q.e.d. Der Austauschsatz gibt nun die Antwort auf die oben gestellte Frage: Satz und De nition: Sind (v1 ; : : : ; vm ) und (w1 ; : : : ; wn) Basen des Vektorraums V , so ist m = n (d.h. Basen eines Vektorraums enthalten stets dieselbe Zahl von Vektoren). Man nennt n die Dimension von V , kurz dim V . Beweis (durch Widerspruch): Angenommen, es ware m < n. (Fall "n < m\ geht analog.) Dann ware nach dem Austauschsatz (v1 ; : : : ; vm; wm+1 ; : : : ; wn) eine Basis von V . Insbesondere ware daher (v1 ; : : : ; vm ; wm+1) linear unabhangig, im Widerspruch zu wm+1 2 L(v1 ; : : : ; vm), da (v1 ; : : : ; vm ) ja laut Voraussetzung Basis von V ist. q.e.d. Weil die Standardbasis des R n n Vektoren enthalt, folgt sofort: dim R n = n : Einen Vektorraum V , der eine Basis aus endlich vielen Elementen besitzt, bezeichnen wir als endlichdimensional. Hat V dagegen keine solche Basis (bzw. hat V eine Basis aus unendlich vielen Elementen), so heit V unendlichdimensional.
12
Mit dem Austauschsatz konnen wir weiterhin folgern: Satz: Die Dimension dim V ist die Maximalzahl linear unabhangiger Vektoren in V . Beweis (durch Widerspruch): Annahme: dim V = n; (v1 ; : : : ; vn) Basis von V , es gibt ein Tupel (a1 ; : : : ; am ) von m linear unabhangigen Vektoren aus V mit m > n. =) Austauschen von v1 ; : : : ; vn durch die n Vektoren a1 ; : : : ; an fuhrt zur neuen Basis (a1 ; : : : ; an) von V . =) Fur an+1 ; : : : ; am gilt jeweils: aj 2 L(a1 ; : : : ; an), im Widerspruch zur linearen Unabhangigkeit der Vektoren (a1 ; : : : ; am ). q.e.d. Wenn man also entscheiden will, ob ein Tupel aus r Vektoren in V linear unabhangig ist, sollte man zuerst einmal prufen, ob r dim V gilt. Falls nein, sind die r Vektoren auf alle Falle linear abhangig. Beispiel: Vier Vektoren im R 3 sind stets linear abhangig.
13
2.4
Summe zweier Vektorr aume
Aus zwei Untervektorraumen U; W eines Vektorraumes V lat sich durch Addition ein neuer Untervektorraum U + W konstruieren: Die Summe U + W wird de niert als U + W := fu + w j u 2 U; w 2 W g: U + W ist in der Tat ein Untervektorraum von V, denn *
*
* *
*
i) 0 2 U; 0 2 W =) 0 = 0 + 0 2 U + W ii) Mit u1 + w1; u2 + w2 2 U + W und 2 K folgt sofort: + w2}) 2 U + W (u1 + w1) + (u2 + w2 ) = |(u1 {z + u2}) + (|w1 {z 2U
(u1 + w1 ) = |{z} u1 + |{z} w1 2 U + W: 2U
2W
2W
Besonders interessant ist der Fall, wenn U und W moglichst elementefremd sind, d.h. nur den Nullvektor, der ja immer in Untervektorraumen enthalten sein muss, gemeinsam besitzen. Wir de nieren daher: * Gilt fur zwei Untervektorraume U und W U \ W = f 0 g, so heit U + W direkte Summe, und man schreibt U W . Die Brauchbarkeit von direkten Summen beruht darauf, dass sich jeder Vektor aus U W auf eindeutige Weise in einen Vektor aus U und einen Vektor aus W zerlegen lat. Satz: Jeder Vektor v 2 U W lat sich eindeutig darstellen in der Form v = u + w mit u 2 U; w 2 W . Beweis: Angenommen, es gabe zwei Zerlegungen v = u1 + w1 = u2 + w2 ; so folgt: u| 1 {z u}2 = w 2 w1 : | {z } 2U
2
=) =)
W
*
u1 u2 = w2 w1 2 U \ W = f 0 g u1 = u2 ; w2 = w1 :
q.e.d. Veranschaulichung im
R3
=
W : |{z} * * Ebene durch 0 Gerade durch 0 U
|{z}
14
W U w v 1
.0 u
In den Anwendungen stellt sich oft die Aufgabe, zu einem gegebenen Untervektorraum U eines Vektorraums V ein Komplement W so zu nden, dass V = U W . Diese Komplementbildung ist laut folgendem Satz immer moglich, aber nicht eindeutig: Satz: Sei U ein Untervektorraum des Vektorraumes V uber K (dim V = n). Dann gibt es einen (nicht eindeutig bestimmten) Untervektorraum W von V , so dass V = U W . Beweis durch Konstruktion von W : Seien fb1 ; : : : ; br g eine Basis von U und fa1; : : : ; ang eine Basis von V . (Beachte: n r, da U Unterraum von V .) Nach eventueller Umindizierung der ai ist wegen des Austauschsatzes (b1 ; : : : ; br ; a| r+1; {z : : : ; an} ) eine Basis von V . Umbenennung zu br+1 ; : : : ; bn
Wir de nieren nun W := L(br+1 ; : : : ; bn) und weisen nach, dass dann gilt: U W = V : 1) U +W =
=
r P
=1
i n P
i=1
i bi +
n P
i bi i=r+1
i bi j i 2 K
j i; i 2 K
= L(b1 ; : : : ; bn) = V
2) Sei x 2 U \ W =)
x=
=) =)
r P
=)
i=1
r P i=1
i bi
i bi und x = n P
*
i bi = 0
n P i=r+1
i bi
i=r+1 1 = : : : = r = 0 und r+1 = : : : = n = 0; da (b1 ; : : : ; bn )
linear unabhangig ist. * * x = 0 =) U \ W = f 0 g: 15
q.e.d.
Aus obiger Konstruktion des Komplements W lat sich zweierlei ablesen: A) Aus dim V = n und dim U = r folgt (einfach Basis von W abzahlen!): dim W = n r. Dieser Dimensionszusammenhang lat sich auf beliebige direkte Summen verallgemeinern, d.h. es gilt stets: dim U W = dim U + dim W: B) Der zu U komplementare Untervektorraum W ist nicht eindeutig bestimmt, sondern hangt davon ab, auf welche Weise wir die Basis (b1 ; : : : ; br ) von U zu einer Basis des (Gesamt-)Vektorraums V erganzen (siehe 1. Teil des Beweises). Beispiel: Sei V = R 3 ; U = L(e1 ; e2 ). W2
W1
e3 =(0,0,1) e2 =(0,1,0) U= "1−2−Ebene" e1 =(1,0,0)
Wahlen wir als Basis des R 3 das Tripel (e1 ; e2; e3) (also die Standardbasis), d.h. [in der Nomenklatur des Beweises] a3 = (0; 0; 1), so erhalten wir W1 = L(e3 ) = f(0; 0; ) j 2 R g. Wahlen wir dagegen (e1 ; e2; a3 = (0; 1; 1)) als Basis von V , so erhalten wir W2 = L(a3 ) = f(0; ; ) j 2 R g . Allgemein konnen wir (e1; e2 ) durch einen beliebigen Vektor a3 = (a; b; c) mit c 6= 0 zu einer Basis von V erganzen. Bei einer solchen Basiswahl ergibt sich das Komplement W zu W = L(a3 ) = f (a; b; c) j 2 R g.
16
2.5
Lineare Abbildungen
2.5.1 De nition und elementare Eigenschaften Seien V und W zwei Vektorraume uber K . Unter den (beliebigen) Abbildungen f : V ! W sind diejenigen besonders interessant, die mit den Vektorraumverknupfungen "+\ und "\ in V und W "vertraglich\ sind. Vertraglichkeit mit "+\ bedeutet, dass es gleichgultig ist, ob wir zwei Vektoren in V erst addieren und dann die Summe nach W abbilden oder ob wir die Vektoren erst separat nach W abbilden und dann ihre Bilder addieren, kurz:
(H1)
f (x + y ) = f (x) + f (y )
"
"
" + \ in V
y
.
. .x
x+y
8 x; y 2 V
" + \ in W
.
f(x+y)
f
. f(y)
+
.f(x)
W
V
Erinnern wir uns an Abschnitt 1.6, so konnen wir dies noch vornehmer ausdrucken: Eigenschaft (H1) heit, dass f ein Gruppen-Homomorphismus bezuglich der durch die Addition erzeugten Gruppenstruktur auf V und W ist. Wenn eine Abbildung f : V ! W daruber hinaus auch die skalare Multiplikation in V bzw. W respektiert, d.h. wenn neben (H1) auch gilt: (H2) f ( z)
"
skalare Multipl. in V
= f (z) 8 z 2 V; 2 K ;
"
skalare Multipl. in W
so heit f lineare Abbildung oder (Vektorraum-)Homomorphismus.
17
. .x
x+y y
.
f(y)
.
.
0
f
λ.z
V
.
1
1 0
. z
.
f(x+y)=f(x) + f(y)
f
W
.
. f(x)
f(z)
. f( λ . z)= λ . f(z)
Wissen wir von einer Abbildung f : V ! W , dass sie linear ist, so konnen wir uber f bereits weitreichende Aussagen treen: (L1) * * f (0V ) = 0W ; * * wobei 0V bzw. 0W die Nullvektoren in V bzw. W bezeichnen. Dies folgt direkt aus der entsprechenden Aussage fur Gruppen-Homomorphismen f : G ! H (siehe Abschnitt 1.6): "Das neutrale Element eG von G wird auf das * neutrale Element eH von H abgebildet: f (eG) = eH .\ (Beachte: Der Nullvektor 0 ist ja nichts anderes als das neutrale Element bezuglich der inneren Verknupfung "+\.) (L2) f bildet linear abhangige Vektoren auf linear abhangige Vektoren ab. Beweis: Seien a1; : : : ; ak linear abhangige Vektoren von V , so existieren Skalare k * P i 2 K (i = 1; : : : ; k), die nicht alle gleich 0 sind, so dass i ai =0V . i=1 k k * * P P Wegen f i ai = i f (ai ) = f (0V ) =0W sind die Bildvektoren f (ai ) ebeni=1 i=1
falls linear abhangig. q.e.d. Bemerkung: Was f aus linear unabhangigen Vektoren macht, kann man dagegen nicht allgemein (d.h. fur beliebige lineare Abbildungen f ) sagen, siehe spater. (L3) Sei U ein (beliebiger) Untervektorraum von V . Dann ist das Bild von U unter f; f (U ), ein Untervektorraum von W mit dim f (U ) dim U . Beweis:
) Wegen f (0V ) = 0W 2 f (U ) ist f (U ) nicht leer. ) Abgeschlossenheit gegenuber "+\ und "\: Seien f (x); f (y) 2 f (U ), d.h. x; y 2 U . Dann gilt: f (x) + f (y) = f (x + y) 2 f (U ) | {z } 2U
18
8 ; 2 K :
) Linear abhangige Vektoren bleiben unter f linear abhangig. Daher kann sich die
Maximalzahl linear unabhangiger Vektoren nicht erhohen (sondern hochstens verringern) =) dim f (U ) dim U .
Die Forderung der Linearitat ist so stark, dass eine lineare Abbildung f : V ! W (mit dim V = n) bereits durch n Bildvektoren, namlich die "Basisbilder \, vollstandig festgelegt ist: Satz: Sei (v1 ; : : : ; vn) eine Basis von V . Dann ist jede lineare Abbildung f : V ! W durch die Angabe der Bilder f (vi ) = wi 2 W der n Basisvektoren eindeutig festgelegt. Beweis: Jeder Vektor v 2 V lat sich eindeutig schreiben als Linearkombination n P v = i vi . Fur sein Bild gilt: i=1
f (v ) = f
n P i=1
i vi =
n P i=1
i f (vi ) =
n P i=1
i wi .
q.e.d. Bemerkung: Die Basisbilder konnen beliebig gewahlt werden und brauchen insbesondere nicht linear unabhangig zu sein. Der Satz und die Bemerkung lassen sich zu folgender Aussage zusammenfassen: Seien (v1 ; : : : ; vn) eine Basis von V . Dann gibt es zu jedem n-Tupel (w1; : : : ; wn) von Vektoren aus W genau eine lineare Abbildung f : V ! W mit f (vi) = wi fur i = 1; : : : ; n. Aussagen dieses Typs ("es gibt genau ein : : : \) sind in der Mathematik hau g anzutreen und heien auch Existenz-("es gibt ein : : : \) und Eindeutigkeits-("es gibt hochstens ein : : : \)-Aussagen. 2.5.2 Bild und Kern
Erinnern wir uns: Jeder Gruppen-Homomorphismus f : G ! H (G und H seien Gruppen) de niert in naturlicher Weise Untergruppen von G und H , die fur die Abbildung charakteristisch sind, namlich Kern (f ) = f 1(feH g) als Untergruppe von G und Bild (f ) = f (G) als Untergruppe von H: An eine lineare Abbildung - die ja ein Spezialfall eines Gruppen-Homomorphismus ist sind strengere Forderungen gestellt als an einen allgemeinen Gruppen-Homomorphismus (namlich: Vertraglichkeit auch mit der Skalarmultiplikation). Daher ist es nicht verwunderlich, dass auch Kern und Bild einer linearen Abbildung f : V ! W nicht nur Untergruppen von V bzw. W bezuglich der Verknupfung "+\ sind, sondern sogar (fur diese Abbildung charakteristische) Untervektorraume. Konkret de nieren wir (in U bereinstimmung mit der entsprechenden De nition fur GruppenHomomorphismen) fur eine lineare Abbildung f : V ! W (V und W seien Vektorraume
19
uber K ) *
Kern (f ) = fv 2 V j f (v) = 0W g Bild (f ) = f (V ) = ff (v) j v 2 V g Rang (f ) = dim Bild (f ) und stellen fest: (A) Kern (f ) ist ein Untervektorraum (kurz: Unterraum) von V (B) Bild (f ) ist ein Unterraum von W . Aussage (B) folgt direkt aus Aussage (L3) (setze einfach U = V ). Der Nachweis von (A) bleibt dem Horer/Leser als kleine U bung selbst uberlassen. 2.5.3 Projektionsabbildungen
Aus verschiedenen Situationen ist uns der Begri "Projektion\ wohlvertraut. Beispielsweise zeigt ein Bauplan verschiedene Projektionen des 3D-Objektes "Haus\ auf die Zeichenebene. Im Lichte unserer frisch erworbenen Kenntnisse konnen wir nun Projektionen als spezielle lineare Abbildungen de nieren. De nition: Seien U und W zwei Unterraume des Vektorraumes V mit U W = V , d.h. fur jedes v 2 V existiert eine eindeutige Zerlegung v = u + w mit u 2 U und w 2 W . Dann heit die lineare Abbildung PU :
V = U W v = u+w
! V 7 u !
Projektionsabbildung (auf U langs W ) oder kurz Projektion.
Veranschaulichung: W U v
.0
1
w
u = Pu v
parallele Gerade zu W
20
Bemerkungen: (1) Der Nachweis der Linearitat von PU sei dem Horer/Leser als (kleine) U bung angeraten. (2) Aus der De nition folgen die Eigenschaften: ) Kern PU = W ) Bild PU = U = fv 2 V j PU (v ) = v g (alle Vektoren aus U bleiben durch PU unverandert)
) (PU Æ PU )(v ) = PU (v ) 8 v 2 V , d.h. PU Æ PU = PU . (3) Die Eigenschaften ( ) und ( ) sind kennzeichnend fur Projektionen, d.h. fur eine lineare Abbildung P : V ! V sind folgende drei Aussagen aquivalent: (P1) P ist Projektionsabbildung (P2) Bild P = fv 2 V j P (v) = vg (P3) P Æ P = P 2.5.4 Injektive lineare Abbildungen
Wir erinnern uns (siehe Abschnitt 1.3): Eine (allgemeine) Abbildung g heit injektiv, wenn aus g(x) = g(y) folgt x = y (d.h. jeder Bildpunkt hat nur einen Urbildpunkt). Wodurch zeichnen sich nun injektive lineare Abbildungen aus? *
(I1) Eine lineare Abbildung f : V ! W ist genau dann injektiv, wenn Kern (f ) = f0V g. Beweis: () Sei f injektiv. Fur jedes v 2* Kern (f ) gilt f (v) = 0W* = f (0V ). Die Injektivitat liefert v = 0V , so dass Kern (f ) = f0V g. * ( ) Sei Kern (f ) = f0V g. * * Wegen f (x) = f (y) () f (x) f (y) = 0W () f (|x {z y}) = 0W *
2 Kern (f )
gilt dann: f (x) = f (y) =) x y = 0 bzw. x = y. q.e.d. (I2) Jede injektive lineare Abbildung erhalt die Dimension, d.h. sie fuhrt linear unabhangige Vektoren in linear unabhangige Vektoren uber. Beweis: Seien (v1 ; : : : ; vn) linear unabhangige Vektoren aus V und die lineare Abbildung f : V ! W injektiv. Zu untersuchen ist die lineare Unabhangigkeit der Bildvektoren f (v1); : : : ; f (vn):
21
Aus
n X i=1
|
*
i f (vi ) =0W folgt {z
f(
n X i=1
|
}
i vi )
{z
}
2 Kern(f )
n P
wegen der Injektivitat (() Kern (f ) = f0V g): ivi = 0V . Da die vi 's linear i=1 unabhangig sind, folgt daraus 1 = : : : = n = 0. q.e.d. (I3) Da auch die Umkehrung von (I2) gilt, ergibt sich insgesamt: Die injektiven linearen Abbildungen sind genau die dimensionserhaltenden linearen Abbildungen, d.h. f : V ! W injektiv () dim Bild (f ) = dim V . Bijektive lineare Abbildungen heien auch (Vektorraum-)Isomorphismen. Zwei Vektorraume V und W heien isomorph, wenn es einen Isomorphismus von V auf W gibt. Da ein Isomorphismus eine Eins-zu-Eins-Zuordnung sowohl der Elemente wie auch der Verknupfungsstruktur zwischen diesen Elementen vornimmt, konnen wir zwei isomorphe Vektorraume als gleich bis auf (elementweise) Umbenennung ansehen. Ein Beispiel fur einen Isomorphismus ist die Koordinatenabbildung zwischen dem Raum der Ortsvektoren und dem R 3 (siehe Abschnitt 2.3). Wir wissen bereits, dass jede (beliebige) lineare Abbildung f : V ! W durch die Angabe der Basisbilder eindeutig festgelegt ist (und dass zu jeder Wahl von Basisbildern eine lineare Abbildung f existiert/gehort). Sei nun (v1 ; : : : ; vn) eine Basis von V , so gilt: f : V ! W ist genau dann ein Isomorphismus, wenn f (v1); : : : ; f (vn) eine Basis von W ist. Daraus konnen wir eine wichtige Folgerung ableiten: Satz: Je zwei n-dimensionale Vektorraume uber K sind isomorph. Beweis: Wahle in V eine Basis (v1 ; : : : ; vn ) und in W eine Basis (w1 ; : : : ; wn) und de niere eine lineare Abbildung f durch f (vi) = wi 8 i = 1; : : : ; n. Laut obiger Aussage ist f ein Isomorphismus.
q.e.d. Beispielsweise sind also alle n-dimensionalen Vektorraume uber dem Korper R isomorph zu R n . Um "lineare Vorgange\ in einem beliebigen n-dimensionalen Vektorraum uber R zu studieren, genugt es also, sich den "ubersichtlichen\ R n anzusehen. 2.5.5 Der Vektorhomomorphiesatz
Wir wissen bereits, dass bei einer linearen Abbildung die Dimension, d.h. die Maximalzahl linear unabhangiger Vektoren, geringer werden kann. Soeben haben wir gesehen, dass fur jede dimensionserhaltende lineare Abbildung f gilt: Kern (f ) = f0g. Im Umkehrschluss muss also gelten: Der Kern einer linearen Abbildung, die die Dimension verringert, hat die Dimension 1. 22
Dass Kern(f ) tatsachlich ein Ma fur den Verlust an linearer Unabhangigkeit (durch f ) ist, ist ein Teilaspekt des folgenden Satzes, der die allgemeine Struktur einer linearen Abbildung angibt: Vektorhomomorphiesatz: Seien V und W Vektorraume uber K und f : V ! W eine lineare Abbildung. Wir wahlen einen Unterraum U von V so, dass V = U Kern (f ) (beachte: U nicht eindeutig, kann also verschieden gewahlt werden). PU sei die Projektion auf U und f jU : U ! f (V ) W die Restriktion (Einschrankung) von f auf U .
Dann gilt (a) f = f jU Æ PU , d.h. die Abbildungen f : V ! f (V ) W und f jU Æ PU : V ! U ! f (V ) W stimmen punkteweise uberein, wobei (b) f jU den Unterraum U (von V ) isomorph auf f (V ) (= Unterraum von W ) abbildet. Anders ausgedruckt: Eine beliebige lineare Abbildung f : V ! W lat sich zerlegen in einen trivialen Anteil f jKern (f ) 0 (Nullabbildung), und einen injektiven Anteil f jU , der U isomorph auf f (V ) W abbildet. Eine suggestive Form, einen solchen Sachverhalt darzustellen, ist ein "kommutatives Diagramm\: f
V
f (V) − W
PU
f | U : Isomorphismus U
Veranschaulichung: Kern (f)
.
v
f
| Kern (f)
. . 0w
U
0V
.
.
u
f(u)=f(v)
f
|U
23
f(V) = f(U)
Aus V = U Kern(f ) folgt dim V = dim U + dim Kern(f ). Da wegen der Isomorphie von f jU gilt: dim U = dim f (V ) = dim Bild (f ), erhalten wir als wichtige Folgerung aus dem Vektorhomomorphiesatz: dim V = dim Bild (f ) + dim Kern(f ) 2.5.6 Der Raum der Homomorphismen V und W seien zwei gegebene Vektorraume uber K .
Wir betrachten nun die Menge aller (Vektorraum-)Homomorphismen (=linearen Abbildungen) von V nach W , in Kurzschreibweise: Hom (V; W ). Mit welchen Verknupfungsstrukturen konnen wir diese Menge ausstatten? Seien f und g Abbildungen aus Hom (V; W ). Da die Bilder f (v) (fur v 2 V ) als Elemente des Vektorraums W addiert und mit Skalaren multipliziert werden konnen, konnen wir diese Verknupfungen muhelos auf die Abbildungen selbst ubertragen: Wir de nieren argumentweise (d.h. fur jedes einzelne Funktionsargument v 2 V ) eine innere Verknupfung (Addition) 8 ! Hom (V; W ) < Hom (V; W ) Hom (V; W ) +:: (f; g) 7! f + g mit (f + g)(v) := f (v) + g(v) 8 v 2 V und eine Multiplikation mit einem Skalar (aus K ) 8 Hom (V; W ) ! Hom (V; W ) < K :: (; f ) 7! f mit ( f )(v) := f (v) 8 v 2 V: Der Nachweis, dass f + g und f wieder lineare Abbildungen sind, dass also tatsachlich gilt f + g 2 Hom (V; W ) und f 2 Hom (V; W ) wie oben geschrieben, sei dem Leser als kleine U bung empfohlen. Da wir beide Verknupfungen argumentweise auf die entsprechenden Verknupfungen in W zuruckgefuhrt haben, ubertragt sich die Vektorraumstruktur von W auf den Raum der linearen Abbildungen: Satz: Hom (V; W ) wird mit obigen Verknupfungen selbst zu einem Vektorraum uber K . (Beweis ! U bung fur den Leser). Der Nullvektor in Hom (V; W ) ist die Nullabbildung 0:
! W 7 ! 0W 8 v 2 V;
V v
das zu f inverse Element (bezuglich der Addition) die Abbildung f:
V v
! W 7 ! f (v ):
24
Bemerkung: Die eben vorgestellte Ausstattung der Menge Hom (V; W ) mit einer Vektorraumstruktur ist der entsprechenden Konstruktion in Abb (X; R ), also der Menge der Abbildungen einer (beliebigen) Menge X in die reellen Zahlen, eng verwandt, siehe Abschnitt 2.1.2 . Lineare Abbildungen, die von einem Vektorraum V (uber K ) in denselben Vektorraum V fuhren [also: Elemente von Hom (V; V )], werden auch als Endomorphismen uber V bezeichnet. Da fur f 2 Hom (V; V ) die Bilder f (v) wieder in V liegen, konnen wir einen zweiten Endomorphismus dahinterschalten. Auf der Endomorphismenmenge Hom (V; V ) lat sich also in Form der Hintereinanderschaltung eine zweite innere Verknupfung angeben: Hom (V; V ) Hom (V; V ) ! Hom (V; V ) (g; f ) ! 7 gÆf Æ:: mit (g Æ f )(v) := g(f (v)) 8 v 2 V 8 <
(Der Nachweis, dass g Æ f wieder linear ist, d.h. dass tatsachlich gilt: g Æ f 2 Hom (V; V ), bleibt wiederum dem Leser uberlassen.) Die Verknupfung "Æ\ ist assoziativ, denn fur beliebige v 2 V gilt: h Æ (g Æ f )(v ) = h[g (f (v ))] = h(g (f (v ))) = h(g [f (v )]) = (h Æ g ) Æ f (v ):
Auch gibt es in Hom (V; V ) ein neutrales Element bezuglich "Æ\, namlich die Identitat IdV (mit IdV (v) = v 8 v 2 V ). Dennoch ist (Hom (V; V ); Æ) keine Gruppe, denn i.a. existiert zu einem Endomorphismus kein Inverses: Nur die bijektiven linearen Abbildungen von V nach V [also: eine Teilmenge aus Hom (V; V )] sind umkehrbar. Die beiden inneren Verknupfungen "+\ und "Æ\ auf Hom (V; V ) spielen in Form von Distributivgesetzen zusammen, d.h. 8 f; g; h 2 Hom (V; V ) gilt: (D1) (D2)
f Æ (g + h) = f Æ g + f Æ h (f + g) Æ h = f Æ h + g Æ h:
Fat man die kommutative Gruppenstruktur von (Hom (V; V ); +), die Assoziativitat von "Æ\ und die Distributivgesetze zusammen, so ergibt sich: Satz: Die Menge Hom (V; V ) bildet mit den inneren Verknupfungen + und Æ einen Ring, genannt den Endomorphismenring von V .
25
Wie soeben vermerkt, ist (Hom (V; V ); Æ) keine Gruppe, da nur die bijektiven Abbildungen in Hom (V; V ) ein Inverses besitzen (namlich die Umkehrabbildung). Bildet dann wenigstens die Teilmenge der Isomorphismen V ! V [genannt auch: Automorphismen von V ] eine Gruppe bezuglich des Hintereinanderausfuhrens? Dazu ist zu zeigen: a) Die Hintereinanderschaltung zweier Automorphismen von V ist wieder bijektiv und damit wieder ein Automorphismus von V . (klar) b) Die Identitat IdV (neutrales Element) ist bijektiv. (klar) c) Die inverse Abbildung f 1 (eines Automorphismus) ist bijektiv (klar) und linear. (Nachweis als U bung) Insgesamt folgt der Satz: Die Automorphismen eines Vektorraums V bilden eine (nicht kommutative) Gruppe bezuglich der Operation des Hintereinanderausfuhrens.
26
2.6
Matrizen
Vorbemerkungen: (1) In volliger Analogie zum R n gilt fur beliebige (Zahl-)Korper K : Kn
:= f(x1; : : : ; xn) j xi 2 K 8i = 1; : : : ; ng
ist { mit wie im R n komponentenweise de nierter Addition und Skalarmultiplikation { ein n-dimensionaler Vektorraum uber K , mit der Standardbasis ei = (0 : : : 0; 1 ; 0 : : : 0): " [1=Einselement des Korpers K ] . i-te Stelle des n-Tupels Beispiel: C n ist n-dimensionaler Vektorraum uber dem Korper C .
(2) Im Zusammenhang mit der Matrizenrechnung ist es ublich (und sinnvoll!), 0 n-Tupel 1 aus
Kn
in Spaltenform zu schreiben, d.h. als sogenannte Spaltenvektoren
2.6.1 De nition einer Matrix uber
B @
x1
...
xn
K
Die mathematischen Objekte, denen wir uns nun zuwenden wollen, sind rechteckige Zahlenschemata von m n Elementen aus K : 0
m Zeilen
B @ |
a11 : : : a1n
...
...
am1 : : : amn
1 C A
{z
n
Spalten
}
Wir nennen eine solche Zahlenanordnung eine m n-Matrix (gesprochen: "m kreuz n\) uber K . Die Menge aller m n-Matrizen uber K bezeichnen wir mit K (m;n) . Noch einige Bezeichnungen: 0 1 Kurzschreibweise: A := (aij ) :=
B @
a11 : : :
...
...
: : : amn
27
C A
usw.
.
C A
1
.. . i. ..
a i1
...
a im i−te Zeile der Matrix (aij )
m Zeilenindex (=erster Index jedes Matrixelements a 1
...
j
...
n
i j
)
Spaltenindex (=zweiter Index jedes Matrixelements ai j )
...
a 1j amj
j−te Spalte der Matrix
=) Das Element aij steht in der i-ten Zeile und der j -ten Spalte der Matrix. Eine Matrix A uber dem Korper K = R (d.h. A 2 R (m;n) ) nennen wir reell, eine Matrix B 2 C (m;n) komplex. Ist m = n, so heit die Matrix quadratisch. Bemerkung: Fast alle Computersprachen unterstutzen das Speichern und die Manipulation von Datenpunkten, die in Matrixform angeordnet sind. Beispielsweise wird in C das Matrixelement aij als a[i][j ] angesprochen. Vertauscht man Zeilen und Spalten einer Matrix A = (aij ) 2 K (m;n) n
m
111111111 000000000 000000000 111111111 A
m
11 00 00 11 00 11 00 AT 11 00 11 n 11 00 00 11 00 11 00 11
(entspricht: Spiegelung des Rechteckschemas wie skizziert), so entsteht die zu A transponierte Matrix
AT := (aji ) 2 K (n;m) :
Da wir Spaltenvektoren des K n als spezielle Matrizen (namlich aus K (n;1) ) und entsprechend Zeilenvektoren als Matrizen aus K (1;n) auassen konnen, verwandelt die Transposition einen Spaltenvektor in einen Zeilenvektor und umgekehrt: 0
x1
. x=B @ .. xn
1 C A
=) xT = (x1 : : : ; xn): 28
Speziell fur Matrizen aus C (m;n) konnen wir noch de nieren: Die Matrix A := (aij ) [d.h. alle Matrixkomponenten werden komplex konjugiert] heit die zu A = (aij ) konjugiert komplexe Matrix. Fuhren wir an A 2 C (m;n) sowohl die komplexe Konjugation als auch die Transposition durch, so erhalten wir A := AT , die zu A konjugiert transponierte Matrix. 2.6.2 Eine Matrix als Darstellung einer linearen Abbildung Seien x 2 K n und A 2 K (m;n) gegeben, so konnen wir eine Abbildung f de nieren durch f: 0
a11 : : : a1n
... mit A x := B @
am1 : : : amn
! Km x ! 7 Ax Kn
10 CB A@
x1
...
xn
1
0
C A
=B @
a11 x1 + : : : + a1n xn
...
am1 x1 + : : : + amn xn
1 C A
Merkschema fur die Rechenoperation A x, das "Anwenden\ der Matrix A auf den (Spalten-) Vektor x:
m
111 000 000 111 000 111 i 11111111111 00000000000 000 00000000000 111 11111111111 000 111 000 111 000 111 000 111 000 111 n 000 111 000 111
=
i 11 00 00 11
m
Drehe den Spaltenvektor x um 90Æ, lege ihn auf die i-te Zeile von A (passt zusammen, da x und i-te Zeile vom A jeweils n Elemente haben), multipliziere die dabei ubereinander zu liegen kommenden Elemente ai j und x j miteinander und summiere auf: ai1 x1 +: : : ainxn . Das Resultat ist die i-te Komponente von Ax. Dass es in der Tat sinnvoll war, eine derartige Rechenoperation Ax zu de nieren, zeigt folgender Satz: Sei A 2 K (m;n) . Dann gilt: () Die Abbildung f : K n ! K m ; x 7! Ax, ist linear, d.h. Element von Hom (K n ; K m ). 0 01 B .. C B . C C B B 0 C C j -te Komponente; ( ) Die j -te Spalte von A ist das Bild des Einheitsvektors ej = B B 1 C C B B 0 C B . C @ . A . 0 d.h. des j -ten Vektors der Standardbasis. 29
( ) Zu jeder linearen Abbildung g : K n ! K m gibt es genau eine Matrix A 2 K (m;n) , so dass g(x) = Ax 8 x 2 K n . Beweis:
von () Dass 8 x; y 2 K n ; 2 K gilt: A(x + y ) = Ax + Ay und A(x) = (Ax);
sieht man jeweils sofort durch Einsetzen in die De nition von Ax. von ( )
11 00 00 11 00 11 00 11 00 11 00 11 00 11
Ae j =
j−te Spalte
0
11 00 00 11 00 11 00 11 00 11 00 11 00 11
=
1
0
j−te Spalte von A
von ( ) Sei nun g : K n ! K m irgend eine lineare Abbildung. Zu zeigen ist: Es gibt mindestens eine ("Existenz\) und nur eine ("Eindeutigkeit\) Matrix A 2 K (m;n) mit g (x) = Ax 8 x 2 K n . Eindeutigkeit: Angenommen, es gabe zwei Matrizen A; B 2 K (m;n) mit g(x) = Ax = Bx 8 x 2 K n . Dann mute insbesondere fur die Einheitsvektoren e1 ; : : : ; en gelten: Aej = Bej . Damit waren aber laut ( ) samtliche Spalten der Matrizen A und B identisch, d.h. A = B. Existenz: Wie konstruieren wir die zu g gehorige Matrix A? Wegen g (ej )=! Aej = (j -te Spalte von A) () mussen die Bilder g(ej ) der Einheitsvektoren gerade die Spalten von A werden: 0
1
B g (e ) : : : g (en) 1 A=B @
C C A
()
Fur beliebige Vektoren x 2 K n folgt dann Ax (e ;::: ;en=) ist Basis x7!Ax ist linear = () = g ist linear = 1
A(1 e1 + : : : + n en ) 1 Ae1 + : : : + n Aen 1 g (e1 ) + : : : + n g (en) g (1 e1 + : : : + n en ) = g (x);
wie gefordert.
q.e.d. 30
Bemerkung: Indem wir jeder linearen Abbildung g eine Matrix A gema der Vorschrift () zuordnen, haben wir also eine Eins-zu-Eins-Korrespondenz (=Bijektion) zwischen den Mengen Hom (K n ; K m ) und K (m;n) konstruiert. Diese Aussage konnen wir sogar noch erweitern: Wenn V und W endlichdimensionale Vektorraume uber K sind und wir Basen (v1; : : : ; vn) und (w1; : : : ; wm) in V und W wahlen, dann lat sich jede lineare Abbildung V ! W sofort in die Matrizensprache ubersetzen. Um dies zeigen zu konnen, bauen wir uns zunachst eine Brucke zwischen dem K n und einem beliebigen n-dimensionalen Vektorraum V mit Basis (v1; : : : ; vn): Laut Abschnitt (2.5.4) sind zwei n-dimensionale Vektorraume uber K stets isomorph. Zwischen den beiden n-dimensionalen Vektorraumen K n und V gibt es, vermittelt durch die Basis (v1 ; : : : ; vn), einen besonders naheliegenden Isomorphismus, namlich die Abbildung (v ;::: ;vn) : 1
! V (1 ; : : : ; n) ! 7 1 v1 + : : : + nvn : Kn
(v ;::: ;vn ) wird auch kanonischer Basisisomorphismus genannt. Anmerkungen zu : (1) Der Name "Basisisomorphismus\ leitet sich davon ab, dass (v ;::: ;vn) derjenige (laut Abschnitt (2.5.4) vorhandene und eindeutig bestimmte) Isomorphismus ist, der die Standardbasis des K n auf die Basis (v1 ; : : : ; vn) von V abbildet: (v ;::: ;vn )(ei ) = vi. (2) Die Koordinatenabbildung zwischen dem Raum der Ortsvektoren (mit der "recht1
1
1
. .
winkligen Einheitsbasis\ ) und dem R 3 ist nichts anderes als die Umkehrabbildung des kanonischen Basisisomorphismus zwischen diesen beiden Vektorraumen. Nun sind wir gerustet: Sind (v1 ; : : : ; vn) und (w1 ; : : : ; wm) Basen von V bzw. W und f : V ! W eine lineare Abbildung, so ist (w1 ;::: ;wm) Æ f Æ (v ;::: ;vn) eine lineare Abbildung K n ! K m , wie in folgendem kommutativen Diagramm dargestellt: 1
1
31
f V
Φ(v
W
1
... w ) 1 m
... vn )
IK n
~ =
Φ−1 (w
~ =
Φ(w
1
... wm )
IK m
−1
Φ (w
o ... w ) 1 m
f
o
Φ(v
1
... vn )
Auf diese Weise erhalten wir also eine Eins-zu-Eins-Korrespondenz zwischen Hom (V; W ) und Hom (K n ; K m ). Da nun wiederum die Vorschrift () der linearen Abbildung (w1 ;::: ;wm) Æ f Æ (v ;::: ;vn ) : K n ! K m eineindeutig eine Matrix A 2 K (m;n) zuordnet, erhalten wir insgesamt { bei gegebenen Basen von V und W { eine Eins-zu-Eins-Korrespondenz zwischen Hom (V; W ) und K (n;m) . 1
V
f
W
~ =
~ =
IK n
1
A
(isomorph)
IK m
Hat man also lineare Abbildungen zwischen endlichdimensionalen Vektorraumen zu betrachten, so kann man immer durch Wahl von Basen zu den zugehorigen Matrizen ubergehen. Zum Durchfuhren konkreter Rechnungen ist der U bergang zu den Matrizen oft zweckmaig. 2.6.3 Matrizenrechnung
Tupel aus K n konnen wir miteinander addieren und mit einem Skalar 2 K multiplizieren, indem wir jeweils ihre Komponenten addieren bzw. mit multiplizieren. Fur Matrizen aus K (m;n) funktioniert dies ebenfalls. De nition: Seien A = (aij ) und B = (bij ) aus K (m;n) und 2 K gegeben. Dann heit A + B := (aij + bij ) 2 K (m;n) die Summe von A und B und A := ( aij ) 2 K (m;n) das skalare Produkt von A mit dem Faktor . 32
Bemerkungen: (1) Mit diesen beiden Verknupfungen wird K (m;n) zu einem Vektorraum uber K . Das neutrale Element bezuglich der Addition ist die Nullmatrix 0 2 K (m;n) , ein Rechteckschema aus lauter Nullen. Da sich der Vektorraum K (m;n) oenbar nur durch die Schreibweise der Elemente (in Rechteckform statt in einer langen Spalte) von K (mn) unterscheidet, hat er die Dimension m n. (2) Wir kennen bereits die bijektive Abbildung zwischen K (m;n) und Hom (K n ; K m ), die jeder Matrix A die lineare Abbildung
! K m ; x 7! Ax
fA : K n
zuordnet. Diese Bijektion respektiert die Vektorraumstruktur der beiden Mengen K (m;n) und Hom (K n ; K m ) und ist somit ein Isomorphismus zwischen beiden Vektorraumen. Die dadurch etablierte Isomorphie beider Vektorraume erlaubt es uns, eine Matrix wahlweise als rechteckiges Zahlenschema aufzufassen (so ist sie de niert!) oder aber als lineare Abbildung (wenn namlich die Anwendung auf (Spalten-) Vektoren im Vordergrund steht). Um beide Aspekte stets vor Augen zu haben, werden wir kurzerhand eine Matrix A 2 K (m;n) und die (per obigem Isomorphismus) zugehorige lineare Abbildung K n ! K m mit demselben Symbol bezeichnen, also A : K n ! K m schreiben. Zwei lineare Abbildungen B : K n ! K m und A : K m ! K r konnen wir hintereinanderschalten zur linearen Abbildung AB : K n ! K r . n IK
B
IK
m
A
IK
r
AB
(Das "Æ\- Zeichen als Symbol der Komposition wird bei linearen Abbildungen meist weggelassen.) Nun mochten wir naturlich wissen, wie wir die zur linearen Abbildung AB gehorige Matrix aus den Ausgangsmatrizen A und B berechnen konnen. Zunachst vergeben wir einen Namen: Die zur linearen Abbildung AB (d.h. zur Hintereinanderausfuhrung zweier linearer Abbildungen B und A) gehorige Matrix nennen wir das (Matrix-)Produkt von A und B . Oensichtlich konnen wir nicht beliebige Matrizen A 2 K (r;m) und B 2 K (s;n) miteinander multiplizieren, denn K n B! K s und K m A! K r kann man ja nur dann zu AB zusammensetzen, wenn s = m ist. Das Matrixprodukt ist also eine Verknupfung K (r;m)
K (m;n) ! K (r;n) :
Um die Formel fur AB zu bestimmen, erinnern wir uns: Die j-te Spalte einer Matrix ist das Bild des j-ten Einheitsvektors. Berechnen wir also ej 7! Bej 7! ABej : 33
Be j
111 000 000 111 B 000 111 000 111 000 111 000 111 000 111 000 111 000 111 111 000 111 000 AB 111 000 111 000 111 000(AB) 111 000 ij 111 000 111 000
m m A
i
11111111111 00000000000 11111111111 00000000000
ABe j
0 B .. B . B B 1 B . @ .. 0 0
1
0
C C C C C A
B B B B B B @
7!
b1j
... ... ...
1
0
C C C C C C A
B B B B B @
7!
a11 b1j + : : : + a1m bmj
...
ai1 b1j + : : : + aim bmj
...
1 C C C C C A
ar1 b1j + : : : + arm bmj bmj {z } | {z } ej ABej : bildet die j-te Spalte von AB Bej = j-te Spalte von B =) Im Matrixprodukt AB lautet das i-te Element der j-ten Spalte: | {z }
|
(AB )ij =
m X k=1
aik bkj
Da die Multiplikation zweier Matrizen A und B das rechentechnische Spiegelbild der Hintereinanderausfuhrung der zugehorigen Homomorphismen ist, ubertragen sich auch die Eigenschaften der Hintereinanderausfuhrung. Insbesondere ist die Matrizenmultiplikation assoziativ und bezuglich der (Matrizen-)Addition distributiv, d.h. es gilt (falls die jeweiligen Produkte und Summen de niert sind, d.h. falls die Summanden und Matrixfaktoren "zusammenpassen\): ) A (B C ) = (A B ) C ) A (B + C ) = A B + A C [vgl. (D1) fur lineare Abbildungen]
) (A + B ) C = A C + B C [vgl. (D2)] Bis zu diesem Punkt gehorcht also auch die Matrizenmultiplikation den Rechenregeln, die wir fur die Multiplikation von Zahlen kennen. In zweierlei Hinsicht weicht die Matrizenmultiplikation jedoch eklatant von diesen Regeln ab: Wie die Komposition linearer Abbildungen ist auch die Matrizenmultiplikation nicht kommutativ und nicht nullteilerfrei, d.h. Æ ) Es gibt Matrizen A; B , fur die man sowohl AB als auch BA bilden kann und fur die gilt: AB 6= BA 34
) Es gibt Matrizen A 6= 0 (Nullmatrix), B 6= 0 mit AB = 0.
Beweis durch Beispiel: 0 1 1 1 A= 0 1 ; B= 0 0 zeigt beide Phanomene: 0 1 1 1 0 0 AB = 0 1 0 0 = 0 0 = 0; 1 1 0 1 0 2 BA = 0 0 0 1 = 0 0 6= AB : Fur die Transponierte eines Matrixprodukts gilt folgende Rechenregel: (AB )T = B T AT
(Beweis als U bung!)
2.6.4 Rang einer Matrix
Der Rang einer linearen Abbildung ist als Dimension ihres Bildes de niert. Entsprechend versteht man unter dem Rang einer Matrix A 2 K (m;n) die Dimension des Bildes der zugehorigen linearen Abbildung A : K n ! K m : Rang (A) := dim Bild (A : K n ! K m ) Da Bild (A) aufgespannt wird von den Bildern der Einheitsvektoren und damit von den Spalten der Matrix A, ist Rang (A) gleich der Maximalzahl linear unabhangiger Spalten von A (sog. Spaltenrang). Alternativ lat sich der Rang einer Matrix auch durch Betrachtung der Zeilen(vektoren) bestimmen, denn es gilt: Spaltenrang A = Zeilenrang A (:=Maximalzahl linear unabhangiger Zeilen von A). Zur expliziten Bestimmung von Rang (A) fuhren wir eine wichtige Rechentechnik ein, die sog. "elementaren Zeilen- bzw. Spaltenumformungen\: De nition: Unter elementaren Zeilenumformungen (bzw. Spaltenumformungen) einer Matrix A 2 K (m;n) versteht man folgende Operationen: (1) Multiplikation einer Zeile (bzw. Spalte) mit einem Skalar 6= 0; 2 K . (2) Vertauschung zweier Zeilen (bzw. Spalten). (3) Addition eines beliebigen Vielfachen einer Zeile (bzw. Spalte) zu einer anderen Zeile (bzw. Spalte). Solche "elementaren Umformungen\ konnen das Aussehen einer Matrix stark verandern, wie das folgende Beispiel von Umformungen einer Matrix A 2 R (3;3) zeigt: 0 1 0 1 0 1 0 1 0 1 1 1 1 1 1 1 1 1 1 1 1 0 1 0 0 @ 2 2 2 A ! @ 0 0 0 A ! @ 0 0 0 A ! @ 0 0 0 A ! @ 0 0 0 A 3 3 3 3 3 3 0 0 0 0 0 0 0 0 0 35
Dennoch bleibt ein wichtiges Kennzeichen der Matrix erhalten: ihr Rang. Satz: Elementare Zeilen- und Spaltenumformungen andern den Rang einer Matrix nicht. Beweis: Elementare Zeilenumformungen lassen oenbar die lineare Hulle der Zeilen unverandert. Der Zeilenrang ist aber nichts anderes als die Dimension dieser linearen Hulle. Analog q.e.d. andern elementare Spaltenumformungen den Spaltenrang nicht. Es ist nun moglich, jede Matrix durch elementare Umformungen auf eine sehr einfache Gestalt zu bringen, aus der der Rang unmittelbar abgelesen werden kann (vgl. obiges Beispiel). Um die Gestalt dieser speziellen Matrizen beschreiben zu konnen, einige Bezeichnungen vorweg: De nition: Die Elemente aii einer Matrix heien die Hauptdiagonalelemente. Ein Element steht "oberhalb\ bzw. "unterhalb\ der Hauptdiagonalen, je nachdem, ob i < j oder i > j ist. oberhalb unter− halb Hauptdiagonale
Matrizen des folgenden Typs haben ablesbaren Rang: Ist A eine Matrix mit m Zeilen, so dass die ersten r Hauptdiagonalelemente ungleich 0, die letzten m r Zeilen und alle Elemente unterhalb der Hauptdiagonalen aber gleich 0 sind, so ist Rang (A) = r. 0
Also:
A=
B B B B B @
1
a11 : : :
C 0 ... C C ... ... C =) Rang (A) = r C 0 : : : 0 arr : : : A 0
Beweis: Weglassen der letzten m r Zeilen andert den Rang nicht. Die ersten r Zeilen sind linear unabhangig, denn aus 1 (erste Zeile )+2 (zweite Zeile) + : : : + r (r-te Zeile) = 0 folgt 1 = 0 (wegen a11 6= 0), 2 = 0 (wegen a22 6= 0) usw. q.e.d. Das Verfahren zur Bestimmung des Ranges einer Matrix reduziert sich nun auf die Frage: Wie bringen wir die Matrix durch elementare Umformungen auf die obige Form? Sei A 2 K (m;n) bereits in der links gezeigten Gestalt: 36
n a11 k−1 m−k+1
0
..
a11
*
.a
0
k−1, k−1
0 k−1
.. 0
B
. ak−1, k−1 a~ kk
0
* * ~ B
n−k+1
Ist B = 0 (Nullmatrix), so ist Rang (A) = k 1. Ist B 6= 0, so gibt es ein aij 6= 0 mit i k und j k (d.h. aij aus Teilmatrix B ). Vertauscht man in A die i-te und k-te Zeile und dann die j-te und k-te Spalte, so erhalt man eine Matrix A~ mit a~kk = aij 6= 0. Durch elementare Zeilenumformungen vom Typ (3) kann A~ auf die rechts gezeigte Gestalt gebracht werden. Beginnt man dieses Verfahren bei k = 0 (d.h. die Ausgangsmatrix muss keinerlei besondere Gestalt aufweisen) und setzt es solange fort, bis die Restmatrix B~ entweder Null oder mangels Zeilen bzw. Spalten nicht mehr vorhanden ist, so erhalt man eine Matrix mit ablesbarem Rang (= Rang der Ausgangsmatrix!). Wenden wir uns nun speziell den Isomorphismen (genauer: Automorphismen) K n ! K n zu. Die zugehorigen Matrizen liegen klarerweise in K (n;n) , sind also quadratisch. Was zeichnet sie noch aus? Wir erinnern uns: Eine lineare Abbildung A : K n ! K n ist genau dann ein Isomorphismus, wenn die Vektoren A(e1 ); : : : ; A(en) eine Basis des K n bilden. Die n Spalten der zum Isomorphismus A gehorigen Matrix A formen also eine Basis, d.h. sie sind linear unabhangig. Wir fuhren zunachst einen Namen ein: Eine quadratische Matrix A 2 K (n;n) heit invertierbar, wenn die zugehorige lineare Abbildung ein Isomorphismus ist. Die Matrix der Umkehrabbildung heit dann die zu A inverse Matrix und wird mit A 1 bezeichnet. Die obigen U berlegungen ergeben den Satz: Eine quadratische Matrix A 2 K (n;n) ist genau dann invertierbar, wenn sie maximalen Rang besitzt, d.h. wenn Rang (A) = n. Bemerkung: Eine (n n)-Matrix A mit Rang (A) = n wird auch regular oder nichtsingular genannt. Da die regularen (n n)-Matrizen und die Automorphismen K n ! K n eins-zu-eins einander zugeordnet werden konnen und auch die Verknupfungen (Addition, Skalarmultiplikation und Matrizenmultiplikation bzw. Hintereinanderausfuhrung der zugehorigen Automorphismen) einander genau entsprechen, ubertragt sich unser Wissen uber Automorphismen K n ! K n sofort auf die regularen Matrizen ( K (n;n) ): (a) Eine Matrix besitzt hochstens eine Inverse. 37
0
(b) A invertierbar =) A 1 A = A A 1 = E , wobei E := B @
1
...
0
1 C A
die Matrix zur
0 1 Identitatsabbildung ! ist. [E wird auch (n n)-Einheitsmatrix genannt.] (c) Ist A invertierbar, so auch A 1 , und es gilt: (A 1) 1 = A. (d) Aus dem Diagramm Kn
Kn
AB
IK
n
B IK
n
B −1
A IK n A
−1
B−1 A −1
entnimmt man sofort:
(AB ) 1 = B 1 A 1
(e) Das Analogon zur Gruppe der Automorphismen (bezuglich des Hintereinanderausfuhrens) ist die Gruppe der regularen (n n)-Matrizen bezuglich der Matrizenmultiplikation. Wir notieren noch zwei weitere Rechenregeln fur regulare Matrizen aus K (n;n) : (AT ) 1 = (A 1 )T (An) 1 = (A 1 )n 8 n 2 N ; wobei die n-te Potenz von A de niert ist als An := A :{z: : A} (mit A0 := E ). | n mal 2.6.5 Determinanten
In diesem Abschnitt betrachten wir nur quadratische Matrizen, also Matrizen aus K (n;n) . Gegeben sei also A 2 K (n;n) . Da z.B. die Existenz von A 1 davon abhangt, ob A maximalen Rang n hat, ware ein einfaches Kriterium wunschenswert, das anzeigt, ob Rang (A) = n erfullt ist. Dieser Wunsch fuhrt uns auf die sog. Determinante jAj 2 K , eine Zahl, die sich jeder quadratischen Matrix A uber K zuordnen lat. Vorweg zwei Beobachtungen: () Eine (n n)-Matrix besteht aus n Spaltenvektoren (jeweils aus K n ). Daher konnen wir K (n;n) und das kartesische Produkt K| n :{z: : K n} (d.h. die Menge von n-Tupeln n mal aus Vektoren des K n ) miteinander identi zieren. 38
( ) Maximaler Rang von A ist aquivalent zur linearen Unabhangigkeit der Spalten von A. Was wir suchen, ist also eine Groe, die einem Tupel von n Vektoren des K n - etwa Spaltenvektoren einer Matrix - zugeordnet ist und die durch ihren Wert anzeigt, ob dieses Tupel von Vektoren linear unabhangig ist oder nicht. Daruber hinaus sollte die Groe linear von jedem der Vektoren des Tupels abhangen und in einer naheliegenden Weise normiert sein. Genau dies leistet die im folgenden de nierte Determinanten-Funktion. De nition: Die Funktion det : K| n :{z: : K n} ! K n mal mit den Eigenschaften (a) det(x1; x2 ; : : : ; xn) = 0 genau dann, wenn (x1; x2 ; : : : ; xn ) linear abhangig, (b) det(x1; : : : ; xn) ist multilinear, d.h. linear in jedem Faktor: det(x + y; x2; : : : ; xn) = det(x; x2 ; : : : ; xn) + det(y; x2; : : : ; xn) ; analog fur x2 ; : : : ; xn, (c) det(e1; : : : ; en) = 1, wobei (e1 ; : : : ; en) die Standardbasis des K n ist, heit Determinantenfunktion auf K n : : : K n . Sind insbesondere die Vektoren xi Spaltenvektoren einer (n n)-Matrix A = (aij ), so heit det(: : : ) die Determinante von A und wird in der Form det A := jAj := 0
a1i
. geschrieben, wobei mit ai := B @ ..
ani
a11 : : : a1n
...
...
an1 : : : ann
:= det(a1; : : : ; an)
1 C A
2 K n die Spaltenvektoren von A bezeichnet sind.
Fur den Moment wollen wir annehmen, dass eine derartige Funktion tatsachlich existiert, und einige Folgerungen aus den Eigenschaften (a) bis (c) ableiten. (1) Aus (a) folgt insbesondere, dass det(x1 ; : : : ; xn) = 0, wenn zwei der im Argument enthaltenen Vektoren gleich sind. (2) Addiert man zu einem Vektor im Argument eine Linearkombination der ubrigen Vektoren, so andert sich det(x1 ; : : : ; xn) nicht.
39
Beweis: Wegen (b) gilt:
0
1
B B B @
det x1 ; : : : ; xi +
n P j =1 j 6=i
C C nC A
j xj ; : : : ; x
= det(x1 ; : : : ; xi ; : : : ; xn) + det(x1; : : : ;
=
X
j 6=i
|
j xj ; : : : ; xn ) =
{z
}
Linearkombination der Vektoren x1 ; : : : ; xi 1 ; xi+1 ; : : : ; xn
= det(x1 ; : : : ; xn) wegen (a). (3) Bei Vertauschung zweier Vektoren im Argument wechselt die Determinantenfunktion ihr Vorzeichen: det(x1 ; : : : ; xi ; : : : ; xk ; : : : ; xn) = det(x1 ; : : : ; xk ; : : : ; xi ; : : : ; xn) Der Beweis beruht auf wiederholter Anwendung von Eigenschaft (2): det(x1 ; : : : ; xi; : : : ; xk ; : : : ; xn) = det(x1 ; : : : ; xi + xk ; : : : ; xk ; : : : ; xn) = det(x1 ; : : : ; xi + xk ; : : : ; xk (xi + xk ); : : : ; xn) = det(x1 ; : : : ; (xi + xk ) xi; : : : ; xi ; : : : ; xn) = det(x1; : : : ; xk ; : : : ; xi; : : : ; xn) wegen(b). (4) Sei eine Permutation der Zahlen (1; 2; : : : ; n) mit dem Signum sgn(), de niert als sgn() = ( 1)Z , Z = Zahl der benotigten Paarvertauschungen, um aus der Ausgangsreihenfolge (1; : : : ; n) die Permutation ((1); : : : ; (n)) zu erzeugen. Dann folgt aus (3) unmittelbar: det(e(1) ; e(2) ; : : : ; e(n) ) = sgn() det(e1 ; e2; : : : ; en) (c) = sgn(): Dass eine Determinantenfunktion mit den Eigenschaften (a) bis (c) wirklich existiert, weisen wir nun nach, indem wir sie explizit konstruieren. * * Wir berechnen also*- mit Hilfe der Eigenschaften (a) bis (c) det( x1 ; : : : ; xn ) fur n beliebige Vektoren *x1 ; : : : ; x*n 2 K n : Interpretation der xi als Spaltenvektoren einer (n n)-Matrix ergibt 0
*
det(x1; : : :
* ; xn
) = det
B B B B B @
x11
...
(b)
=
j j j j j
x1n
...
xn1 xnn * KoeÆzienten von x1 bezuglich der Standardbasis |{z}
= det
j j j ::: j j
n P k1 =1
xk 1 ek : : :
n P k1 ;k2 ;::: ;kn =1
1
1
n P
kn =1
xkn n ekn
1 C C C C C A
=
xk 1 xk 2 : : : xkn n det(ek ; : : : ; ekn ) 1
2
1
40
(zur Indizierung: Die insgesamt n voneinander unabhangig durchzufuhrenden Summationen erfordern n verschiedene Summationsindices, hier: k1 ; : : : ; kn). Nehmen fur einen der insgesamt nn Summanden zwei der Indices k1; k2; : : : ; kn den gleichen Wert an, dann gilt wegen (1): det(ek ; : : : ; ekn ) = 0 [gleicher Basisvektor kommt zweimal vor!]. Einen Beitrag liefern also nur diejenigen Summanden, bei denen die Indices k1; : : : ; kn alle verschieden sind. Dies bedeutet: Wir mussen uber alle n! Permutationen der Zahlen (1; 2; : : : ; n) summieren: det(x*1; : : : ; x*n) = P = x(1)1 x(2)2 : : : x(n)n det(e(1) ; e(2) ; : : : ; e(n) ) 1
=
P
sgn() x(1)1 x(2)2 : : : x(n)n
Dass die so de nierte Determinantenfunktion auch tatsachlich die Bedingungen (a) bis (c) erfullt, sei dem Leser als U bung uberlassen. Fur den Spezialfall der Determinante einer Matrix lautet das obige Resultat (sogenannte Determinantenform von Leibniz): det A =
a11 : : : a1n
...
...
an1 : : : ann
=
X
sgn() a(1)1 : : : a(n)n ;
wobei uber alle Permutationen der Zahlen (1; 2; : : : ; n) zu summieren ist. Wie sieht nun det A explizit aus? A 2 K (1;1) : det A = ja11 j = a11
A 2 K (2;2) : det A = aa11 aa12 = 21 22
; 1) a21 a12 = |sgn(1 ; 2) a11 a22 + sgn(2 {z } | {z } +1
1
= a11 a22 a21 a12 Schema:
+
− a 11
a 12
a 21
a 22
41
A 2 K (3;3) : Wir listen zunachst die Permutation auf,
sgn()
123 132 231 213 312 321
+1 1 +1 1 +1 1
1 !2 !2 2 !1 !3 3 !3 !1 > > : | {z } | {z } 8 > > <
(12)
(13)
und sortieren die sechs Summanden gema (1) = 1, dann 2, dann 3: a11 a12 a13 det A = a21 a22 a23 = a31 a32 a33 = a11 (a22 a33 a32a23) + a21(a32a13
= a11 aa22 aa23 32 33
a21 aa12 aa13 32 33
"
a12 a33 ) + a31 (a12 a23
+ a31 aa12 aa13 22 23
" j
a22 a13 )
" j
a11
a12
a13
a11
a12
a13
a21
a22
a23
a11
a12
a13
a21
a22
a23
a31
a32
a33
a21
a22
a23
a31
a32
a33
a31
a32
a33
j j j
j j j
j j
Wenn A eine (n n)-Matrix ist, so nennen wir diejenige (n 1) (n 1)-Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte entsteht, die Untermatrix Aij . j
i
11 00 00 11 00 11 00 11 00 11 00 11 00 11 0000 1111 11111 00000 000011 1111 00 11111 00000 00 11 00 11
A ij
a ij
det(Aij ) heit die zu aij gehorige Unterdeterminante. In dieser Sprechweise haben wir soeben eine Determinante dritter Ordnung durch eine 42
Linearkombination von drei Unterdeterminanten zweiter Ordnung ausgedruckt, wobei die (mit alternierenden Vorzeichen versehenen) Matrixelemente der ersten Spalte der Ausgangsmatrix als KoeÆzienten dienten. Man sagt, wir haben "det A nach der 1. Spalte entwickelt\. Hatten wir die Permutationen nach (2) = 1; 2; 3 sortiert, so hatten wir die Entwicklung von det A nach der 2. Spalte erhalten. Allgemein konnen wir beliebige Determinanten n-ter Ordnung nach einer beliebigen Spalte oder Zeile der Matrix entwickeln: Laplace'scher Entwicklungssatz: A = (aik ) sei eine n n-Matrix. Dann gilt: det(A) =
n X i=1
( 1)i+j aij det(Aij ) fur beliebiges j 2 f1; : : : ; ng
(Entwicklung nach der j-ten Spalte), und
det(A) =
n X j =1
( 1)i+j aij det(Aij ) fur beliebiges i 2 f1; : : : ; ng
(Entwicklung nach der i-ten Zeile).
Die Entwickelbarkeit von Determinanten gestattet einen Algorithmus, mit dem man Determinanten rekursiv berechnen kann: (1) Man suche diejenige Zeile oder Spalte mit den meisten Nullen. (2) Man entwickle nach dieser Zeile oder Spalte gema dem Entwicklungssatz. Dadurch wird die Ausgangsdeterminante n-ter Ordnung auf eine Linearkombination von (Unter-)Determinanten (n 1)-ter Ordnung zuruckgefuhrt. (3) Man wiederhole diesen Prozess, d.h. die Schritte (1) und (2), fur alle Unterdeterminanten, und zwar so lange, bis man bei 1 1-Unterdeterminanten, also reinen Zahlen aus K , angelangt ist. Bemerkung: Ein solches rekursives Verfahren lat sich leicht auf Computern implementieren, da im Prinzip der gleiche Algorithmus - fur einen jeweils um eins kleineren Wert von n - immer wieder durchlaufen wird. Zum Abschluss wollen wir noch einmal zusammenfassen, wie sich der Wert einer Determinante andert, wenn wir die zugehorige Matrix einfachen Rechenoperationen unterwerfen: Satz: Seien A und B n n-Matrizen uber K . Dann gilt: a) det(A) = det(AT ) b) Vertauscht man in der Matrix A zwei Zeilen (Spalten), so wechselt det(A) das Vorzeichen. c) Addiert man zu einer Zeile (Spalte) der Matrix A eine Linearkombination der ubrigen Zeilen (Spalten), so andert sich det(A) nicht. 43
d) Multipliziert man eine Zeile (Spalte) von A mit c 2 K , so wird die Determinante det(A) mit dem Faktor c multipliziert. e) In der Matrix A sind die Zeilen (Spalten) genau dann linear abhangig, wenn det(A) = 0. f) det(cA) = cn det(A) 8 c 2 K . g) det(A B ) = det(A) det(B ). h) Fur die Einheitsmatrix E 2 K (n;n) gilt: det(E ) = 1. i) Existiert A 1 , dann ist det(A 1) = det(1 A) . [Folgt sofort aus g) wegen g) det(A A 1 ) = det(E ) = 1] . A A 1 = E =) det(A) det(A 1 ) =
44
2.7
Lineare Gleichungssysteme
2.7.1 Aufgabenstellung
Die Nutzlichkeit der linearen Algebra wird besonders deutlich bei linearen Gleichungssystemen. Sei A : K n ! K m eine gegebene lineare Abbildung. Wir wissen: Das Bild eines Vektors x 2 K n unter A berechnet sich als y = Ax. In vielen Zusammenhangen (Technik, Wirtschafts- und Naturwissenschaften) taucht die umgekehrte Problemstellung auf: Gegeben sei (neben A 2 K (m;n) ) ein Vektor b 2 K m . Gesucht sind alle Vektoren x 2 K n , die durch die lineare Abbildung A in den Bildvektor b abgebildet werden, d.h. fur die gilt: Ax = b. De nition: Seien A := (aij ) 2 K (m;n) und b 2 K m beliebig, aber fest gegeben. Dann heit Ax = b oder, ausgeschrieben a11 x1 + : : : + a1n xn = b1 a21 x1 + : : : + a2n xn = b2
... am1 x1 + : : : + amn xn = bm ein lineares Gleichungssystem mit m Gleichungen fur die n Unbekannten x1 ; : : : ; xn (= Komponenten des Vektors x 2 K n ). * Falls b = 0 2 K m , so heit das Gleichungssystem homogen, sonst inhomogen. Ist m = n (d.h. genausoviele Gleichungen wie Unbekannte), dann heit das System quadratisch. 2.7.2 Losungsmenge
Je nachdem, wie die lineare Abbildung (bzw. die zugehorige Matrix) A und der Vektor b aussehen, kann es viele, einen einzigen oder gar keinen Losungsvektor x geben, dessen Komponenten das Gleichungssystem erfullen. Unser Ziel ist nun, Kriterien zu gewinnen, um anhand von A und b entscheiden zu konnen, ob das Gleichungssystem losbar ist und, wenn ja, ob die Losung eindeutig ist. Satz: Ein lineares Gleichungssystem der Form Ax = b ist genau dann losbar, wenn 0
()
Rang (A) = Rang
B @
...
...
...
C A
am1 : : : amn bm |
45
1
a11 : : : a1n b1
{z
A
} |{z}
b
Beweis: ) System losbar=) Gl. () gilt:
Die Aussage "Es gibt (mindestens) ein x 2 K n mit Ax = b bedeutet, dass b 2 Bild(A). Da Bild(A) von den Spalten von A aufgespannt wird, lat sich b aus den Spalten von A linear kombinieren. =) Der Spaltenrang von A andert sich nicht, wenn wir b als (n + 1)-te Spalte hinzufugen. ) Gl. () =) System losbar: Die Spalten der erweiterten Matrix (Ajb) 2 K (m;n+1) spannen einen Unterraum W K m auf, der sowohl Bild(A) als auch den Vektor b enthalt. Ist nun gema Gl.() dim( Bild(A)) = dim W , so folgt (wegen Bild(A) W ) Bild(A) = W und damit b 2 Bild(A). q.e.d.
Die Menge aller Losungen von Ax = b, kurz als ML (A; b) bezeichnet, hat folgende Struktur: Satz: Sei x0 2 ML (A; b), dann gilt: ML (A; b) = fx 2 K n j x = x0 + y; y 2 Kern(A)g
Bemerkung: Da Kern(A) nichts anderes ist als die Losungsmenge zu Ax = 0, bedeutet dieser Satz: Wir erhalten alle Losungen des inhomogenen linearen Gleichungssystems, wenn wir eine (beliebige) Losung x0 dieses inhomogenen Systems bestimmen (falls eine solche uberhaupt existiert) und zu allen Losungen des zugehorigen homogenen linearen Gleichungssystems, * also zu allen Vektoren aus ML (A; 0 ) = Kern(A), diese spezielle Losung x0 addieren. Beweis des Satzes: ) "x = x0 + y mit y 2 Kern (A) ist Losung\: y 2 Kern (A) =) Ax = A (x0 + y ) = Ax0 + Ay = Ax0 = b: X ) "Alle Losungen sind von dieser Form\: * Sei v Losung, dann ist A (v x0 ) = Av Ax0 = b b = 0 =) (v x0 ) 2 Kern(A), d.h. mit y := (v x0 ) 2 Kern(A) ist v von der Form v = x0 + y. Aus obigem Satz folgt sofort der weitere Satz: Ist x0 2 ML (A; b) eine Losung und (v1 ; : : : ; vr ) eine Basis von Kern(A), so gilt ML (A; b) = fx0 + 1 v1 + : : : + r vr j i 2 K g:
Dabei ist r = dim(Kern (A)) = n Rang (A)
[denn laut Abschnitt 2.5.5 gilt: n = dim(K n ) = |dim(Bild (A))} + dim(Kern (A))]. {z Rang (A)
46
Daraus gewinnen wir sofort ein Kriterium fur die eindeutige Losbarkeit des Gleichungssystems: Satz: Ein losbares Gleichungssystem Ax = b (mit n Unbekannten) ist genau dann * eindeutig losbar, wenn Kern (A) = f 0 g, d.h. wenn Rang(A) = n: Bemerkungen: (1) Fur eine quadratische nn-Matrix, d.h. fur ein Gleichungssystem aus n Gleichungen mit n Unbekannten, ist das genau dann der Fall, wenn det(A) 6= 0 ist. In diesem Fall hangt die Losbarkeit nicht mehr von b ab, denn A ist dann ja bijektiv, d.h. zu jedem (Bild-)Vektor b existiert genau ein Urbildvektor x. Der Urbildvektor x und damit die eindeutige Losung des linearen Gleichungssystems Ax = b lautet x = A 1 b;
wobei A 1 die inverse Matrix zu A ist. * (2) Da fur beliebige A 2 K (m;n) gilt: 0 2 Kern(A), besitzt ein homogenes Gleichungs* system stets die sogenannte triviale Losung x = 0 . Weitere Losungen konnen bei einem homogenen Gleichungsystem nur dann existieren, wenn der Kern von A nicht nur aus dem Nullvektor besteht. Speziell fur quadratische homogenen Systeme heit dies: Nichttriviale Losungen existieren nur, wenn Rang (A) nicht maximal ist, d.h. wenn gilt: det(A) = 0. 2.7.3 Explizite Losung: Cramersche Regel Hat A 2 K (n;n) maximalen Rang, d.h. det(A) 6= 0, so konnen wir die (dann ja eindeutige) Losung von Ax = b direkt bestimmen: 0
a11
. Ax = b () x1 B @ .. an1 0
a11
. () x1 B @ ..
an1
1 C A
0
a1n
. + : : : + xn B @ ..
ann
1
0
C A
+:::+1B @
xi a1i
b1
xi ani
bn
...
1
0
C A
. =B @ ..
b1
bn
1 C A
1 C A 0
a1n
... + : : : + xn B @
ann
1 C A
*
=0
Da die KoeÆzienten dieser Linearkombination nicht alle verschwinden, sind die Spalten der Matrix 0 B @
a11 : : : xi a1i
b1 : : : a1n
an1 : : : xi ani
bn : : : ann
...
...
47
...
1 C A
linear abhangig, ihre Determinante daher gleich 0. Weil diese Determinante in der i-ten Spalte linear ist, folgt xi
|
n nn }
a11 : : : a1
...
an1 : : : a
...
|
n nn }
a11 : : : b1 : : : a1
...
...
...
= 0:
an1 : : : bn : : : a {z A Ai Dabei entsteht die Matrix Ai aus der Matrix A, indem die i-te Spalte durch den Vektor b {z
ersetzt wird. Somit haben wir eine Formel gefunden, um die i-te Komponente xi des Losungsvektors x auszurechnen: Satz (Cramersche Regel): Ist Ax = b und det(A) 6= 0, dann gilt: det(Ai) ; fur i = 1; : : : ; n; xi = det(A) wobei wir die Matrix Ai aus der Matrix A erhalten, indem wir die i-te Spalte herausnehmen und an ihre Stelle den Vektor b setzen. Bemerkung: Die Bedeutung der Cramerschen Regel liegt hauptsachlich darin, dass man aus dieser expliziten (im Mathematikerjargon: "geschlossenen\) Form der Losung leicht ersieht, wie diese Losung von den Parametern des Gleichungssystems, also von den Komponenten der Matrix A und des Vektors b, abhangt. Fur die praktische Berechnung der xi ist diese Regel jedoch wegen des zu hohen Rechenaufwandes ungeeignet, vor allem bei groem n. 2.7.4 Numerische Losung: Gau'scher Algorithmus
Wir lernen nun ein wesentlich eektiveres Verfahren zur Losung linearer Gleichungssysteme kennen, das auch auf nichtquadratische Matrizen anwendbar ist. Sei also Ax = b zu losen, wobei A 2 K (m;n) und b 2 K m beliebig vorgegeben sind. Die Losungsstrategie ahnelt der Methode zur Berechnung des Rangs einer Matrix: (i) Wir uberlegen uns, welche Rechenoperationen wir an einem linearen Gleichungssystem vornehmen konnen, ohne die Losungsmenge zu andern. (ii) Wir uberfuhren das Ausgangssystem Ax = b mit Hilfe derartiger Rechenoperationen in eine Form, aus der die Losung einfach bestimmt werden kann. Zu (i): Eine Losung x von Ax = b ist Losung von m Einzelgleichungen. Klarerweise bleibt sie eine Losung wenn wir (a) zwei (Einzel-)Gleichungen vertauschen ( ! dieselben Gleichungen, nur in anderer Reihenfolge), (b) eine Gleichung mit einer Zahl 6= 0 multiplizieren, oder 48
(c) ein Vielfaches einer Gleichung zu einer anderen Gleichung addieren. Umgekehrt ist jede Losung des neu entstandenen Gleichungssystems auch Losung des ursprunglichen, denn das neue Gleichungssystem kann durch Umformungen desselben Typs wieder in das alte verwandelt werden. Obige Umformungen lassen also die Losungsmenge eines linearen Gleichungssystems unverandert. Wenn wir alle KoeÆzienten des linearen Gleichungssystems Ax = b in Form der erweiterten KoeÆzientenmatrix (Ajb) 2 K (m;n+1) zusammenfassen [der Matrix A wird der Vektor b als (n +1)-te Spalte hinzugefugt], so zeigt sich: Die Umformungen (a) bis (c) entsprechen genau den elementaren Zeilenumformungen der Matrix (Ajb), die wir im Zuge der Rangbestimmung bereits kennengelernt haben. Wir halten fest: Entsteht (B jc) aus (Ajb) durch endlich viele elementare Zeilenumformungen, dann haben Ax = b und Bx = c dieselben Losungsmengen. Bemerkung: Zwei lineare Gleichungssysteme, die dieselbe Losungsmenge besitzen, heien aquivalent. Zu (ii): Der sogenannte Gau'sche Algorithmus zur Losung eines linearen Gleichungssystems Ax = b besteht nun aus drei Teilen: () Vorwartselimination an der erweiterten Matrix (Ajb) ( ) Losbarkeitsentscheidung (Dieser Schritt entfallt bei homogenen linearen Gleichungssystemen, da dort x = 0 immer eine Losung ist.) ( ) Ruckwartssubstitution. () Die Vorwartselimination: Man bringt durch eventuelle Zeilenvertauschung eine Zahl ungleich 0 an die erste Stelle der ersten Spalte und annulliert die darunter stehenden Zahlen, indem man ein passendes Vielfaches der neuen ersten Zeile von der zweiten, dritten, usw. subtrahiert. also a11 6= 0 Ist a21 (eventuell nach einer Zeilenvertauschung), dann subtrahiert man das a -fache der 11 ersten Zeile von der zweiten a21 a21 [ ! a21 a a11 ; : : : ; a2n a a1n als neue zweite Zeile],
11 0
{z
|
}
11
das aa31 -fache der ersten Zeile von der dritten usw. Auf diese Weise entsteht aus (Ajb) 11 eine Matrix (B jc) mit 0 B
:::
(B jc) = B @ 0
A1
1
c
C C A
An -Stelle steht eine Zahl ungleich 0. Hat man zu Beginn keine Zeile gefunden, so dass nach Zeilenvertauschung die -Stelle mit einer Zahl 6= 0 besetzt ist, bedeutet dies: 49
Die 1. Spalte der Ausgangsmatrix A besteht aus lauter Nullen, d.h. die x1-Variable kommt in dem linearen Gleichungssystem gar nicht vor. In diesem Fall streicht man aus A die erste Spalte, reduziert die Zahl der Unbekannten um eins und beginnt erneut mit der Vorwartselimination. Im Fall A1 = 0 (Nullmatrix) ist die Vorwartselimination beendet. Andernfalls wiederholt man dasselbe Vorgehen an der ersten vom Nullvektor verschiedenen Spalte von A1, wobei die erste Zeile von B unverandert bleibt. Diese Vorgehensweise wird so lange wiederholt, bis man zu einer Matrix (M jd) gelangt, die eine Zeilenstufenform besitzt: 0
(M jd) =
B B B B B B B B B B B @
0 ... ...
0 ... ...
0 ... ...
:::
::: ::: 0 ::: ::: ... 0 0 : : : ...
0 0 0 0 0
... 0
0
0
0 ... 0
::: :::
d1 ... dr
0 : : : 0 dr+1 ... ... 0 : : : 0 dm
1 C C C C C C C C C C C A
Kennzeichen der Zeilenstufenform:
In jeder Zeile stehen links von nur Nullen. Liest man von oben nach unten, so ruckt pro Zeile um mindestens eine Stelle
nach rechts. Da die Vorwartselimination nur aus elementaren Zeilenumformungen besteht, ist das lineare Gleichungssystem Mx = d aquivalent zu Ax = b. Beispiel: Ax = b lautet: 2x1 x3 = 1 2x1 +4x2 x3 = 1 x1 +8x2 +3x3 = 2 0
(Ajb) :
@
1
2 0 1 1 2 4 1 1A 1 8 3 2
#
[II. Zeile - 22 0 (I. Zeile); III. Zeile - 121 (I. Zeile)] @
2 0 1 1 0 4 0 0 0 8 2:5 2:5
A
2 0 1 1 0 4 0 0 0 0 2:5 2:5
A
# [III. Zeile - 2 (II. Zeile)] 0 1 (M jd) :
@
50
( ) Die Losbarkeitsentscheidung: Ist nach Schritt () im Spaltenvektor d eine der Zahlen dr+1; : : : ; dm von Null verschieden, dann ist Mx = d und damit Ax = b nicht losbar. Denn ware zum Beispiel dr+1 6= 0, so wurde die (r + 1)-te Zeile des linearen Gleichungssystems Mx = d lauten: 0 = dr+1. Fur den Fall dr+1 = : : : = dm = 0 ist die Ruckwartssubstitution durchfuhrbar. ( ) Die Ruckwartssubstitution: Das Gleichungssystem Mx = d besteht nun aus r Gleichungen fur die n Unbekannten. Alle Unbekannten, denen eine Spalte ohne -Stelle zugeordnet ist (die Unbekannte xi wird in Mx = d mit den KoeÆzienten der i-ten Spalte von M multipliziert, ist also der i-ten Spalte zugeordnet), bringt man nun auf die rechte Gleichungsseite. Da M genau r -Stellen besitzt, stehen danach (n r) Unbekannte auf der rechten Seite. Ihre Werte konnen frei gewahlt werden, beispielsweise zu 1; : : : ; n r 2 K . Man hat also (n r) freie Parameter. Hat beispielsweise M 2 K (m;n) die Form
0 ...
:::
;
0
so schreibt man Mx = d als m11 x1 + m12 x2 + : : : + m1r xr = d1 m1;r+1 xr+1 : : : m1n xn m22 x2 + : : : + m2r xr = d2 m2;r+1 xr+1 : : : m2n xn ... mrr xr = dr mr;r+1 x|{z} xn r+1 : : : mrn |{z} =:1
=:n r
Die Werte der r Unbekannten auf der linken Gleichungsseite berechnet man nun sukzessive von unten nach oben (daher Name: Ruckwartssubstitution!) in Abhangigkeit von 1 ; : : : ; n r . Im obigen Beispiel: Aus der r-ten Gleichung resultiert dr mr;r+1 mrn 1 : : : : mrr mrr mrr n r Dieser Wert wird nun in die (r 1)-te Gleichung eingesetzt, wodurch sich xr 1 ergibt, xr =
usw. Anmerkungen zum Gau'schen Algorithmus: (1) Man beachte, dass beim Gau'schen Algorithmus nur elementare Zeilenumformungen Verwendung nden. Spaltenumformungen sind dagegen - anders als bei der Rangbestimmung - unzulassig. (2) Die Losbarkeitsentscheidung in ( ) lat sich auch so einsehen: Mx = d (und damit Ax = b) ist genau dann losbar, wenn Rang (M ) = Rang (M jd): 51
Ist nun r < m und ist unter den Zahlen dr+1; : : : ; dm wenigstens eine 6= 0, so lat sich d nicht aus den Spalten von M (mit lauter Nullen im unteren Teil!) linear kombinieren. Damit folgt Rang (M ) 6= Rang (M jd); und das lineare Gleichungssystem ist nicht losbar. (3) Ist r = n und ist dr+1 = : : : = dm = 0, so hat Mx = d folgende Gestalt: m11 x1 + m12 x2 + : : : + m1n xn = d1 m22 x2 + : : : + m2n xn = d2 ... mnn xn = dn Mangels freier Parameter ist dieses Gleichungssystem eindeutig losbar. Existenz und Eindeutigkeit der Losung folgt auch aus Rang (M ) = Rang (M jd) = n = Zahl der Unbekannten (Der Rang von M ist aus der Form dieser Matrix, M=
::: ::: 0
...
;
gema Abschnitt 2.6.4 direkt ablesbar. Da (M jd) ebenfalls nur n Zeilen hat, ist sein Rang wegen "Rang = Zeilenrang\ ebenfalls n.) Beispielsweise hat Mx = d die obige Gestalt, wenn die Ausgangsmatrix A eine n n-Matrix mit maximalem Rang (also nichtverschwindender Determinante) ist, und b 2 K n . (4) Mit Hilfe des Gau`schen Algorithmus konnen wir auch die Inverse einer regularen n n-Matrix berechnen. Sei also A = (aij ) regular und A 1 = (cij ) ihre Inverse. Dann ist 0 1 0 1 0 1 1 0 : : : 0 a11 : : : a1n c11 : : : c1n B 0 1 C 0 B . C B . C B C . . .. A @ .. .. A = B .. .. C: @ .. . . @ . A . . an1 : : : ann cn1 : : : cnn 0 0 ::: 1 Die Multiplikation von A mit dem j-ten Spaltenvektor von A 1 ergibt gerade die j-te Spalte der Einheitsmatrix und damit den Standard-Basisvektor ej . Wir konnen die inverse Matrix A 1 also spaltenweise bestimmen, indem wir die n Gleichungssysteme Ax(j ) = ej losen. Die Losungsvektoren x(j ) sind gerade die Spalten von A 1 . 52
2.8
Skalarprodukt und Orthogonalit at
2.8.1 De nition des Skalarprodukts
Wenn man geometrische Probleme studieren will, bei denen Langen und Winkel eine Rolle spielen, dann muss der Vektorraum mit einer zusatzlichen Struktur ausgestattet werden. Diese Struktur wird erzeugt von einer Verknupfung namens Skalarprodukt. Wir de nieren es (zunachst) im R n . De nition: Das Skalarprodukt "\ im R n ist eine Verknupfung 8 <
Rn
Rn
: : (x; y) xy
! R 7 x y mit !
:= xT y = x1 y1 + : : : + xnyn
Das Skalarprodukt zweier Vektoren x; y 2 R n ist also eine reelle Zahl. Sie wird berechnet durch Matrizenmultiplikation der (1 n)-Matrix xT mit der (n 1)-Matrix y: n
1
1
= xT
.
x y
n
y
Folgende Eigenschaften sind leicht ersichtlich:
8 x; y; z 2 R n und 2 R gilt: (a) x y = y x (Kommutativitat oder Symmetrie) [Grund: xiyi = yixi ] (b) (x + y) z = x z + y z (Distributivitat) [Grund: Matrizenmultiplikation ist distributiv ] (c) (x y) = (x) y = x (y) *
(d) x 6= 0 () x x > 0 (positive De nitheit) (b) und (c) lassen sich auch so interpretieren: Fur (beliebiges, aber) festgehaltenes z 2 Rn ist die Abbildung fz : R n ! R ; x 7! x z linear, d.h. f|z (x{z+ y}) = f z (x) + fz (y ) | {z } | {z } (x + y) z = (x z) + (y z) Wegen der Symmetrie des Skalarprodukts gilt diese Linearitat auch fur den zweiten Faktor. Man spricht daher auch von Bilinearitat. 53
Wie wir gleich sehen werden, sind fur die Langen- und Winkelmessung genau die Eigenschaften (a) bis (d) von Bedeutung. Wenn wir daher ein Skalarprodukt fur einen allgemeinen Vektorraum V uber R de nieren wollen, so legen wir fest: De nition: Ein Skalarprodukt "\ in V ist eine Verknupfung
! R : V(x;yV) ! 7 xy
mit den Eigenschaften (a) bis (d). Ein reeller Vektorraum, in dem ein Skalarprodukt de niert ist, heit euklidischer Vektorraum. 2.8.2 Langenmessung
Erinnern wir uns nun an unser Ausgangsziel, die Lange von Vektoren zu messen. Eine Abbildung, die jedem Vektor seine Lange zuordnet, heit Norm. Sie genugt folgenden Forderungen, die sicherstellen, dass die Langenmessung mit der Vektorraumstruktur (und unserer intuitiven Vorstellung einer sinnvollen Langenmessung) zusammenpasst: De nition: Sei V ein reeller Vektorraum. Eine Norm k: k ist eine Abbildung V ! R mit folgenden Eigenschaften:
8x; y 2 V; 2 R gilt i) kxk = jj kxk (d.h. Streckung eines Vektors um den Faktor bedeutet Multiplikation seiner Lange mit jj) ii) kx + yk kxk + kyk (Dreiecksungleichung) (Verallgemeinerung der Eigenschaft des R 2 , dass im Dreieck eine Seite nie langer sein kann als die Summe der beiden anderen Seiten) y x x+y *
iii) x 6= 0 () kxk > 0 (positive De nitheit) (Wegen k |{z} *0 k = jj k *0 k 8 2 R hat der Nullvektor stets die Lange 0, *0
k *0 k = 0. Alle anderen Vektoren sollen eine nichtverschwindende Lange haben.) Ein Vektorraum, der mit einer Norm(abbildung) versehen ist, heit normierter Vektorraum. 54
Besitzt ein Vektorraum V (uber R ) ein Skalarprodukt, so konnen wir stets eine Norm p konstruieren, indem wir festsetzen kxk := x x . Dass die so de nierte Abbildung den Forderungen an eine Norm genugt, folgt aus den Eigenschaften (a) bis (d) desp Skalarprodukts. Jeder euklidische Vektorraum wird also durch die De nition kxk := x x zu einem normierten Vektorraum und macht es damit moglich, die Langen von Vektoren zu messen. Fur den R n erhalten wir die Norm
p
q
kxk = x x = x21 + x22 + : : : + x2n: kxk wird auch als Betrag oder Lange des Vektors x 2 R n bezeichnet. 2.8.3 Winkelmessung
U ber die Langenmessung hinaus konnen wir mit Hilfe eines Skalarprodukts auch sinnvoll de nieren, welchen Winkel zwei Vektoren einschlieen. Zunachst veranschaulichen wir im R 2 , in dem uns Winkel ja bereits vertraut sind, das Skalarprodukt durch den Cosinussatz. y
y−x
|| y ||
x ϕ
|| x ||
Der Cosinussatz im Dreieck lautet kx yk2 = kxk2 + kyk2 2kxkkyk cos ': Die linke Gleichungsseite lat sich umschreiben zu kx yk2 = (x y) (x y) = x (x y) y (x y) = xx xy yx+yy = kxk2 2(x y) + kyk2: =) x y = kxkkyk cos '
oder
x y kxk kyk = cos '
Umgekehrt konnen wir jetzt diese Beziehung, die in der Ebene gilt, dazu benutzen, um in jedem euklidischen Vektorraum (insbesondere dem R n ) den Winkel ^(x; y) zwischen 55
zwei Vektoren x und y zu de nieren: y : cos ^(x; y) := kxxkk yk
Damit wir vom Cosinus eindeutig auf einen Winkel ruckrechnen konnen, verlangen wir ^(x; y) 2 [0; ]: y 2 [ 1; 1] Diese Winkelde nition ist aber nur sinnvoll, wenn sichergestellt ist, dass kxxkk yk (Wertebereich der Cosinusfunktion). Dies ist in der Tat garantiert, denn aus den Skalarprodukteigenschaften (a) bis (d) folgt der p Satz: Sei V ein euklidischer Vektorraum und kxk := x x die vom Skalarprodukt abgeleitete Norm. Dann gilt die Cauchy-Schwarzsche Ungleichung
jx yj kxkkyk 8x; y 2 V:
*
Gleichheit fur x; y 6= 0 gilt genau dann, wenn es ein 2 R nf0g gibt mit x = y , d.h. wenn x und y linear abhangige Vektoren sind. Aus obiger Winkelde nition ergibt sich ^(x; y) = 2 (, 90o) () x y = 0:
Wir konnen daher den uns im R 2 bereits vertrauten Begri des "Aufeinander-senkrechtStehens \ auf beliebige euklidische Vektorraume ubertragen, indem wir sagen: Zwei Vektoren x und y stehen aufeinander senkrecht oder auch sind orthogonal, wenn x y = 0 ist. Ein r-Tupel (x1; : : : ; xr ) von Vektoren xi eines euklidischen Vektorraums heit orthonormal oder ein Orthonormalsystem, wenn kxi k = 1 fur i = 1; : : : ; r (d.h. alle Vektoren sind "auf 1 normiert\), und wenn xi xj = 0 fur i 6= j (d.h. die Vektoren stehen paarweise aufeinander senkrecht). Beispiel: Die Standardbasis (e1; : : : ; en) des R n ist ein Orthonormalsystem. Satz: Ein Orthonormalsystem ist stets linear unabhangig. Beweis: * Sei (x1 ; : : : ; xr ) orthonormal und 1 x1 + : : : + r xr = 0 . Dann gilt fur i = 1; : : : ; r: (|1 x1 + : : :{z+ r xr ) x}i = i (|xi {z xi}) = i; also i = 0 : 0 kxi k =1 2
q.e.d Satz: Jeder endlichdimensionale euklidische Vektorraum hat eine orthonormale Basis. Zum Beweis geben wir eine praktische Anleitung, wie man aus einer gegebenen Basis (a1 ; : : : ; an) sukzessive eine orthonormale Basis (b1 ; : : : ; bn) macht. Diese Anleitung ist auch als Schmidtsches Orthonormalisierungsverfahren bekannt. Das Verfahren beruht auf folgender Beobachtung: Sei b ein normierter Vektor, d.h. kbk = 1, so gilt 8 x 2 V : x (x b)b steht auf b senkrecht, 56
.
x
.
.
(x b) b
x− (x b)b
("b−Anteil von x")
b
denn [x (x b)b] b = x b (x b) (|b{z b}) = 0 . kbk2 =1
Aus einem beliebigen Vektor x kann man also einen zu b orthogonalen Vektor machen, indem man den "b-Anteil\ von x abzieht. Das Schmidtsche Orthonormalisierungsverfahren lautet nun: 1. Schritt: a 1 a k = 1 ka k = 1 ) b := 1 (Normierung auf 1, denn kb k = k 1
1
ka1k
ka1k
1
ka1 k
1
i-ter Schritt (i = 2; : : : ; n): b~i := ai
(ai b1 )b1 (ai b2)b2 : : : (ai bi 1 )bi 1 D.h. jeder Anteil von ai in Richtung eines bereits berechneten Vektors der Orthonormalbasis wird subtrahiert. Anschlieend wird b~i noch auf 1 normiert: b~ bi := ~i : kbik 2.8.4 Orthogonale Abbildungen
Unter den linearen Abbildungen zwischen euklidischen Vektorraumen gibt es eine besonders wichtige Klasse, namlich solche Abbildungen, die alle Langen und Winkelbeziehungen unverandert (invariant) lassen. Fur eine derartige lineare Abbildung f : V ! W (V; W euklidische Vektorraume) gilt also: kxk = k| f{z (x)k} 8x2V |{z}
px x
p
f (x) f (x)
^(f {z (x); f (y))} cos ^{z(x; y}) = cos | | xy f (x) f (y ) kxkkyk kf (x)kkf (y)k 57
8 x; y 2 V
Langen- und Winkeltreue einer linearen Abbildung f ist also aquivalent dazu, dass f alle Skalarprodukte invariant lat. Diese Beobachtung motiviert folgende De nition: Seien V und W euklidische Vektorraume. Eine lineare Abbildung f : V ! W heit orthogonal, wenn f (x) f (y ) = x y fur alle x; y 2 V:
Bemerkungen: (1) Eine orthogonale Abbildung f ist stets injektiv und damit dimensionserhaltend, * * denn fur x 2 Kern (f ) gilt x x = f (x) f (*x) = 0 0 = 0 und damit (wegen der positiven De nitheit des Skalarprodukts) x = 0 . Insbesondere ist jede orthogonale Abbildung f : V ! V ein Isomorphismus. (2) Seien V und W euklidische Vektorraume und (v1 ; : : : ; vn) eine orthonormale Basis von V . Dann ist eine lineare Abbildung f : V ! W genau dann orthogonal, wenn die Basisbilder f (v1 ); : : : ; f (vn) ein Orthonormalsystem in W bilden. erhalt die Skalarprodukte fur die Vektoren einer orthonormalen Basis\ ist also "afquivalent dazu, dass f die Skalarprodukte samtlicher Vektoren unverandert lat. Eine wichtige Konsequenz von (2) ist folgender Satz: Eine Matrix A 2 R (n;n) ist genau dann orthogonal, wenn die Spalten (= Bilder der Einheitsvektoren e1; : : : ; en) ein orthonormales System im R n bilden, d.h. wenn AT A = E gilt. Beweis:
Wenn wir die Spalten von A mit s1; : : : ; sn bezeichnen, dann sind die sTi die Zeilen von AT , und das Element von AT A in der i-ten Zeile und der j -ten Spalte ist deshalb si sj : j T
A A=E:
i
s iT
.
s
1
0
0
1
= j
Fur quadratische Matrizen A 2 R (n;n) sind daher folgende Bedingungen aquivalent: (1) A ist orthogonal. (2) Die Spalten von A sind orthonormal. (3) AT A = E . (4) A ist invertierbar, und A 1 = AT . (5) AAT = E . 58
(6) Die Zeilen von A sind orthonormal. Beispiel fur eine orthogonale Matrix im R 2 : A' :=
cos ' sin ' sin ' cos '
Check auf Orthogonalitat:
' ; s = sin ' s1 = cos 2 sin ' cos ' 2 2 s1 s1 = (cos ') + (sin ') = 1 s1 s2 = cos ' ( sin ') + sin ' cos ' = 0 s2 s2 = ( sin ')2 + (cos ')2 = 1 s1 und s2 sind die Bilder der Einheitsvektoren e1 =
1 0
und e2 =
0 . 1
e2 s2 cos ϕ
s1 sin ϕ
.ϕ − sin ϕ
cos ϕ
e1
A' bewirkt also eine Drehung um den Winkel ' gegen den Uhrzeigersinn.
59
2.9
Eigenwerte und Eigenvektoren
2.9.1 Basiswechsel
0
1
x1
. Die Komponenten xi eines Vektors x = B @ ..
C A
xn
2 R n sind gleichzeitig die KoeÆzienten,
die sich ergeben, wenn wir x als Linearkombination der Standardbasis-Vektoren schreiben (im Mathematikerjargon: wenn wir x "nach der Standardbasis entwickeln\): x=
n X i=1
xi ei :
Der Vektor x lat sich aber auch bezuglich jeder beliebigen anderen Basis des Rn eindeutig entwickeln. Sei (b1; : : : ; bn) eine (beliebige) Basis des R n . Indem wir die n Spaltenvektoren b1 ; : : : ; bn nebeneinander schreiben, konnen wir die Basis (b1; : : : ; bn) durch eine invertierbare n n-Matrix B := (b1 j : : : jbn) ausdrucken. Die (laut Abschnitt 2.3 eindeutig bestimmten) KoeÆzienten x01 ; : : : ; x0n der Zerlegung x=
n X i=1
()
x0i bi
heien die Koordinaten des Vektors x 2 R n bezuglich der Basis B . Fasst man die Koordinaten x0i zu einem n-Tupel zusammen, 0
x01
. xB := B @ .. x0n
1 C A
;
so nennt man xB den Koordinatenvektor von x 2 R n bezuglich der Basis B . Gleichung () lat sich auch schreiben als x = x01 b1 + : : : + x0n bn = B xB :
B
bn
111 000 x1 000 111 000 111 ...
111 000 000 111 000 111 b1 ... 000 111 000 111 000 111 000 111 000 111
xn xB
=
1111 0000 0000 1111 0000 1111 000 111 b1 + 0000 x10 1 .1111 000 111 ... +x n . 0000 1111 111 000 1111 0000 0000 1111 0000 1111
bn
Da B invertierbar ist, folgt daraus xB = B 1 x. Wir notieren also: Die Abbildung x 7! xB , die den Koordinatenvektor bezuglich der Standardbasis (e1; : : : ; en) in den Koordinatenvektor bezuglich der Basis (b1 ; : : : ; bn) uberfuhrt, ist linear, und es gilt: xB = B 1 x (Basiswechsel von (e1 ; : : : ; en) zu (b1 ; : : : ; bn )) x = BxB (Basiswechsel von (b1 ; : : : ; bn) zu (e1 ; : : : ; en)) 60
Spezialfall: Falls die neue Basis (b1; : : : ; bn) ebenfalls wieder - wie die Standardbasis - orthonormal ist, so ist B eine orthogonale Matrix, und die Transformationsformeln lauten xB = B T x; x = BxB : Betrachten wir nun eine lineare Abbildung f : R n ! R n . Wir wissen bereits: Unter Bezugnahme auf eine (beliebige, aber festgehaltene) Basis (b1 ; : : : ; bn ) [Kurzschreibweise als invertierbare Matrix B := (b1 j : : : jbn)] des Vektorraums R n ist f eindeutig beschrieben durch die Angabe seiner Basisbilder f (bi ). Wenn wir jeden Bildvektor f (bi) durch seinen Koordinatenvektor bezuglich der Basis B ausdrucken und diese Koordinatenvektoren als Spalten einer Matrix schreiben, so erhalten wir die Matrixdarstellung von f bezuglich der Basis B . De nition: Die Matrix C := (f (b1 )B j: : : j f (bn )B ) ; in deren Spalten die Koordinatenvektoren (bezuglich B ) der Basisbilder f (b1 ); : : : f (bn ) stehen, heit Matrixdarstellung (oder auch Abbildungsmatrix) von f bezuglich B . Bilden wir - bei festgehaltener Basis B - zu allen linearen Abbildungen R n ! R n die zugehorige Matrixdarstellung, so stellt diese Zuordnung einen (fur diese Basis spezi schen!) Isomorphismus zwischen R (n;n) und Hom (R n ; R n ) dar (siehe Abschnitt 2.6.3). Mit Hilfe der Matrixdarstellung C von f konnen wir die Koordinatenvektoren (bezuglich B ) beliebiger Bildvektoren f (x); x 2 R n , einfach berechnen: f (x)B = C xB () Meist verwenden wir im R n die Standardbasis (e1j : : : jen) = E , die sich dadurch auszeichnet, dass jeder Vektor x 2 R n mit seinem Koordinatenvektor bezuglich E ubereinstimmt: 0
x1
. x=B @ .. xn
1 C A
= xE :
In manchen Situationen kann es aber sinnvoll sein, eine andere, der Situation besser angepasste Basis B zu verwenden. Fur das Rechnen in den Koordinaten bezuglich B ist es hilfreich, Matrixdarstellungen ineinander umrechnen zu konnen. Sei also f : Rn ! R n eine lineare Abbildung, A ihre Matrixdarstellung bezuglich der Standardbasis E und C ihre Matrixdarstellung bezuglich einer beliebigen, aber festen Basis B . Da alle Vektoren des R n mit ihren Koordinatenvektoren bezuglich E ubereinstimmen, konnen wir statt f (x)E = AxE einfach schreiben f (x) = Ax = A(BxB ) = AB xB : 61
(Zweites Gleichheitszeichen: Einsetzen der Formel x = BxB fur den Basiswechsel zwischen B und E .) Gema der Umrechnungsformel fur Koordinatenvektoren gewinnen wir aus f (x) den Koordinatenvektor f (x)B durch (Matrix-)Multiplikation mit B 1: 1 AB x f (x)B = B | {z } B C
Die gesuchte Formel, mit der wir eine gegebene Abbildungsmatix bezuglich der Standardbasis E in eine Abbildungsmatrix bezuglich der Basis B umrechnen konnen, lautet also C = B 1 AB
Diese Formel motiviert folgende De nition: Zwei Matrizen A; C 2 R (n;n) heien ahnlich, falls es eine invertierbare Matrix B 2 R (n;n) gibt mit C = B 1AB . A hnliche Matrizen reprasentieren also dieselbe lineare Abbildung f : R n ! R n , aber unter Verwendung verschiedener Basen. 2.9.2 Eigenwerte und charakteristisches Polynom Wir stellen uns nun die Frage, wie eine Basis B des R n gewahlt werden muss, damit
die zugehorige Abbildungsmatrix einer gegebenen linearen Abbildung moglichst einfach wird. Diese Fragestellung wird als Eigenwertproblem bezeichnet. Die Behandlung des Eigenwertproblems wird uns auf das Problem fuhren, die Nullstellen komplexer Polynome n-ten Grades zu bestimmen. Daher stellen wir die folgenden Untersuchungen von vornherein fur lineare Abbildungen C n ! C n (mit Abbildungsmatrizen aus C (n;n) ) an. Unsere Resultate in Bezug auf Basiswechsel bleiben auch fur komplexe Vektoren und Matrizen unverandert gultig. De nition: Unter einem Eigenwertproblem versteht man die Aufgabe, zu einer gegebenen quadratischen Matrix A 2 C (n;n) gewisse (reelle oder komplexe) * Zahlen 2 C und zugehorige Vektoren x 2 C n ; x 6= 0 , zu nden mit Ax = x. Fasst man A als lineare Abbildung auf (gegeben durch Anwendung der Matrix A auf Vektoren x 2 C n ), so sucht man Geraden L(x) [L = lineare Hulle], die unter A auf sich selbst abgebildet werden. ist dann der Streckungs- bzw. Stauchungsfaktor. * De nition: A 2 C (n;n) sei gegeben. x 2 C n nf 0 g heit Eigenvektor zum Eigenwert 2 C , falls
Ax = x *
Es gilt: Ax = x () (A E )x = 0 . Da x 6= 0 gefordert ist, bedeutet dies: 62
2 C ist genau dann Eigenwert von A, falls das homogene lineare Gleichungssystem (A E )x = 0 eine vom Nullvektor verschiedene Losung besitzt. Dies ist aber genau dann der Fall, wenn die Matrix (A E ) nicht invertierbar ist und somit genau dann, wenn det(A E ) = 0. Ist 2 C Eigenwert von A, so ist die Menge aller Eigenvektoren zu identisch mit der Menge aller Losungen von (A E )x = 0 und damit mit dem Kern von (A E ). Kern(A E ) ist ein Unterraum von C n und heit Eigenraum von . Bezeichnung: E () := Kern (A E ). Die Gleichung det(A E ) = 0 heit charakteristische Gleichung zu A, ausgeschrieben
a11 a12 : : : a21 a22
...
an1
...
a1n ann
= 0:
Fur festes A 2 C (n;n) ist die Funktion pA () := det(A E ) ein Polynom n-ten Grades und heit charakteristisches Polynom von A. Es gilt also: 2 C Eigenwert von A () Nullstelle des charakteristischen Polynoms pA Der Fundamentalsatz der Algebra sagt aus, dass jedes Polynom n-ten Grades in C genau n Nullstellen besitzt, wenn man die Vielfachheiten "mitzahlt\. Somit besitzt jede Matrix A 2 C (n;n) genau n komplexe Eigenwerte, wenn man deren Vielfachheit als Nullstelle des charakteristischen Polynoms mitzahlt. zur Erinnerung: ^ heit Nullstelle von p der Vielfachheit m 2 N , wenn bei der Zerlegung des Polynoms p in Linearfaktoren der Faktor ( ^) genau m mal auftritt, d.h. wenn man p() schreiben kann als p() = ( ^)m q(). Hierbei ist q() ein Polynom, fur das ^ nicht Nullstelle ist. Die gewonnenen Erkenntnisse fuhren uns zur folgenden zweistu gen Vorgehensweise, um das Eigenwertproblem zu losen: Fur eine gegebene quadratische Matrix A sucht man zunachst die Eigenwerte. Hierfur stellt man das charakteristische Polynom p() = det(A E ) auf und berechnet dessen Nullstellen. Fur jeden der Eigenwerte j bestimmt man dann mit dem Gauschen Algorithmus den Losungsraum E (j ) des homogenen Gleichungssystems (A j E )x = 0. De nition: Sei j ein Eigenwert von A. () Die Vielfachheit von j als Nullstelle des charakteristischen Polynoms p() = det(A E ) heit algebraische Vielfachheit des Eigenwerts j . ( ) Die Dimension dim E (j ) = dim Kern(A j E ) des Eigenraums zu j heit geometrische Vielfachheit des Eigenwerts j . Beachte: Algebraische und geometrische Vielfachheit stimmen im allgemeinen nicht uberein. 63
Der folgende Satz stellt wichtige (und nutzliche!) Eigenschaften von Eigenwerten und Eigenvektoren zusammen: Satz:
(a) A und AT besitzen dieselben Eigenwerte, jedoch im allgemeinen verschiedene Eigenraume. (b) A hnliche Matrizen A und B 1 AB haben dasselbe charakteristische Polynom und deshalb dieselben Eigenwerte. b ist genau dann Eigenvektor von A, falls B 1b Eigenvektor von B 1AB ist. (c) A ist genau dann invertierbar, falls alle Eigenwerte 6= 0 sind. Ist ein Eigenwert von 1 A mit Eigenvektor b (A sei invertierbar), so ist Eigenwert von A 1 mit Eigenvektor b. (d) Eigenvektoren b1 ; : : : ; br zu paarweise verschiedenen Eigenwerten 1; : : : ; r sind linear unabhangig. (e) Besitzt A n linear unabhangige Eigenvektoren b1 ; : : : ; bn zu den (nicht notwendigerweise verschiedenen!) Eigenwerten 1 ; : : : ; n, so gilt mit B := (b1 j : : : jbn): 0
B 1 AB = B @
1
0
...
0 n
1 C A
:
Sei nun f : R n ! R n eine lineare Abbildung und A 2 R (n;n) ihre Matrixdarstellung bezuglich der Standardbasis E . Falls A n linear unabhangige Eigenvektoren (b1 ; : : : ; bn) zu den 0 Eigenwerten11 ; : : : ; n besitzt, so kann f auch durch die Abbildungsmatrix 1 0 B C . .. C=@ uglich der Basis (b1 ; : : : ; bn) dargestellt werden. Die MatrixdarA bez 0 n stellung C lat die Eigenschaften von f im allgemeinen besser erkennen als A.
64