de Gruyter Lehrbuch Kowalsky/Michler · Lineare Algebra
Hans-Joachim Kowalsky Gerhard O. Michler
Lineare Algebra 12., ...
102 downloads
1876 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
de Gruyter Lehrbuch Kowalsky/Michler · Lineare Algebra
Hans-Joachim Kowalsky Gerhard O. Michler
Lineare Algebra 12., überarbeitete Auflage
≥
Walter de Gruyter Berlin · New York 2003
Hans-Joachim Kowalsky Am Schiefen Berg 20 38302 Wolfenbüttel
Gerhard O. Michler Hofringstr. 25 45138 Essen
Mathematics Subject Classification 2000: 15-01 Auflagenchronik: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11.
Auflage 1963 Auflage 1965 Auflage 1967 Auflage 1968 Auflage 1970 Auflage 1971 Auflage 1974 Auflage 1977 Auflage 1979 Auflage 1995 Auflage 1998
앝 Gedruckt auf säurefreiem Papier, das die US-ANSI-Norm über Haltbarkeit erfüllt. 앪
ISBN 3-11-017963-6 Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.
쑔 Copyright 2003 by Walter de Gruyter GmbH & Co. KG, 10785 Berlin. Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Printed in Germany. Umschlaggestaltung: Hansbernd Lindemann, Berlin. Konvertierung von LATEX-Dateien der Autoren: I. Zimmermann, Freiburg. Druck und Bindung: Hubert & Co. GmbH & Co. KG, Göttingen.
Vorwort
Da die 12. Auflage der Linearen Algebra gerade im 40. Erscheinungsjahr des Buchs herauskommt, ist es den Verfassern ein Anliegen, bereits am Anfang des Vorworts dem Verlag für die langjährige engagierte, verständnisvolle und entgegenkommende Zusammenarbeit zu danken. Eine bedeutende Förderung erfuhr das Buch seitens des Verlages durch Herrn Dr. Karbe. Mit Einfühlungsvermögen und fachlicher Kompetenz gelang ihm 1994 die Verpflichtung eines zweiten Autors, so daß dann in gemeinsamer Arbeit beider Autoren die 10. Auflage in neuer Überarbeitung und in modernisierter Form erscheinen konnte. Diese 12. Auflage weist gegenüber der vorigen nur eine wesentliche Umstellung auf, in deren Folge lediglich unbedeutende Änderungen auftreten. Die für Anwender wichtige Jordansche Normalform quadratischer Matrizen, die bisher erst nach der Behandlung der Moduln am Ende des Buchs auftrat, wird jetzt bereits in Kapitel 6 Eigenwerte und Eigenvektoren“ auf elementarerem Weg gewonnen. Dadurch wird ” die für mancherlei Anwendungen wünschenswerte Behandlung schon im ersten Semester ermöglicht. Als ein Anwendungsbeispiel wird anschließend auf das Lösen homogener linearer Differentialgleichungssysteme 1. Ordnung eingegangen. Abschließend gilt unser besonderer Dank Frau B. Hasel für die große Mühe und für ihr Engagement bei der Erstellung des neuen Textes und der durch ihn bedingten Korrekturen. Braunschweig und Essen, Mai 2003
H.-J. Kowalsky G. O. Michler
Einleitung
In der Mathematik hat man es vielfach mit Rechenoperationen zu tun, die sich zwar auf völlig verschiedene Rechengrößen beziehen und somit auch auf ganz unterschiedliche Weise definiert sein können, die aber trotz dieser Verschiedenheit gemeinsamen Rechenregeln gehorchen. In der Algebra abstrahiert man von der speziellen Natur der Rechengrößen und Rechenoperationen und untersucht ganz allgemein die Gesetzmäßigkeiten, denen sie unterliegen. Ausgehend von einigen Rechenregeln, die man als Axiome an den Anfang stellt, entwickelt man die Theorie der durch diese Axiome charakteristierten abstrakten Rechenstrukturen. Die Lineare Algebra bezieht sich speziell auf zwei Rechenoperationen, die sogenannten linearen Operationen, und auf die entsprechenden Rechenstrukturen, die man als Vektorräume bezeichnet. Die grundlegende Bedeutung der Linearen Algebra besteht darin, daß zahlreiche konkrete Strukturen als Vektorräume aufgefaßt werden können, so daß die allgemein gewonnenen Ergebnisse der abstrakten Theorie auf sie anwendbar sind. Das Hauptinteresse der Linearen Algebra gilt indes nicht nur dem einzelnen Vektorraum, sondern auch den Beziehungen, die zwischen Vektorräumen bestehen. Derartige Beziehungen werden durch spezielle Abbildungen beschrieben, die mit den linearen Operationen verträglich sind und die man lineare Abbildungen nennt. Dieses Buch behandelt den Stoff einer zweisemestrigen Vorlesung über Lineare Algebra. Seine Lektüre erfordert zwar keine speziellen Vorkenntnisse, setzt aber doch beim Leser eine gewisse Vertrautheit mit mathematischen Begriffsbildungen und Beweismethoden voraus. Die Stoffanordnung folgt nur teilweise systematischen Gesichtspunkten, die vielfach zugunsten didaktischer Erwägungen durchbrochen sind. Neben der Beschreibung der Struktur eines Vektorraums und der Klassifikation seiner linearen Abbildungen in sich wird der Entwicklung der Algorithmen für die Berechnung der zugehörigen Invarianten und Normalformen ein breiter Raum gegeben. Daher werden zunächst die endlich-dimensionalen Vektorräume und ihre Abbildungen behandelt. Danach wird der allgemeine, nicht notwendig endlich-dimensionale Fall betrachtet. Die für Anwender wichtige Jordansche Normalform quadratischer Matrizen wird in Kapitel 6 Eigenwerte und Eigenvektoren“ auf elementarerem Weg gewonnen. ” Die rationale Normalform einer Matrix und die Elementarteilertheorie werden in Kapitel 12 als Anwendungen des Struktursatzes über endlich erzeugte Moduln über Hauptidealringen behandelt. Er wird in Kapitel 11 bewiesen. Dazu werden in Ka-
VIII
Einleitung
pitel 9 einige Grundlagen aus der Ringtheorie und der Theorie der Moduln über kommutativen Ringen bereitgestellt. In den Kapiteln 9 und 10 wird auch die Struktur der Gesamtheit aller linearen Abbildungen untersucht. Hierbei treten die Vektorräume bzw. Moduln nur noch als bloße Objekte auf, zwischen denen universelle Abbildungen definiert sind, deren interne Struktur aber nicht mehr in Erscheinung tritt. Dennoch können interne Eigenschaften von Vektorräumen und Moduln auch extern in der Kategorie der linearen Abbildungen beschrieben werden. Gerade diese Möglichkeit spielt bei der Konstruktion des Tensorprodukts und der damit abgeleiteten Theorie der Determinanten über kommutativen Ringen im zehnten Kapitel eine wesentliche Rolle. Da bei Anwendungen der Linearen Algebra oft lineare Gleichungssysteme mit einer großen Anzahl von Unbekannten und linearen Gleichungen oder Normalformprobleme von großen Matrizen auftreten, die nur mit Hilfe von Computern gelöst werden können, wird der mathematische Stoff nicht nur theoretisch sondern auch vom algorithmischen Standpunkt aus behandelt. Alle Algorithmen zur Berechnung von Normalformen von Matrizen werden in der heute üblichen Bezeichnungsweise abgefaßt, vgl. Algorithmen-Konvention 4.1.17 in Kapitel 4. Sie können auch in die Syntax von Computeralgebrasystemen wie Maple [3] oder Mathematica [32] übersetzt werden. Bei der Numerierung wurde folgendes Prinzip angewandt: Definitionen, Sätze und Beispiele sind an erster Stelle durch die Nummer des jeweiligen Kapitels gekennzeichnet. An zweiter Stelle steht die Nummer des Abschnitts und an dritter Stelle werden schließlich Definitionen, Sätze, Beispiele u.s.w. durchnumeriert. Die Aufgaben sind jeweils am Ende eines Kapitels in einem gesonderten Abschnitt zusammengestellt. Das Ende eines Beweises ist durch das Zeichen kenntlich gemacht. Neu definierte Begriffe sind im Text im allgemeinen durch Kursivdruck hervorgehoben; auf sie wird im Sachverzeichnis verwiesen. Am Ende des Buches befinden sich zwei Anhänge. Im Anhang A werden Hinweise zur Benutzung von Computeralgebrasystemen gegeben. Dazu gehört ein Überblick über die Rechenverfahren, die man mit Maple oder Mathematica durchführen kann. Es wird außerdem anhand einer 11 × 11-Matrix A mit ganzzahligen Koeffizienten und Eigenwerten gezeigt, wie man die Jordansche Normalform J von A und die Transformationsmatrix P mit J = P −1 AP schrittweise mit Maple berechnen kann. Der Anhang B enthält die Lösungen der Aufgaben, die aus Platzgründen allerdings sehr knapp gehalten sind. Bei numerischen Aufgaben, deren Lösungsweg vorher behandelt wurde, sind im allgemeinen nur die Ergebnisse angegeben. An diese beiden Anhänge schließt sich das Literaturverzeichnis an, das nur eine kleine Auswahl der Lehrbuchliteratur enthält. Es folgt der Index.
Inhaltsverzeichnis
Vorwort
V
Einleitung
VII
Bezeichnungen und Symbole
XII
1
2
3
Grundbegriffe 1.1 Mengentheoretische Grundbegriffe 1.2 Produktmengen und Relationen . . 1.3 Gruppen . . . . . . . . . . . . . . 1.4 Körper und Ringe . . . . . . . . . 1.5 Vektorräume . . . . . . . . . . . . 1.6 Lineare Gleichungssysteme . . . . 1.7 Aufgaben . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
1 1 6 8 12 15 20 21
Struktur der Vektorräume 2.1 Unterräume . . . . . . . . . . . . 2.2 Basis und Dimension . . . . . . . 2.3 Direkte Summen und Struktursatz 2.4 Aufgaben . . . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
23 24 27 36 41
. . . . . . . .
43 44 52 60 64 67 70 75 76
Lineare Abbildungen und Matrizen 3.1 Matrizen . . . . . . . . . . . . . . . . . . 3.2 Lineare Abbildungen . . . . . . . . . . . 3.3 Matrix einer linearen Abbildung . . . . . 3.4 Rang einer Matrix . . . . . . . . . . . . . 3.5 Äquivalenz und Ähnlichkeit von Matrizen 3.6 Abbildungsräume und Dualraum . . . . . 3.7 Matrizen und direkte Zerlegung . . . . . 3.8 Aufgaben . . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
X
Inhaltsverzeichnis
4
Gauß-Algorithmus und lineare Gleichungssysteme 4.1 Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Lösungsverfahren für Gleichungssysteme . . . . . . . . . . . . . . 4.3 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
Determinanten 5.1 Permutationen . . . . . . . . . . . . . . . . . . . . 5.2 Multilinearformen . . . . . . . . . . . . . . . . . . 5.3 Determinanten von Endomorphismen und Matrizen 5.4 Rechenregeln für Determinanten von Matrizen . . . 5.5 Anwendungen . . . . . . . . . . . . . . . . . . . . 5.6 Aufgaben . . . . . . . . . . . . . . . . . . . . . .
6
7
Eigenwerte und Eigenvektoren 6.1 Charakteristisches Polynom und Eigenwerte 6.2 Diagonalisierbarkeit von Matrizen . . . . . 6.3 Jordansche Normalform . . . . . . . . . . . 6.4 Anwendung der Jordanschen Normalform . 6.5 Aufgaben . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
80 80 90 96
. . . . . .
99 99 102 106 110 117 118
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
121 121 128 132 144 148
Euklidische und unitäre Vektorräume 7.1 Skalarprodukte und Hermitesche Formen . . . . . . . . 7.2 Betrag und Orthogonalität . . . . . . . . . . . . . . . . 7.3 Orthonormalisierungsverfahren . . . . . . . . . . . . . . 7.4 Adjungierte Abbildungen und normale Endomorphismen 7.5 Orthogonale und unitäre Abbildungen . . . . . . . . . . 7.6 Hauptachsentheorem . . . . . . . . . . . . . . . . . . . 7.7 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
152 152 158 164 169 178 182 190
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
194 194 200 204 215 222 225 231 241
8 Anwendungen in der Geometrie 8.1 Affine Räume . . . . . . . . 8.2 Affine Abbildungen . . . . . 8.3 Kongruenzen und Drehungen 8.4 Projektive Räume . . . . . . 8.5 Projektivitäten . . . . . . . . 8.6 Projektive Quadriken . . . . 8.7 Affine Quadriken . . . . . . 8.8 Aufgaben . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . .
. . . . . . . .
. . . . .
. . . . . . . .
. . . . .
. . . . . . . .
. . . . .
. . . . . . . .
. . . . .
. . . . . . . .
. . . . .
. . . . . . . .
. . . . . . . .
XI
Inhaltsverzeichnis
9
Ringe und Moduln 9.1 Ideale und Restklassenringe . . . . . . . . . . . 9.2 Moduln . . . . . . . . . . . . . . . . . . . . . . 9.3 Kommutative Diagramme und exakte Folgen . . 9.4 Endlich erzeugte und freie Moduln . . . . . . . . 9.5 Matrizen und lineare Abbildungen freier Moduln 9.6 Direkte Produkte und lineare Abbildungen . . . . 9.7 Aufgaben . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
244 244 248 255 257 262 264 276
10 Multilineare Algebra 10.1 Multilineare Abbildungen und Tensorprodukte . . 10.2 Tensorprodukte von linearen Abbildungen . . . . 10.3 Ringerweiterungen und Tensorprodukte . . . . . 10.4 Äußere Potenzen und alternierende Abbildungen . 10.5 Determinante eines Endomorphismus . . . . . . 10.6 Aufgaben . . . . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
279 279 287 289 292 298 301
11 Moduln über Hauptidealringen 11.1 Eindeutige Faktorzerlegung in Hauptidealringen 11.2 Torsionsmodul eines endlich erzeugten Moduls 11.3 Primärzerlegung . . . . . . . . . . . . . . . . . 11.4 Struktursatz für endlich erzeugte Moduln . . . 11.5 Elementarteiler von Matrizen . . . . . . . . . . 11.6 Aufgaben . . . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
303 304 312 315 318 324 344
12 Normalformen einer Matrix 12.1 Vektorräume als Moduln über einem Polynomring 12.2 Rationale kanonische Form . . . . . . . . . . . . 12.3 Berechnungsverfahren für die Normalformen . . 12.4 Aufgaben . . . . . . . . . . . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
346 346 350 353 365
A Hinweise zur Benutzung von Computeralgebrasystemen B Lösungen der Aufgaben B.1 Lösungen zu Kapitel 1 B.2 Lösungen zu Kapitel 2 B.3 Lösungen zu Kapitel 3 B.4 Lösungen zu Kapitel 4 B.5 Lösungen zu Kapitel 5 B.6 Lösungen zu Kapitel 6 B.7 Lösungen zu Kapitel 7 B.8 Lösungen zu Kapitel 8 B.9 Lösungen zu Kapitel 9
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
367 . . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
372 372 373 374 378 380 382 388 391 395
XII
Inhaltsverzeichnis
B.10 Lösungen zu Kapitel 10 . . . . . . . . . . . . . . . . . . . . . . . . 397 B.11 Lösungen zu Kapitel 11 . . . . . . . . . . . . . . . . . . . . . . . . 399 B.12 Lösungen zu Kapitel 12 . . . . . . . . . . . . . . . . . . . . . . . . 402 Literatur
407
Index
409
Bezeichnungen und Symbole
Alle Vektorräume V sind Rechtsvektorräume über einem kommutativen Körper F , d. h. die Körperelemente f ∈ F operieren von rechts auf den Vektoren v der abelschen Gruppe V , die stets fett gedruckt sind. Abbildungen α : V → W zwischen Vektorräumen werden mit kleinen griechischen Buchstaben bezeichnet; sie operieren von links auf den Vektoren v ∈ V . Diese Schreibweise hat den Vorteil, daß die Matrix Aβα , die zur Hintereinanderausführung βα zweier linearer Abbildungen β und α gehört, das Produkt Aβ Aα der beiden Matrizen Aβ und Aα der linearen Abbildungen β und α ist, vgl. Satz 3.3.7. Wegen der Definition des Produkts zweier Matrizen (vgl. 3.1.17) erfordert allerdings diese Festlegung, daß ein Vektor a = (a1 , a2 , . . . , an ) des n-dimensionalen arithmetischen Vektorraums F n über dem Körper F in diesem Buch stets als Spaltenvektor a1 a2 a= . .. an aufgefaßt wird. Da Spaltenvektoren drucktechnisch sehr unbequem sind und zuviel Platz in Anspruch nehmen, werden die Vektoren a ∈ F n meist als Textzeilen a = (a1 , a2 , . . . , an ) geschrieben, d. h. a = (a1 , a2 , . . . , an ) ∈ F n bedeutet, daß a als Spaltenvektor aufzufassen ist. An wenigen Stellen des Buches ist es notwendig, Spalten- und Zeilenvektoren zur gleichen Zeit zu betrachten. In diesen Fällen schreibt man: Fsn = F n Fzn
für den n-dimensionalen Spaltenraum über dem Körper F , für den n-dimensionalen Zeilenraum über dem Körper F .
Bei Matrizen sind bisweilen Nulleinträge der Übersicht halber leer gelassen. Während im ersten Kapitel die Verknüpfung zweier Elemente in einer Gruppe bzw. die Hintereinanderausführung zweier Abbildungen mit gekennzeichnet wird, wird ab Kapitel 2 auf dieses Zeichen verzichtet und ab statt a b bzw. βα statt β α geschrieben. Die Addition in einem Vektorraum, Modul, Ring oder Körper wird stets mit + bezeichnet.
XIV Fsn Fzn N Z M⊆N M ⊂N {M | M ∈ S} M∈S M {M | M ∈ S} M∈S M M\N {Aα | α ∈ A} ψ ϕ ϕ− id A×B An ∼ |G| Q∗ R∗ Sn U ≤G Q R C F∗ Re Im Grad f F
[X] n k
U ≤V v i | 1 ≤ i ≤ r
M
dim V dimF V dim U =∞ U
α∈A α α∈A Uα
Bezeichnungen und Symbole
(S. XIII) (S. XIII) (1.1; S. 1) (1.1; S. 2) (1.1.1; S. 2) (1.1.2; S. 2) (1.1.3; S. 2) (1.1.3; S. 2) (1.1.4; S. 2) (1.1.4; S. 2) (1.1.6; S. 3) (1.1.6; S. 3) (1.1.13; S. 5) (1.1.10; S. 5) (1.1.14; S. 5) (1.2.1; S. 6) (1.2.3; S. 6) (1.2.3; S. 6) (1.2.4; S. 6) (1.3.1; S. 9) (1.3.2b; S. 9) (1.3.2b; S. 9) (1.3.2c; S. 10) (1.3.9; S. 11) (1.4.2a; S. 13) (1.4.2a; S. 13) (1.4.2b; S. 13) (1.4; S. 13) (1.4.2b; S. 13) (1.4.2b; S. 13) (1.4.3c; S. 14) (1.4.3c; S. 15) (1.4.3c; S. 21) (2.1.1; S. 24) (2.1.7; S. 26) (2.1.9; S. 26) (2.2.12; S. 31) (2.2.12; S. 31) (2.2.12; S. 31) (2.3.2; S. 36) (2.3.4; S. 37)
(2.3.4; S. 37) U 1 ⊕ U 2 ⊕ · · · ⊕ Un s(A) (3.1.1; S. 44) z(A) (3.1.1; S. 44) En (3.1.2b; S. 45) AT (3.1.25; S. 51) A−1 (3.1.29; S. 51) V ∼ W (3.2.2; S. 53) = Ker(α) (3.2.6; S. 55) Im (α) (3.2.6; S. 55) rg(α) (3.2.16; S. 59) Aα (A, B) (3.3.1; S. 60) rg(A) (3.4.5; S. 66) A∼B (3.5.1; S. 68) tr(A) (3.5.6; S. 69) HomF (V , W ) (3.6; S. 70) EndF (V ) (3.6.2; S. 71) GL(V ) oder GL(n, F ) (3.6.3; S. 71) Matm,n (F ) (3.6.4; S. 71) R∼ (3.6.5; S. 72) =S Matn (F ) (3.6.6a; S. 72) V∗ (3.6.7; S. 73) U⊥ (3.6.11; S. 74) α|U (3.7.2; S. 75) ZV (i, j ) (4.1.12a; S. 83) ZM(i, a) (4.1.12b; S. 83) ZA(i, j, a) (4.1.12c; S. 84) T (A) (4.1.18; S. 86) zpivot (A, i, j ) (4.1.22; S. 88) spivot (A, i, j ) (4.1.22; S. 88) sign π (5.1.8; S. 101) An (5.1.12; S. 102) det(α) (5.3.1; S. 106) det A (5.3.4; S. 109) adj A (5.5; S. 117) char PolA (X) (6.1.8; S. 123) char Polα (X) (6.1.8; S. 123) diag(d1 , . . . , dn ) (6.2.3; S. 129) (6.3.11d; S. 140) Jiji αˆ (7.1.14; S. 157) |x| (7.2.2; S. 159) cos(x, y) (7.2.9; S. 161)
XV
Bezeichnungen und Symbole
δi,j M⊥N α∗ A∗ O(n, R) U (n, C) t (A) U≤A − → pq dim A = dim VA ∨{U : U ∈ S} U1 ∨ · · · ∨ Un UW T V (x, y, z) p − dim P DV (x, y, z, u) Q ∼ Q u(Q) d(Q) Q0 ≈ Q0 Q ≈ Q r∼s r ∼Y s
(7.2; S. 162) (7.3.4; S. 167) (7.4.1; S. 169) (7.4.4; S. 170) (7.5.10a; S. 181) (7.5.10b; S. 181) (7.6.7; S. 187) (8.1.4; S. 195) (8.1.1; S. 194) (8.1.1; S. 195) (8.1.8; S. 196) (8.1.8; S. 196) (8.1.13; S. 197) (8.1.24; S. 200) (8.4.1; S. 215) (8.4.14; S. 221) (8.6.6; S. 227) (8.6.9; S. 227) (8.6.14; S. 229) (8.7.4; S. 232) (8.7.4; S. 232) (9.1.4; S. 245) (9.1.4; S. 245)
k Ui
i=1 k i=1 Ui HomR (M, N ) u ∼U v M/U RM α∈A Mα A ⊗R B a⊗b ⊗p M A⊗B pM a1 ∧ a2 ∧ · · · ∧ ap t |a ggT(a, b) kgV(a, b) Ann(m) o(M) o(m) diag(a1 , . . . , ar , 0) m(X) C(f (X))
(9.2.6; S. 250) (9.2.7; S. 250) (9.2.9; S. 251) (9.2.13; S. 251) (9.2.15; S. 253) (9.4.13; S. 260) (9.6.2; S. 266) (10.1.4; S. 280) (10.1.4; S. 280) (10.1.12; S. 285) (10.2.2; S. 288) (10.4.1; S. 292) (10.4.1; S. 292) (11.1.13; S. 307) (11.1.14; S. 307) (11.1.15; S. 307) (11.3.3; S. 316) (11.3.6; S. 318) (11.3.7; S. 318) (11.5.5; S. 328) (12.1.4; S. 347) (12.1.8; S. 348)
1 Grundbegriffe
Die lineare Algebra beschreibt die algebraische Struktur der Vektorräume über Körpern. Darüber hinaus analysiert sie die strukturverträglichen Abbildungen zwischen diesen linearen Räumen. Hiermit liefert sie wesentliche Grundlagen für fast alle Arbeitsgebiete der modernen Mathematik. Insbesondere stellt sie Algorithmen und Methoden bereit zum Lösen von linearen Gleichungssystemen und zur Klassifikation geometrischer Strukturen, wie z. B. der Kurven und Flächen zweiter Ordnung. Der für das ganze Buch grundlegende Begriff Vektorraum wird einschließlich einiger einfacher Eigenschaften im vierten Abschnitt dieses Kapitels behandelt. Ihm liegt einerseits der Begriff einer Gruppe und andererseits eines Körpers zugrunde. Die mit diesen beiden Strukturbegriffen jeweils zusammengefaßten Rechengesetze werden in den beiden Abschnitten 3 und 4 dieses Kapitels beschrieben. In den späteren Kapiteln des Buches wird die Bedeutung eines gewonnenen theoretischen Ergebnisses sehr oft anhand seiner Anwendung auf die Beschreibung und Berechnung der Lösungsgesamtheit eines linearen Gleichungssystems illustriert. Deshalb werden die grundlegenden Bezeichnungen und Aufgabenstellungen der Theorie der linearen Gleichungssysteme im letzten Abschnitt des Kapitels dargestellt. Neben diese algebraischen Grundlagen treten als wesentliche Voraussetzung noch einige einfache Begriffe der Mengenlehre, die in den ersten beiden Paragraphen aus Gründen der Bezeichnungsnormierung zusammengestellt werden. Der Mengenbegriff wird dabei als intuitiv gegeben vorausgesetzt; auf die axiomatische Begründung wird nicht eingegangen.
1.1
Mengentheoretische Grundbegriffe
Die Objekte, aus denen eine Menge besteht, werden ihre Elemente genannt. Für x ist ein Element der Menge M“ schreibt man x ∈ M“. Die Negation dieser ” ” Aussage wird durch x ∈ M“ wiedergegeben. Statt x1 ∈ M und . . . und xn ∈ ” ” M“ wird kürzer x1 , . . . , xn ∈ M“ geschrieben. Eine spezielle Menge ist die leere ” Menge, die dadurch charakterisiert ist, daß sie überhaupt keine Elemente besitzt. Sie wird mit dem Symbol ∅ bezeichnet. Weitere häufig auftretende Mengen sind: N Menge aller natürlichen Zahlen einschließlich der Null.
2
1 Grundbegriffe
Z Menge aller ganzen Zahlen. Q Menge aller rationalen Zahlen. R Menge aller reellen Zahlen. C Menge aller komplexen Zahlen. 1.1.1 Definition. Eine Menge M heißt Teilmenge einer Menge N , wenn aus x ∈ M stets x ∈ N folgt. Bezeichnung: M ⊆ N. Die leere Menge ∅ ist Teilmenge jeder Menge; außerdem ist jede Menge Teilmenge von sich selbst. 1.1.2 Definition. Gilt M ⊆ N und M = N , so heißt M eine echte Teilmenge von N. Bezeichnung: M ⊂ N . Die Elemente einer Menge S können selbst Mengen sein. Es wird dann S bisweilen auch als Mengensystem bezeichnet. 1.1.3 Definition. Der Durchschnitt D eines nicht-leeren Mengensystems S ist die Menge aller Elemente, die gleichzeitig Elemente aller Mengen M des Systems S sind. Es ist also x ∈ D gleichwertig mit x ∈M für alle Mengen M ∈ S. Bezeichnung: D = M∈S M oder D = {M | M ∈ S}. D = M1 ∩ M2 ∩ · · · ∩ Mn , falls S nur aus den endlich vielen Mengen M1 , . . . , Mn besteht. Die Gleichung M ∩ N = ∅ besagt, daß die Mengen M und N kein gemeinsames Element besitzen. 1.1.4 Definition. Die Vereinigung V eines nicht-leeren Mengensystems S ist die Menge aller derjenigenElemente, die zu mindestens einer Menge M aus S gehören. Bezeichnung: V = M∈S M oder V = {M | M ∈ S}. V = M1 ∪ · · · ∪ Mn , falls S aus endlich vielen Teilmengen M1 , M2 , . . . , Mn besteht. Mit Hilfe der Definitionen von Durchschnitt und Vereinigung ergeben sich unmittelbar folgende Beziehungen, deren Beweis dem Leser überlassen bleiben möge. 1.1.5 Hilfssatz. (a) M ∩ (N1 ∪ N2 ) = (M ∩ N1 ) ∪ (M ∩ N2 ), (b) M ∪ (N1 ∩ N2 ) = (M ∪ N1 ) ∩ (M ∪ N2 ),
1.1 Mengentheoretische Grundbegriffe
3
(c) M ∩ N = M ist gleichbedeutend mit M ⊆ N , (d) M ∪ N = M ist gleichbedeutend mit N ⊆ M. Endliche Mengen können durch Angabe ihrer Elemente gekennzeichnet werden. Man schreibt {x1 , . . . , xn } für diejenige Menge M, die genau aus den angegebenen n Elementen besteht. Die einelementige Menge {x} ist von ihrem Element x zu unterscheiden: So ist z. B. {∅} diejenige Menge, deren einziges Element die leere Menge ist. Die Anzahl der Elemente einer endlichen Menge M wird mit |M| bezeichnet. Diese Zahl |M| heißt auch Mächtigkeit von M. So ist z. B. |{∅}| = 1 und |∅| = 0. Ein anderes Mittel zur Beschreibung von Mengen besteht darin, daß man alle Elemente einer gegebenen Menge X, die eine gemeinsame Eigenschaft E besitzen, zu einer neuen Menge zusammenfaßt. Bedeutet E(x), daß x die Eigenschaft E besitzt, so bezeichnet man diese Menge mit {x ∈ X | E(x)}. So ist z. B. {x ∈ Z | x 2 = 1} die aus den Zahlen +1 und −1 bestehende Teilmenge der Menge aller ganzen Zahlen. Bei dieser Art der Mengenbildung ist die Angabe der Bezugsmenge X wesentlich, aus der die Elemente entnommen werden, da sonst widerspruchsvolle Mengen entstehen können. Da die Bezugsmenge jedoch im allgemeinen durch den jeweiligen Zusammenhang eindeutig bestimmt ist, soll in diesen Fällen auf ihre expliziteAngabe verzichtet werden. 1.1.6 Definition. Die Differenzmenge zweier Mengen M und N ist die Menge M \ N = {x ∈ M | x ∈ N }. Viele mathematische Beweise beruhen auf dem Prinzip der vollständigen Induktion, das bei der axiomatischen Begründung des Aufbaus der natürlichen Zahlen eine wichtige Rolle spielt. 1.1.7 Prinzip der vollständigen Induktion. Es sei A eine Aussage über natürliche Zahlen n ∈ N. A(n) bedeute, daß A auf n zutrifft. Von einem festen n0 ∈ N an gelte: (a) Induktionsanfang: A(n0 ), (b) Induktionsschluß: Für alle n > n0 folgt aus A(n − 1) auch A(n). Dann ist A für alle natürlichen Zahlen n n0 richtig. Es sei darauf hingewiesen, daß es oft bequemer ist, den Induktionsschluß in der folgenden Form durchzuführen: (b ) Aus A(i) für alle i mit n0 ≤ i < n folgt auch A(n). Die Bedingungen (b) und (b ) sind gleichwertig, wie man unmittelbar einsieht. Als Beispiel für einen Induktionsbeweis dient der Beweis des folgenden Satzes.
4
1 Grundbegriffe
1.1.8 Satz. Sei M eine n-elementige Menge. Sei P = P (M) die Menge aller Teilmengen von M. Dann besteht die Potenzmenge P von M aus 2n Elementen. Beweis: Induktionsanfang: n = 0. M hat kein Element. Deshalb ist M die leere Menge ∅. Wegen P (∅) = {∅} gibt es 1 = 20 Elemente in P . Sei n ∈ N, n ≥ 1. Induktionsannahme: Jede (n − 1)-elementige Menge habe genau 2n−1 verschiedene Teilmengen. Induktionsbehauptung: Ist M eine Menge mit n Elementen, so besteht P (M) aus 2n Elementen. Dazu sei M = {a1 , . . . , an }. Dann hat P (M ) für M = {a1 , . . . , an−1 } nach Induktionsannahme genau 2n−1 Elemente. Ist A ∈ P (M), dann ist entweder an ∈ A oder an ∈ A. Im zweiten Fall gehört A zu P (M ), und im ersten Fall ist A = A \ {an } ∈ P (M ). Also besitzt P (M) genau 2n−1 + 2n−1 = 2n−1 (1 + 1) = 2n Elemente. Nach dem Prinzip der vollständigen Induktion ist hiermit bewiesen, daß für jede n-elementige Menge M die Potenzmenge P (M) genau 2n Elemente besitzt. Ein wichtiges Beweishilfsmittel beim Studium unendlicher Mengen ist das Zornsche Lemma. Es sei S ein nicht-leeres Mengensystem. Eine nicht-leere Teilmenge K von S heißt eine Kette, wenn aus M1 , M2 ∈ K stets M1 ⊆ M2 oder M2 ⊆ M1 folgt. Eine Menge M ∈ S heißt ein maximales Element von S, wenn aus N ∈ S und M ⊆ N stets M = N folgt. Das Zornsche Lemma lautet nun: 1.1.9 Lemma von Zorn. Wenn für jede Kette K des nicht-leeren Mengensystems S auch die Vereinigungsmenge {K | K ∈ K} ein Element von S ist, dann gibt es in S ein maximales Element. Auf den Beweis dieses Satzes kann hier nicht eingegangen werden. Es seien jetzt X und Y zwei nicht-leere Mengen. Unter einer Abbildung ϕ von X in Y (in Zeichen: ϕ : X → Y ) versteht man dann eine Zuordnung, die jedem Element x ∈ X eindeutig ein Element y ∈ Y als Bild zuordnet. Das Bild y von x bei der Abbildung ϕ wird mit ϕ(x) oder auch einfach mit ϕx bezeichnet. Die Menge X heißt der Definitionsbereich der Abbildung ϕ, die Menge Y ihr Zielbereich. Ist ϕ eine Abbildung von X in Y und M eine Teilmenge von X, so nennt man die Menge aller Bilder von Elementen x ∈ M entsprechend das Bild der Menge M und bezeichnet es mit ϕ(M) oder einfach mit ϕM. Es gilt also ϕM = {ϕx | x ∈ M}, und ϕM ist eine Teilmenge von Y . Das Bild der leeren Menge ist wieder die leere Menge. Das Bild ϕX des Definitionsbereichs wird auch Bild von ϕ genannt und mit Im ϕ bezeichnet.
5
1.1 Mengentheoretische Grundbegriffe
1.1.10 Definition. Gilt Im ϕ = Y für die Abbildung ϕ : X → Y , so nennt man ϕ eine surjektive Abbildung, eine Surjektion oder eine Abbildung von X auf Y . Umgekehrt sei N eine Teilmenge von Y . Dann wird die Menge aller Elemente von X, deren Bild ein Element von N ist, das Urbild von N bei der Abbildung ϕ genannt und mit ϕ − (N ) bezeichnet. Es gilt also ϕ − (N ) = {x ∈ X | ϕx ∈ N }, und ϕ − (N ) ist eine Teilmenge von X. Auch wenn N = ∅ gilt, kann ϕ − (N ) die leere Menge sein, nämlich dann, wenn N ∩ Im ϕ = ∅ gilt. 1.1.11 Definition. Eine Abbildung ϕ : X → Y mit der Eigenschaft, daß aus x1 = x2 stets ϕx1 = ϕx2 folgt, heißt injektive Abbildung oder Injektion. Ist ϕ sogar gleichzeitig injektiv und surjektiv, so wird ϕ eine Bijektion genannt. 1.1.12 Definition. Sei ϕ : X → Y eine bijektive Abbildung. Ordnet man jedem y ∈ Y als Bild das eindeutig bestimmte Element x ∈ X mit y = ϕ(x) als Bild zu, so wird hierdurch eine Bijektion von Y auf X definiert. Sie heißt die Umkehrabbildung von ϕ oder die zu ϕ inverse Abbildung und wird mit ϕ −1 : Y → X bezeichnet. 1.1.13 Definition. Zwei Abbildungen ϕ : X → Y und ψ : Y → Z kann man hintereinanderschalten und erhält so insgesamt eine mit ψ ϕ bezeichnete Abbildung von X in Z, die man die Produktabbildung von ϕ und ψ nennt. Sie ist gegeben durch (ψ ϕ)x = ψ(ϕx) für alle x ∈ X. Der Definitionsbereich und der Zielbereich einer Abbildung können auch zusammenfallen. Man hat es dann mit einer Abbildung ϕ einer Menge X in sich zu tun. 1.1.14 Definition. Bildet man jedes Element der Menge X auf sich selbst ab, so erhält man eine Bijektion von X auf sich, die die Identität oder die identische Abbildung von X genannt und mit idX bzw. einfach mit id bezeichnet wird. 1.1.15 Bemerkung. Für jedes x ∈ X gilt also id x = x. Ist ϕ eine Bijektion von X auf Y , so existiert ihre Umkehrabbildung ϕ −1 , und man erhält ϕ −1 ϕ = idX ,
ϕ ϕ −1 = idY .
6
1 Grundbegriffe
1.2
Produktmengen und Relationen
In diesemAbschnitt wird das kartesische Produkt von nicht-leeren Mengen und damit der Begriff Äquivalenzrelation“ eingeführt. ” 1.2.1 Definition. Das kartesische Produkt A × B zweier Mengen A und B ist die Gesamtheit der geordneten Paare (a, b) mit a ∈ A und b ∈ B. Dabei ist (a, b) = (a , b ) genau dann, wenn a = a und b = b . 1.2.2 Bemerkung. Das kartesische Produkt zweier Mengen ist im allgemeinen nicht kommutativ, d. h. A × B = B × A falls A = B. Man beachte jedoch für jede nicht leere Menge A und die leere Menge ∅ die Ausnahme A × ∅ = ∅ × A = ∅. Analog zum kartesischen Produkt zweier Mengen wird das kartesische Produkt endlich vieler Mengen gebildet. 1.2.3 Definition. Das kartesische Produkt ni=1 Ai = A1 × A2 × · · · × An von endlich vielen Mengen Ai , i = 1, 2, . . . , n, ist die Gesamtheit der geordneten n-Tupel (a1 , a2 , . . . , an ) mit ai ∈ Ai , i = 1, 2, . . . , n. Dabei ist (a1 , a2 , . . . , an ) = (a1 , a2 , . . . , an ) genau dann, wenn nai = ai für i = 1, 2, . . . , n. Ist Ai = A für n i = 1, 2, . . . , n, so heißt A = i=1 Ai die n-te kartesische Potenz von A. Die Menge {(a, a, . . . , a) ∈ An | a ∈ A} ist die Diagonale von An . 1.2.4 Definition. Eine Teilmenge R von A × A wird eine zweistellige Relation der Menge A genannt. Man sagt, daß zwei Elemente a und b von A in der Relation R stehen, in Zeichen a ∼ b, genau dann, wenn (a, b) ∈ R gilt. 1.2.5 Definition. Eine nicht leere zweistellige Relation ∼ auf der Menge A heißt Äquivalenzrelation, wenn für alle a, b, c ∈ A die folgenden Bedingungen gelten: (a) a ∼ a,
(reflexiv)
(b) a ∼ b impliziert b ∼ a,
(symmetrisch)
(c) a ∼ b und b ∼ c impliziert a ∼ c.
(transitiv)
1.2.6 Beispiele. (a) Die Gleichheit =“ ist eine Äquivalenzrelation für jede Menge A. ” (b) Für a, b ∈ Z gelte a ∼ b genau dann, wenn 2 ein Teiler von a − b ist.
1.2 Produktmengen und Relationen
7
1.2.7 Definition. Ist ∼ eine Äquivalenzrelation der Menge A, dann ist die Äquivalenzklasse [a] des Elementes a ∈ A gegeben durch [a] = {b ∈ A | a ∼ b}. Jedes Element b der Äquivalenzklasse [a] heißt Repräsentant von [a]. 1.2.8 Hilfssatz. Ist ∼ eine Äquivalenzrelation der Menge A, dann sind folgende Aussagen für Elemente a, b ∈ A paarweise gleichwertig: (a) [a] ∩ [b] = ∅, (b) a ∼ b, (c) [a] = [b]. Beweis: Ist [a] ∩ [b] = ∅, dann existiert ein c ∈ A mit a ∼ c und b ∼ c. Wegen der Symmetrie und Transitivität von ∼ folgt a ∼ b. Deshalb ist (b) eine Folge von (a). Es gelte nun a ∼ b. Dann ist x ∈ [a] gleichwertig mit x ∼ a, also gleichwertig mit x ∼ b und so auch mit x ∈ [b]. Also ist [a] = [b], und (c) folgt aus (b). Sicherlich ergibt sich (a) aus (c). Oft ist es zweckmäßig, ein Mengensystem S mit Hilfe einer sogenannten Indexmenge A zu beschreiben. Dabei ist A eine nicht-leere (endliche oder unendliche) Menge, und jedem Index α ∈ A ist eindeutig eine Menge Aα aus S so zugeordnet, daß S = {Aα | α ∈ A} gilt. 1.2.9 Definition. Ein System {Aα | α ∈ A} von Teilmengen Aα einer Menge A = ∅ heißt eine Zerlegung der Menge A, wenn (a) Aα = ∅ für alle α ∈ A, (b) A = α∈A Aα , (c) Aα ∩ Aβ = ∅ für alle α, β ∈ A mit α = β. 1.2.10 Satz. Es sei R eine Äquivalenzrelation auf der Menge A. Dann bilden die Äquivalenzklassen bezüglich R eine Zerlegung von A. Umgekehrt bestimmt eine beliebige Zerlegung {Aα | α ∈ A} von A eindeutig eine Äquivalenzrelation auf A, für die die Zerlegungsmengen Aα genau die Äquivalenzklassen sind. Beweis: Folgt sofort aus Hilfssatz 1.2.8 und Definition 1.2.9
8
1 Grundbegriffe
1.3
Gruppen
Betrachtet man einerseits die Addition der ganzen, der rationalen oder der reellen Zahlen und andererseits die Multiplikation der von Null verschiedenen rationalen oder reellen Zahlen, so findet man, daß diese beiden Rechenoperationen weitgehend übereinstimmenden Rechengesetzen unterliegen. So gelten z. B. (a + b) + c = a + (b + c) und
(a · b) · c = a · (b · c).
Weiter gibt es ausgezeichnete Zahlen, nämlich 0 bzw. 1, die sich bei diesen Operationen neutral verhalten: 0+a =a
und
Schließlich gilt (−a) + a = 0
und
1 · a = a. 1 · a = 1; a
d. h. es gibt zu jedem a eine Zahl a (nämlich −a bzw. a1 ), so daß die Summe bzw. das Produkt dieser beiden Zahlen gerade die jeweilige neutrale Zahl ergibt. Da diese Rechenregeln das Zahlenrechnen weitgehend beherrschen und auch in vielen anderen Fällen auftreten, ist es naheliegend, sie unabhängig von der speziellen Natur der Rechengrößen und der jeweiligen Operationen zu untersuchen. Bei dieser abstrakten Betrachtungsweise stehen die Rechengesetze im Vordergrund: Nicht womit man rechnet ist wesentlich, sondern wie man rechnet. Man setzt lediglich voraus, daß für die Elemente einer gegebenen Menge eine Operation definiert ist, die jedem geordneten Paar (a, b) von Elementen wieder ein Element der Menge zuordnet und die den oben erwähnten Regeln unterliegt. Die Operation selbst soll hierbei mit dem neutralen Symbol bezeichnet werden. 1.3.1 Definition. Eine Gruppe besteht aus einer Menge G und einer Operation , die jedem geordneten Paar (a, b) von Elementen aus G eindeutig ein mit a b bezeichnetes Element von G so zuordnet, daß folgende Axiome erfüllt sind: (I) (a b) c = a (b c) für alle a, b, c ∈ G.
(Assoziativgesetz)
Es gibt mindestens ein Element e ∈ G mit (II) e a = a für alle a ∈ G, und (III) zu jedem a ∈ G existiert ein Element a ∈ G mit a a = e. Ein solches Element heißt neutrales Element von G. Die Gruppe heißt abelsch oder auch kommutativ, wenn außerdem folgendes Axiom erfüllt ist: (IV) a b = b a für alle a, b ∈ G.
(Kommutativgesetz)
9
1.3 Gruppen
Besitzt die Gruppe G nur endlich viele Elemente, so heißt die Anzahl |G| ihrer Elemente die Ordnung von G. Zu den Bestimmungsstücken einer Gruppe gehört neben der Menge G auch die Gruppenverknüpfung genannte Operation . Eine Gruppe ist demnach durch das Paar (G, ) gekennzeichnet. Da vielfach jedoch die Gruppenverknüpfung durch den Zusammenhang eindeutig festgelegt ist, pflegt man in solchen Fällen die Gruppe einfach mit G zu bezeichnen. Die Gruppenverknüpfung wird bisweilen auch Gruppenmultiplikation genannt. Man bezeichnet dann das Element a b als Produkt der Elemente a und b. In nicht-abelschen Gruppen muß jedoch auf die Reihenfolge der Faktoren geachtet werden, weil dann a b und b a im allgemeinen verschiedene Gruppenelemente sind. Axiom (I) besagt, daß es bei mehrgliedrigen Produkten nicht auf die Art der Klammersetzung ankommt. Man kann daher überhaupt auf die Klammern verzichten und z. B. statt (a b) c einfacher a b c schreiben. Diese Möglichkeit der Klammerersparnis wird weiterhin ohne besonderen Hinweis ausgenutzt werden. 1.3.2 Beispiele. (a) Die Menge Z aller ganzen Zahlen bildet mit der gewöhnlichen Addition als Gruppenverknüpfung eine abelsche Gruppe (Z, +). Dasselbe gilt für die rationalen und die reellen Zahlen. Man spricht dann von der additiven Gruppe der ganzen Zahlen bzw. der rationalen Zahlen usw. In allen diesen Fällen wird das Element e aus (II) durch die Zahl 0 und a aus (III) durch die Zahl −a vertreten. (b) Die Mengen Q∗ und R∗ der von Null verschiedenen rationalen oder reellen Zahlen bilden hinsichtlich der gewöhnlichen Multiplikation als Gruppenverknüpfung je eine abelsche Gruppe. Sie heißt multiplikative Gruppe von Q bzw. R. In diesen Gruppen wird e durch die Zahl 1 und a durch die reziproke Zahl a1 vertreten. (c) Es sei M eine beliebige nicht-leere Menge, und SM sei die Menge aller Bijektionen von M auf sich. Für je zwei Abbildungen α, β ∈ SM bedeute α β das durch die Hintereinanderausführung dieser beiden Abbildungen bestimmte Produkt. Für je drei Abbildungen α, β, γ und für jedes Element x ∈ M gilt dann ((α β) γ ) x = (α β)(γ x) = α (β(γ x)) und (α (β γ )) x = α ((β γ )x) = α (β(γ x)) ; d. h. (I) ist erfüllt. Wählt man für e die identische Abbildung id von M, so gilt (II). Schließlich ergibt sich die Gültigkeit von (III), wenn man bei gegebenem
10
1 Grundbegriffe
α ∈ SM als Abbildung α die zu α inverse Abbildung α −1 wählt. Die Menge SM ist daher hinsichtlich der Multiplikation der Abbildungen eine Gruppe, die die symmetrische Gruppe der Menge M genannt wird. Ist hierbei speziell M die Menge {1, 2, . . . , n}, so bezeichnet man die zugehörige symmetrische Gruppe der Ziffern 1, 2, . . . , n einfacher mit Sn . Jede Abbildung α ∈ Sn ist eine Permutation der Zahlen 1, . . . , n. Gilt etwa α(1) = a1 , α(2) = a2 , . . . , α(n) = an , so ist α durch die Reihenfolge der Bildzahlen a1 , . . . , an eindeutig bestimmt. Man schreibt daher α = (a1 , . . . , an ). Gilt z. B. n = 3, und α = (2, 3, 1), β = (3, 2, 1), so erhält man folgende Produkte: α β = (1, 3, 2)
und
β α = (2, 1, 3).
Dieses Beispiel zeigt, daß Sn für n = 3 keine abelsche Gruppe ist. 1.3.3 Bemerkung. Die von Null verschiedenen ganzen Zahlen bilden hinsichtlich der Multiplikation keine Gruppe, weil es z. B. zu 2 keine ganze Zahl a mit a · 2 = 1 gibt. Aus den Gruppenaxiomen sollen jetzt einige einfache Folgerungen abgeleitet werden. In den nachstehenden Sätzen bedeutet G immer eine Gruppe. 1.3.4 Hilfssatz. Für jedes die Axiome (II) und (III) erfüllende Element e ∈ G gilt auch a e = a für alle a ∈ G. Aus a a = e folgt a a = e. Beweis: Zunächst wird die zweite Behauptung bewiesen: Zu a gibt es nach (III) ein a ∈ G mit a a = e. Unter Beachtung von (I) und (II) erhält man dann
a a = e (a a ) = (a a ) (a a ) = a (a a) a = a (e a ) = a a = e. Hieraus folgt jetzt die erste Behauptung: a e = a (a a) = (a a ) a = e a = a.
1.3.5 Hilfssatz. Es gibt nur genau ein Element e ∈ G der in (II) und (III) geforderten Art. Bereits aus x a = a für nur ein a ∈ G folgt x = e. Beweis: Das Element e∗ erfülle ebenfalls die Gleichung e∗ a = a für alle a ∈ G. Dann gilt insbesondere e∗ e = e und wegen 1.3.4 e∗ = e∗ e = e; d. h. e ist eindeutig bestimmt. Gilt weiter x a = a für ein festes Element a, so existiert wegen (III) zu diesem ein a ∈ G mit a a = e, und wegen 1.3.4 erhält man x = x e = x (a a ) = (x a) a = a a = e.
11
1.3 Gruppen
Das somit durch die Axiome eindeutig bestimmte neutrale Element e der Gruppe G heißt das Einselement von G. In additiv geschriebenen abelschen Gruppen G wird e das Nullelement 0 von G genannt. 1.3.6 Hilfssatz. In (III) ist a durch a eindeutig bestimmt. Beweis: Neben a a = e gelte auch a ∗ a = e. Wegen 1.3.4 erhält man dann a ∗ = a ∗ e = a ∗ (a a ) = (a ∗ a) a = e a = a .
Man nennt a das inverse Element von a und schreibt statt a im allgemeinen a −1 . Wenn allerdings in Spezialfällen die Gruppenverknüpfung als Addition geschrieben wird (vgl. 1.3.2 (a)), bezeichnet man das neutrale Element mit 0 und das zu a inverse Element mit −a. 1.3.7 Hilfssatz. (a −1 )−1 = a und (a b)−1 = b−1 a −1 . Beweis: Die in 1.3.4 bewiesene Gleichung a a −1 = e besagt, daß a das zu a −1 inverse Element ist, daß also die erste Behauptung gilt. Die zweite folgt aus
−1 −1
b a (a b) = b−1 a −1 a b = b−1 (e b) = b−1 b = e. 1.3.8 Hilfssatz. In einer Gruppe G besitzen die Gleichungen x a = b und a y = b bei gegebenen Elementen a, b ∈ G eindeutig bestimmte Lösungen x, y ∈ G. Beweis: Wenn x ∈ G Lösung der ersten Gleichung ist, wenn also x a = b gilt, folgt x = x e = x a a −1 = b a −1 ; d. h. x ist durch a und b eindeutig bestimmt. Umgekehrt ist aber wegen
b a −1 a = b a −1 a = b e = b das Element x = b a −1 auch tatsächlich eine Lösung. Entsprechend schließt man im Fall der zweiten Gleichung. 1.3.9 Definition. Eine Teilmenge U der Gruppe G heiße Untergruppe von G, wenn U bezüglich der Gruppenverknüpfung von G selbst eine Gruppe (U, ) ist. Bezeichnung: U ≤ G 1.3.10 Hilfssatz. Die nicht-leere Teilmenge U der Gruppe (G, ) ist genau dann eine Untergruppe von G, wenn für jedes Paar a, b ∈ U stets a b−1 ∈ U gilt.
12
1 Grundbegriffe
Beweis: Die Bedingung ist sicherlich notwendig. Es ist zu zeigen, daß sie auch hinreicht. Sei e das Einselement von G. Wegen U = ∅ existiert ein a ∈ U . Dann ist e = a a −1 ∈ U , und e ist das Einselement von U . Weiter gilt a −1 = e a −1 ∈ U für jedes a ∈ U . Wegen Hilfssatz 1.3.7 ist daher a b ∈ U für alle a, b ∈ U . Trivialerweise gilt in U das Assoziativgesetz. Also ist (U, ) eine Gruppe.
1.4
Körper und Ringe
Während sich der Gruppenbegriff auf nur eine Verknüpfungsoperation bezog, werden jetzt nebeneinander zwei Operationen betrachtet, die in Anlehnung an das übliche Zahlrechnen mit + und · bezeichnet und Addition bzw. Multiplikation genannt werden. Geht man etwa von den rationalen Zahlen aus, so gewinnt man aus den dort gültigen Regeln durch eine entsprechende Abstraktion wie bei den Gruppen neue algebraische Strukturen. 1.4.1 Definition. Ein Körper besteht aus einer Menge F und zwei Operationen + und · , die jedem geordneten Paar (a, b) von Elementen aus F eindeutig ein Element a + b bzw. a · b von F so zuordnen, daß folgende Bedingungen erfüllt sind: F ist bezüglich + eine abelsche Gruppe, d. h. (I) (a + b) + c = a + (b + c) für alle a, b, c ∈ F . (II) a + b = b + a für alle a, b, ∈ F .
(Assoziativität der Addition)
(Kommutativität der Addition)
(III) Es gibt ein Nullelement 0 in F , d. h. 0 + a = a für alle a ∈ F . (IV) Zu jedem a ∈ F existiert ein Element −a in F mit (−a) + a = 0, wobei 0 das Nullelement in F ist. Für die Multiplikation · der Elemente von F gelten: (V) (a · b) · c = a · (b · c) für alle a, b, c ∈ F .
(Assoziativität der Multiplikation)
(VI) Es gibt ein Einselement 1 in F , d. h. 1 · a = a = a · 1 für alle a ∈ F . (VII) Zu jedem a ∈ F mit a = 0 existiert ein Element a −1 in F mit a −1 · a = 1, wobei 1 das Einselement ist. (VIII) a · (b + c) = a · b + a · c und (b + c) · a = b · a + c · a für alle a, b, c ∈ F . (Distributivität) (IX) 1 = 0. Fordert man lediglich die Gültigkeit der Axiome (I) – (V) und (VIII), so nennt man F einen Ring. Gilt zusätzlich das Axiom
13
1.4 Körper und Ringe
(X) a · b = b · a für alle a, b ∈ F ,
(Kommutativität der Multiplikation)
so wird F ein kommutativer Körper bzw. Ring genannt. Ebenso wie eine Gruppe wird auch ein Körper bzw. Ring statt mit (F, +, ·) einfacher mit F bezeichnet. Das Symbol für die Multiplikation wird im allgemeinen unterdrückt und statt a · b kürzer ab geschrieben. Vielfach werden mit Körper“ nur ” kommutative Körper bezeichnet, während dann nicht-kommutative Körper Schief” körper“ genannt werden. In diesem Buch wird es sich allerdings ausschließlich um kommutative Körper handeln. Wegen (I) und (V) können die Klammern wieder bei endlichen Summen und Produkten fortgelassen werden. Eine weitere Regel zur Klammerersparnis besteht in der üblichen Konvention, daß die Multiplikation stärker binden soll, daß also z. B. statt (ab) + c einfacher ab + c geschrieben werden darf. Diese Vereinfachung wurde bereits bei der Formulierung von (VIII) benutzt. Das neutrale Element 0 des Körpers F bzw. des Rings R wird das Nullelement oder kurz die Null von F bzw. R genannt. Das inverse Element −a heißt das zu a negative Element . Statt b + (−a) schreibt man kürzer b − a und nennt dieses Element die Differenz von b und a. Es gilt a + (b − a) = b, und b − a ist somit die nach 1.3.8 eindeutig bestimmte Lösung der Gleichung a + x = b. Wegen 1.3.7 gilt schließlich −(−a) = a und −(a + b) = −a + (−b) = −a − b. Das neutrale Element 1 der multiplikativen Gruppe F ∗ = F \ {0} wird das Einselement oder einfach die Eins des Körpers F genannt. Ein Ring R braucht kein Einselement zu besitzen; im Falle der Existenz ist die Eins 1 eindeutig in R bestimmt. 1.4.2 Beispiele für Körper. (a) Die Mengen Q und R aller rationalen bzw. reellen Zahlen bilden hinsichtlich der üblichen Addition und Multiplikation je einen kommutativen Körper. (b) Die Menge C der komplexen Zahlen bildet ebenfalls einen kommutativen Körper. Eine komplexe Zahl a besitzt bekanntlich die Form a = a1 + a2 i mit reellen Zahlen a1 , a2 und der imaginären Einheit i, für die i 2 = −1 gilt. Es heißt a1 der Realteil und a2 der Imaginärteil von a. Bezeichnung:
a1 = Re(a) und a2 = Im(a).
Ist b = b1 + b2 i eine zweite komplexe Zahl, so sind Summe, Differenz und Produkt bekanntlich erklärt durch: a ± b = (a1 ± b1 ) + (a2 ± b2 )i, ab = (a1 b1 − a2 b2 ) + (a1 b2 + a2 b1 )i. Die zu einer komplexen Zahl a = a1 + a2 i konjugierte Zahl a¯ ist durch
14
1 Grundbegriffe
a¯ = a1 − a2 i definiert. Unmittelbar ergibt sich: ¯ a ± b = a¯ ± b, a + a¯ = 2 Re(a),
¯ ab = a¯ · b, a = a. a − a¯ = 2i Im(a).
Für eine beliebige komplexe Zahl a gilt a a¯ = (Re(a))2 + (Im(a))2 . Daher ist a a¯ stets eine nicht-negative reelle Zahl, und a a¯ = 0 ist gleichwertig mit a = 0. Ist a = 0 eine komplexe Zahl, so ist a a¯ = 0 und a −1 = aa¯a¯ ∈ C. Der Betrag |a| der komplexen Zahl a = a1 + a2 i ist die positive Wurzel der nicht negativen reellen Zahl a a¯ = a12 + a22 , d. h. |a| = + a12 + a22 .
Die reellen Zahlen sind spezielle komplexe Zahlen; nämlich diejenigen, deren Imaginärteil verschwindet. Dies kann auch so ausgedrückt werden: Die komplexe Zahl a ist genau dann eine reelle Zahl, wenn a = a¯ gilt. 1.4.3 Beispiele für Ringe. (a) Die Menge Z aller ganzen Zahlen ist ein kommutativer Ring mit Eins; aber Z ist kein Körper, weil z. B. 2 in Z kein inverses Element besitzt. (b) Die geraden ganzen Zahlen R = 2 · Z sind ein Beispiel für einen Ring ohne Einselement. (c) Sei F ein kommutativer Körper. Ein Ausdruck der Form f (X) = a0 + a1 X + a2 X 2 + · · · + an−1 X n−1 + an X n mit ai ∈ F , i = 0, 1, . . . , n, heißt Polynom in der Unbestimmten X mit Koeffizienten aus F . Ist an = 0, so heißt n der Grad des Polynoms f (X). Bezeichnung: Grad f = n. Gilt sogar an = 1, so wird f (X) ein normiertes Polynom genannt. Die Polynome vom Grad Null sind die Konstanten 0 = a0 ∈ F . Dem Nullpolynom 0 (n = 0, a0 = 0) ordnet man keinen Grad zu. Die Menge aller Polynome f (X) mit Koeffizienten aus dem Körper F wird mit F [X] bezeichnet. Auf F [X] sind eine Addition + (ggf. nach Auffüllen mit Null-Koeffizienten) und eine Multiplikation · erklärt durch (a0 + a1 X + · · · + an X n ) + (b0 + b1 X + · · · + bn X n ) = (a0 + b0 ) + (a1 + b1 )X + · · · + (an + bn )X n , (a0 + a1 X + · · · + am X m ) · (b0 + b1 X + · · · + bn X n ) = a0 b0 + (a0 b1 + a1 b0 )X + (a0 b2 + a1 b1 + a2 b0 )X 2 + · · · + am bn X n+m .
15
1.5 Vektorräume
F [X] ist bzgl. + und · ein kommutativer Ring mit dem Polynom 1 als Einselement. F [X] heißt der Polynomring über F in der Unbestimmten X. Unter den bisher erwähnten Körpern nimmt der Körper C der komplexen Zahlen in den späteren Kapiteln deshalb eine besondere Rolle ein, weil für ihn der Hauptsatz der Algebra gilt, der besagt: 1.4.4 Satz. Jedes Polynom f (X) ∈ C[X] mit Grad f ≥ 1 zerfällt in ein Produkt von Linearfaktoren, d. h. zu f (X) existieren endlich viele verschiedene komplexe Zahlen ci und natürliche Zahlen ki derart, daß gilt: m f (X) = (X − ci )ki
und
Grad f =
i=1
m
ki .
i=1
Dieser Satz wird hier nicht bewiesen. Die folgenden Sätze zeigen, daß in beliebigen Ringen oder Körpern in der üblichen Weise gerechnet werden kann. 1.4.5 Hilfssatz. In einem Ring gilt 0 · a = a · 0 = 0 für jedes Element a. Beweis: Wegen 0 + 0 = 0 und wegen (VIII) gilt: 0 · a + 0 · a = (0 + 0) · a = 0 · a. Hieraus folgt nach 1.3.5 die erste Behauptung 0 · a = 0. Die zweite Behauptung ergibt sich entsprechend. 1.4.6 Hilfssatz. In einem Ring gilt a(−b) = (−a)b = −(ab), insbesondere also (−a)(−b) = ab. Beweis: Wegen (VIII) und 1.3.4 erhält man ab + a(−b) = a(b + (−b)) = a · 0 = 0. Hiernach ist a(−b) das zu ab negative Element; d. h. es gilt a(−b) = −(ab). Entsprechend ergibt sich die zweite Gleichung.
1.5 Vektorräume Der ursprüngliche Begriff des Vektors besitzt eine anschauliche geometrische Bedeutung. Man denke sich etwa in der Ebene einen festen Punkt p als Anfangspunkt ausgezeichnet. Jedem weiteren Punkt x kann dann umkehrbar eindeutig die von p
16
1 Grundbegriffe
nach x weisende gerichtete Strecke zugeordnet werden, die man sich etwa durch einen in p ansetzenden Pfeil mit der Spitze in x repräsentiert denken kann. Man nennt diese gerichtete Strecke den Ortsvektor von x bezüglich des Anfangspunktes p und bezeichnet ihn mit dem entsprechenden Buchstaben x. Ist y ein zweiter Ortsvektor, so kann man den Summenvektor x + y in bekannter Weise nach dem Parallelogrammprinzip definieren (vgl. Abbildung 1.1). o7? ooo ? o o ? x ooo ? o o o o ? o o o ? p o??o o/ o ?? x+y o ?? oo ?? o y ?? o ?o o Abbildung 1.1 Einfache geometrische Überlegungen zeigen nun, daß die Ortsvektoren hinsichtlich dieser Addition als Verknüpfungsoperation eine abelsche Gruppe bilden. So folgt z. B. das Assoziativgesetz aus der in Abbildung 1.2 angedeuteten Kongruenz der Dreiecke ABE und EF A. D W/_O _ _ _ _ _ _ _ _ _ _ _ _ _ _ _/? E / O / /// O O / O // OO C / o7 F / // / oooo // /oo ooo / // o o oo // / ooo o // / o o o o // / o gOOO o oo // / o OOO B o o o OOO // / o OOO/ oooo // o A G Abbildung 1.2
−→ x = AB,
−→ −→ −→ −→ y = AC, x + y = AD, z = AG, y + z = AF , −→ −→ −→ −→ −→ (x + y) + z = AD + DE = AE = AF + F E = (y + z) + x = x + (y + z). Das neutrale Element dieser Gruppe ist der zu einem Punkt entartete Ortsvektor des Anfangspunktes selbst. Er heißt Nullvektor und wird mit o bezeichnet.
17
1.5 Vektorräume
Daneben kann man aber auch jeden Ortsvektor x mit einer reellen Zahl a multiplizieren: Der Vektor xa sei derjenige Vektor, dessen Länge das |a|-fache der Länge des Vektors x ist und dessen Richtung im Fall a > 0 mit der Richtung von x übereinstimmt, im Fall a < 0 zu ihr entgegengesetzt gerichtet ist. Außerdem sei x0 wieder der Ortsvektor des Anfangspunkts. Für diese zweite Operation der Multiplikation von Ortsvektoren mit reellen Zahlen gelten nun folgende Regeln, die sich leicht geometrisch nachweisen lassen: x(ab) = (xa)b (x + y)a = xa + ya x(a + b) = xa + xb x·1 = x x · 0 = o. Der allgemeine Begriff des Vektorraums entsteht nun wie bei den Gruppen, Körpern und Ringen wieder durch eine entsprechende Abstraktion, die von der speziellen Natur derVektoren und Rechenoperationen absieht. DieseAbstraktion geht hier sogar noch etwas weiter: Bei den Ortsvektoren wurden als Multiplikatoren reelle Zahlen benutzt. Bei der allgemeinen Begriffsbildung tritt an die Stelle der reellen Zahlen ein beliebiger kommutativer Körper F , der dann der Skalarenkörper genannt wird und dessen Elemente als Skalare bezeichnet werden. 1.5.1 Definition. Ein Vektorraum über dem Körper F besteht aus einer additiv geschriebenen, abelschen Gruppe V , deren Elemente Vektoren genannt werden, einem kommutativen Skalarenkörper F und einer Multiplikation, die jedem geordneten Paar (x, a) mit x ∈ V und a ∈ F eindeutig einen Vektor xa ∈ V so zuordnet, daß folgende Axiome erfüllt sind: (I) x(ab) = (xa)b für alle x ∈ V , a, b ∈ F . (II) (x + y)a = xa + ya x(a + b) = xa + xb
(Assoziativität)
für alle x, y ∈ V , a ∈ F , für alle x ∈ V , a, b ∈ F .
(Distributivität)
(III) x1 = x für alle x ∈ V und für 1 ∈ F . Wie schon in diesen Axiomen sollen auch im allgemeinen Skalare und Vektoren mit kleinen lateinischen Buchstaben bezeichnet, Vektoren jedoch durch Fettdruck hervorgehoben werden. Zu beachten ist, daß die Rechenoperationen trotz gleicher Bezeichnung teilweise verschiedene Bedeutung haben: So steht z. B. auf der linken Seite der zweiten Gleichung von (II) die Summe zweier Skalare, auf der rechten Seite aber die Summe zweier Vektoren. Das Zeichen + bedeutet also auf der linken Seite die Addition im Skalarenkörper F , rechts hingegen die Vektoraddition in V . Ebenso
18
1 Grundbegriffe
treten auch in (I) verschiedene Arten der Multiplikation auf. In (II) wurde außerdem bereits eine der früheren Festsetzung entsprechende Vereinfachung benutzt. Die Multiplikation mit Skalaren soll stärker binden als die Vektoraddition; statt (xa) + y soll also einfacher xa + y geschrieben werden dürfen. Axiom (I) gestattet schließlich, auch bei mehrfacher Multiplikation mit Skalaren die Klammern fortzulassen. Ebenso wie bei den Gruppen, Ringen und Körpern pflegt man auch einen Vektorraum nur mit dem einen Buchstaben V zu bezeichnen, der schon der Gruppe zugeordnet ist. Wenn der Skalarenkörper F besonders hervorgehoben werden soll, spricht man von einem Vektorraum V über F oder einem F -Vektorraum. Allgemein soll folgende Festsetzung gelten: Sofern nicht spezielle Skalarenkörper angegeben werden, soll der zu einem Vektorraum gehörende Skalarenkörper immer mit F bezeichnet werden. Treten in einem Zusammenhang mehrere Vektorräume gleichzeitig auf, so sollen sie immer denselben Skalarenkörper besitzen. Dieser darf ein beliebiger kommutativer Körper sein. Nur in Einzelfällen wird er einschränkenden Bedingungen unterworfen werden, die dann aber stets ausdrücklich angegeben werden. Für die Anwendung der Theorie sind allerdings diejenigen Vektorräume am wichtigsten, deren Skalarenkörper der Körper der reellen oder der komplexen Zahlen ist. Man spricht in diesen Fällen kurz von reellen bzw. komplexen Vektorräumen. Daß der Skalarenkörper immer als kommutativ vorausgesetzt wird, ist zunächst nicht wesentlich. Manche der hier behandelten Sätze gelten samt ihren Beweisen sogar in noch erheblich allgemeineren Strukturen: Ändert man die Definition 1.4.1 dahingehend ab, daß man als Skalarenbereich einen beliebigen Ring R mit Einselement statt eines Körpers zuläßt, so nennt man V in diesem Fall einen Modul oder genauer einen R-Modul. Vektorräume sind also spezielle Moduln, nämlich Moduln über Körpern. Die charakteristischen Operationen eines Vektorraums sind die Vektoraddition und die Multiplikation der Vektoren mit Skalaren. Diese beiden Operationen werden unter dem gemeinsamen Namen lineare Operationen zusammengefaßt. Es sei jetzt V ein beliebigerVektorraum. Da V eine additiv geschriebene, abelsche Gruppe ist, existiert in V ein eindeutig bestimmter neutraler Vektor. Dieser wird der Nullvektor genannt und mit o bezeichnet. Es gilt o + x = x für alle Vektoren x ∈ V , und aus x + a = a für nur einen Vektor a ∈ V folgt bereits x = o. Ebenso existiert zu jedem Vektor x ein eindeutig bestimmter negativer Vektor −x. Für ihn gilt x + (−x) = o. Statt a + (−b) wird wieder kürzer a − b geschrieben, und dieser Vektor wird der Differenzvektor von a und b genannt. In einem Vektorraum ist somit auch die Subtraktion unbeschränkt ausführbar. 1.5.2 Beispiele. (a) Der Polynomring F [X] über dem Körper F in der Unbestimmten X ist ein F -Vektorraum. (b) Es sei R[a,b] die Menge aller auf einem reellen Intervall [a, b] definierten
19
1.5 Vektorräume
reellwertigen Funktionen. Für je zwei Funktionen f, g ∈ R[a,b] sei f + g diejenige Funktion, deren Werte durch (f + g)(t) = f (t) + g(t)
(a t b)
bestimmt sind. Entsprechend sei für jede reelle Zahl c die Funktion f c durch (f c)(t) = (f (t)) c
(a t b)
definiert. Hinsichtlich der so erklärten linearen Operationen ist R[a,b] ein reeller Vektorraum. Nullvektor ist die auf [a, b] identisch verschwindende Funktion o, d. h. o(t) = 0 für alle t ∈ [a, b]. (c) Es sei F ein kommutativer Körper, und n > 0 sei eine natürliche Zahl. Eine Folge a = (a1 , . . . , an ) von Elementen aus F wird dann ein n-Tupel genannt, und die Menge aller dieser n-Tupel wird mit F n bezeichnet. Es seien nun a = (a1 , . . . , an ) und b = (b1 , . . . , bn ) zwei nicht notwendig verschiedene n-Tupel aus F n , und c sei ein Element aus F . Setzt man dann a + b = (a1 + b1 , . . . , an + bn ) und
ac = (a1 c, . . . , an c),
so werden hierdurch die linearen Operationen in F n definiert, und F n wird zu einem Vektorraum über F . In ihm ist der Nullvektor o das aus lauter Nullen bestehende n-Tupel (0, . . . , 0). Man nennt diesen Vektorraum den ndimensionalen arithmetischen Vektorraum über F . Der Fall n = 1 zeigt, daß man jeden kommutativen Körper als Vektorraum über sich selbst auffassen kann. Abschließend sollen noch einige Regeln für das Rechnen in Vektorräumen hergeleitet werden, die weiterhin ohne besondere Hinweise benutzt werden. 1.5.3 Hilfssatz. Für beliebige Vektoren x und Skalare c gilt: (a) x · 0 = o und o · c = o. (b) Aus x · c = o folgt x = o oder c = 0. Beweis: Wegen (II) gilt x · 0 + x · 0 = x · (0 + 0) = x · 0 und o · c + o · c = (o + o) · c = o · c. Aus der ersten Gleichung folgt x · 0 = o, aus der zweiten o · c = o. Weiter werde x · c = o, aber c = 0 vorausgesetzt. Wegen (III) erhält man dann x = x · 1 = x · cc−1 = o · c−1 = o.
20
1 Grundbegriffe
Für die Bildung des negativen Vektors gilt wieder −(−x) = x. Die Vektoren −x und x(−1) müssen jedoch zunächst unterschieden werden: −x ist der durch die Gleichung x + (−x) = o eindeutig bestimmte Vektor, während x(−1) aus x durch Multiplikation mit −1 hervorgeht. Der folgende Hilfssatz zeigt jedoch, daß beide Vektoren gleich sind. 1.5.4 Hilfssatz. −x = x(−1). Beweis: Wegen (II), (III) und Hilfssatz 1.5.3 gilt x + x(−1) = x1 + x(−1) = x (1 + (−1)) = x0 = o und daher x(−1) = −x.
1.6
Lineare Gleichungssysteme
Wichtige Anwendungen findet die Theorie der Vektorräume bei der Beschreibung der Lösungsgesamtheit eines linearen Gleichungssystems. 1.6.1 Definition. Ein lineares Gleichungssystem mit n Unbekannten und m Gleichungen hat folgende Form: a11 · x1 + a12 · x2 + · · · + a1n · xn = d1 a21 · x1 + a22 · x2 + · · · + a2n · xn = d2 .. .. .. . . . am1 · x1 + am2 · x2 + · · · + amn · xn = dm ,
(G)
wobei die Koeffizienten aij und die absoluten Glieder di Elemente aus einem Körper F sind. Die Unbekannten des Gleichungssystems sind x1 , . . . , xn . 1.6.2 Definition. Das geordnete n-Tupel c = (c1 , . . . , cn ), wobei c1 , . . . , cn ∈ F , heißt Lösung von (G), wenn jede Gleichung von (G) durch Einsetzen der ci für die xi erfüllt wird. Die Lösungsmenge von (G) ist die Menge, die aus allen Lösungen von (G) besteht. Gibt es keine Lösung von (G), so ist die Lösungsmenge von (G) die leere Menge. 1.6.3 Bemerkungen. (a) Das Gleichungssystem (I)
5 · x1 + 10 · x2 + 20 · x3 = 1000 1 · x1 + 1 · x2 + 1 · x3 = 100 12 · x1 + 12 · x2 + 20 · x3 = 1400
hat nur eine Lösung, nämlich (50, 25, 25).
21
1.7 Aufgaben
(b) Ein Gleichungssystem (G) kann unlösbar sein, wie z. B. x1 + x2 = 1 x1 + x2 = 0.
(II)
(c) Ein lösbares Gleichungssystems kann mehr als nur eine Lösung besitzen, wie folgendes Beispiel zeigt. Das Gleichungssystem x1 + x 2 + x 3 = 3 x1 − x2 + x3 = 1.
(III)
hat z. B. die verschiedenen Lösungen (1, 1, 1), (2, 1, 0), (3, 1, −1). 1.6.4 Definition. Sei (H) das lineare Gleichungssystem, das aus (G) entsteht, wenn man di = 0 für i = 1, . . . , m setzt. (H) heißt das zu (G) gehörige homogene lineare Gleichungssystem. Das Gleichungssystem (G) heißt inhomogen, falls mindestens ein di = 0 ist. 1.6.5 Bemerkung. In den späteren Kapiteln wird gezeigt, daß die Lösungsgesamtheit des zu (G) gehörenden homogenen Gleichungssystems (H) ein F -Vektorraum ist. Die dort entwickelten theoretischen Ergebnisse und Algorithmen werden benutzt, um zu zeigen, (a) ob (G) überhaupt eine Lösung hat, (b) wie die Lösungsgesamtheit berechnet wird, falls (G) lösbar ist. Dazu werden Lösungsverfahren angegeben.
1.7 Aufgaben
1.1 Zeigen Sie mittels vollständiger Induktion, daß jede n-elementige Menge M genau nk = n! k!(n−k)! Teilmengen mit k Elementen für 0 ≤ k ≤ n besitzt. 1.2 Zeigen Sie: 1.3 Zeigen Sie:
n
1 k=1 k = 2 n(n + 1).
n
1 2 k=1 k = 6 n(n + 1)(2n + 1).
1.4 Bestimmen Sie die Lösungen der folgenden drei Gleichungssysteme: 2x + 2y − z = 1 (a)
x−y+z=1 −x − 2y + 2z = −1.
22
1 Grundbegriffe 2x + 2y − 2z = 1
(b)
x−y+z=1 −x − 2y + 2z = −1. 2x + 2y − 2z = 2
(c)
x−y+z=1 −x − 2y + 2z = −1.
1.5 Zeigen Sie, daß das folgende Gleichungssystem für alle ganzen Zahlen d, die von 2 verschieden sind, nicht lösbar ist. x + y − 3z = 0 x + 3y − z = d y + z = 1. 1.6 Auf der Menge R der reellen Zahlen sei eine neue Art der Addition ⊕ definiert durch: 3 a ⊕ b = a 3 + b3 , wobei es sich unter dem Wurzelzeichen um die übliche Addition des Körpers R handelt. Entsprechend bedeute ab das übliche Produkt von R. Es muß jetzt a als Vektor und b als Skalar aufgefaßt werden. Sei ein neues, mit bezeichnetes Produkt auf R durch eine der beiden folgenden Gleichungen definiert: (a) a b = ab, √ (b) a b = 3 ab. In welchem Fall der so definierten linearen Operationen ⊕ und auf der Menge R liegt ein reeller Vektorraum vor? 1.7 Zeigen Sie, daß die vier komplexen Zahlen 1, −1, i, −i bezüglich der Multiplikation im Körper C der komplexen Zahlen eine abelsche Gruppe G bilden. 1.8 Zeigen Sie, daß die Menge G aller Abbildungen fa,b : R → R mit fa,b (x) = ax + b, wobei a, b ∈ R und a = 0, bezüglich der Hintereinanderausführung eine Gruppe mit Einselement f1,0 bilden. 1.9 Zeigen Sie, daß die Menge R = { ab ∈ Q | a, b ∈ Z, b ungerade} einen kommutativen Ring mit Einselement 1 ∈ Q bildet, der kein Körper ist.
2 Struktur der Vektorräume
In diesem Kapitel werden zunächst Begriffsbildungen behandelt, die sich unmittelbar aus der Definition des Vektorraums ableiten lassen und sich auf nur einen Vektorraum beziehen. Im Mittelpunkt dieser Betrachtungen steht der Begriff der Basis eines Vektorraums und der mit ihm eng zusammenhängende Begriff der linearen Unabhängigkeit von Vektoren. Mit diesen Hilfsmitteln ist es dann auch möglich, die Dimension eines Vektorraums zu definieren. Hierbei ergibt sich eine Aufteilung der Vektorräume in endlich-dimensionale und solche unendlicher Dimension. In den ersten beiden Abschnitten werden die grundlegenden Begriffe und Beweismethoden für endlich erzeugte Unterräume U eines beliebigen F -Vektorraums V behandelt. Es wird gezeigt, daß U eine Basis aus endlich vielen Vektoren besitzt und daß alle Basen von U aus gleich vielen Vektoren bestehen. Diese allen Basen gemeinsame Anzahl wird die Dimension von U genannt. Die Beweise für diese Ergebnisse sind konstruktiv und elementar. Die Theorie der endlich-dimensionalen Vektorräume V ergibt sich als Spezialfall. Wesentlich für das konkrete Rechnen mit Vektoren ist schließlich, daß man in endlich-dimensionalen Vektorräumen hinsichtlich einer Basis jeden Vektor durch endlich viele Skalare, seine Koordinaten, beschreiben kann. Der Koordinatenbegriff gestattet es, das Rechnen mit Vektoren auf das Rechnen im Skalarenkörper zurückzuführen. Daraus ergibt sich, daß die algebraische Struktur eines endlich-dimensionalen Vektorraums V über einem Körper F im wesentlichen durch die Dimension von V bestimmt ist. Im dritten Abschnitt werden direkte Summen von Unterräumen eines beliebigen F -Vektorraumes V behandelt. Mit Hilfe des Zornschen Lemmas wird gezeigt, daß sich jeder Vektorraum V in eine direkte Summe von eindimensionalen Unterräumen zerlegen läßt. Dieser Struktursatz ist ein grundlegendes Ergebnis für unendlichdimensionale Vektorräume. Er besagt nicht nur, daß jeder F -Vektorraum V eine Basis B besitzt, sondern auch, daß alle Rechnungen mit jeweils endlich vielen Vektoren aus V in einem endlich-dimensionalen Unterraum U von V stattfinden, der eine endliche Teilmenge B von B zur Basis hat. Daher wird auch im unendlichen Fall das Rechnen mit Vektoren auf die Addition und Multiplikation im Skalarenkörper F zurückgeführt.
24
2 Struktur der Vektorräume
2.1
Unterräume
In diesem Abschnitt werden nicht-leere Teilmengen U eines Vektorraums V über einem kommutativen Körper F untersucht, die gegenüber den linearen Operationen abgeschlossen sind und selbst einen Vektorraum bilden. Solche Teilmengen sind Unterräume von V im Sinne der folgenden Definition. 2.1.1 Definition. Eine Teilmenge U eines Vektorraums V über dem Körper F heißt Unterraum von V , wenn sie nicht leer ist und die beiden folgenden Bedingungen erfüllt sind. (a) v 1 + v 2 ∈ U für alle v 1 , v 2 ∈ U . (b) v · a ∈ U für alle v ∈ U und a ∈ F . Bezeichnung:
U ≤ V.
Man beachte, daß man (a) und (b) in der folgenden Bedingung zusammenfassen kann: (c) (v 1 + v 2 )a ∈ U für alle v 1 , v 2 ∈ U und a ∈ F . 2.1.2 Beispiele. (a) Die Menge {(a, 0, 0) | a ∈ F } ⊆ F 3 ist ein Unterraum von F 3 . (b) {(a, b, 0) | a, b ∈ F } ⊆ F 3 ist ebenso ein Unterraum von F 3 . (c) U = {(a, 1, 0) | a ∈ F } ist jedoch kein Unterraum von F 3 . (d) Jeder Vektorraum V ist ein Unterraum von sich selbst. (e) Die Menge {o} ist ein Unterraum von V . Man nennt {o} den Nullraum des Vektorraums V . (f) Sei V ein Vektorraum über dem Körper F und v = o ein Vektor von V . Dann ist v · F = {v · a | a ∈ F } ein nicht trivialer Unterraum von V ; denn v · a1 + v · a2 = v(a1 + a2 ) und (va1 )a2 = v(a1 a2 ) für alle a1 , a2 ∈ F . (g) In dem Funktionenraum V = R[a,b] (vgl. 1.5.2 c)) bilden die Teilmengen aller integrierbaren, aller stetigen oder aller differenzierbaren Funktionen je einen Unterraum. Ebenso ist die Teilmenge aller Polynome ein Unterraum von V . In der angegebenen Reihenfolge sind sie sogar Unterräume voneinander. 2.1.3 Satz. Jeder Unterraum U eines Vektorraumes V über dem Körper F ist ein Vektorraum.
25
2.1 Unterräume
Beweis: Nach Bedingung (b) von Definition 2.1.1 gilt −u = u(−1) ∈ U für alle u ∈ U . Aus Bedingung (a) derselben Definition folgt u1 − u2 ∈ U für alle Paare u1 , u2 ∈ U . Da V eine abelsche Gruppe ist, ist U ebenfalls eine abelsche Gruppe nach Hilfssatz 1.3.10. Die Assoziativ- und Distributivgesetze und die Forderung x · 1 = x aus Definition 1.5.1 vererben sich wegen Definition 2.1.1 von V auf U . 2.1.4 Definition. Sei V ein Vektorraum über dem Körper F . Der Vektor v ∈ V heißt eine Linearkombination der Vektoren v 1 , . . . , v r ∈ V , falls es Skalare a1 , a2 , . . . , ar ∈ F gibt derart, daß v = v 1 a1 + v 2 a2 + · · · + v r ar . 2.1.5 Beispiele. (a) Seien v 1 = (2, −1, 0) und v 2 = (1, 1, 0) Elemente aus Q3 . Dann ist v 3 = (5, 8, 0) ∈ Q3 eine Linearkombination von v 1 und v 2 , denn es ist v 3 = v 1 · (−1) + v 2 · 7. (b) Ist v 4 = (a, b, 0) ∈ Q3 mit beliebigen Elementen a und b, so gilt allgemeiner a+2b v 4 = v 1 · a−b 3 + v 2 · 3 , also ist auch v 4 eine Linearkombination von v 1 und v 2 . (c) v 5 = (1, 1, 1) ist keine Linearkombination von v 1 und v 2 , weil für a1 , a2 ∈ Q mit v 5 = v 1 a1 + v 2 · a2 die Gleichungen 2 · a1 + a 2 = 1 −a1 + a2 = 1 0 · a1 + 0 · a2 = 1 folgen. Die dritte Gleichung führt zum Widerspruch 0 = 1. Diese Beispiele zeigen, daß die Menge aller Linearkombinationen von v 1 und v 2 gleich {(a, b, 0) | a, b ∈ Q} ist. Im folgenden sei V stets ein Vektorraum über dem Körper F . 2.1.6 Satz. Seien v 1 , . . . , v r ∈ V . Dann ist die Menge L = aller Linearkombinationen der v i ein Unterraum von V .
r
i=1 v i
· ai | ai ∈ F
Beweis: Sicherlich ist o = v 1 ·0+v 2 ·0+· · ·+v r ·0 ∈ L, d. h. L = ∅. Sind w1 , w2 ∈ L, dann existieren a1 , . . . , ar , b1 , . . . , br ∈ F so, daß w 1 = v 1 · a1 + · · · + v r · ar und w 2 = v 1 · b1 + · · · + v r · br . Also ist w 1 + w 2 = v 1 · (a1 + b1 ) + · · · + v r · (ar + br ) ∈ L. Für jedes c ∈ F ist w1 · c = v 1 · (a1 · c) + · · · + v r · (ar · c) ∈ L. Somit ist L ein Unterraum von V .
26
2 Struktur der Vektorräume
2.1.7 Definition. v 1 , . . . , v r ∈ V . Das Erzeugnis der Vektoren v i ist der Un Seien r terraum L = v · ai | ai ∈ F , der aus allen Linearkombinationen der v i i i=1 besteht. L heißt auch der von den Vektoren v i erzeugte Unterraum. Man schreibt auch L = v i | 1 ≤ i ≤ r . Wenn r = 0 ist, setzt man L = {o}. 2.1.8 Satz. Der Durchschnitt beliebig vieler Unterräume eines Vektorraums ist selbst wieder ein Unterraum. Beweis: Sei S ein nicht-leeres System von Unterräumen und D=
{U | U ∈ S}
ihr Durchschnitt. Da o ∈ U für alle U ∈ S gilt, ist o ∈ D. Also ist D = ∅. Aus a, b ∈ D folgt a, b ∈ U für alle U ∈ S. Wegen 2.1.1 gilt dann auch a + b ∈ U für alle U ∈ S und somit a + b ∈ D. Ebenso folgt für c ∈ F und a ∈ D zunächst ac ∈ U für alle U ∈ S und damit ac ∈ D. Wegen Definition 2.1.1 ist daher D ein Unterraum. Mittels Satz 2.1.8 lassen sich die Definition 2.1.7 und der Satz 2.1.6 auf beliebige Teilmengen M von Vektoren des Vektorraumes V verallgemeinern. 2.1.9 Definition. Es sei jetzt M eine beliebige Teilmenge eines Vektorraums V . Dann ist das System S aller Unterräume U von V mit M ⊆ U wegen V ∈ S nicht leer, und der Durchschnitt von S ist nach Satz 2.1.8 wieder ein Unterraum von V . Er ist offenbar der kleinste Unterraum von V , der die Menge M enthält. Man nennt ihn den von der Menge M erzeugten Unterraum. Bezeichnung: M = {U | M ⊆ U, U Unterraum von V }. 2.1.10 Satz. Der von einer nicht-leeren Teilmenge M eines Vektorraums V erzeugte Unterraum M besteht aus genau allen Linearkombinationen von jeweils endlich vielen Vektoren aus M. Ferner gilt ∅ = {o}. Beweis: Addiert man zwei Linearkombinationen von M oder multipliziert man eine Linearkombination von M mit einem Skalar, so erhält man offenbar wieder eine Linearkombination von M. Wegen Definition 2.1.1 ist daher die Menge Y aller Linearkombinationen von M ein Unterraum von V . Jeder Vektor a ∈ M ist wegen a = a · 1 eine Linearkombination von M. Daher gilt M ⊆ Y , und es folgt M ≤ Y nach Definition 2.1.9. Andererseits muß M als Unterraum mit je endlich vielen Vektoren aus M auch jede ihrer Linearkombinationen enthalten; d. h. es gilt umgekehrt Y ≤ M . Zusammen ergibt dies die behauptete Gleichung M = Y . Ferner ist {o} der kleinste Unterraum von V , und es ist auch ∅ ⊂ {o} erfüllt.
27
2.2 Basis und Dimension
2.1.11 Bemerkung. Ist S ein System von Unterräumen U eines Vektorraums V , so ist die Vereinigungsmenge {U | U ∈ S} dieses Systems im allgemeinen kein Unterraum von V . 2.1.12 Definition. Seien U1 , U2 zwei Unterräume des Vektorraumes V . Dann ist die Summe von U1 und U2 erklärt durch U1 + U2 = {u1 + u2 | u1 ∈ U1 und u2 ∈ U2 }. 2.1.13 Satz. Die Summe U1 +U2 zweier Unterräume U1 , U2 von V ist ein Unterraum von V . Beweis: Mit U1 und U2 ist auch U1 + U2 gegenüber den linearen Operationen abgeschlossen.
2.2
Basis und Dimension
In diesem Abschnitt wird gezeigt, daß jeder endlich erzeugte Unterraum U des Vektorraums V über dem Körper F eine Basis“ besitzt, und je zwei Basen“ von U gleich ” ” viele Elemente besitzen. Da das Rechnen mit endlich vielen Vektoren in einem nicht endlich-dimensionalen Vektorraum V stets in einem endlich erzeugten Unterraum U von V durchgeführt wird, sind die in diesem Abschnitt entwickelten Ergebnisse über die Struktur eines endlich erzeugten Unterraums U von V auch für das Studium beliebiger Vektorräume V von grundlegender Bedeutung. Darüber hinaus ergibt sich die Theorie der endlich-dimensionalen Vektorräume als Spezialfall. Sind nun v 1 , v 2 , . . . , v r endlich viele Vektoren des F -Vektorraums V und U = v i | 1 ≤ i ≤ r der von ihnen erzeugte Unterraum von V , dann läßt sich nach Definition 2.1.7 jeder Vektor u ∈ U als eine Linearkombination u=
r
v i ai
mit ai ∈ F
i=1
darstellen. Dies gilt insbesondere für den Nullvektor o. Eine mögliche Darstellung des Nullvektors ist o = v 1 · 0 + v 2 · 0 + · · · + v r · 0; man nennt sie die triviale Darstellung von o. Es kann aber bei geeigneten Vektoren v 1 , v 2 , . . . , v r auch nicht triviale Darstellungen o=
r
v i ai ,
ai ∈ F,
i=1
geben, bei denen mindestens ein ai = 0 ist. Die folgende Definition betrifft den Sonderfall, in dem dies nicht möglich ist.
28
2 Struktur der Vektorräume
2.2.1 Definition. Die Vektoren v 1 , . . . , v r ∈ V heißen linear unabhängig, wenn aus v 1 · a1 + · · · + v r · ar = o
mit ai ∈ F
folgt, daß a1 = · · · = ar = 0. Andernfalls werden sie linear abhängig genannt. Eine endliche Teilmenge M von V heißt linear unabhängig, wenn entweder M = ∅ oder M aus endlich vielen linear unabhängigen Vektoren v 1 , v 2 , . . . , v r von V besteht, die paarweise verschieden sind, falls r > 1 ist. Andernfalls ist die Menge M linear abhängig. Es sei hier bemerkt, daß diese Definition in 2.3.7 auf nicht notwendig endliche Teilmengen so verallgemeinert wird, daß der Fall M = ∅ nicht gesondert behandelt werden muß. 2.2.2 Definition. Im n-dimensionalen arithmetischen Vektorraum F n über dem Körper F sind die n Einheitsvektoren ei , 1 ≤ i ≤ n, definiert durch 1 für j = i, ei = (a1 , a2 , . . . , an ) mit aj = 0 für j = i. 2.2.3 Beispiele. (a) Die Einheitsvektoren ei ∈ F n , 1 ≤ i ≤ n, sind linear unabhängig. Denn aus (0, 0, . . . , 0) = o =
n
ei · ai = (a1 , a2 , . . . , an )
i=1
folgt ai = 0 für i = 1, 2, . . . , n. (b) Sei v 1 = (2, 1, 0), v 2 = (1, 0, 1), v 3 = (3, 1, 1). Dann sind v 1 , v 2 und v 3 linear abhängig; denn v 1 + v 2 + v 3 · (−1) = o. (c) Ein einzelner Vektor v ∈ V ist genau dann linear abhängig, wenn v = o. (d) Wenn die Teilmenge M = {v 1 , v 2 , . . . , v n } von V den Nullvektor o enthält, ist sie linear abhängig. Methoden für den Nachweis der linearen Abhängigkeit bzw. Unabhängigkeit endlich vieler Vektoren werden im zweiten Abschnitt des dritten (3.2.11) und im ersten Abschnitt des vierten (4.1.18) Kapitels dargestellt. 2.2.4 Definition. Die Teilmenge M desVektorraums V heißt ein Erzeugendensystem von V , falls V = M gilt. Der Vektorraum V heißt endlich erzeugt, wenn er ein endliches Erzeugendensystem besitzt.
2.2 Basis und Dimension
29
Der Nullraum {o} wird vom Nullvektor o und auch von ∅ erzeugt. 2.2.5 Definition. Die Menge {v 1 , v 2 , . . . , v r } der endlich vielen Vektoren v i von V , 1 ≤ i ≤ r, ist eine Basis von V , falls (a) V von {v 1 , v 2 , . . . , v r } erzeugt wird und (b) die Vektoren v 1 , v 2 , . . . , v r linear unabhängig sind. 2.2.6 Beispiele. (a) Der Nullraum {o} hat die leere Menge ∅ als einzige Basis. (b) Die Einheitsvektoren e1 , . . . , en bilden eine Basis von F n . Sie wird die kanonische Basis von F n genannt. Sie ist jedoch nicht die einzige Basis von F n . So bilden a 1 = (1, 1) und a 2 = (1, 0) in Q2 ebenfalls eine Basis. (c) v 1 = (1, 1), v 2 = (1, 2), v 3 = (2, 1) ∈ Q2 sind ein Erzeugendensystem von Q2 , aber sie bilden keine Basis von Q2 . Hingegen bilden die Vektoren v 1 und v 2 eine Basis von Q2 . Es sei im folgenden U stets ein endlich erzeugter Unterraum des Vektorraums V über dem Körper F . 2.2.7 Satz. Jedes Erzeugendensystem {v 1 , . . . , v r } von U enthält eine Basis von U . Beweis: Durch vollständige Induktion über r. Ist U = {o} der Nullraum, so ist die leere Menge ∅ eine Basis von U . In diesem Fall ist die Behauptung trivial. Ohne Beschränkung der Allgemeinheit kann daher angenommen werden, daß alle v i = o für i = 1, 2, . . . , r. Induktionsanfang: r = 1. Nach Voraussetzung wird U von v 1 erzeugt. Da v 1 = o ist, ist v 1 linear unabhängig. Also ist {v 1 } eine Basis von U . Induktionsvoraussetzung: Die Behauptung des Satzes sei richtig für alle Unterräume, die ein Erzeugendensystem mit weniger als r Elementen besitzen. Induktionsschluß: Wenn v 1 , . . . , v r linear unabhängig sind, dann ist {v 1 , . . . , v r } eine Basis von U nach Definition 2.2.5. Andernfalls gibt es eine Linearkombination o = v 1 · a1 + · · · + v r · ar , bei der nicht alle Skalare ai gleich 0 sind. Bei geeigneter Numerierung kann man ar = 0 annehmen. Dann ist v r = (v 1 · a1 + · · · + v r−1 · ar−1 )(−ar−1 ) eine Linearkombination von v 1 , . . . , v r−1 . Also ist {v 1 , . . . , v r−1 } ein Erzeugendensystem von U . Diese Menge von r − 1 Vektoren enthält somit nach Induktionsvoraussetzung eine Basis von U . 2.2.8 Satz. Sei {u1 , u2 , . . . , ur } eine Basis von U . Dann sind jeweils r + 1 Vektoren v 1 , v 2 , . . . , v r+1 von U linear abhängig.
30
2 Struktur der Vektorräume
Beweis: Durch vollständige Induktion über r. Dabei durchläuft U alle Unterräume des Vektorraums V , die von r Elementen erzeugt werden. Jede Menge von Vektoren, die den Nullvektor enthält, ist linear abhängig. Daher kann man v i = 0 für i = 1, 2, . . . , r, r + 1 annehmen. Induktionsanfang: Ist r = 1, dann ist v 1 = u1 f1 und v 2 = u1 f2 für geeignete Elemente 0 = fi ∈ F . Wegen v 1 · f2 + v 2 · (−f1 ) = u1 · (f1 f2 − f2 f1 ) = o sind v 1 und v 2 linear abhängig. Induktionsvoraussetzung: Die Behauptung des Satzes sei richtig für alle Unterräume U , die eine Basis mit weniger als r Elementen besitzen. Induktionsschluß: Schreibt man v 1 als Linearkombination von u1 , . . . , ur , dann können also nicht alle Koeffizienten gleich 0 sein. Bei geeigneter Numerierung der ui ’s ist der Koeffizient a1 bei u1 von Null verschieden, also v 1 = u1 · a1 + y 1 mit a1 = 0 und einer Linearkombination y 1 von u2 , . . . , ur . Sei U = ui | 2 ≤ i ≤ r der von diesen r − 1 Elementen ui erzeugte Unterraum von V . Dann ist {u2 , u3 , . . . , ur } eine Basis von U , weil die ui linear unabhängige Vektoren sind. Der Vektor y 1 liegt im Unterraum U . Für j = 2, . . . , r + 1 kann man ebenso vj = u1 · aj + yj mit einem Skalar aj und einem Vektor yj ∈ U schreiben. Für j = 2, . . . , r + 1 setzen wir wj = vj · a1 − v 1 · aj . Dann gilt für alle j mit 2 ≤ j ≤ r + 1, daß wj = vj · a1 − v 1 · aj = u1 aj a1 + yj a1 − v 1 aj = u1 aj a1 + yj a1 − u1 a1 aj − y 1 aj = yj · a1 − y 1 · aj ∈ U . Die r Vektoren w2 , . . . , w r+1 liegen alle im Unterraum U , der eine Basis aus r − 1 Vektoren besitzt. Daher sind w2 , . . . , w r+1 nach Induktionsannahme linear abhängig. Also gibt es Skalare b2 , . . . , br+1 , welche nicht sämtlich gleich 0 sind, mit o = w 2 · b2 + · · · + w r+1 · br+1 = v 1 · (−a2 · b2 − · · · − ar+1 · br+1 ) + v 2 · a1 · b2 + · · · + v r+1 · a1 · br+1 . Für ein j ≥ 2 ist bj = 0 und damit wegen a1 = 0 auch a1 bj = 0. Also sind v 1 , . . . , v r+1 linear abhängig. 2.2.9 Satz. Seien u1 , . . . , ur linear unabhängige Vektoren in U ≤ V , und sei {v 1 , . . . , v s } ein Erzeugendensystem von U . Dann ist r ≤ s.
2.2 Basis und Dimension
31
Beweis: Nach Satz 2.2.7 enthält {v 1 , v 2 , . . . , v s } eine Basis von U mit t ≤ s Vektoren. Durch Umnumerierung kann erreicht werden, daß {v 1 , v 2 , . . . , v t } eine Basis von U ist. Nach Satz 2.2.8 besteht die linear unabhängige Menge {u1 , . . . , ur } aus höchstens t Vektoren, also r ≤ t ≤ s. 2.2.10 Hilfssatz. Seien u1 , . . . , ur linear unabhängige Vektoren in V . Genau dann ist ein Vektor v ∈ V eine Linearkombination der Vektoren ui , wenn v, u1 , . . . , ur linear abhängig sind. Beweis: Wenn v = u1 ·a1 +· · ·+ur ·ar , dann ist o = v ·(−1)+u1 ·a1 +· · ·+ur ·ar , und nicht alle Koeffizienten sind gleich 0. Also sind v, u1 , . . . , ur linear abhängig. Wenn umgekehrt o = v · b + u1 · a1 + · · · + ur · ar gilt und nicht alle Koeffizienten gleich 0 sind, dann ist b = 0, denn sonst wären u1 , . . . , ur linear abhängig. Daher ist v = u1 · (−a1 /b) + · · · + ur · (−ar /b) eine Linearkombination der Vektoren ui . 2.2.11 Satz. Sei U ein Unterraum des endlich erzeugten Vektorraumes V . Dann gilt: (a) U ist ebenfalls endlich erzeugt und besitzt eine Basis. (b) Je zwei Basen von U haben gleich viele Elemente. Insbesondere besitzt V eine endliche Basis, und je zwei Basen von V haben gleich viele Elemente. Beweis: (a) Sind u1 , . . . , ur linear unabhängige Vektoren aus U , dann sind sie auch linear unabhängig in V . Da V ein Erzeugendensystem mit n Elementen hat, ist r ≤ n nach Satz 2.2.9. Sei nun B = {u1 , . . . , ur } eine maximale linear unabhängige Teilmenge von Vektoren ui aus dem Unterraum U . Dann ist auch sie ein Erzeugendensystem von U , denn für jedes v ∈ U ist v, u1 , . . . , ur linear abhängig wegen der Maximalität von B. Also ist v eine Linearkombination von u1 , . . . , ur nach Hilfssatz 2.2.10. Damit ist B eine Basis von U . (b) Seien B = {u1 , u2 , . . . , ur } und B = {u1 , u2 , . . . , us } zwei Basen des Unterraums U . Wendet man Satz 2.2.9 zunächst auf das Erzeugendensystem B und die linear unabhängigen Vektoren u1 , u2 , . . . , ur an, dann folgt r ≤ s. Aus der Symmetrie der Voraussetzungen ergibt sich analog, daß s ≤ r. Also gilt r = s. 2.2.12 Definition. Ist V ein endlich erzeugter F -Vektorraum, dann wird die allen Basen von V nach Satz 2.2.11 gemeinsame Anzahl ihrer Elemente die Dimension von V genannt und mit dim V bzw. dimF V bezeichnet. In diesem Fall heißt V endlich-dimensionaler Vektorraum. Besitzt V jedoch keine endliche Basis, so heißt V unendlich-dimensional, und man setzt dim V = ∞. Nach den Sätzen 2.1.3 und 2.2.11 besitzt jeder endlich erzeugte Unterraum U eines beliebigen F -Vektorraums V eine endliche Dimension dim U .
32
2 Struktur der Vektorräume
2.2.13 Beispiele. (a) dim F n = n, denn {e1 , . . . , en } ist eine Basis von F n . (b) Sei U = {(a, b, 0) ∈ F 3 | a, b ∈ F }, dann bilden die Vektoren v 1 = (1, 0, 0) und v 2 = (0, 1, 0) eine Basis von U . Daher ist dim U = 2. (c) Die Dimension des Nullraumes {o} ist 0 (= Anzahl der Elemente von ∅). 2.2.14 Folgerung. Sei U ein endlich erzeugter Unterraum des Vektorraumes V mit dim U = d. Dann gilt: (a) Folgende Eigenschaften der Elemente u1 , . . . , ud ∈ U sind äquivalent: (i) {u1 , . . . , ud } ist eine Basis von U . (ii) {u1 , . . . , ud } ist linear unabhängig. (iii) {u1 , . . . , ud } ist ein Erzeugendensystem von U . (iv) Jedes u ∈ U hat eine eindeutige Darstellung u = u1 · a1 + u2 · a2 + · · · + ud · ad mit ai ∈ F. (v) o ∈ U besitzt nur die triviale Darstellung. (b) dim U ≤ dim V . (c) Wenn dim U = dim V , dann ist U = V . Beweis: (a) (i) ⇒ (ii) ist trivial. (ii) ⇒ (iii) Wegen dim U = d sind jeweils d + 1 Vektoren u1 , . . . , ud , u von U nach Satz 2.2.7 linear abhängig. Nach Hilfssatz 2.2.10 ist u eine Linearkombination von u1 , . . . , ud , also ist dies ein Erzeugendensystem. (iii) ⇒ (i) Nach Satz 2.2.7 enthält u1 , . . . , ud eine Basis. Da diese Basis wegen dim U = d ebenfalls d Elemente hat, ist {u1 , . . . , ud } selbst schon eine Basis von U . (i) ⇒ (iv) Da u1 , . . . , ud ein Erzeugendensystem von U ist, läßt sich jedes u ∈ U als Linearkombination der ui ’s schreiben: (∗)
u = u1 · a1 + · · · + ud · ad .
Wenn auch u = u1 · b1 + · · · + ud · bd , dann ist o = u−u = u1 · (a1 − b1 ) + · · · + ud · (ad − bd ). Da die ui ’s linear unabhängig sind, müssen alle Koeffizienten ai − bi gleich 0 sein, d. h. ai = bi für i = 1, . . . , d. Die Darstellung (∗) von u ist also eindeutig. (iv) ⇒ (v) ist trivial.
33
2.2 Basis und Dimension
(v) ⇒ (iv). Hat u ∈ U die beiden Darstellungen u=
d i=1
ui · a i =
d
ui · b i ,
i=1
so hat o die Darstellung o = di=1 ui (ai − bi ). Wegen (v) folgt ai = bi für i = 1, 2, . . . , d. (iv) ⇒ (iii) ist trivial. (b) Seien {u1 , . . . , ud } und {v 1 , . . . , v s } je eine Basis von U bzw. V . Wegen Satz 2.2.9 ist dim U = d ≤ s = dim V . Der Fall dim V = ∞ ist trivial. (c) Wenn dim V = d, dann ist {u1 , . . . , ud } nach (b) schon eine Basis von V . Wegen (a) ist daher V das Erzeugnis von u1 , . . . , ud . Also gilt V = U . 2.2.15 Satz (Austauschsatz von Steinitz). Seien u1 , . . . , ur linear unabhängige Vektoren des Vektorraums V und {v 1 , . . . , v s } eine Basis von V . Dann gilt: (a) r ≤ s. (b) Bei geeigneter Numerierung der Vektoren v 1 , v 2 , . . . , v s ist auch {u1 , u2 , . . . , ur , v r+1 , . . . , v s } eine Basis von V . Man erhält also wieder eine Basis von V , indem man r geeignete unter den Vektoren v 1 , v 2 , . . . , v s gegen die Vektoren u1 , u2 , . . . , ur austauscht. Umgekehrt kann man jede linear unabhängige Teilmenge u1 , . . . , ur von V zu einer Basis von V erweitern. Beweis: (a) Nach Satz 2.2.9 ist r ≤ s. (b) Ist r = s, so ist {u1 , u2 , . . . , ur } eine Basis von U nach Folgerung 2.2.14. Sei also r < s. Da {v 1 , v 2 , . . . , v s } eine Basis von U ist, ist mindestens einer ihrer Vektoren v ∈ {v 1 , v 2 , . . . , v s } keine Linearkombination der Vektoren u1 , u2 , . . . , ur . Nach Umnumerierung kann angenommen werden, daß v = v r+1 ist. Nach Hilfssatz 2.2.10 sind dann die Vektoren u1 , u2 , . . . , ur , v r+1 linear unabhängig. Durch (s − r)-malige Wiederholung dieses Arguments folgt die Behauptung (b); denn nach Folgerung 2.2.14 haben je zwei Basen von U gleich viele Elemente. Die beiden Zusätze ergeben sich sofort aus (b). 2.2.16 Satz (Dimensionssatz). Es seien U und W zwei endlich-dimensionale Unterräume eines Vektorraumes V . Dann gilt: dim U + dim W = dim(U ∩ W ) + dim(U + W ). Beweis: Nach den Sätzen 2.1.8 und 2.1.13 sind U ∩W und U +W Unterräume von V . Es sei Bd = {d 1 , . . . , d r } eine Basis von U ∩ W . (Hierbei ist auch r = 0 zugelassen, wenn U ∩W der Nullraum, die Basis also die leere Menge ist.) Nach Satz 2.2.15 kann Bd einerseits zu einer Basis B1 = {d 1 , . . . , d r , a 1 , . . . , a s } von U , andererseits auch
34
2 Struktur der Vektorräume
zu einer Basis B2 = {d 1 , . . . , d r , b1 , . . . , bt } von W erweitert werden. Zunächst soll jetzt gezeigt werden, daß B = {d 1 , . . . , d r , a 1 , . . . , a s , b1 , . . . , bt } eine Basis des Summenraumes U + W ist. Jeder Vektor x ∈ U + W kann nach Definition 2.1.12 in der Form x = u + w mit u ∈ U und w ∈ W dargestellt werden. Da sich u als Linearkombination von B1 und w als Linearkombination von B2 darstellen läßt, ist x eine Linearkombination von B. Es gilt daher jedenfalls B = U + W . Zum Nachweis der linearen Unabhängigkeit von B werde d 1 x1 + · · · + d r xr + a 1 y1 + · · · + a s ys + b1 z1 + · · · + bt zt = o, also d 1 x1 + · · · + d r xr + a 1 y1 + · · · + a s ys = −b1 z1 − · · · − bt zt , mit Elementen xi , yj , zk ∈ F vorausgesetzt. Da in der letzten Gleichung die linke Seite ein Vektor aus U , die rechte Seite aber ein Vektor aus W ist, müssen beide Seiten ein Vektor aus U ∩ W sein, der sich somit als Linearkombination von d 1 , . . . , d r darstellen lassen muß. Wegen der linearen Unabhängigkeit von B1 und B2 ergibt sich hieraus wegen Folgerung 2.2.14 (a) (iv) unmittelbar, daß x1 = · · · = xr = y1 = · · · = ys = z1 = · · · = zt = 0 gilt. Es folgt jetzt dim U +dim W = (r +s)+(r +t) = r +(r +s +t) = dim(U ∩W )+dim(U +W ). Die kanonische Basis {ei | 1 ≤ i ≤ n} des n-dimensionalen arithmetischen Vektorraums über dem Körper F ist eine geordnete Basis im Sinne der folgenden Definition. 2.2.17 Definition. Sei V ein endlich-dimensionaler F -Vektorraum. Sei B = {v 1 , . . . , v n } eine Basis von V . Dann ist B durch die Numerierung der Basisvektoren v i geordnet. Bezüglich dieser geordneten Basis besitzt jeder Vektor v ∈ V eine eindeutige Darstellung v = v 1 · a1 + v 2 · a2 + · · · + v n · an
mit ai ∈ F.
Die durch die Numerierung geordneten Koeffizienten a1 , a2 , . . . , an heißen die Koordinaten des Vektors v bezüglich der geordneten Basis B. Der Vektor a = (a1 , a2 , . . . , an ) ∈ F n heißt der Koordinatenvektor von v hinsichtlich B. 2.2.18 Satz. Sei B = {v 1 , v 2 , . . . , v n } eine geordnete Basis des n-dimensionalen Vektorraumes V . Sei ϕ : V → F n die Abbildung, die jedem Vektor v ∈ V seinen Koordinatenvektor a = (a1 , a2 , . . . , an ) ∈ F n zuordnet. Dann gelten die folgenden Aussagen:
35
2.2 Basis und Dimension
(a) ϕ ist eine bijektive Abbildung des Vektorraums V auf den arithmetischen Vektorraum F n . (b) ϕ(v + w) = ϕ(v) + ϕ(w) für alle v, w ∈ V . (c) ϕ(vc) = ϕ(v) · c für alle v ∈ V und c ∈ F . Beweis: (a) Da B eine Basis des F -Vektorraums V ist, hat jeder Vektor v ∈ V nach Folgerung 2.2.14 eine eindeutige Darstellung v = v 1 a1 + v 2 a2 + · · · + v n an
(∗)
mit ai ∈ F.
Also ist die Zuordnung ϕ : V → F n , die durch ϕ(v) = a = (a1 , a2 , . . . , an ) ∈ F n definiert ist, injektiv. Umgekehrt gilt bei gegebenem a = (a1 , a2 , . . . , an ) für den durch (∗) definierten Vektor v auch ϕ(v) = a; d. h. ϕ ist surjektiv und damit sogar bijektiv. (b) Sind v, w ∈ V zwei Vektoren von V mit Koordinatenvektoren ϕ(v) = (a1 , a2 , . . . , an ), ϕ(w) = (b1 , b2 , . . . , bn ), so hat ihre Summe v + w den Koordinatenvektor ϕ(v + w) = (a1 + b1 , a2 + b2 , . . . , an + bn ) = (a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = ϕ(v) + ϕ(w). (c) Ebenso folgt für jedes c ∈ F , daß ϕ(v · c) = (a1 · c, a2 · c, . . . , an · c) = (a1 , a2 , . . . , an ) · c = ϕ(v) · c gilt.
2.2.19 Bemerkung. Satz 2.2.18 besagt, daß man jedem Vektor v eines beliebigen n-dimensionalen F -Vektorraums V einen Vektor a = (a1 , a2 , . . . , an ) des arithmetischen Vektorraums F n so zuordnen kann, daß das Rechnen mit den Vektoren v aus V auf die in 1.5.2 (d) erklärten linearen Operationen im arithmetischen Vektorraum F n zurückgeführt wird. Hieraus ergibt sich, daß das Rechnen in jedem endlichdimensionalen F -Vektorraum V in natürlicher Weise auf das Rechnen im Körper F reduziert wird.
36
2.3
2 Struktur der Vektorräume
Direkte Summen und Struktursatz
In diesem Abschnitt wird der Begriff Basis“ so verallgemeinert, daß er auch für ” unendlich-dimensionale Vektorräume V über einem Körper F verwendet werden kann. Mit Hilfe des Lemmas von Zorn wird gezeigt, daß jeder F -Vektorraum V eine Basis besitzt. Hieraus ergibt sich, daß V eine direkte Zerlegung in eindimensionale Unterräume besitzt. Der Beweis dieses Struktursatzes für beliebige Vektorräume V beruht auch auf detaillierten Ergebnissen über direkte Summen von Unterräumen von V . Dazu werden die folgenden Begriffsbildungen eingeführt. 2.3.1 Definition. Sei A eine additiv geschriebene abelsche Gruppe mit Nullelement 0. Die Elemente a einer Teilmenge T von A sind fast alle Null, falls es in T nur endlich viele Elemente a = 0 gibt. Ist T = {aα | α ∈ A} für eine Indexmenge A, so sagt man auch, daß aα = 0 für fast alle α ∈ A ist. Diese Definition wird im folgenden auf Teilmengen T eines F -Vektorraumes V wie auch auf Teilmengen T des Körpers F angewendet. 2.3.2 Definition. Es sei {Uα | α ∈ A} ein System von Unterräumen Uα des F Vektorraumes V derart, daß die Zuordnung α → Uα injektiv ist. Die Summe U der Unterräume Uα ist die Menge α α∈A α∈A
Uα = v = uα ∈ V uα ∈ Uα für alle α, uα = o für fast alle α ∈ A . α∈A
Dabei ist die Anzahl der von Null verschiedenen Summanden abhängig vom Element v aus V . Ein Vektor v der Summe α∈A Uα hat stets nur endlich viele von Null verschiedene Summanden uα aus verschiedenen Unterräumen Uα , α ∈ A. Falls A eine unendliche Indexmenge ist, muß diese Bedingung der Definition 2.3.2 besonders beachtet werden. 2.3.3 Satz. Die Summe α∈A Uα der Unterräume Uα , α ∈ A, ist ein Unterraum von V . Insbesondere gilt:
Uα =
{U ≤ V | Uα ≤ U für alle α ∈ A}.
α∈A
Beweis: Ergibt sich unmittelbar aus den Definitionen 2.3.2 und 2.1.1. Der Zusatz folgt aus Satz 2.1.8.
37
2.3 Direkte Summen und Struktursatz
2.3.4 Definition. Es sei {Uα | α ∈ A} ein System von Unterräumen des F -Vektorraumes V derart, daß die Zuordnung α → Uα injektiv ist. Dann heißt die Summe U α∈A α direkt, wenn für jeden Index α ∈ A gilt: Uα = {o} und Uα ∩ Uβ = {o}. β∈A\{α}
Bezeichnung:
α∈A U1 ⊕ U2 ⊕ · · · ⊕ Un
Uα . bzw. ⊕ni=1 Ui , falls A = {1, 2, . . . , n} endlich ist.
2.3.5 Definition. Sei {Uα | α ∈ A} ein System von Unterräumen Uα = {o} des F -Vektorraumes V derart, daß die Zuordnung α → Uα injektiv ist. Dann hat s ∈ α∈A Uα eine eindeutige Darstellung, wenn aus s= uα = v α mit uα , v α ∈ Uα , α ∈ A, α∈A
α∈A
für alle α ∈ A folgt uα = v α . 2.3.6 Satz. Die Summe S = α∈A Uα der Unterräume Uα = {o} des F -Vektorraumes V ist genau dann direkt, wenn sich jeder Vektor s ∈ S auf genau eine Weise in der Form s= uα mit uα ∈ Uα für alle α ∈ A α∈A
darstellen läßt. Beweis: Zunächst wird angenommen, daß die Summe S = α∈A Uα der Unterräume Uα von V direkt ist. Seien s = uα1 +uα2 +· · ·+uαn und s = v β1 +v β2 +· · ·+v βm zwei Summendarstellungen des Vektors s ∈ S. Wäre der Index α1 von allen Indizes β1 , β2 , . . . , βm verschieden, dann wäre o = uα1 = v β1 + v β2 + · · · + v βm − uα2 − uα3 − · · · − uαn ∈ Uα1 ∩ Uγ = {o}. γ ∈A γ =α1
Aus diesem Widerspruch folgt, daß bei geeigneter Numerierung αi = βi für i = 1, 2, . . . , n und somit n = m gilt. Daher ist v αi − u α i =
m
m Uαj = {o}. uαj − v αj ∈ Uαi ∩
j =1 j =i
j =1 j =i
Also ist uαi = v αi für alle i = 1, 2, . . . , n, und jedes s ∈ eindeutige Summendarstellung.
α∈A Uα
hat eine
38
2 Struktur der Vektorräume
Umgekehrt sei die Summe α∈A Uα nicht direkt. Dann gibt es einen Index α ∈ A und einen Vektor uα = o mit uα ∈ Uα ∩ Uβ . β∈A\α
Also existieren endlich viele Indizes β1 , β2 , . . . , βn ∈ A\{α} und Elemente uβi = o in Uβi derart, daß uα = uβ1 + uβ2 + · · · + uβn . Daher hat das Element uα der Summe α∈A Uα keine eindeutige Darstellung. Um den Struktursatz für nicht notwendig endlich-dimensionale F -Vektorräume formulieren zu können, ist es erforderlich, die Definition 2.2.1 der linearen Unabhängigkeit von endlich vielen Vektoren zu verallgemeinern. 2.3.7 Definition. Eine Teilmenge T des F -Vektorraumes V heißt linear abhängig, wenn T endlich viele Vektoren t i , i = 1, 2, . . . , k, enthält, die linear abhängig sind. Andernfalls heißt T linear unabhängig. 2.3.8 Bemerkung. Die leere Teilmenge T = ∅ von V ist nach Definition 2.3.7 linear unabhängig, weil sie trivialerweise keine Vektoren und daher auch nicht endlich viele linear abhängige Vektoren enthält. Andererseits ist jede den Nullvektor o enthaltende Teilmenge T von V linear abhängig. 2.3.9 Satz. Sei V ein F -Vektorraum. Eine nicht-leere Teilmenge T von Vektoren o = t ∈ V ist genau dann linear unabhängig, wenn die Summe S = t∈T t · F der eindimensionalen Unterräume t · F , t ∈ T , direkt ist. Beweis: Nach Beispiel 2.1.2 (f) ist t · F für jedes o = t ∈ T ein eindimensionaler Unterraum von V . Nach Satz 2.3.6 ist die Summe S = t∈T t · F dieser Unterräume genau dann direkt, wenn jeder Vektor s ∈ S eine eindeutige Darstellung s = t∈T tft mit ft ∈ F hat, wobei ft = 0 für fast alle t ∈ T ist. Dies gilt genau dann, wenn der Nullvektor s = o von S nur die triviale Darstellung mit ft = 0 für alle t ∈ T hat, d. h. wenn T linear unabhängig ist. Die Definition einer Basis kann jetzt auf beliebige Vektorräume übertragen werden. 2.3.10 Definition. Eine Teilmenge B eines F -Vektorraumes V heißt eine Basis von V , wenn B linear unabhängig ist und den ganzen Raum V erzeugt. 2.3.11 Beispiel. {1, X, X2 , . . . } ist eine Basis des unendlich-dimensionalen F -Vektorraumes V = F [X] der Polynome mit Koeffizienten aus F .
39
2.3 Direkte Summen und Struktursatz
2.3.12 Folgerung. Sei V ein vom Nullraum verschiedener Vektorraum über dem Körper F . Die nicht-leere Teilmenge B von V ist genau dann eine Basis von V , wenn V = b · F. b∈B
Beweis: Ergibt sich unmittelbar aus Satz 2.3.9 und der Definition 2.3.10.
Der folgende Satz wird benutzt um zu zeigen, daß man jede linear unabhängige Teilmenge eines F -Vektorraumes V zu einer Basis von V erweitern kann. 2.3.13 Satz. Sei B eine Teilmenge des F -Vektorraumes V . Dann sind folgende Aussagen äquivalent: (a) B ist eine Basis von V . (b) B ist eine maximale linear unabhängige Teilmenge von V . (c) B ist eine minimale Teilmenge von V , die V erzeugt, d. h. V = B , aber V = C für jede echte Teilmenge C von B. Beweis: Wenn V der Nullraum {o} ist, dann ist die leere Menge ∅ die einzige Basis von V . Für B = ∅ sind die Bedingungen (a), (b) und (c) alle trivialerweise erfüllt. Daher gelte im folgenden stets V = {o}. (a) ⇒ (b): Als Basis von V ist B eine linear unabhängige Teilmenge von V derart, daß jeder Vektor o = v ∈ V eine Linearkombination von endlich vielen Vektoren b ∈ B ist. Daher ist jede echte Obermenge B von B linear abhängig. Also ist B eine maximale linear unabhängige Teilmenge von V . (b) ⇒ (c): Für jeden Vektor v ∈ V mit v ∈ B ist B ∪ {v} linear abhängig. Also ist v eine Linearkombination von Vektoren b ∈ B, und somit gilt V = B . Angenommen, die echte Teilmenge C von B sei ebenfalls ein Erzeugendensystem von V . Wegen V = C = {o} ist C = ∅. Ferner gibt es einen Vektor b ∈ B mit b ∈ C. Wegen b ∈ C gibt es endlich viele Vektoren ci ∈ C und Körperelemente fi = 0 in F mit b = c 1 f 1 + c 2 f 2 + · · · + c n fn . Daher ist {b, c1 , c2 , . . . , cn } eine endliche Teilmenge von B, die linear abhängig ist, was der linearen Unabhängigkeit von B widerspricht. (c) ⇒ (a): Wäre das minimale Erzeugendensystem B von V linear abhängig, dann gäbe es einen Vektor b ∈ B, der eine Linearkombination von endlich vielen weiteren Vektoren bi = o von B wäre, d. h. (∗)
b = b 1 · f 1 + b 2 · f2 + · · · + b n · fn
für geeignete 0 = fi ∈ F.
Sei C = B \ {b}. Dann ist bi ∈ C für i = 1, 2, . . . , n. Da V von B erzeugt wird, folgt daher aus (∗), daß auch die echte Teilmenge C von B ein Erzeugendensystem
40
2 Struktur der Vektorräume
von V ist. Dies widerspricht der Minimalitätsbedingung (c). Deshalb ist B linear unabhängig. Wegen V = B ist B deshalb eine Basis von V nach Definition 2.3.10. 2.3.14 Satz. Es sei M eine linear unabhängige Teilmenge eines Vektorraumes V über dem Körper F . Dann gibt es eine Basis B von V mit M ⊆ B. Beweis: Es sei S das System aller linear unabhängigen Teilmengen T von V mit M ⊆ T . Wegen M ∈ S ist S nicht leer. Weiter sei jetzt K eine beliebige Kette von Teilmengen T aus S, und W = ∪{T | T ∈ K} sei ihre Vereinigungsmenge. Wäre W nicht linear unabhängig, dann enthielte W eine endliche Teilmenge w1 , w2 , . . . , w r von Vektoren aus V , die linear abhängig wären. Zu jedem w i gibt es eine Teilmenge Ti ∈ K mit w i ∈ Ti für i = 1, 2, . . . , r. Da K eine Kette ist, existiert unter diesen endlich vielen Mengen eine Teilmenge – etwa T1 –, die alle anderen enthält. Also gilt wi ∈ T1 für i = 1, 2, . . . , r, was der linearen Unabhängigkeit von T1 ∈ S widerspricht. Daher ist W linear unabhängig über F . Nach dem Lemma 1.1.9 von Zorn gibt es in S ein maximales Element B, d. h. B ist eine maximale linear unabhängige Teilmenge von V . Also ist B eine Basis von V nach Satz 2.3.13 mit M ⊆ B. Aus der Folgerung 2.3.12 und dem Satz 2.3.14 ergibt sich nun unmittelbar der Struktursatz für nicht notwendig endlich-dimensionale Vektorräume V über dem Körper F . 2.3.15 Satz.
(a) Jeder F -Vektorraum V besitzt eine Basis B.
(b) Ist V = {o} und ist B eine Basis von V , so ist V = b∈B b · F .
Beweis: (a) folgt durch Anwendung des Satzes 2.3.14 auf M = ∅. (b) ergibt sich unmittelbar aus (a) und Folgerung 2.3.12.
Ist U ein von {o} und V verschiedener Unterraum des endlich-dimensionalen F -Vektorraumes V der Dimension dim V = n, so gibt es stets einen Unterraum K von V mit V = U ⊕ K. Denn ist u1 , u2 , . . . , ur eine Basis von U , dann läßt sie sich nach Satz 2.2.15 durch n − r Vektoren n−rv r+1 , v r+2 , . . . , vn zu einer Basis von V ergänzen. Nach Satz 2.1.6 ist K = j =1 v r+j aj | aj ∈ F ein Unterraum von V . Da {ui | 1 ≤ i ≤ r} ∪ {v r+j | 1 ≤ j ≤ n − r} eine Basis von V ist, folgt U ∩ K = {o} und V = U + K. Also ist K ein Komplement von U im Sinne der folgenden Definition. 2.3.16 Definition. Sei U ein Unterraum des F -Vektorraumes V . Dann heißt ein Unterraum K von V Komplement von U , falls V = U + K und U ∩ K = {o} gelten.
41
2.4 Aufgaben
2.3.17 Bemerkung. Ein Komplement eines echten Unterraums U = {o} des F Vektorraumes V ist nicht eindeutig bestimmt. Gegenbeispiel: Sei V = F 2 und U = {(a, 0) | a ∈ F }. Dann sind K1 = {(0, b) | b ∈ F } und K2 = {(c, c) | c ∈ F } zwei verschiedene Komplemente von U in V . Als weitere Folgerung von Satz 2.3.14 ergibt sich, daß jeder Unterraum U eines nicht notwendig endlich-dimensionalen F -Vektorraumes V ein Komplement besitzt. Ist U = V , so ist K = {o} das Komplement von U . 2.3.18 Satz (Komplementierungssatz). Es sei V ein Vektorraum über dem Körper F . Dann hat jeder Unterraum U von V ein Komplement. Beweis: Nach Satz 2.3.15 hat der Unterraum U eine Basis C. Wegen Satz 2.3.14 gibt es eine Basis B von V mit C ⊆ B. Sei K = b ∈ B | b ∈ C . Dann gilt V = U + K und U ∩ K = {o}.
2.4 Aufgaben 2.1 Seien v = (a, b), w = (c, d) ∈ F 2 . Zeigen Sie, daß v und w genau dann linear abhängig sind, wenn a · d − b · c = 0. 2.2 Die Vektoren u, v, w ∈ Qn seien linear unabhängig über Q. Beweisen Sie die Behauptungen: (a) Die drei Vektoren u + v − w2, u − v − w und u + w sind linear unabhängig. (b) u + v − w3, u + v3 − w und v + w sind linear abhängig. 2.3 Sei V = Q[X] der Q-Vektorraum aller Polynome in der Unbestimmten X über dem Körper Q. Ist es möglich, das Polynom v = X 2 + 4X − 3 als Linearkombination der drei Polynome e1 = X2 − 2X + 5, e2 = 2X2 − 3X und e3 = X + 3 zu schreiben? Wenn ja, geben Sie eine solche Linearkombination an. 2.4 Seien {v 1 , v 2 , . . . , v m } und {w 1 , w2 , . . . , w n } zwei endliche Mengen von Vektoren des F -Vektorraums V . Sei u ∈ V eine F -Linearkombination der Vektoren v 1 , v 2 , . . . , v m . Weiter sei jeder Vektor v i eine Linearkombination der n Vektoren wj , j = 1, 2, . . . , n. Beweisen Sie, daß dann auch u eine F -Linearkombination der Vektoren w1 , w2 , . . . , w n ist. 2.5 Es sei V = Q4 . (a) Ist die Menge S = {(1, 1, 1, 1), (2, −4, 11, 2), (0, 2, −3, 0)} linear unabhängig? Geben Sie eine Teilmenge an, die eine Basis von S ist. (b) Ergänzen Sie die linear unabhängige Menge{(1, 1, 1, 1), (0, 2, −3, 0)} zu einer Basis von V .
42
2 Struktur der Vektorräume
2.6 Die Untermenge W des F -Vektorraumes Fn [X] der Polynome p(X) mit Grad p(X) ≤ n sei gegeben durch W = {p(X) ∈ Fn (X) | p(0) = 0 = p(1)}. Zeigen Sie, daß W ein Unterraum ist. Geben Sie eine Basis von W an und erweitern Sie diese zu einer Basis von Fn [X]. 2.7 Bestimmen Sie eine Basis des Unterraums von Q5 , der von folgenden Vektoren erzeugt wird: u1 = (1, 2, −2, 2, −1), u2 = (1, 2, −1, 3, −2), u3 = (2, 4, −7, 1, 1), u4 = (1, 2, −5, −1, 2), u5 = (1, 2, −3, 1, 0). 2.8 Sei V = Fn−1 [X] der F -Vektorraum aller Polynome p(X) = p0 + p1 X + · · · + pp−1 Xn−1 mit Grad p(X) ≤ n − 1. Seien a1 , a2 , . . . , an ∈ F paarweise verschiedene Elemente von F . Sei n (X − aj ) . Gi (X) = (ai − aj ) j =1 j =i
Zeigen Sie: (a) Die Polynome G1 (X), G2 (X), . . . , Gn (X) bilden eine Basis von V . (b) Jedes Polynom p(X) ∈ V hat eine eindeutige Darstellung p(X) = p(a1 )G1 (X) + p(a2 )G2 (X) + · · · + p(an )Gn (X). (c) Für jedes feste a ∈ F bilden die Polynome 1 und Hi (X) = (X − a)i , 1 ≤ i ≤ n − 1 eine Basis von V . (d) Jedes Polynom p(X) aus V hat eine eindeutige Darstellung p(X) = p(a) · 1 + p (a) · H1 (X) +
p (a) p (n−1) (a) · H2 (X) + · · · + (X). H 2! (n − 1)! (n−1)
2.9 Sei V der R-Vektorraum aller reellwertiger Funktionen f : R → R. Zeigen Sie, daß die folgenden Vektoren f, g, h ∈ V jeweils linear unabhängig über R sind: (a) f (x) = ex , g(x) = sin x, h(x) = x 2 ; 2
(b) f (x) = ex , g(x) = ex , h(x) = x; (c) f (x) = ex , g(x) = sin x, h(x) = cos x. 2.10 Sei n < ∞ und V ein n-dimensionaler Vektorraum über dem Körper F . Zeigen Sie:
r r (a) dim i=1 Ui = i=1 dim Ui . (b) Jede direkte Summe ri=1 Ui von Unterräumen Ui = {o} hat höchstens n direkte Summanden.
3 Lineare Abbildungen und Matrizen
In diesem Kapitel werden die grundlegenden Begriffe und Ergebnisse über lineare Abbildungen α : V → W zwischen zwei Vektorräumen V und W über demselben Körper F behandelt. Dies sind diejenigen Abbildungen, die mit den auf diesen Vektorräumen erklärten linearen Operationen vertauschbar sind. Im Fall endlichdimensionaler Vektorräume können die linearen Abbildungen durch rechteckige Matrizen mit Koeffizienten aus dem Körper F beschrieben werden, indem man in beiden Räumen jeweils eine Basis fest wählt. Wie sich diese Matrizen bei Basiswechseln ändern, wird in Abschnitt 3 dargelegt. Im ersten Abschnitt werden die Rechengesetze für die Addition und Multiplikation von Matrizen behandelt. Im zweiten Abschnitt wird gezeigt, daß zu jeder Matrix eine lineare Abbildung zwischen zwei arithmetischen Vektorräumen F n und F m gehört. Anhand dieses Beispiels wird der allgemeine Begriff lineare Abbildung“ ” entwickelt. Es folgt der Dimensionssatz für den Kern und den Bildraum einer linearen Abbildung. Er findet Anwendung bei der Beschreibung der Lösungsgesamtheit eines linearen Gleichungssystems. Im vierten Abschnitt wird gezeigt, daß der Zeilenrang einer m × n-Matrix A mit dem Spaltenrang von A übereinstimmt. Die invertierbaren Matrizen werden dann durch den Rang der Matrix charakterisiert. Im fünften Abschnitt wird gezeigt, daß die Menge aller linearen Abbildungen α : V → W zwischen zwei Vektorräumen V und W selbst einen Vektorraum HomF (V , W ) bildet. Ist V = W , so ist dieser Vektorraum sogar ein Ring, der Endomorphismenring genannt wird. Ist dim V = n < ∞, so ist er isomorph zum Ring Matn (F ) aller n × n-Matrizen über F . Von diesem wichtigen Isomorphismus wird in den späteren Kapiteln oft stillschweigend Gebrauch gemacht. Dabei werden die matrizentheoretischen Rechenmethoden benutzt, um die Invarianten einer linearen Abbildung zu bestimmen. Wählt man andererseits W = F , so wird V ∗ = HomF (V , F ) zum Dualraum von V . Mit der dualen Basis wird eine Bijektion zwischen den Mengen der Unterräume von V und V ∗ angegeben. Schließlich werden im letzten Abschnitt für einen Endomorphismus α ∈ EndF (V ) direkte Zerlegungen von V in α-invariante Unterräume betrachtet und die zugehörigen Matrizendarstellungen von α beschrieben.
44
3.1
3 Lineare Abbildungen und Matrizen
Matrizen
In diesem Abschnitt werden die wesentlichen Rechengesetze für die Addition und Multiplikation von Matrizen behandelt. Isoliert man die Koeffizienten der Unbekannten aus jeder Gleichung des Gleichungssystems 5x1 x1 12x1
+ + +
10x2 x2 12x2
+ + +
dann erhält man folgendes Schema:
5 1 A= 12
20x3 x3 20x3
10 1 12
+ +
20 1 20
4x4 x4
= = =
100 10 150 ,
4 1 . 0
A ist eine Matrix“ im Sinne der folgenden ” 3.1.1 Definition. Eine m × n-Matrix A über dem Körper F ist ein rechteckiges Schema, das aus m · n Elementen aij des Körpers F besteht: a11 a12 . . . a1n a21 a22 . . . a2n A= . .. .. . .. . . am1
am2
...
amn
Man schreibt A = (aij ). Die Matrix A hat m Zeilen und n Spalten. Der Vektor zi = (ai1 , . . . , ain ) ∈ Fzn , mit dem in der Einleitung der n-dimensionale Zeilenraum über F bezeichnet wurde, ist der i-te Zeilenvektor von A und der Vektor a1j sj = ... ∈ Fsm amj ist der j -te Spaltenvektor von A. Die Anzahl n bezeichnet man auch als Zeilenlänge bzw. m als Spaltenlänge. Das Erzeugnis sj | 1 ≤ j ≤ n der Spaltenvektoren sj von A in F m heißt Spaltenraum von A. Seine Dimension s(A) = dim sj | 1 ≤ j ≤ n heißt der Spaltenrang von A. Analog heißt zi | 1 ≤ i ≤ m der Zeilenraum von A; seine Dimension z(A) wird Zeilenrang von A genannt. Wenn m = n ist, dann nennt man A eine quadratische Matrix.
45
3.1 Matrizen
3.1.2 Beispiele. (a) Die Vektoren
5 10 20 4 1 , 1 , 1 , 1 ∈ Q3s 12 12 20 0
sind die Spaltenvektoren der oben angegebenen Matrix D und (1, 1, 1, 1) ∈ Q4z ist der zweite Zeilenvektor von D. (b) Für jede natürliche Zahl n kann man die n×n-Matrix En betrachten, deren i-te Zeile gerade der i-te Einheitsvektor ei ist. Sie heißt die n × n-Einheitsmatrix 1 0 .. En = . . 0
1
(c) Eine Matrix, deren sämtliche Einträge gleich 0 sind, wird Nullmatrix genannt und mit 0 bezeichnet. Wie Vektoren v des arithmetischen Vektorraums F n kann man auch m × nMatrizen gleichen Formats elementweise addieren und mit einem Skalar multiplizieren. 3.1.3 Definition. Seien A = (aij ) und B = (bij ) zwei m × n-Matrizen und b ∈ F . Dann werden die Summenmatrix A + B und A · b durch A + B = (aij + bij ) und A · b = (aij · b) definiert. 3.1.4 Beispiel. Sei A=
1 0
Dann ist
−2 1
A+B
=
A·3
=
1+2 0+1 1·3 0·3
und
B=
−2 + 2 1−1 (−2) · 3 1·3
2 1
=
=
2 −1
.
3 1
0 0
3 0
−6 3
, .
3.1.5 Bemerkung. Man kann zwei Matrizen nur dann addieren, wenn sie das gleiche Format haben. So ist es z. B. nicht möglich, die Matrizen 1 0 2 2 A = 1 1 und B = 2 1 0 1 zu addieren, da A eine 3 × 2-Matrix und B eine 2 × 2-Matrix ist.
46
3 Lineare Abbildungen und Matrizen
3.1.6 Satz. Die m × n-Matrizen bilden mit der in 3.1.3 definierten Addition und Multiplikation mit Skalaren einen Vektorraum Mat m,n (F ) über dem Körper F mit Dimension m · n. Beweis: Es gelten alle Aussagen von Definition 1.5.1. Sei Dij die m × n-Matrix, die an der Stelle (i, j ) den Koeffizienten 1 hat und deren andere Koeffizienten alle 0 sind. Dann ist B = {Dij | 1 ≤ i ≤ m, 1 ≤ j ≤ n} eine Basis von Matm,n (F ), weil B unabhängig ist, und jede m × n-Matrix A = (aij ) die Darstellung linear m A= m i=1 j =1 Dij aij hat. 3.1.7 Definition. Sei A eine m × n-Matrix mit Spaltenvektoren s 1 , . . . , s n und v = (v1 , . . . , vn ) ∈ F n . Dann ist das Produkt von A mit v definiert durch A · v = s 1 · v1 + s 2 · v2 + · · · + s n · vn . 3.1.8 Bemerkung. Für eine m × n-Matrix ist das Produkt A · v mit einem Vektor v nur dann definiert, falls v ∈ F n ist. A · v ist dann ein Vektor aus F m . 3.1.9 Beispiele.
0 2 1 ,v= . Dann ist 3 1 1 0 2 A · v = −2 · 2 + 1 · 3 = −1 . 0 1 3
1 −2 (a) Seien A = 0
(b) Für die n × n-Einheitsmatrix En und jedes v ∈ F n gilt En · v = v. 3.1.10Bemerkung. Jedeslineare Gleichungssystem (G) mit Koeffizientenmatrix a11 . . . a1n .. .. , Unbestimmtenvektor x = (x , . . . , x ) und KonstanA= . 1 n . am1 . . . amn tenvektor d = (d1 , . . . , dm ) läßt sich schreiben als (G)
A · x = d.
Der Definition des Produkts zweier Matrizen wird die des Skalarprodukts zweier Vektoren des arithmetischen Vektorraums F n vorausgestellt. 3.1.11 Definition. Seien a = (a1 , . . . , an ), b = (b1 , . . . , bn ) ∈ F n zwei Vektoren. Dann ist ihr Skalarprodukt das Element a · b = a1 · b1 + · · · + an · bn ∈ F .
47
3.1 Matrizen
3.1.12 Beispiel. Seien v = (1, 1, 1, −1, 1), w = (0, 1, 1, 1, 1) ∈ F 5 . Dann ist v · w = 1 · 0 + 1 · 1 + 1 · 1 − 1 · 1 + 1 · 1 = 2. 3.1.13 Bemerkungen. (a) Das Skalarprodukt und das Produkt mit einem Skalar dürfen nicht miteinander verwechselt werden! Das erste macht aus zwei Vektoren einen Skalar, das zweite aus einem Vektor und einem Skalar einen Vektor. (b) Man kann nur dann das Skalarprodukt zweier Vektoren a ∈ F m und b ∈ F n bilden, wenn m = n ist. Man kann z. B. die Vektoren (0, 1, 1) und (2, 3) nicht miteinander multiplizieren. (c) Man kann die linke Seite einer linearen Gleichung a1 · x1 + · · · + an · xn = b als Skalarprodukt a · x des Koeffizientenvektors a = (a1 , . . . , an ) und des Unbestimmtenvektors x = (x1 , . . . , xn ) lesen. 3.1.14 Satz. Das Skalarprodukt ist kommutativ, d. h. a ·b = b ·a für je zwei Vektoren a, b ∈ F n . Beweis: Folgt unmittelbar aus der Definition 3.1.11 und der Kommutativität der Multiplikation von F . Das Skalarprodukt wird in der Geometrie verwendet, um Winkel und Längen zu definieren. Hierzu wird auf Kapitel 7 verwiesen. Mittels des Skalarprodukts ist es möglich, eine andere Methode zur Berechnung von A · v anzugeben. 3.1.15 Satz. Sei A = (aij ) eine m × n-Matrix mit Zeilen z1 , . . . , zm . Sei v = (v1 , . . . , vn ) ∈ F n und wi = zi · v das Skalarprodukt von zi mit v für 1 ≤ i ≤ m. Sei w = (w1 , w2 , . . . , wm ) ∈ F m . Dann gilt A · v = w. Beweis: Sei sj die j -te Spalte von A. Dann ist a1j sj = ... . amj Somit ist die i-te Komponente des Vektors sj · vj gerade gleich aij · vj . Die i-te Komponente von A · v ist daher n j =1
aij · vj = (ai1 , . . . , ain ) · (v1 , . . . , vn ) = zi · v = wi .
48
3 Lineare Abbildungen und Matrizen
1 1 −1 1 1 und v = −1 . Dann gilt 3.1.16 Beispiel. Sei A = 0 1 2 1 0 2 1 · 1 + 1 · (−1) + (−1) · 2 −2 1 · 2 = 1 . A · v = 0 · 1 + 1 · (−1) + 2 · 1 + 1 · (−1) + 0·2 1 3.1.17 Definition. Sei A = (aij ) eine m × n-Matrix und B = (bj k ) eine n × tMatrix. Ferner sei a i der i-te Zeilenvektor von A und bk der k-te Spaltenvektor von B. Dann ist die Produktmatrix A · B eine m × t-Matrix C mit Koeffizienten cik = a i · bk , wobei a i · bk das Skalarprodukt der Vektoren a i , bk ∈ F n ist, d. h. cik = ai1 · b1k + ai2 · b2k + · · · + ain bnk =
n
aij bj k .
j =1
Die so erklärte Produktbildung von zwei Matrizen mag zunächst unmotiviert erscheinen. Sie wird sich jedoch im Rahmen der im dritten Abschnitt dieses Kapitels behandelten Theorie der linearen Abbildungen als natürlich herausstellen. Hierzu wird auf Satz 3.3.7 verwiesen. 3.1.18 Bemerkung. Das Produkt A · B zweier Matrizen A und B ist nur dann definiert, wenn die Anzahl der Spalten von A gleich der Anzahl der Zeilen von B ist. Ist z. B. 1 0 1 1 A= und B = 0 1 , 0 1 1 1 so ergibt A · B keinen Sinn, da A zwei Spalten und B drei Zeilen besitzt. Dagegen ist B · A definiert, denn B hat ebenso viele Spalten wie A Zeilen. 3.1.19 Beispiele. 1 −2 (a) A = 0 1
0 1
A·B
= =
,
2 B= 1 0
1 1 −1 0 , 0 1
1·2+(−2)·1+0·0
1·1+(−2)·(−1)+0·0
1·1+(−2)·0+0·1
0·2+1·1+1·0
0·1+1·(−1)+1·0
0·1+1·0+1·1
0 1
3 −1
1 1
.
(b) Sei A eine m × n-Matrix. Dann gilt Em A = A und AEn = A.
49
3.1 Matrizen
3.1.20 Bemerkung. Im Gegensatz zu der Multiplikation im Körper F gilt im allgemeinen nicht A · B = B · A für zwei m × m-Matrizen A und B, denn ist z. B. 1 1 1 1 A= und B = , −1 2 0 −1 dann gilt
A·B =
1 −1
0 −3
B·A=
und
0 1
3 −2
.
Ist das Produkt von drei Matrizen erklärt, so gilt das Assoziativgesetz: 3.1.21 Satz. Seien A = (aij ) eine m × n-, B = (bj k ) eine n × t- und C = (ckp ) eine t × s-Matrix. Dann gilt: (A · B) · C = A · (B · C). Beweis: Nach der Definition des Produktes zweier Matrizen gilt: n A · B = (aij ) · (bj k ) = aij · bj k , j =1
B · C = (bj k ) · (ckp ) = (A · B) · C =
n
t
bj k · ckp ,
k=1
aij · bj k · (ckp ) =
j =1
=
n t
t n
k=1
aij · bj k · ckp
j =1
[aij · bj k ] · ckp
k=1 j =1
nach dem Distributivgesetz von Definition 1.4.1. t n t bj k Vα · ckp = A · (B · C) = (aij ) · aij · bj k · ckp k=1
=
n t
j =1
k=1
aij · [bj k · ckp ] .
j =1 k=1
Da nach Definition 1.4.1 die Reihenfolge der Summanden einer Summe bzw. der Faktoren eines Produkts von Elementen des Körpers F beliebig ist und es auf die Klammerung nicht ankommt, gilt t n j =1 k=1
aij · (bj k · ckp ) =
n t k=1 j =1
(aij · bj k ) · ckp
50
3 Lineare Abbildungen und Matrizen
für alle i und p. Daher ist (A · B) · C = A · (B · C).
3.1.22 Bemerkung. Durch mehrfache Anwendung von Satz 3.1.21 folgt sogar, daß es bei Produkten von endlich vielen Matrizen (sofern sie definiert sind) auf die Klammersetzung nicht ankommt. Deshalb werden die Klammern von nun an in der Regel fortgelassen. 3.1.23 Satz. (a) Sind A = (aij ) eine m × n-Matrix und B = (bj k ) sowie C = (cj k ) jeweils eine n × t-Matrix, dann gilt: A · (B + C) = A · B + A · C. (b) Analog gilt auch für m × n-Matrizen A und B und für eine n × t-Matrix C: (A + B) · C = A · C + B · C. Beweis: Sei D = (dij ) = A · (B + C). Nach Definition ist B + C = (bj k + cj k ) eine n × t-Matrix und somit ist D eine Für 1 ≤ i ≤ m und 1 ≤ k ≤ t m × t-Matrix. gilt dik = jn=1 aij · (bj k + cj k ) = jn=1 aij · bj k + jn=1 aij · cj k . Auf der anderen Seite sei F = (fik ) = A·B+A·C. Dann ist F wie D eine m×tMatrix und für 1 ≤ i ≤ m und 1 ≤ k ≤ t gilt fik = jn=1 aij · bj k + jn=1 aij · cj k . Somit ist F = D und der Teil (a) ist bewiesen. Analog zeigt man (b). 3.1.24 Bemerkungen. (a) Die etwas unklare Redeweise von Zeilenvektoren“ und Spaltenvektoren“ ” ” läßt sich mittels Matrizen präzisieren: einem Vektor v ∈ F n , also einem nTupel v = (v1 , . . . , vn ) ∈ F n , läßt sich ganz natürlich eine n × 1-Matrix zuordnen, nämlich v1 v2 .. . vn und ebenso natürlich eine 1×n-Matrix, nämlich (v1 , v2 , . . . , vn ). Es sind diese Matrizen gemeint, wenn von v als Spalten- oder Zeilenvektor die Rede ist. In dieser Interpretation ist A · v ein Spezialfall der Matrizenmultiplikation. (b) Die Matrizenmultiplikation wurde mit Hilfe des Skalarproduktes definiert. Man kann auch umgekehrt vorgehen: Wenn a und b in F n sind, betrachte man die 1 × n-Matrix A= (a1 . . . an ) (d. h. a als Zeilenvektor) und die n × 1b1 .. Matrix B = . (d. h. b als Spaltenvektor). Das Produkt A · B ist dann bn eine 1 × 1-Matrix, deren einziger Eintrag gerade das Skalarprodukt a · b ist.
51
3.1 Matrizen
3.1.25 Definition. Sei A eine m × n-Matrix. Die n × m-Matrix, deren j -ter Zeilenvektor der j -te Spaltenvektor von A ist, heißt die zu A transponierte Matrix AT . Eine quadratische n × n-Matrix A heißt symmetrisch, wenn A = AT . 3.1.26 Beispiele. T 1 1 2 −2 3 2 0 7 1 = (a) 0 −2 2 −2 2 −2 3
0 0 7 1
2 −2 . 2 −2
(b) EnT = En . 3.1.27 Bemerkungen. (a) Wenn A = (aij ), dann ist aj i der Eintrag an der Stelle (i, j ) in AT , d. h. AT = (aij ) mit aij = aj i . (b) Die Spalten von AT sind die Zeilen von A. (c) (AT )T = A und (Ac)T = (AT )c für alle c ∈ F . (d) (A + B)T = AT + B T . 3.1.28 Satz. Sei A eine m×n-Matrix und B eine n×t-Matrix. Dann ist (A·B)T = B T · AT . Beweis: Seien A = (aij ), B = (bj k ) und A·B = (cik ). Mit den Bezeichnungen von Bemerkung 3.1.27(a) gilt dann für die Koeffizienten ihrer transponierten Matrizen die Gleichung: = cik = cki
n
aij · bj k =
j =1
woraus (A · B)T = B T · AT folgt.
n j =1
bj k · aij =
n
bkj · aj i ,
j =1
Im folgenden sei n > 0 eine natürliche Zahl und En die n × n-Einheitsmatrix. 3.1.29 Definition. Eine n × n-Matrix A heißt invertierbar, wenn es eine n × nMatrix B gibt mit A · B = B · A = En . B ist durch A eindeutig bestimmt, wie in Satz 3.1.31 gezeigt wird. Man schreibt B = A−1 und nennt A−1 die inverse Matrix von A. In der Literatur werden invertierbare Matrizen auch regulär genannt.
52
3 Lineare Abbildungen und Matrizen
3.1.30 Beispiele. (a) En ist invertierbar mit En −1 = En . (b) Die Inverse der Matrix 5 10 20 1 1 D = 1 12 12 20
ist D −1
−1/5 1/5 = 0
−1 7/2 −3/2
1/4 −3/8 . 1/8
3.1.31 Satz. (a) Wenn A invertierbar ist mit A−1 = B, dann ist B invertierbar mit B −1 = (A−1 )−1 = A. (b) Wenn A und B invertierbar sind, dann ist auch A · B invertierbar, und es gilt (A · B)−1 = B −1 · A−1 . (c) Die Menge GL(n, F ) aller invertierbaren n × n-Matrizen ist bezüglich der Matrizenmultiplikation eine Gruppe, die man die generelle lineare Gruppe der Dimension n über dem Körper F nennt. Insbesondere ist die Inverse A−1 einer invertierbaren Matrix A ∈ GL(n, F ) eindeutig bestimmt. Beweis: (a) Folgt aus dem Beweis von Hilfssatz 1.3.6. (b) Folgt aus Hilfssatz 1.3.7. (c) Nach Satz 3.1.21 ist die Matrizenmultiplikation assoziativ. Sicherlich ist AEn = En A = A für alle A ∈ GL(n, F ). Wegen (b) ist mit A und B auch AB invertierbar. Daher ist GL(n, F ) bezüglich der Matrizenmultipliation abgeschlossen. Schließlich ist mit A auch A−1 invertierbar, weil (A−1 )−1 = A. Deshalb ist GL(n, F ) eine Gruppe mit neutralem Element En 3.1.32 Bemerkung. In Kapitel 4 wird ein Algorithmus zur Berechnung der Inversen angegeben. Kriterien für die Invertierbarkeit einer n × n-Matrix A werden in Satz 3.4.9 angegeben. Folgerung 3.4.10 besagt, daß aus AB = En schon BA = En folgt. Dies ist eine erhebliche Abschwächung der Bedingung von Definition 3.1.29.
3.2
Lineare Abbildungen
Mit F n wird wieder der n-dimensionale arithmetische Vektorraum über dem Körper F bezeichnet. Für eine beliebige m×n-Matrix A ist nach Definition 3.1.7 das Produkt A · v für jeden Vektor v ∈ F n ein Vektor w ∈ F m . Die Multiplikation mit A bildet also einen Vektor v ∈ F n auf einen Vektor w = A · v ∈ F m ab. Dies schreiben wir auch als v → A · v = w. Wir betrachten zunächst solche Abbildungen. 3.2.1 Satz. Die Abbildung v → w = A · v von F n nach F m hat folgende Eigenschaften:
3.2 Lineare Abbildungen
53
(a) A · (u + v) = A · u + A · v für alle u, v ∈ F n . (b) A · (v · a) = (A · v) · a für alle v ∈ F n und a ∈ F . Beweis: Die Spaltenvektoren u und v sind (n × 1)-Matrizen. also folgt die Behauptung aus Satz 3.1.23 (a) . (b) Ergibt sich unmittelbar aus Satz 3.1.21. Satz 3.2.1 zeigt, daß lineare Abbildungen im Sinne der folgenden Definition existieren. 3.2.2 Definition. Seien V und W Vektorräume über demselben Körper F . Eine Abbildung α von V nach W ist eine lineare Abbildung, wenn die beiden folgenden Bedingungen erfüllt sind: (a) α(v 1 + v 2 ) = α(v 1 ) + α(v 2 ) für alle v 1 , v 2 ∈ V . (b) α(v · a) = α(v) · a für alle v ∈ V und a ∈ F . Ist V = W , so heißt eine lineare Abbildung α : V → V Endomorphismus von V . Eine Abbildung α : V → W heißt (c) Epimorphismus, wenn α linear und surjektiv ist, (d) Monomorphismus, wenn α linear und injektiv ist, (e) Isomorphismus, wenn α linear und bijektiv ist. Die Vektorräume V und W heißen isomorph, wenn es einen Isomorphismus α : V → W gibt. Bezeichnung: V ∼ = W. 3.2.3 Bemerkungen. (a) Für jede lineare Abbildung α : V → W gilt α(o) = o; denn nach 3.2.2 ist α(o) = α(o · 0) = α(o) · 0 = o. (b) α(−v) = α(v · (−1)) = α(v) · (−1) = −α(v) für alle v ∈ V . (c) Die Hintereinanderausführung βα zweier linearer Abbildungen α : V → W und β : W → Z ist eine lineare Abbildung βα : V → Z. (d) Die Hintereinanderausführung dreier linearer Abbildungen α : V → W , β : W → Y , γ : Y → Z ist assoziativ, d. h. γ (βα) = (γβ)α : V → Z. Der folgende Satz liefert ein einfaches Verfahren, lineare Abbildungen zwischen zwei Vektorräumen zu konstruieren. Da nach Satz 2.3.15 jeder Vektorraum V eine Basis besitzt, können mit deren Hilfe lineare Abbildungen zwischen nicht notwendig endlich-dimensionalen Vektorräumen konstruiert werden.
54
3 Lineare Abbildungen und Matrizen
3.2.4 Satz. Seien V = o und W Vektorräume über dem Körper F . Sei B eine Basis von V . Ordnet man jedem Basisvektor b ∈ B einen Vektor b aus W zu, dann gibt es genau eine lineare Abbildung α : V → W mit α(b) = b für alle b ∈ B. Beweis: Nach Satz 2.3.15 hat jeder Vektor v ∈ V eine Darstellung v = b∈B bfb , wobei die Körperelemente fb ∈ F eindeutig durch v bestimmt sind und fb = 0 für fast alle b ∈ B gilt. Man definiere nun die Abbildung α durch α(v) =
b fb .
b∈B
Dann ist α wegen der Eindeutigkeit der Basisdarstellung wohldefiniert, und es gilt α(b) = b für alle b ∈ B. Ist auch w = b∈B bgb ∈ V mit gb ∈ F , so ist α(v + w) = α =
b[fb + gb ]
b∈B
b [fb + gb ]
b
=
b fb +
b
b gb
b
= α(v) + α(w).
Ebenso folgt α(v · f ) = α b∈B b[fb f ] = b∈B b [fb f ] = b∈B b fb f = α(v) · f für alle v ∈ V und f ∈ F . Also ist α eine lineare Abbildung von V in W . Zum Nachweis der Eindeutigkeit von α sei nun β eine weitere lineare Abbildung von V in W mit β(b) = b für alle b aus B. Dann ist β(v) = β
b∈B
Also ist β = α.
bfb
=
b∈B
β(b)fb =
b fb = α(v) für alle v ∈ V .
b∈B
3.2.5 Beispiele. (a) DieAbbildung α von F 3 nach F mit der Eigenschaft α(r1 , r2 , r3 ) = r1 +r2 +r3 ist eine lineare Abbildung. Denn für r = (r1 , r2 , rs ), s = (s1 , s2 , s3 ) aus F 3
55
3.2 Lineare Abbildungen
und für alle a ∈ F gelten: α(r + s) = α(r1 + s1 , r2 + s2 , r3 + s3 ) = (r1 + s1 ) + (r2 + s2 ) + (r3 + s3 ) = (r1 + r2 + r3 ) + (s1 + s2 + s3 ) = α(r) + α(s), α (ra) = α(r1 · a, r2 · a, r3 · a) = r1 · a + r2 · a + r3 · a = (r1 + r2 + r3 ) · a = α(r) · a. (b) Die Abbildung α von Q2 nach Q2 , die den Vektor (r1 , r2 ) ∈ Q2 nach (r1 + 1, r2 + 1) abbildet, ist keine lineare Abbildung, denn es gilt z. B.: α(1, 1) · 2 = (1 + 1, 1 + 1) · 2 = (4, 4), aber α[(1, 1) · 2] = α(2, 2) = (2 + 1, 2 + 1) = (3, 3). 3.2.6 Definition. Sei α eine lineare Abbildung von V nach W . Dann heißt die Menge Ker(α) = {v ∈ V | α(v) = o ∈ W } der Kern von α. Die Menge Im(α) = {α(v) ∈ W | v ∈ V } heißt das Bild von α. 3.2.7 Satz. Ist α eine lineare Abbildung von V nach W , dann gilt: (a) Ker(α) ist ein Unterraum von V . (b) Ker(α) = {o} genau dann, wenn α eine injektive Abbildung ist. (c) Für jeden Unterraum U von V ist α(U ) ein Unterraum von W . (d) Im(α) = W genau dann, wenn α surjektiv ist. (e) Das Urbild α − (Z) = {v ∈ V | α(v) ∈ Z} eines Unterraums Z von W ist ein Unterraum von V . Beweis: (a) Nach Bemerkung 3.2.3 ist α(o) = o, d. h. o ∈ Ker(α). Wenn v 1 , v 2 ∈ Ker(α), dann ist α(v 1 + v 2 ) = α(v 1 ) + α(v 2 ) = o + o = o ∈ W . Also ist v 1 + v 2 ∈ Ker(α). Für alle a ∈ F und v ∈ Ker(α) ist α(v · a) = α(v) · a = o · a = o. Daher ist v · a ∈ Ker(α), weshalb Ker(α) ein Unterraum von V ist.
56
3 Lineare Abbildungen und Matrizen
(b) Ist α eine injektive lineare Abbildung, so gilt α(a) = o nur genau für a = o, d. h. Ker(α) = {o}. Sei umgekehrt Ker(α) = {o}. Gilt α(v) = α(w) für zwei Elemente v, w ∈ V , dann ist o = α(v) − α(w) = α(v − w). Daher ist v − w ∈ Ker(α) = o, woraus v = w folgt. (c) Wegen α(o) = o ist o ∈ α(U ). Seien w1 , w2 ∈ α(U ). Dann existieren v 1 , v 2 ∈ U mit w i = α(v i ), i = 1, 2. Also ist w 1 + w2 = α(v 1 ) + α(v 2 ) = α(v 1 + v 2 ) ∈ α(U ). Weiter gilt für jedes a ∈ F , daß w1 · a = α(v 1 ) · a = α(v 1 · a) ∈ α(U ). Damit ist (c) bewiesen. (d) folgt aus (c), weil Im(α) = α(V ) ist. (e) Sei Z ein Unterraum von W . Dann ist o = α(o) ∈ Z. Also ist o ∈ α − (Z). Sind u, v ∈ α − (Z), dann sind α(u), α(v) ∈ Z, woraus α(u+v) = α(u)+α(v) ∈ Z folgt. Deshalb ist u+v ∈ α − (Z). Sei c ∈ F und u ∈ α − (Z). Dann ist α(uc) = α(u)c ∈ Z, d. h. uc ∈ α − (Z). Also ist α − (Z) ein Unterraum von V . Nach Satz 3.2.1 ist die Multiplikation der Vektoren v ∈ F n mit einer m × nMatrix A eine lineare Abbildung von F n nach F m . Der folgende Satz beschreibt den Bildraum Im(A) und den Kern Ker(A) dieser linearen Abbildung. 3.2.8 Satz. Sei A eine m × n-Matrix. Dann gilt: (a) Der Bildraum Im(A) der linearen Abbildung v → A · v von F n nach F m ist der Spaltenraum von A. (b) Der Kern Ker(A) dieser linearen Abbildung ist die Lösungsgesamtheit des homogenen Gleichungssystems A · x = o.
(H)
von A. Für jeden Vektor v = Beweis: (a) Seien s 1 , . . . , s n die Spaltenvektoren (v1 , v2 , . . . , vn ) ∈ F n gilt nach Definition A · v = jn=1 sj · vj . Also ist Im(A) das Erzeugnis der Spaltenvektoren sj von A. Die Aussage (b) folgt sofort. 3.2.9 Satz. Sei (H) A · x = o das zu (G) A · x = d gehörige homogene lineare Gleichungssystem. Dann gelten: (a) Ker(A) ist die Lösungsgesamtheit von (H). (b) Ist a eine Lösung von (G), so ist a + Ker(A) := {a + b | b ∈ Ker(A)} die Lösungsgesamtheit von (G).
3.2 Lineare Abbildungen
57
Beweis: (a) ist trivial. (b) Sei a ∈ F n eine Lösung von (G) und b eine von (H). Dann ist A · a = d und A · (a + b) = A · a + A · b = d + o = d. Also ist auch a + b eine Lösung von (G). Sei umgekehrt c ∈ F n eine beliebige Lösung von (G). Dann ist b = c − a wegen Ab = o eine Lösung von (H), denn A · b = A · c − A · a = d − d = o. Also ist b ∈ Ker(A), und es gilt c = a + (c − a) = a + b. Man nennt einen Körper F unendlich, wenn er unendlich viele Elemente besitzt. Beispiele für unendliche Körper sind: Q, R und C. Beispiele für endliche Körper werden in Kapitel 10 gegeben. 3.2.10 Satz. Sei (G) A · x = d ein lineares Gleichungssystem mit Koeffizienten aus dem Körper F . Dann gilt: (a) Wenn d ∈ / Im(A), dann hat (G) keine Lösung. (b) Es hat (G) dann und nur dann genau eine Lösung, wenn d ∈ Im(A) und Ker(A) = {o}. Für unendliche Körper F gilt zusätzlich: (d) Wenn d ∈ Im(A) und Ker(A) = {o}, dann hat (G) unendlich viele Lösungen. Beweis: Seien sj , 1 ≤ j ≤ n, die Spaltenvektoren von A. Dann ist A·x = jn=1 sj · xj . Daher hat A · x = d genau dann eine Lösung, wenn d = jn=1 sj · aj für geeignete Skalare aj ist, d. h. genau dann, wenn d im Spaltenraum von A oder nach 3.2.8 in Im(A) ist. Die Aussage (b) ergibt sich aus 3.2.9. Ist F unendlich und Ker(A) = {o}, dann enthält Ker(A) einen eindimensionalen Unterraum vF , der bereits aus unendlich vielen Vektoren besteht. 3.2.11 Satz. Sei A eine m × n-Matrix über F . Genau dann ist Ker(A) = {o}, wenn die Spalten von A linear unabhängig sind. Beweis: Seien sj , j = 1, . . . , n, die Spaltenvektoren von A, und sei v ∈ F n . Wegen n A · v = j =1 sj · vj , ist v ∈ Ker(A) genau dann, wenn jn=1 sj · vj = o ist. Wenn die Spalten linear unabhängig sind, gilt dies nur für v1 = · · · = vn = 0, also v = o. Es folgt Ker(A) = {o}. Sind die Spaltenvektoren dagegen linear abhängig, dann gibt es v1 , . . . , vn , welche nicht sämtlich gleich 0 sind und für die jn=1 sj · vj = o gilt. Damit ist o = v = (v1 , . . . , vn ) ∈ Ker(A). Satz 3.2.11 reduziert das Problem, die lineare Abhängigkeit einer Menge von Vektoren des arithmetischen Vektorraumes V n nachzuweisen, auf die Bestimmung der Lösung eines homogenen Gleichungssystems.
58
3 Lineare Abbildungen und Matrizen
3.2.12 Beispiel. Die Vektoren v 1 = (2, 1, 0), v 2 = (1, 0, 1), v 3 = (3, 1, 1) sind linear abhängig. Denn 2 1 3 x1 0 1 0 1 · x2 = 0 (H) 0 1 1 0 x3 hat die nicht triviale Lösung x = (1, 1, −1). Für eine lineare Abbildung α wurde in Satz 3.2.7 gezeigt, daß Ker(α) und Im(α) Unterräume sind. Für deren Dimensionen gilt der grundlegende Satz. 3.2.13 Satz. Sei V ein endlich-dimensionaler und W ein beliebiger Vektorraum über dem Körper F . Sei α : V → W eine lineare Abbildung. Dann ist dim V = dim Ker(α) + dim Im(α) und
dim Im(α) ≤ dim W.
Beweis: Nach Satz 3.2.7 ist Im(α) ein Unterraum von W . Die zweite Behauptung folgt also aus Folgerung 2.2.14 (b). Sei {b1 , . . . , bk } eine Basis von Ker(α), also k = dim Ker(α). Nach Satz 2.2.15 läßt sich diese durch Vektoren a 1 , . . . , a d zu einer Basis von V ergänzen. Dann ist also n = dim V = k + d. Wir zeigen jetzt, daß α(a 1 ), . . . , α(a d ) eine Basis von Im(α) ist. Es folgt dann, daß d = dim Im(α), und damit die Behauptung. Es ist klar, daß die angegebenen Vektoren in Im(α) liegen. Sie sind linear unabhängig. Denn aus o = α(a 1 ) · f1 + · · · + α(a d ) · fd = α(a 1 · f1 + · · · + a d · fd ) folgt x = a 1 · f1 + · · · + a d · fd ∈ Ker(α). Also ist x eine Linearkombination von b1 , . . . , bk . Sei x = a 1 · f1 + · · · + a d · fd = b1 g1 + · · · + bk · gk . Hieraus folgt o = a 1 · f1 + · · · + a d · fd − (b1 · g1 + · · · + bk · gk ). Da {a 1 , . . . , a d , b1 , . . . , bk } eine Basis von V ist, ergibt sich insbesondere, daß fi = 0 ist für i = 1, 2, . . . , d. Schließlich sei w ∈ Im(α). Dann ist w = α(v) für ein v ∈ V . Nun ist v = a 1 · f1 + · · · + a d · fd + b1 · g1 + · · · + bk · gk eine Linearkombination von a 1 , . . . , a d und b1 , . . . , bk , woraus w = α(v) = α(a 1 )·f1 +· · ·+α(a d )·fd folgt, da α(bj ) = 0 für alle j . Also ist α(a 1 ), . . . , α(a d ) auch ein Erzeugendensystem von Im(α), und d = dim Im(α). Bei linearen Abbildungen α : V → W zwischen endlich dimensionalen Vektorräumen gleicher Dimension fallen die Begriffe injektiv“, surjektiv“ und bijektiv“ ” ” ” zusammen, wie nun gezeigt wird. 3.2.14 Satz. Für eine lineare Abbildung α : V → W zwischen den n-dimensionalen F -Vektorräumen V und W sind folgende Aussagen äquivalent:
3.2 Lineare Abbildungen
59
(a) α ist injektiv. (b) α ist surjektiv. (c) α ist bijektiv. (d) Ist B = {v 1 , v 2 , . . . , v n } eine Basis von V , so ist α(B) = {α(v 1 ), α(v 2 ), . . . , α(v n )} eine Basis von W . Beweis: Ist α injektiv, so ist Ker(α) = {o} nach Satz 3.2.7 (b). Wegen Satz 3.2.13 gilt dann n = dim W = dim α(V ), woraus W = α(V ) nach Folgerung 2.2.14 folgt. Also folgen (b) und (c) aus (a). Mittels Satz 3.2.13 ergibt sich (c) ebenso einfach aus (b). Da (a) eine triviale Folge von (c) ist, sind die drei ersten Aussagen äquivalent. Gilt (d), so ist n = dim α(V ) = dim W , woraus nach Folgerung 2.2.14 die Surjektivität Ist schließlich Ker(α) = {o}, so folgt aus o = ni=1 α(v i )fi =
n von α folgt. n α i=1 v i fi , daß i=1 v i fi ∈ Ker(v) = {o} und somit fi = 0 für alle fi ∈ F , i = 1, 2, . . . , n ist. Also ist auch (d) eine Folge von (a). 3.2.15 Satz. Zwei endlich-dimensionale Vektorräume V und W über dem Körper F sind genau dann isomorph, wenn dim V = dim W . Beweis: Ist α : V → W ein Isomorphismus, so gilt dim V = dim W nach Satz 3.2.14. Gilt umgekehrt diese Gleichung, dann ist V ∼ = F n und W ∼ = F n nach Satz 2.2.18. Daher ist V ∼ = W. Das Bild Im(α) der linearen Abbildung α : V → W zwischen den F -Vektorräumen V und W ist nach Satz 3.2.7 ein Unterraum von W . Deshalb kann α die folgende Invariante zugeordnet werden. 3.2.16 Definition. Es sei α : V → W eine lineare Abbildung. Dann heißt rg(α) = dim Im(α) der Rang von α. Man beachte, daß rg(α) = ∞ ist, falls Im(α) ein unendlich-dimensionaler Unterraum von W ist. 3.2.17 Satz. Seien U, V , W und Z Vektorräume, und es sei dim V < ∞. Seien α : V → W , β : U → V und γ : W → Z lineare Abbildungen. Dann gilt: (a) rg(α) ≤ min{dim V , dim W }. (b) rg(αβ) ≤ rg(α). (c) Ist β surjektiv, so ist rg(αβ) = rg(α) . (d) rg(γ α) ≤ rg(α). (e) Ist γ injektiv, so ist rg(γ α) = rg(α).
60
3 Lineare Abbildungen und Matrizen
Beweis: (a) Nach Satz 3.2.13 gilt rg(α) = dim Im(α) ≤ dim W und rg(α) = dim Im(α) = dim V − dim(Ker(α)) ≤ dim V . (b) Wegen Im(β) ≤ V folgt Im(αβ) ≤ Im(α). Also gilt rg(αβ) = dim Im(αβ) ≤ dim Im(α) = rg(α). (c) Ist Im(β) = V , so ist Im(αβ) = Im(α) und rg(αβ) = rg(α). (d) Da Im(α) endlich-dimensional ist, folgt dim[γ Im(α)] = dim Im(α) − dim[Im(α) ∩ Ker(γ )] nach Satz 3.2.13. Daher gilt rg(γ α) = dim Im(γ α) = dim[γ Im(α)] ≤ dim Im(α) = rg(α). (e) Ist γ injektiv, so ist dim[γ Im(α)] = dim Im(α) nach Satz 3.2.14. Deshalb ist rg(γ α) = rg(α).
3.3
Matrix einer linearen Abbildung
In diesem Abschnitt werden die Beziehungen der linearen Abbildungen α : V → W zwischen zwei endlich-dimensionalen Vektorräumen V und W zu den Matrizen A = (aij ) mit Koeffizienten aij ∈ F behandelt. Dazu legen wir eine Basis A = {u1 , . . . , ur } von V fest. Weiter sei eine lineare Abbildung α von V in einen zweiten Vektorraum W gegeben. Auch in W wählen wir eine Basis B = {v 1 , . . . , v s }. Dann läßt sich der linearen Abbildung α eine Matrix A = Aα zuordnen, die alle Informationen über α enthält. Die Matrix hängt allerdings nicht nur von α ab, sondern auch von der Wahl der beiden Basen A und B in V bzw. W . Wie die Matrix sich ändert, wenn man andere Basen wählt, wird ebenfalls in diesem Abschnitt beschrieben. 3.3.1 Definition. Sei eine lineare Abbildung α : V → W gegeben, und seien Basen A = {u1 , . . . , ur } von V und B = {v 1 , . . . , v s } von W fest gewählt. Für jeden Basisvektor uj ∈ A ist α(uj ) ∈ W . Also hat α(uj ) nach Folgerung 2.2.14 (a) eine eindeutige Darstellung als Linearkombination α(uj ) =
s
v i · aij
mit aij ∈ F für 1 ≤ i ≤ s, 1 ≤ j ≤ r.
i=1
Die s × r-Matrix A = (aij ) heißt die Matrix von α bezüglich der Basen A und B. Man schreibt A = Aα = Aα (A, B).
61
3.3 Matrix einer linearen Abbildung
3.3.2 Beispiel. Es ist einfach einzusehen, daß V = {(a, b, c) ∈ Q3 | a + b + c = 0} und W = {(r, s, t, u) ∈ Q4 | r + s + t + u = 0} Unterräume von Q3 bzw. Q4 sind. Seien u1 = (1, −1, 0), u2 = (1, 0, −1), v 1 = (1, −1, 0, 0), v 2 = (1, 0, −1, 0) und v 3 = (1, 0, 0, −1). Dann ist A = {u1 , u2 } eine Basis von V , und B = {v 1 , v 2 , v 3 } ist eine Basis von W . Durch α(a, b, c) = (a − 2b − c, 2a − b − c, −a − b, −6a − 2c) wird eine lineare Abbildung α : V → W definiert; denn aus (a, b, c) ∈ V folgt wegen a + b + c = 0 für die Komponenten des Bildvektors (a − 2b − c) + (2a − b − c) + (−a − b) + (−6a − 2c) = (a + b + c)(−4) = 0. Also bildet α den Vektorraum V tatsächlich in den Vektorraum W ab. Die Linearitätseigenschaften von α überprüft man unmittelbar. Es ist α(u1 ) = α(1, −1, 0) = (3, 3, 0, −6) = (1, −1, 0, 0)(−3) + (1, 0, 0, −1) · 6 = v 1 (−3) + v 2 0 + v 3 6. Dies ergibt die erste Spalte der gesuchten Matrix. Ebenso ist α(u2 ) = α(1, 0, −1) = (2, 3, −1, −4) = (1, −1, 0, 0)(−3) + (1, 0, −1, 0) + (1, 0, 0, −1) · 4 = v 1 (−3) + v 2 + v 3 4. −3 Dies ergibt die zweite Spalte. Also ist α die Matrix Aα (A, B) = 0 6 zugeordnet.
−3 1 4
3.3.3 Bemerkung. Kennt man die s × r-Matrix A = Aα (A, B), so kann man α(u) für jedes u ∈ V berechnen, und zwar wie folgt: Nach Folgerung 2.2.14 läßt sich u als Linearkombination von u1 , . . . , ur mit geeigneten aj ∈ F schreiben: u=
r
uj · aj .
j =1
Man multipliziert dann A mit dem Spaltenvektor a = (a1 , . . . , ar ) und erhält A·a = b = (b1 , . . . , bs ) ∈ F s . Bildet man nun die Linearkombination v=
s i=1
v i · bi ,
62
3 Lineare Abbildungen und Matrizen
so erhält man das gesuchte Bild von u unter α; denn r r s α(u) = α(uj ) · aj = v i · aij · aj =
j =1 s
vi ·
r
j =1
aij · aj
i=1
=
j =1
i=1
r
v i · bi = v.
j =1
3.3.4 Beispiel. Wir nehmen das Beispiel 3.3.2 noch einmal auf. Dort wurde schon −3 −3 1 Aα (A, B) = 0 6 4 berechnet. Sei u = (2, 3, −5), also u = u1 (−3)+u2 ·5 ∈ U . Um α(u) zu berechnen, multiplizieren wir −3 −3 −6 −3 0 1 · = 5 5 6 4 2 und erhalten α(u) = v1 (−6) + v2 5 + v3 2 = (1, −1, 0, 0)(−6) + (1, 0, −1, 0)5 + (1, 0, 0, −1)2 = (1, 6, −5, −2). 3.3.5 Definition. Seien A = {u1 , . . . , ur } und A = {u1 , . . . , ur } zwei Basen des F -Vektorraumes V . Für jedes j = 1, . . . , r schreibt man uj als Linearkombination von u1 , . . . , ur mit geeigneten pij ∈ F : uj
=
r
ui · pij .
i=1
Die r × r-Matrix P = (pij ) heißt die Matrix des Basiswechsels von A nach A . 3.3.6 Bemerkung. Bei dieser Definition der Matrix P = (pij ) des Basiswechsels von A nach A ist zu beachten, daß die zu P gehörige lineare Abbildung α : V → V die zugrunde gelegte Basis A auf die neue Basis A abbildet, d. h. r α(uj ) = uj = i=1 ui pij für j = 1, 2, . . . , r und Aα (A, A ) = P . Nach Satz 3.2.4 ist die lineare Abbildung α : V → V durch die Zuordnung α(uj ) = uj der Basisvektoren uj ∈ A, j = 1, 2, . . . , r, eindeutig bestimmt. Sei id der Einsendomorphismus von V . Nach Definition 3.3.1 gilt dann: P = Aα (A, A) = Aid (A , A).
63
3.3 Matrix einer linearen Abbildung
3.3.7 Satz. Seien V , W und Z endlich-dimensionale F - Vektorräume mit den Basen A = (v 1 , v 2 , . . . , v n ), B = (w 1 , w2 , . . . , w m ) und C = (z1 , z2 , . . . , zp ). Sind α : V → W und β : W → Z lineare Abbildungen mit den Matrizen Aα (A, B) und Aβ (B, C), dann ist βα : V → Z eine lineare Abbildung, deren Matrix Aβα (A, C) = Aβ (B, C) · Aα (A, B) ist. Beweis: Die Hintereinanderausführung βα der beiden linearenAbbildungen α und β ist eine lineare Abbildung von V in Z gemäß Bemerkung 3.2.3. Nach Definition 3.3.1 erfüllen die Koeffizienten der Matrizen Aα (A, B) = (aij ), Aβ (B, C) = (bki ) und Aγ (A, C) = (ckj ) mit γ = βα die folgenden Gleichungen: α(vj ) = β(wi ) = γ (vj ) =
m i=1 p k=1 p
wi aij ,
1 ≤ j ≤ n,
zk bki ,
1 ≤ i ≤ m,
zk ckj ,
1 ≤ j ≤ n.
k=1
Wendet man β auf die erste Gleichung an, so erhält man βα(vj ) = =
m i=1 p k=1
β(w i )aij = zk
m
p m i=1
bki aij
zk bki aij
k=1
für j = 1, 2, . . . , n.
i=1
Also gilt ckj = jm=1 bki aij , weil C eine Basis des Vektorraums Z ist. Nach Defini tion 3.1.17 ist Aβα (A, C) = Aβ (B, C) · Aα (A, B). 3.3.8 Folgerung. Die Matrix P des Basiswechsels von A nach A ist invertierbar. Ihre Inverse ist die Matrix des Basiswechsels von A nach A. Beweis: Sei V = F n und id ∈ EndF (V ) der Einsendomorphismus von V . Sei En die n × n-Einsmatrix. Nach Bemerkung 3.3.6 ist P = Aid (A , A) die Matrix des Basiswechsels von A nach A . Ebenso ist Q = Aid (A, A ) die des Basiswechsels von A nach A. Nach Satz 3.3.7 gilt: En = Aid (A, A) = Aid · id (A, A) = Aid (A , A)Aid (A, A ) = P Q.
64
3 Lineare Abbildungen und Matrizen
Ebenso ergibt sich QP = En durch Vertauschung der Basen A und A . Nach Definition 3.1.29 ist also Q die Inverse von P . 3.3.9 Satz. Seien V und W Vektorräume, und sei α : V → W eine lineare Abbildung. Weiter seien zwei Basen A und A von V und zwei Basen B und B von W gegeben. Sei P die Matrix des Basiswechsels von A nach A und Q die Matrix des Basiswechsels von B nach B . Dann ist Aα (A , B ) = Q−1 · Aα (A, B) · P . Beweis: Sei idV der identische Endomorphismus von V und idW der von W . Dann gilt nach Bemerkung 3.3.6, daß P = AidV (A , A) und Q = AidW (B , B). Wegen α idV = idW α folgt aus Folgerung 3.3.8, daß Aα (A, B)P = Aα idV (A , B) = AidW α (A , B) = QAα (A , B ). Multiplikation mit Q−1 von links liefert die Behauptung.
3.4
Rang einer Matrix
In diesem Abschnitt wird gezeigt, daß der Spaltenrang s(A) für jede m × n-Matrix A = (aij ) mit Koeffizienten aij aus dem Körper F gleich dem Zeilenrang z(A) ist. Diese Zahl heißt der Rang r(A) von A. Außerdem werden Kriterien für die Invertierbarkeit von Matrizen behandelt. Im folgenden werden die in Definition 3.3.1 eingeführten Bezeichnungen beibehalten. 3.4.1 Hilfssatz. Seien V und W zwei endlich-dimensionale F -Vektorräume mit den Basen A und B. Sei α : V → W eine lineare Abbildung, und sei A = Aα (A, B) die Matrix von α bezüglich der Basen A und B. Dann ist der Rang von α gleich dem Spaltenrang von A, d. h. rg(α) = s(A). Beweis: Nach Definition 3.2.16 und Satz 3.2.8 gelten die Gleichungen rg(α) = dim Im(α) = s(A). 3.4.2 Hilfssatz. Sei α : V → W eine lineare Abbildung zwischen den endlichdimensionalen F -Vektorräumen V und W mit den Dimensionen dim V = n und dim W = m. Ist r der Rang von α, dann existieren Basen A und B von V bzw. W derart, daß α bezüglich der Basen A und B die m × n-Matrix Er 0 Aα (A , B ) = 0 0 zugeordnet ist.
3.4 Rang einer Matrix
65
Beweis: Nach Satz 3.2.13 ist Ker(α) ein Unterraum von V mit dim Ker(α) = n − dim Im(α) = n − r. Sei v r+1 , v r+2 , . . . , v n eine Basis von Ker(α). Nach dem Austauschsatz 2.2.15 von Steinitz gibt es r linear unabhängige Vektoren im Vektorraum V , die mit v 1 , v 2 , . . . , v r bezeichnet seien, derart, daß A = {v 1 , v 2 , . . . , v r , v r+1 , . . . , v n } eine Basis von V ist. Da dim α(V ) + dim Ker(α) = dim V = n nach Satz 3.2.13 gilt, folgt, daß {α(v 1 ), α(v 2 ), . . . , α(v r )} eine Basis des Unterraumes α(V ) von W ist. Erneute Anwendung von Satz 2.2.15 ergibt die Existenz von m − r linear unabhängigen Vektoren des Vektorraums W , die mit w r+1 , wr+2 , . . . , w m bezeichnet werden, derart, daß B = {α(v 1 ), α(v 2 ), . . . , α(v r ), wr+1 , wr+2 , . . . , w m } eine Basis von W ist. Bezüglich der Basen A und B hat α nach Definition 3.3.1 die Matrix Aα (A , B ), wie sie in der Behauptung angegeben ist. 3.4.3 Hilfssatz. A und B seien m × n-Matrizen und P , Q invertierbare n × nbzw. m × m-Matrizen derart, daß B = QAP ist. Dann gilt für die Spaltenränge s(B) = s(A). Beweis: Nach den Sätzen 3.2.8 und 3.2.17 gilt s(B) = dim Im(B) = dim Im(QAP ) = dim Im(A) = s(A), da P und Q invertierbare n × n- bzw. m × m-Matrizen über F sind.
3.4.4 Satz. Sei A eine m × n-Matrix mit Koeffizienten aus dem Körper F . Dann stimmen der Zeilen- und der Spaltenrang von A überein, d. h. z(A) = s(A). Beweis: Seien A = {v 1 , v 2 , . . . , v n } und B = {w1 , w2 , . . . , w m } die kanonischen Basen der F -Vektorräume V = F n und W = F m . Sei α die zu A gehörige lineare Abbildung α(v) = A · v für alle v ∈ V . Wegen Hilfssatz 3.4.1 ist der Spaltenrang s(A) von A gleich dem Rang r von α. Nach Hilfssatz 3.4.2 existieren Basen A und B von V bzw. W derart, daß Er 0 Aα (A , B ) = = A . 0 0 Offensichtlich gilt r = s(A ) = z(A ) = s([A ]T ). Sei P die Matrix des Basiswechsels von A nach A und Q die Matrix des Basiswechsels von B nach B . Nach Satz 3.3.9 folgt dann A = Aα (A , B ) = Q−1 Aα (A, B)P = Q−1 AP .
66
3 Lineare Abbildungen und Matrizen
Mittels Satz 3.1.28 ergibt sich [A ]T = P T AT (Q−1 )T . Die Matrizen P T und (Q−1 )T sind invertierbar. Wegen Hilfssatz 3.4.3 folgt nun s(A) = r = s([A ]T ) = s(P T AT (Q−1 )T ) = s(AT ) = z(A), denn s(AT ) ist der Zeilenrang z(A) von A.
3.4.5 Definition. Sei A eine m × n-Matrix mit Koeffizienten aus dem Körper F . Dann heißt der gemeinsame Wert rg(A) = s(A) = z(A) der Rang der Matrix A. 3.4.6 Beispiele. (a) Der Rang der m × n-Nullmatrix ist 0. (b) Der Rang der n × n-Einheitsmatrix En ist n. 1 2 (c) Der Rang von 3 4 ist 2, denn die ersten beiden Zeilen sind linear 5 6 unabhängig. Algorithmen zur Berechnung des Ranges einer Matrix werden in Kapitel 4 beschrieben. 3.4.7 Folgerung. Sei α : V → W eine lineare Abbildung zwischen zwei endlichdimensionalen F -Vektorräumen V und W mit den Basen A und B. Sei A = Aα (A, B) die Matrix von α bezüglich der Basen A und B. Dann gilt rg(α) = rg(A). Beweis: Nach Hilfssatz 3.4.1 und Satz 3.4.4 gilt rg(α) = s(A) = rg(A). 3.4.8 Folgerung. Sei A eine m × n-Matrix. Dann gelten: (a) rg(A) = rg(AT ). (b) rg(A) ≤ min{m, n}. (c) rg(A · B) ≤ min(rg(A), rg(B)) für jede n × p-Matrix B. (d) Sind B und C invertierbare m × m- bzw. n × n-Matrizen, so gilt rg(BA) = rg(A) = rg(AC). (e) Die Lösungsgesamtheit Ker(A) des homogenen Gleichungssystems (H)
Ax = o
hat n − rg(A) linear unabhängige Lösungen.
3.5 Äquivalenz und Ähnlichkeit von Matrizen
67
Beweis: (a) Wegen Satz 3.4.4 gilt rg(AT ) = s(AT ) = z(A) = rg(A). (b) Ist α die durch A definierte lineare Abbildung α : F n → F m , so folgt aus Satz 3.2.17 und Folgerung 3.4.7, daß rg(A) = rg(α) ≤ min(m, n) gilt. (c) Folgt ebenso aus Satz 3.2.17. (d) Nach Hilfssatz 3.4.3 und Satz 3.4.4 gilt rg(BA) = s(BA) = s(BAEn ) = s(A) = rg(A). Ebenso folgt rg(AC) = s(Em AC) = s(A) = rg(A). (e) Wegen Satz 3.2.8 und Satz 3.2.13 gilt dim Ker(A) = n − dim Im(A) = n−rg(A). Nach Satz 3.2.9 (a) hat (H) dann n−rg(A) linear unabhängige Lösungen. 3.4.9 Satz. Sei A eine n × n-Matrix. Die folgenden Aussagen sind äquivalent: (a) A ist invertierbar. (b) Es gibt eine n × n-Matrix S mit A · S = En . (c) Es gibt eine n × n-Matrix T mit T · A = En . (d) rg(A) = n. Beweis: Sicherlich folgen (b) und (c) aus (a). Gilt (b), dann ist n ≥ rg(A) ≥ rg(A · S) = rg(En ) = n nach Folgerung 3.4.8. Also ist rg(A) = n. Daher gilt (d). Ebenso folgt (d) aus (c). (d) ⇒ (a): Da n = rg(A) = dim Im(A), folgt nach Folgerung 2.2.14 (c), daß Im(A) = F n ist. Insbesondere gibt es zu den Einheitsvektoren ej Vektoren s 1 , . . . , s n ∈ F n mit A · sj = ej für 1 ≤ j ≤ n. Bildet man die Matrix S, deren Spalten gerade s 1 , . . . , s n sind, dann folgt A · S = En . Da auch rg(AT ) = n nach Folgerung 3.4.8 ist, gibt es ebenso eine Matrix U mit AT · U = En = EnT = UT · A. Hieraus folgt UT = UT En = UT AS = En S = S Daher ist S = UT die Inverse von A.
3.4.10 Folgerung. Seien A, S und T n × n-Matrizen. Aus A · S = En folgt die Invertierbarkeit von A, d. h. S = A−1 . Ebenso folgt T = A−1 schon aus T ·A = En . Beweis: Nach Satz 3.4.9 hat A eine Inverse A−1 . Also folgt die Behauptung aus Satz 3.1.31.
3.5 Äquivalenz und Ähnlichkeit von Matrizen Nach Satz 3.3.9 sind einer linearen Abbildung α : V → W eines n-dimensionalen Vektorraums V in einen m-dimensionalen Vektorraum W über einem Körper F bezüglich verschiedener Basen A, A von V und B, B von W die i. a. verschiedenen
68
3 Lineare Abbildungen und Matrizen
Matrizen Aα (A, B) und Aα (A , B ) zugeordnet, zu denen es eine invertierbare n×nMatrix P und eine invertierbare m × m-Matrix Q gibt derart, daß Aα (A , B ) = Q−1 Aα (A, B)P . Da Q und Q−1 gleichzeitig invertierbar sind, sind die beiden Matrizen Aα (A , B ) und Aα (A, B) äquivalent im Sinne der folgenden Definition, in der nur Q−1 durch Q ersetzt ist. 3.5.1 Definition. Zwei m × n-Matrizen A und B heißen äquivalent , wenn es invertierbare m × m- bzw. n × n-Matrizen Q und P gibt derart, daß B = QAP gilt. Bezeichnung: A ∼ B. 3.5.2 Bemerkungen. (a) Die nach 3.5.1 zwischen den Matrizen gleicher Zeilen- und Spaltenzahl definierte Relation A ∼ B ist eine Äquivalenzrelation im Sinne der Definition 1.2.5, wie man sofort nachrechnet. (b) Die Äquivalenz zweier m × n-Matrizen A und B ist nach den Sätzen 3.2.1 und 3.3.9 gleichbedeutend damit, daß die Matrizen A und B hinsichtlich geeigneter Basen von V = F n bzw. W = F m dieselbe lineare Abbildung α : V → W beschreiben. 3.5.3 Folgerung. Matrix
(a) Jede (m × n)-Matrix A mit Rang rg A = r ist zu der m × n Er 0 0 0
äquivalent. (b) Zwei m×n-Matrizen A und B über dem Körper F sind genau dann äquivalent, wenn sie denselben Rang rg(A) = rg(B) = r besitzen. (c) Es gibt genau 1 + min(n, m) Äquivalenzklassen von m × n-Matrizen. Beweis: (a) Sei rg(A) = r. Seien A und B die kanonischen Basen von V = F n bzw. W = F m . Sei α : V → W die durch die Multiplikation der Spaltenvektoren v ∈ V mit A definierte lineare Abbildung α : v → Av. Dann existieren nach Hilfssatz 3.4.2 Basen A von V und B von W derart, daß Er 0 Aα (A , B ) = = Dr . 0 0
3.5 Äquivalenz und Ähnlichkeit von Matrizen
69
Sind nun P und Q die Matrizen der Basiswechsel A → A bzw. B → B , dann ist Aα (A , B ) = Q−1 AP nach Satz 3.3.9. Also sind A und Dr äquivalent. (b) Sind die Matrizen A und B äquivalent, so ist rg(A) = rg(B) nach Hilfssatz 3.4.3 und Satz 3.4.4. Haben umgekehrt die Matrizen A und B den gleichen Rang r, dann existieren nach (a) invertierbare Matrizen P1 , P2 und Q1 , Q2 passender Größe derart, daß Q1−1 AP 1 = Dr = Q2−1 BP2 . Daher ist Q2 Q1−1 AP1 P2−1 = B, und A und B sind äquivalent. (c) folgt unmittelbar aus (b) und Folgerung 3.4.8. 3.5.4 Definition. Zwei n × n-Matrizen A und B heißen ähnlich, wenn es eine invertierbare n × n-Matrix P gibt mit B = P −1 AP . 3.5.5 Bemerkungen. (a) Zwei n×n- Matrizen A und B sind ähnlich, wenn sie hinsichtlich zweier Basen A und B von V = F n dieselbe lineare Abbildung α von V beschreiben. Dies folgt unmittelbar aus Satz 3.3.9 und Satz 3.2.1. Ist A = Aα (A, A) und B = Aα (B, B), dann gilt B = P −1 AP , wenn P die Matrix des Basiswechsel von A nach B ist. (b) Zwei ähnliche Matrizen A und B sind äquivalent, denn die invertierbaren Matrizen P −1 und P erfüllen die Bedingungen an die Matrizen Q und P in Definition 3.5.1. (c) Zwei ähnliche Matrizen haben denselben Rang; dies folgt unmittelbar aus (b) und Folgerung 3.5.3(b). 3.5.6 Definition. Die Spur einer n × n-Matrix A = (aij ) mit Koeffizienten aus dem Körper F ist tr(A) = a11 + a22 + · · · + ann . 3.5.7 Satz. Zwei ähnliche Matrizen A und B besitzen dieselbe Spur; d. h. tr(A) = tr(B). Beweis: Sei P eine invertierbare Matrix mit B = P −1 AP . Nach Aufgabe 3.5 gilt allgemein tr(AC) = tr(CA). Hieraus folgt tr(B) = tr[P −1 (AP )] = tr[(AP )P −1 ] = tr[A(P P −1 )] = tr(A). 3.5.8 Definition. Sei α ein Endomorphismus des endlich-dimensionalen Vektorraums V . Sei A = Aα (B, B) die Matrix von α bezüglich einer Basis B von V . Dann ist die Spur von α definiert durch tr(α) = tr(A). 3.5.9 Bemerkung. Wegen Satz 3.5.7 und Bemerkung 3.5.5(b) ist die Definition der Spur tr(α) eines Endomorphismus von V unabhängig von der Auswahl der Basis B von V .
70
3 Lineare Abbildungen und Matrizen
3.6 Abbildungsräume und Dualraum In diesem Abschnitt wird gezeigt, daß die Menge HomF (V , W ) aller linearen Abbildungen α : V → W zwischen zwei beliebigen F -Vektorräumen V und W ebenfalls ein F -Vektorraum ist. Für endlich-dimensionale F -Vektorräume V und W wird die Dimension von HomF (V , W ) angegeben. Ist W = F , so ist V ∗ = HomF (V , F ) der Dualraum von V . Für jede endliche Basis B von V wird die duale Basis B ∗ in V ∗ konstruiert. Im folgenden sind V und W zwei beliebige Vektorräume über dem Körper F , und HomF (V , W ) ist die Menge aller linearen Abbildungen α : V → W . 3.6.1 Satz. HomF (V , W ) ist ein F -Vektorraum bezüglich der linearen Operationen + und ·, die wie folgt definiert sind: (a) Für alle α, β ∈ HomF (V , W ) sei die Summe α + β erklärt durch (α + β)(v) = α(v) + β(v) für alle v ∈ V . (b) Für alle α ∈ HomF (V , W ) und f ∈ F sei α · f die Abbildung (α · f )(v) = α(v) · f
für alle v ∈ V .
Beweis: Zunächst ist zu zeigen, daß α + β und α · f lineare Abbildungen sind. Dazu wählen wir Vektoren v 1 , v 2 ∈ V und einen Skalar a ∈ F . Nach (a) und Definition 3.2.2 gilt dann (α + β)(v 1 + v 2 ) = α(v 1 + v 2 ) + β(v 1 + v 2 ) = α(v 1 ) + α(v 2 ) + β(v 1 ) + β(v 2 ) = α(v 1 ) + β(v 1 ) + α(v 2 ) + β(v 2 ) = (α + β)(v 1 ) + (α + β)(v 2 ). Ebenso zeigt man Weiter folgt
(α + β)(va) = [(α + β)v]a. (α · f )(v 1 · a) = α(v 1 · a) · f = α(v 1 ) · a · f = α(v 1 ) · f · a = [α · (v 1 ) · f ] a = [(α · f )(v 1 )] a,
weil F kommutativ ist. Außerdem gilt (α · f )(v 1 + v 2 ) = (α · f )(v 1 ) + (α · f )(v 2 ), wie man leicht nachrechnet. Daher sind α + β und α · f lineare Abbildungen von V in W . W ist ein Vektorraum. Deshalb ist es nun einfach, die Axiome der Definition 1.5.1 für HomF (V , W ) nachzuweisen. Insbesondere folgt unmittelbar, daß HomF (V , W ) bezüglich + eine abelsche Gruppe mit der Nullabbildung als Nullelement ist. Sind f, g ∈ F und α ∈ HomF (V , W ), so gilt für alle v ∈ V die Gleichung [α · (f g)] (v) = α(v)(f g) = [α(v)f ] g = [(α · f )(v)] g = [(α · f ) · g] (v).
3.6 Abbildungsräume und Dualraum
71
Also ist α · (f g) = (α · f ) · g. Weiter gilt [α · (f + g)] (v) = α(v)(f + g) = α(v) · f + α(v)g = (α · f )(v) + (α · g)(v) = [(α · f ) + (α · g)] (v). Also ist α · (f + g) = α · f + α · g. Analog zeigt man das zweite Distributivgesetz (α + β) · f = α · f + β · f . Da die 1 ∈ F jeden Vektor w ∈ W festläßt, folgt (α · 1)(v) = α(v) · 1 = α(v) für alle v ∈ V . Also ist α · 1 = α. Nach Definition 1.5.1 ist HomF (V , W ) ein F -Vektorraum. 3.6.2 Folgerung. Für jeden F -Vektorraum V ist E = HomF (V , V ) ein Ring mit der Hintereinanderausführung als Multiplikation. Die identische Abbildung id ist das Einselement des Endomorphismenrings E = EndF (V ). Beweis: Nach Satz 3.6.1 ist E = HomF (V , V ) ein F -Vektorraum. Die Hintereinanderausführung βα zweier linearer Abbildungen α, β ∈ HomF (V , V ) ist nach Bemerkung 3.2.3 (c) eine F -lineare Abbildung von V in V . Sie definiert wegen Bemerkung 3.2.3 (d) auf E eine assoziative Multiplikation. Die identische Abbildung id ist das Einselement von E. Nach Definition 1.4.1 genügt es daher, die Distributivität der Multiplikation nachzuweisen. Dazu wählen wir drei Elemente α, β, γ ∈ E und einen beliebigen Vektor v ∈ V . Nach Satz 3.6.1 gilt dann (α + β)γ (v) = [α + β]γ (v) = α (γ (v)) + β (γ (v)) = [(αγ ) + (βγ )](v). Also ist (α + β)γ = αγ + βγ . Ebenso zeigt man α(β + γ ) = αβ + αγ .
3.6.3 Definition. Sei V ein F -Vektorraum. Jedes Element α ∈ E = EndF (V ) wird ein Endomorphismus von V genannt. Ein bijektiver Endomorphismus α ∈ E heißt Automorphismus von V . Die Menge GL(V ) aller Automorphismen von V ist eine Gruppe mit der Identität id als Einselement. Sie heißt Automorphismengruppe oder generelle lineare Gruppe von V . 3.6.4 Satz. Sind V und W zwei endlich-dimensionale F -Vektorräume der Dimensionen dim V = n und dim W = m, dann gelten: (a) dim HomF (V , W ) = m · n, (b) HomF (V , W ) ∼ = Matm,n (F ), wobei Matm,n (F ) den F -Vektorraum aller m × n-Matrizen über F bezeichnet. Beweis: (a) folgt aus (b). Denn nach Satz 3.6.1 und Satz 3.1.6 gilt dim HomF (V , W ) = dim Matm,n (F ) = m · n.
72
3 Lineare Abbildungen und Matrizen
(b) Sei A = {v 1 , v 2 , . . . , v n } eine Basis von V und B = {w 1 , w2 , . . . , w m } eine Basis von W . Dann gibt es nach Definition 3.3.1 zu jedem α ∈ HomF (V , W ) genau eine m × n-Matrix Aα (A, B), so daß durch α → Aα eine Abbildung ψ : HomF (V , W ) → Mat m,n (F ) definiert wird. Wegen Satz 3.2.1 ist ψ surjektiv und auch injektiv, weil Aα auch α eindeutig bestimmt. Seien α, β ∈ HomF (V , W ). Die Koeffizienten von Aα = (aij ) und Aβ = (bij ) sind durch α(vj ) =
m i=1
wi aij ,
β(vj ) =
m
wi bij ,
j = 1, 2, . . . , n
i=1
bestimmt. Es folgt (α + β)(vj ) = α(vj ) + β(vj ) =
m
w i (aij + bij ).
i=1
Daher ist Aα+β = Aα + Aβ , d. h. ψ(α + β) = ψ(α) + ψ(β). m m Für jedes f ∈ F ist (α · f )(vj ) = w a i=1 i ij · f = i=1 w i (aij · f ), d. h. Aα·f = (aij · f ) = Aα · f und so ψ(α · f ) = ψ(α) · f . Somit ist ψ auch eine lineare Abbildung und damit ein Isomorphismus. 3.6.5 Definition. Seien R und S zwei Ringe mit Einselement. Eine bijektive Abbildung ϕ : R → S ist ein Isomorphismus, falls ϕ(a + b) = ϕ(a) + ϕ(b) und ϕ(a · b) = ϕ(a) · ϕ(b) für alle a, b ∈ R gelten. Zwei Ringe R und S heißen isomorph, falls es einen Isomorphismus von R auf S gibt. Bezeichnung: R ∼ = S. Analog erklärt man den Isomorphie-Begriff für Gruppen. Dabei berücksichtigt man nur die Bedingung für die Gruppenverknüpfung. 3.6.6 Folgerung. Sei V ein endlich-dimensionaler F -Vektorraum der Dimension dim V = n. Dann gelten: (a) Der Endomorphismenring E = HomF (V , V ) von V ist isomorph zum Ring Matn (F ) aller n × n-Matrizen über F . (b) Die Automorphismengruppe GL(V ) ist isomorph zur generellen linearen Gruppe GL(n, F ). Beweis: (a) Aus den Sätzen 3.1.21 und 3.1.23 folgt, daß Matn (F ) ein Ring mit Eins ist. Mittels Satz 3.6.4 und Satz 3.3.7 ergibt sich, daß die Ringe E = HomF (V , V ) und Matn (F ) isomorph sind. (b) Nach Satz 3.1.31 ist GL(n, F ) eine Gruppe. Sei B = {v 1 , v 2 , . . . , v n } eine fest gewählte Basis von V . Dann ist für jedes α ∈ GL(V ) die zugehörige Matrix
3.6 Abbildungsräume und Dualraum
73
Aα (B, B) = Aα nach Satz 3.4.9 invertierbar, weil rg(Aα ) = n ist. Wie im Beweis von Satz 3.6.4 (b) wird durch ψ : α → Aα ∈ GL(n, F ) eine injektive Abbildung ψ von GL(V ) in GL(n, F ) definiert. Nach Satz 3.2.1 bestimmt jede invertierbare n×n-Matrix A einen Automorphismus von V . Also ist ψ surjektiv. Wegen Satz 3.3.7 ist ψ ein Isomorphismus. Die in dieser Folgerung beschriebenen Isomorphismen werden in den folgenden Kapiteln oft stillschweigend angewendet. Es ist vorteilhaft, lineare Abbildungen bei theoretischen Überlegungen zu verwenden, die unabhängig von der Basiswahl des Vektorraums V gelten. Bei konkreten Rechnungen wird jedoch bevorzugt die zu einer linearen Abbildung gehörende Matrix bezüglich einer festen Basis von V verwendet. Nach Beispiel 1.5.2 b) ist der Körper F ein F -Vektorraum.Also ist nach Satz 3.6.1 auch V ∗ = HomF (V , F ) ein F -Vektorraum. 3.6.7 Definition. Der Vektorraum V ∗ = HomF (V , F ) heißt der duale Vektorraum des F -Vektorraums V . Die Elemente α ∈ V ∗ heißen Linearformen von V . 3.6.8 Satz. Sei B = {v 1 , v 2 , . . . , v n } eine Basis des endlich-dimensionalen F -Vektorraums V . Für i = 1, 2, . . . , n sei αi ∈ V ∗ definiert durch 1 falls i = j, j = 1, 2, . . . , n. αi (vj ) = 0 falls i = j, Dann ist B ∗ = {α1 , α2 , . . . , αn } eine Basis von V ∗ , und es gilt dimF V ∗ = n = dimF V . Beweis: Sei β ∈ V ∗ . Dann ist β(v i ) = fi ∈ F für i = 1, 2, . . . , n. Sicherlich ist auch β = α1 f1 + α2 f2 + · · · + αn fn ∈ V ∗ . Nun gilt β (vj ) =
n
n αi fi (vj ) = αi (vj ) fi = αj (vj )fj = 1β(vj ) = β(vj )
i=1
i=1
für j = 1, 2, . . . , n.Also ist β = β = ni=1 αi fi , und B ∗ ist ein Erzeugendensystem von V ∗ . Angenommen, ni=1 αi ti = 0 für ti ∈ F . Dann ist 0 = 0(vj ) =
n
αi ti (vj ) = αj (vj ) · tj = 1 · tj = tj
i=1
für j = 1, 2, . . . , n. Also sind die Vektoren αi ∈ V ∗ linear unabhängig, und B ∗ ist eine Basis von V ∗ .
74
3 Lineare Abbildungen und Matrizen
3.6.9 Definition. Die in Satz 3.6.8 konstruierte Basis B ∗ = {α1 , α2 , . . . , αn } des dualen Vektorraums V ∗ heißt die zur Basis B = {v 1 , v 2 , . . . , v n } von V gehörige duale Basis. 3.6.10 Bemerkung. Aus Satz 3.6.8 folgt, daß für endlich-dimensionale F -Vektorräume V gilt: V ∼ = V∗ ∼ = V ∗∗ ,
wobei V ∗∗ = HomF (V ∗ , F ) ist.
Dies gilt nicht für unendlich-dimensionale Vektorräume. Hierzu wird auf Aufgabe 3.17 verwiesen. Andererseits läßt sich im unendlich-dimensionalen Fall der Vektorraum V wenigstens in V ∗∗ injektiv einbetten: Jeder Vektor v ∈ V bestimmt eindeutig die durch δv (α) = α(v) definierte Linearform δv ∈ V ∗∗ , denn es gilt ja δv (α + β) = (α + β)v = α(v) + β(v) = δv (α) + δv (β) und δv (αc) = (αc)v = (α(v))c = (δv (α))c für alle α, β ∈ V ∗ und c ∈ F . Durch (v) = δv wird daher weiter eine Abbildung : V → V ∗∗ definiert. Wegen ( (v + v ))α = δv+v (α) = α(v + v ) = α(v) + α(v ) = δv (α) + δv (α) = ( (v) + (v ))α für alle α ∈ V ∗ folgt (v + v ) = (v) + (v ). Entsprechend ergibt sich (v · c) = ( (v)) · c, d. h. ist eine lineare Abbildung. Aus (v) = o ∈ V ∗∗ folgt ( (v))α = δv (α) = α(v) = o für alle α ∈ V ∗ . Da es aber zu v = 0 ein α mit α(v) = 1 gibt, muß sogar v = 0 erfüllt sein. Damit ist
auch injektiv. Man nennt die natürliche Injektion von V in V ∗∗ . 3.6.11 Definition. Sei U ein Unterraum des F -Vektorraumes V . Dann ist U ⊥ = {α ∈ V ∗ | α(u) = 0 für alle u ∈ U } ein Unterraum des dualen Vektorraums V ∗ , der das orthogonale Komplement von U im Dualraum V ∗ genannt wird. 3.6.12 Satz. Sei U ein r-dimensionaler Unterraum des n-dimensionalen F -Vektorraumes V . Dann gelten: (a) Das orthogonale Komplement von U ist ein (n − r)-dimensionaler Unterraum von V ∗ . (b) U ⊥⊥ = {v ∈ V | α(v) = 0 für alle α ∈ U ⊥ } = U . Beweis: (a) Sei {u1 , u2 , . . . , ur } eine Basis von U . Nach Satz 2.2.15 läßt sie sich zu einer Basis B = {u1 , u2 , . . . , ur , ur+1 , . . . , un } von V erweitern. Ihre duale Basis B ∗ = {α1 , α2 , . . . , αn } ist nach Satz 3.6.8 die Menge der Linearformen αi mit 1 falls i = j, αi (uj ) = 0 falls i = j.
75
3.7 Matrizen und direkte Zerlegung
Also sind die n − r linear unabhängigen Linearformen αr+1 , αr+2 , . . . , αn in U ⊥ . Sei α ein Element von U ⊥ und α(ui ) = fi ∈ F für i = 1, 2, . . . , n. n Dann ist α = i=1 αi fi nach Satz 3.6.8, und für j = 1, 2, .n. . , r gilt 0 = n α (u )f = α (u )f = f . Also ist α = α(uj ) = j j j j i=1 i j i i=r+1 αi fi , und ⊥ ⊥ {αr+1 , αr+2 , . . . , αn } ist eine Basis von U . Daher ist dim U = n − r. (b) Nach Definition von U ⊥ gilt α(u) = 0 für alle α ∈ U ⊥ und alle u ∈ U . Also ist U ⊆ U ⊥⊥ . Wendet man den Satz 3.6.8 auf den F -Vektorraum V ∗ und seine Basis B ∗ an, dann ist B nach Bemerkung 3.6.10 die duale Basis von B ∗ in V ∗∗ ∼ = V. Wegen (a) gilt dann dim(U ⊥⊥ ) = n − dim U ⊥ = n − (n − r) = r. Daher ist U = U ⊥⊥ nach Folgerung 2.2.14. 3.6.13 Folgerung. Sei V ein endlich-dimensionaler F -Vektorraum. Dann ist die Abbildung U → U ⊥ der Menge der Unterräume U von V in die Menge der Unterräume U des Dualraums V ∗ eine Bijektion derart, daß aus U1 ≤ U2 stets U2⊥ ≤ U1⊥ folgt. Beweis: Ergibt sich sofort aus Satz 3.6.12 (a) und (b), wobei die endlichdimensionalen Vektorräume V und V ∗∗ mittels der Einbettung von Bemerkung 3.6.10 identifiziert sind.
3.7
Matrizen und direkte Zerlegung
In diesem Abschnitt ist V stets ein n-dimensionaler Vektorraum über dem kommutativen Körper F . Sei α ∈ EndF (V ) ein fest gewählter Endomorphismus von V und A = {u1 , u2 , . . . , un } eine Basis von V . Nach Definition 3.3.1 ist die Matrix Aα (A, A) = (aij ) von α bezüglich der Basis A gegeben durch die n-Gleichungen α(uj ) =
n
ui aij ,
j = 1, 2, . . . , n.
i=1
Es werden nun die Beziehungen zwischen der Matrizendarstellung Aα (A, A) des Endomorphismus α von V und den direkten Zerlegungen V = U1 ⊕ U2 ⊕ · · · ⊕ Ut von V in α-invariante Unterräume Ui beschrieben. 3.7.1 Definition. Ist α ein Endomorphismus des F -Vektorraums V und U ein Unterraum von V , so heißt U genau dann α-invariant , wenn α(U ) ≤ U . 3.7.2 Definition. Sei α ein Endomorphismus des n-dimensionalen F -Vektorraums V . Ist U ein α-invarianter Unterraum von V , dann ist die Einschränkung α|U von α auf U definiert durch α|U (u) = α(u) für alle u ∈ U.
76
3 Lineare Abbildungen und Matrizen
Da U α-invariant ist, ist α|U ein Endomorphismus des Unterraums U . Bezeichnung: α|U 3.7.3 Satz. Sei α ein Endomorphismus des Vektorraums V und sei V = U 1 ⊕ U2 ⊕ · · · ⊕ Ut eine direkte Zerlegung von V in α-invariante Unterräume Us = {o}, 1 ≤ s ≤ t. Sei αs = α|Us die Einschränkung von α auf den ks -dimensionalen Unterraum Us und Bs = {ui |k1 + k2 + · · · + ks−1 < i ≤ k1 + k2 + · + ks } eine Basis von Us für s = 1, 2, . . . , t. Dann gelten die folgenden Aussagen: (a) B = ts=1 Bs ist eine Basis des Vektorraums V . (b) Ist As = Aαs (Bs , Bs ) die ks × ks -Matrix des Endomorphismus αs von Us bezüglich der Basis Bs für s = 1, 2, . . . , t, dann ist die Matrix Aα (B, B) des Endomorphismus α von V bezüglich der Basis B die diagonale Blockmatrix 0 A1 0 · · · .. 0 A2 . . .. . .. .. Aα (B, B) = .. . . . At−1 0 0 ··· 0 At Beweis: (a) folgt unmittelbar aus Satz 2.3.6 und Folgerung 2.2.14. (b) Für alle s = 1, 2, . . . , t sei zs = sq=1 kq , und für s = 0 sei z0 = 0. Da die direkten Summanden Us von V α-invariant sind, gilt für alle s = 1, 2, . . . , t und j mit zs−1 + 1 ≤ j ≤ zs , daß α(uj ) = αs (uj ) =
zs
ui aij ∈ Us
i=zs−1 +1
für eindeutig bestimmte Körperelemente aij ∈ F gilt. Nach Definition 3.3.1 folgt daher die Behauptung.
3.8 Aufgaben 3.1 Sei a ∈ F n . Zeigen Sie, daß für das Skalarprodukt a · b = 0 für alle b ∈ F n genau dann gilt, wenn a = o. 3.2 Sei A = 01 21 .
77
3.8 Aufgaben (a) Berechnen Sie A20 mit möglichst wenigen Rechenschritten. (b) Bestimmen Sie An für eine beliebige natürliche Zahl n. 3.3 Seien A, B zwei n × n-Matrizen über dem Körper F . (a) Zeigen Sie: Ist A2 = A, dann ist (AB − ABA)2 = 0. (b) Folgt BA = 0 aus AB = 0? Wenn nein, geben Sie ein Gegenbeispiel an.
3.4 Seien A und B beide 3 × 5-Matrizen vom Rang 2. Beweisen Sie die Existenz eines Vektors o = v ∈ F 5 mit A · v = B · v = o ∈ F 3 . 3.5 Die Spur einer n × n-Matrix A = (aij ) ist das Körperelement tr(A) = a11 + a22 + · · · + ann ∈ F . Beweisen Sie für alle n × n-Matrizen A, B die Gültigkeit folgender Gleichungen: (a) (b) (c) (d)
tr(A + B) = tr (A) + tr(B). tr(Ac) = tr(A) · c. tr(AB) = tr(BA). Zu jeder n × n-Matrix A existiert ein a ∈ F derart, daß tr(B) = 0 für B = A − En a gilt, sofern n · 1 = 0 in F ist.
3.6 Im Q3 seien A = {(1, 2, 3), (4, 5, 6), (7, 8, 0)}
und
B = {(1, 1, 1), (1, 0, −1), (1, −1, 0)}. Sei α(a, b, c) = (4a − 2b + 7c, a + 7b + c, 4a + 4b + c) · 1/3. (a) Zeigen Sie, daß A und B Basen von Q3 sind. (b) Berechnen Sie die Matrix des Basiswechsels von A nach B. (c) Berechnen Sie Aα (A, A) und Aα (B, B). 3.7 Sei V = Fn [X] der F -Vektorraum aller Polynome p(X) = p0 + p1 X + · · · + pn Xn vom Grad p(X) ≤ n. Zeigen Sie, daß auf V durch p(X) → Xp (X) eine lineare Abbildung n i = n i · α definiert wird. Dabei ist p (X) die Ableitung von p(X), d. h. a · X i=0 i i=1 ai · X i−1 . Sei B = {1, X, . . . , Xn } die natürliche Basis von V . Berechnen Sie Aα (B, B). 3.8 Sei V = Fn−1 [X] der Vektorraum aller Polynome p(X) ∈ F [X] vom Grad p(X) ≤ n − 1. Sei A = {Gi (X) | i = 1, 2, . . . , n} die Basis von V aus Aufgabe 2.8 (a) und B = {1, (X − a), . . . , (X − a)n−1 }, a ∈ F fest gewählt, die Basis von V aus Aufgabe 2.8 (c). Berechnen Sie die Matrix P = (pij ) des Basiswechsels von A nach B. 3.9 Es seien U, V , W, X Vektorräume über dem Körper F und α : U → V , β : V → W , γ : W → X lineare Abbildungen. Zeigen Sie: (a) Im(βα) ist ein Unterraum von Im(β). (b) Sei W0 ein Komplement von Im(βα) in Im(β). Dann gilt Im(γβ) = Im(γβα) + γ W0 .
78
3 Lineare Abbildungen und Matrizen (c) Es gilt dim Im(βα) + dim Im(γβ) ≤ dim Im(β) + dim Im(γβα) (FrobeniusUngleichung).
3.10 Es sei A eine n × n-Matrix über dem Körper F . Dann heißt A nilpotent, falls ein k ∈ N existiert, so daß Ak = 0. Die kleinste Zahl k mit Ak = 0 heißt der Nilpotenz-Index von A. (a) Zeigen Sie, daß der Nilpotenz-Index einer nilpotenten n × n-Matrix A kleiner oder gleich n ist. (b) Bestimmen Sie den Nilpotenz-Index der Matrix A = (aij ) mit aij = 1 falls j = i + 1 und aij = 0 falls j = i + 1. (c) Zeigen Sie, daß für jedes 1 ≤ k ≤ n eine n × n-Matrix A mit Nilpotenz-Index k existiert. 3.11 (a) Es seien A und B zwei kommutierende nilpotente Matrizen. Zeigen Sie: A + B ist nilpotent. (b) Man gebe zwei nilpotente 2 × 2-Matrizen A und B an, für die A + B nicht nilpotent ist. (c) Es sei A eine nilpotente n×n-Matrix. Zeigen Sie: Ist B = En a0 +Aa1 +· · ·+Am am , dann ist B genau dann invertierbar, wenn a0 = 0. 3.12 Sei Fn [X] der Vektorraum {p(X) = an Xn + · · · + a0 | ai ∈ F } der Polynome vom Grad ≤ n über dem Körper F . Die Abbildung α von Fn [X] sei definiert durch α(p(X)) := d X n · p 1 für p(X) ∈ F [X]. Zeigen Sie: n dX X (a) α(p(X)) ∈ Fn [X] für p(X) ∈ Fn [X]. (b) α ist eine lineare Abbildung. Bestimmen Sie die Matrix Aα (A, A) der Abbildung α bezüglich der Basis A = {1, X, . . . , Xn }. 3.13 Es seien V und W zwei endlich-dimensionale reelle Vektorräume. Hinsichtlich je einer Basis B und B von V bzw. W sei der linearen Abbildung α : V → W die Matrix 2 −1 3 4 6 4 9 Aα (B, B ) = −1 5 −12 −2 −9 zugeordnet. Ferner seien (3, 2, 1, 1), (1, 0, −2, −3), (−2, 5, 5, 0) die Koordinaten von Vektoren v 1 , v 2 , v 3 aus V . (a) Bestimmen Sie eine Basis von Ker α. (b) Wie lauten die Koordinaten der Bildvektoren αv 1 , αv 2 , αv 3 hinsichtlich der gegebenen Basis B von W ? (c) Welche Dimension besitzt der von v 1 , v 2 , v 3 aufgespannte Unterraum U von V , und welche Dimension besitzt sein Bild αU ? 3.14 Zeigen Sie: Zu jedem Unterraum U des Vektorraums F n existiert ein homogenes lineares Gleichungssystem (H) A · x = o mit einer n × n-Matrix A = (aij ), aij ∈ F , derart, daß U die Lösungsgesamtheit von (H) ist.
79
3.8 Aufgaben
3.15 Es seien ϕ und ψ zwei lineare Abbildungen des F -Vektorraums V in den F -Vektorraum W mit dim ϕV = m und dim ψV = n. Zeigen Sie: |m − n| rg(ϕ + ψ) m + n. 3.16 Unter dem Zentrum einer Gruppe G versteht man die Menge aller Gruppenelemente z, die mit jedem anderen Gruppenelement vertauschbar sind, die also die Gleichung az = za für alle a ∈ G erfüllen. Zeigen Sie: Das Zentrum der linearen Gruppe GL(n, F ) besteht genau aus allen n-reihigen invertierbaren Matrizen der Form c c En · c = mit c = 0. . .. c 3.17 Es sei V ein unendlich-dimensionaler Vektorraum, und {v α | α ∈ A} sei eine Basis von V . Hierbei ist also A eine unendliche Indexmenge. Für jeden Index α ∈ A wird dann durch ϕα v χ = 0 (χ = α, χ ∈ A) und ϕα v α = 1 eine Linearform ϕα ∈ V ∗ definiert. (a) Zeigen Sie, daß die Teilmenge {ϕα | α ∈ A} von V ∗ linear unabhängig ist. (b) Durch ϕv α = 1 für alle α ∈ A wird ebenfalls eine Linearform ϕ ∈ V ∗ definiert. Zeigen Sie, daß ϕ nicht als Linearkombination der Menge {ϕα | α ∈ A} dargestellt werden kann. Folgern Sie, daß {ϕα | α ∈ A} keine Basis von V ∗ ist. (c) Folgern Sie, daß die in Bemerkung 3.6.10 eingeführte natürliche Injektion : V → V ∗∗ , die v ∈ V das Element δv ∈ V ∗∗ zuordnet, kein Isomorphismus ist, daß also V ein echter Unterraum von V ∗∗ ist. 3.18 Es sei U ein Unterraum von V , C ein Komplement von U in V und U ⊥ das orthogonale Komplement von U in V ∗ . Zeigen Sie: C∗ ∼ = U ⊥. 3.19 Sei α ∈ EndF (V ) mit eindimensionalem Bildraum Im(α). Zeigen Sie: a) Im(α) ist ein α-invarianter Unterraum von V . b) Es gibt genau ein f ∈ F mit α 2 = f α.
4 Gauß-Algorithmus und lineare Gleichungssysteme
Die im dritten Kapitel gewonnenen Resultate über lineare Abbildungen und Matrizen finden nun Anwendung in der Theorie der linearen Gleichungssysteme. Dabei wird hier der Schwerpunkt auf die Behandlung der effektivenAlgorithmen zur Berechnung der Lösungsgesamtheit eines solchen Gleichungssystems gelegt. Deshalb wird im ersten Abschnitt dieses Kapitels der Gauß-Algorithmus für die Bestimmung des Ranges r(A) einer m × n-Matrix A und der Gauß-JordanAlgorithmus zur Berechnung der Treppennormalform von A ausführlich dargestellt. Mit diesen Algorithmen wird im zweiten Abschnitt die Konstruktion der Lösungsgesamtheit eines linearen Gleichungssystems beschrieben. Sie findet Anwendung bei der Beschreibung eines Verfahrens für die Berechnung der Inversen einer quadratischen Matrix.
4.1
Gauß-Algorithmus
In diesem Abschnitt werden effiziente Algorithmen zum Berechnen des Ranges r(A) und der Treppennormalform einer m × n-Matrix A dargestellt. 4.1.1 Definition. Die m × n-Matrix A = (aij ) mit den Zeilenvektoren zi ist in Treppenform, falls A die Nullmatrix 0 ist oder ein r mit 1 ≤ r ≤ m und eine Folge 1 ≤ j1 < j2 < · · · < jr ≤ n existieren mit folgenden Eigenschaften: (a) Wenn i > r, dann ist zi = o. (b) Wenn 1 ≤ i ≤ r und k < ji , dann ist aik = 0. (c) Für alle i mit 1 ≤ i ≤ r ist aiji = 0. 4.1.2 Bemerkung. Die Bedingungen 4.1.1(b) und (c) besagen, daß für i ≤ r der erste von Null verschiedene Eintrag der i-ten Zeile in der ji -ten Spalte von A steht. Wegen ji < ji+1 wandern diese führenden“, von Null verschiedenen Koeffizienten ” aiji von A mit wachsendem i nach rechts.
81
4.1 Gauß-Algorithmus
4.1.3 Beispiele. 1 2 0 0 A = 0 0
3 2 4 ist in Treppenform, ebenso B = 0 0 0
Für beide Matrizen ist r 0 1 3 0 0 0 C= 0 0 0 7 0 0
= 2. Dagegen sind 0 0 4 0 1 0 −3 0 0 1 0 2 0 0 0 0
und
1 0 D = 0 0
−1 1 0
0 0 0 0 1 1 0
0 0 1 0
−4 0 . 0
0 0 1 1
nicht in Treppenform. 4.1.4 Bemerkung. Sei A = (aij ) eine m × n-Matrix in Treppenform und r wie in der Definition 4.1.1. (a) Die Anzahl der Zeilen zi = o von A ist r. Dies ist zugleich der Rang von A, da diese Zeilen offenbar linear unabhängig sind. Man kann also den Rang einer Matrix in Treppenform leicht ablesen. (b) Wenn speziell m = n, also A eine quadratische Matrix ist, dann ist aik = 0, falls i > k. Dies sieht man wie folgt: Wenn i > r, dann ist die i-te Zeile o, also jedes aik = 0. Wenn i ≤ r, dann ist ji ≥ i wegen 1 ≤ j1 < j2 < · · · < ji . Daher ist ji > k, also aik = 0 nach Bedingung 4.1.1(b). Alle quadratischen Matrizen in Treppenform liefern Beispiele für folgende 4.1.5 Definition. Eine n × n-Matrix A = (aij ) heißt obere (bzw. untere) Dreiecksmatrix, falls aij = 0 für jedes i > j (bzw. i < j ). 4.1.6 Beispiele. 1 0 (a) 0 0 0 0 1 2 (b) 0 1 0 0
0 2 ist eine obere Dreiecksmatrix, aber nicht in Treppenform. 3 3 1 ist eine obere Dreiecksmatrix in Treppenform. 0
4.1.7 Bemerkung. Sei A quadratisch und in Treppenform. Wenn n = rg(A) ist, also r = n, dann folgt aus 1 ≤ j1 < j2 < · · · < jn ≤ n, daß ji = i für jedes i. Also ist aii = aiji = 0, d. h. A ist eine obere Dreiecksmatrix, und die Einträge auf der Diagonalen sind alle von 0 verschieden. Umgekehrt ist eine solche Matrix offenbar in Treppenform und hat den Rang n.
82
4 Gauß-Algorithmus und lineare Gleichungssysteme
1 2 3 1 ist in Treppenform und vom Rang 3. Daher 4.1.8 Beispiel. A = 0 1 0 0 −5 ist A eine obere Dreiecksmatrix mit Diagonalelementen ungleich 0. Eine gegebene Matrix A, welche nicht in Treppenform ist, kann in eine neue Matrix T in Treppenform umgeformt“ werden, ohne daß sich der Zeilenraum ändert. ” Hierzu werden die folgenden Umformungsschritte eingeführt: 4.1.9 Definition. Die elementaren Zeilenumformungen einer m × n-Matrix A sind: (a) Vertauschung zweier Zeilen, (b) Multiplikation einer Zeile mit einem Skalar ungleich 0, (c) Addition eines Vielfachen einer Zeile zu einer anderen Zeile. Analog erklärt man die elementaren Spaltenumformungen von A. 4.1.10 Definition. Wenn man eine elementare Zeilenumformung von A speziell auf die m × m-Einheitsmatrix anwendet, so nennt man das Ergebnis die zu dieser Umformung gehörige Elementarmatrix. Ebenso erhält man die zu einer elementaren Spaltenumformung von A gehörige Elementarmatrix, indem man diese Spaltenumformung auf die n × n-Einheitsmatrix anwendet. 4.1.11 Beispiel. Sei
1 A= 2 −7
2 3 4 1 0 0 . 1 1 1
Addiert man das Dreifache der ersten Zeile zur dritten, so erhält man
1 2 −4
4 0 . 13
2 3 1 0 7 10
Die zugehörige Elementarmatrix ergibt sich, indem man diese Zeilenumformung auf
1 0 0
0 1 0
0 1 0 anwendet; sie ist also 0 1 3
0 1 0
0 0 . 1
83
4.1 Gauß-Algorithmus
Vertauscht man die beiden ersten Spalten in A, so erhält man
2 1 1 Die zugehörige 1 0 auf E4 = 0 0
1 2 −7
4 0 . 1
3 0 1
Elementarmatrix ergibt sich, indem man 0 0 0 0 1 1 0 0 anwendet. Sie ist also 0 0 1 0 0 0 1 0
diese Spaltenumformung 1 0 0 0 0 0 . 0 1 0 0 0 1
4.1.12 Bemerkung. (a) Bei Vertauschung ZV (i, j ) der i-ten und j -ten Zeile geht die Einheitsmatrix Em über in die m × m-Elementarmatrix:
ZVi,j
=
1 ..
.
. 1 0
1 1 ..
. 1
1
0 1 ..
. 1
i j (b) Bei Multiplikation ZM(i, a) der i-ten Zeile von Em mit dem Skalar a entsteht die m × m-Elementarmatrix:
ZMi,a
=
1 ..
.
. 1 a 1 ..
. 1
i
84
4 Gauß-Algorithmus und lineare Gleichungssysteme
(c) Durch Addition ZA(i, j, a) des a-fachen der i-ten Zeile zur j -ten Zeile von Em entsteht die m × m-Elementarmatrix: 1 .. . 1 . .. ZAi,j,a = . a 1 .. . 1 i
j
4.1.13 Satz. Sei U die zu einer elementaren Zeilenumformung gehörige Elementarmatrix. Dann ist U · A die Matrix, welche aus A bei dieser Umformung entsteht. Beweis: Sei U = (urs ) und seien z1 , . . . , zm die Zeilenvektoren von A; dann ist m z · urs die r-te Zeile von U · A, denn die t-te Komponente dieses Vektors ist s s=1 m s=1 urs · ast , also der Eintrag an der Stelle (r, t) in U · A. Nach Bemerkung 4.1.12 kennt man urs . Durch Einsetzen der jeweiligen Werte von urs folgt für jeden der drei Typen elementarer Umformungen die Behauptung. Dies wird hier nur explizit durchgeführt für die Zeilenvertauschung ZV (i, j ). 1 falls r = s = i, j oder r = i, s = j oder r = j, s = i, urs = 0 sonst. Die r-te Zeile von U · A = ZVi,j A ist also zr , falls r = i, j, zj , falls r = i, zi , falls r = j. Die Behauptung folgt in diesem Fall.
4.1.14 Bemerkung. Bemerkung 4.1.12 und Satz 4.1.13 gelten analog für Spaltenumformungen und die zugehörigen elementaren Matrizen, wenn man das Produkt U · A durch A · U ersetzt. Dies folgt sofort aus den Sätzen 4.1.13 und 3.1.28. 4.1.15 Folgerung.
(a) Die Elementarmatrizen sind invertierbar.
(b) Ihre Inversen sind Elementarmatrizen. (c) Elementare Umformungen ändern den Rang einer Matrix nicht.
85
4.1 Gauß-Algorithmus
Beweis: (a) und (b). Zur Vertauschung ZV (i, j ) zweier Zeilen gehört nach Bemerkung 4.1.12 die m × m-Elementarmatrix ZVi,j . Wegen (ZVi,j )2 = Em ist ZVi,j invertierbar. Sei a = 0. Dann ist nach Bemerkung 4.1.12(b) ZMi,a · ZMi,a −1 = Em . Ebenso folgt ZAi,j ;a · ZAi,j ;−a = Em . Also sind alle m × m-Elementarmatrizen invertierbar, und ihre Inversen sind ebenfalls Elementarmatrizen. (c) Nach Satz 4.1.13 und (a) entspricht eine elementare Umformung von A der Linksmultiplikation mit einer invertierbaren Matrix U. Nach Folgerung 3.4.8 gilt dann aber rg(UA) = rg(A). Um den Rang einer m × n-Matrix A zu berechnen, wendet man elementare Umformungen nach dem folgenden Schema solange an, bis man A schließlich zu einer Matrix in Treppenform umgeformt hat, der man ihren Rang dann ansieht. 4.1.16 Beispiel. Umformung
ZA(2, 1, −5)
ZV (1, 2)
ZA(1, 3, −12)
1 0 0 1 0 0 0 1 0 0 1 0
Em 0 1 0 −5 1 0 1 −5 0 1 −5 −12 U
0 0 1 0 0 1 0 0 1 0 0 1
5 1 12 0 1 12 1 0 12 1 0 0
10 1 12 5 1 12 1 5 12 1 5 0
A 20 1 20 15 1 20 1 15 20 1 15 8 T
1000 100 1400 500 100 1400 100 500 1400 100 500 200
T ist eine Treppenform von A. Weiter ist U das Produkt der Elementarmatrizen, die zu den 3 elementaren Umformungen gehören. Es folgt 0 1 0 5 10 20 1000 1 1 1 100 UA = 1 −5 0 1 1 1 100 = 0 5 15 500 = T , 0 −12 1 12 12 20 1400 0 0 8 200 und rg(A) = rg(T ) = 3. Der folgende Algorithmus von C. F. Gauß beschreibt ein effizientes Verfahren zur Berechnung einer Treppenform T (A) zu einer m × n-Matrix A mittels elementarer Zeilenumformungen. Bei seiner Formulierung wird die inzwischen übliche Bezeichnungsweise für die Darstellung von Algorithmen und Computer-Programmen benutzt.
86
4 Gauß-Algorithmus und lineare Gleichungssysteme
4.1.17 Algorithmen-Konvention. Wendet man auf die Koeffizienten aij einer m × n-Matrix A = (aij ) einen Umformungsschritt eines Algorithmus an, bei dem aij in ein Element bij übergeht, dann wird das Endergebnis (bij ) dieses Schrittes wiederum mit A = (aij ) bezeichnet. Auf diese neue Matrix A wird der nächste Schritt des Algorithmus mit der gleichen Konvention angewendet. Diese Festlegung macht die Abfassung der Algorithmen sehr einfach. Deshalb wird sie bei allen in diesem Buch dargestellten Algorithmen verwendet. 4.1.18 Algorithmus (Gauß). Jede m × n-Matrix A = (aij ) mit Zeilenvektoren zi und Spaltenvektoren sj wird durch folgenden Algorithmus in eine m × n-Matrix umgeformt, die mit T (A) bezeichnet wird. Wenn A die Nullmatrix ist, bricht der Algorithmus ab. Andernfalls wende man folgende Schritte an: Sei r = 1. 1. Schritt: Sei sjr der erste Spaltenvektor von A, der ab der r-ten Zeile zr nicht nur Komponenten gleich Null hat. Dazu gibt es einen ersten Zeilenvektor zi = (ai1 , . . . , aijr , . . . , ain ) mit i ≥ r und aijr = 0. Vertausche zr mit diesem Zeilenvektor zi . In der neuen Matrix A = (aij ) gilt arjr = 0. a 2. Schritt: Für jedes i > r wende die Zeilenoperation an, die zi durch zi −zr · arjijr r ersetzt. 3. Schritt: Gibt es in der Matrix A noch einen Spaltenvektor, der ab der (r + 1)ten Zeile nicht nur Komponenten gleich Null hat, so ersetze man r durch r + 1 und wiederhole die Schritte 1 bis 3. Andernfalls bricht der Algorithmus ab. 4.1.19 Satz. (a) Wendet man den Gauß-Algorithmus auf eine m × n-Matrix A = (aij ) mit Koeffizienten aij aus dem Körper F an, so erhält man nach spätestens 3m Schritten eine Matrix T (A) in Treppenform. (b) Der Gauß-Algorithmus erhält den Rang einer Matrix, d. h. rg(T (A)) = rg(A). Beweis: (a) folgt unmittelbar aus dem Algorithmus. (b) folgt aus Folgerung 4.1.15, da nur elementare Zeilenumformungen angewendet werden. 4.1.20 Beispiel. Sei
0 0 A= 0 0
0 1 2 3 4 1 6 −4
1 7 9 8
2 8 . 6 2
Zunächst ist r = 1 und j1 = 2, da dies die erste Spalte = o ist. Dann ist i = 2, da in der zweiten Spalte der zweite Eintrag der erste von Null verschiedene Eintrag
4.1 Gauß-Algorithmus
87
ist. Also ist aijr = a22 = 2. Im zweiten Schritt werden die r-te und die i-te Zeile vertauscht, also die erste und die zweite Zeile. Dann erhält man 0 2 3 7 8 0 0 1 1 2 . A= 0 4 1 9 6 0 6 −4 8 2
Anschließend subtrahiert man 21 · z1 · aj 2 von zj für j = 2, 3, 4 und erhält 0 2 3 7 8 0 0 1 1 2 . A= 0 0 −5 −5 −10 0 0 −13 −13 −22 Es gibt noch Spalten, die ab der zweiten Stelle nicht nur Nullen enthalten. Daher setzt man jetzt r = 2. Die erste Spalte, die ab der zweiten Stelle noch Elemente = 0 enthält, ist die dritte, also ist j2 = 3. Das erste Element = 0 ab dieser Stelle in dieser Spalte ist a23 = 1, also ist i = 2 = r. Vertauschen der i-ten mit der r-ten Zeile ändert also die Matrix nicht. Anschließend subtrahiert man z2 · aj 3 von zj für j = 3, 4 und erhält 0 2 3 7 8 0 0 1 1 2 A= 0 0 0 0 0 . 0 0 0 0 4 Es gibt noch Spalten, die ab der dritten Stelle nicht nur Nullen enthalten. Daher setzt man r = 3. Die erste solche Spalte ist die fünfte, also ist jr = 5. Das kleinste i ≥ 3 mit ai5 = 0 ist i = 4. Vertauschung der dritten und vierten Zeile ergibt 0 2 3 7 8 0 0 1 1 2 T (A) = 0 0 0 0 4 . 0 0 0 0 0 Hier endet der Algorithmus. Die Bedeutung des Gauß-Algorithmus liegt darin, daß damit ein Verfahren beschrieben ist, welches stets zu einer Matrix in Treppenform führt. Außerdem ist er leicht zu programmieren. 4.1.21 Bemerkung. Bei der Beschreibung des Gauß’schen Algorithmus wurden elementare Zeilenumformungen des zweiten Typs, nämlich Multiplikation einer Zeile mit einem Skalar, nicht benötigt. Dies wird sich beim Berechnen von Determinanten als nützlich erweisen.
88
4 Gauß-Algorithmus und lineare Gleichungssysteme
4.1.22 Definition. Sei A = (aij ) eine m × n-Matrix und ars = 0 für ein r mit 1 ≤ r ≤ m und ein s mit 1 ≤ s ≤ n. Seien zi , i = 1, . . . , m, die Zeilenvektoren von A. Dann nennt man die folgende Matrizenumformung Zeilenpivotierung von A an der Pivotstelle (r, s): (a) Man multipliziert die r-te Zeile zr mit 1/ars , d. h. man ersetzt zr durch zr · (ars )−1 . (b) Für k = 1, . . . , m, k = r ersetzt man die k-te Zeile zk durch zk − zr · aks . Analog erklärt man die Spaltenpivotierung. Bezeichnung: zpivot (A, i, j ) Zeilenpivotierung an der Pivotstelle (i, j ). spivot (A, i, j ) Spaltenpivotierung an der Pivotstelle (i, j ). 4.1.23 Bemerkung. Aus (a) und (b) folgt, daß die durch Zeilenpivotierung aus A hervorgegangene Matrix B = (bij ) in der s-ten Spalte bis auf die Komponente brs nur aus Nullen besteht und brs = 1 ist. Also ist die s-te Spalte gleich dem Einheitsvektor er . 4.1.24 Beispiel. Wir führen die Zeilenpivotierung der folgenden Matrix A an der Pivotstelle (3, 3) durch: 1 2 −1 1 2 −1 ZM(3; 21 ) / / 3 0 1 1 A= 3 0 0 1 2 0 1/2 1 1 ZA(3, 1; 1) / 3 0
5/2 0 1/2
0 1 ZA(3, 2; −1) / 3 1 1 0
5/2 −1/2 1/2
0 0 . 1
4.1.25 Definition. Eine m × n-Matrix T = (tij ) ist in Treppennormalform, wenn T die Nullmatrix ist oder ein r mit 1 ≤ r ≤ m und eine Folge 1 ≤ j1 < · · · < jr ≤ n existieren derart, daß folgendes gilt: (a) Wenn i > r, dann ist tik = 0 für k = 1, . . . , n. (b) tik = 0 für i = 1, . . . , r und k < ji . (c) tiji = 1 für i = 1, . . . , r. (d) tsji = 0 für i = 1, . . . , r und s = i. 4.1.26 Bemerkung. Die Bedingungen von Definition 4.1.25 (a) bis (c) besagen, daß T in Treppenform ist. Aus (c) und (d) folgt, daß diese führenden“, von Null ” verschiedenen Zahlen immer 1 sind und daß eine Spalte, die solch eine führen” de Eins“ enthält, sonst nur aus Nullen besteht; genauer ist die ji -te Spalte gerade ei ∈ Fsm .
89
4.1 Gauß-Algorithmus
4.1.27 Beispiele.
5 1 2 7 9 0 8 0 0 3 6 1 7 2 (a) Die Matrix 0 0 0 −2 3 −1 1 ist in Treppenform, aber nicht 0 0 0 0 0 0 1 in Treppennormalform. 1 2 0 −1 0 2 0 0 1 5 0 −2 ist in Treppennormalform. (b) Die Matrix B = 0 0 0 0 1 7 0 0 0 0 0 0
4.1.28 Algorithmus (Gauß-Jordan). Jede m×n-Matrix A = (aij ) mit Zeilenvektoren zi , i = 1, . . . , m und Spaltenvektoren sj , j = 1, . . . , n wird durch folgenden Algorithmus zu einer neuen m × n-Matrix T umgeformt. Wenn A die Nullmatrix ist, bricht der Algorithmus ab. Andernfalls wende man folgende Schritte an: Sei r = 1. 1. Schritt: Man suche den ersten Spaltenvektor sjr von A, der ab der r-ten Stelle nicht nur Komponenten gleich Null hat, d. h. akjr = 0 für ein k mit r ≤ k ≤ m. Sei ferner air jr der erste von Null verschiedene Eintrag in sjr mit ir ≥ r, d. h. air jr steht in der ir -ten Zeile zir von A. 2. Schritt: Nun vertausche man die r-te mit der ir -ten Zeile und führe anschließend zpivot [A, r, jr ] durch. Dies erzeugt in der jr -ten Spalte Nullen, bis auf den r-ten Eintrag in sjr , der gleich 1 ist. 3. Schritt: Wenn es in der Matrix A noch einen Spaltenvektor gibt, der ab der (r + 1)-ten Stelle nicht nur Komponenten gleich Null hat, so ersetze man r durch r + 1 und wiederhole die Schritte 1 bis 3. Sonst bricht das Verfahren jetzt ab. 4.1.29 Beispiel. Matrix 2 2 A= 1 1 0 0
Der Gauß-Jordan Algorithmus wird nun angewendet auf die 3 × 41 1 2
7 4 2
zpivot[A,1,1]
1 / 0 0
1 0 0
1/2 1/2 2
zpivot[A,2,3]
T ist in Treppennormalform.
1 / 0 0
7/2 1/2 2 /
1 0 0
3 1 =T. 0
0 1 0
90
4 Gauß-Algorithmus und lineare Gleichungssysteme
Die Überführung einer gegebenen Matrix in eine Treppenmatrix mit Hilfe elementarer Zeilenumformungen ist, wie einfache Beispiele zeigen, keineswegs eindeutig. Anders liegen jedoch die Verhältnisse bei Treppennormalformen. 4.1.30 Satz. Zu jeder Matrix A gibt es genau eine Matrix T in Treppennormalform, in die sich A mit elementaren Zeilenumformungen überführen läßt. Beweis: Es sei A eine m × n-Matrix mit den Spaltenvektoren s 1 , . . . , s n . Da die Behauptung für die Nullmatrix trivial ist, kann außerdem A = 0 vorausgesetzt werden. Wendet man den Gauß-Jordan-Algorithmus auf A an, überführt er A mit elementaren Zeilenumformungen in eine Treppennormalform T , deren Existenz damit gesichert ist. Zu beweisen ist nun noch die Eindeutigkeit von T . Dazu sei Uj = s 1 , . . . , sj für j = 1, . . . , n, und Uj sei der entsprechende Spaltenraum von T . Ferner sei dj = dim Uj und dj = dim Uj . Da aber Zeilenumformungen die Spaltenräume nicht verändern, gilt Uj = Uj und dj = dj für j = 1, . . . , n. Also folgt r = rg(T ) = dn = dn = rg(A). Nun ist aber r die Stufenzahl der Treppennormalform T , die hiernach eindeutig durch A bestimmt ist. Mit den Bezeichnungen aus Definition 4.1.25 gilt weiter d1 = dj1 = · · · = dj2 −1 < dj2 = · · · = dj3 −1 < dj3 = · · · < djr = · · · = dn , wobei sich die Dimensionen an den Stellen des <-Zeichens jeweils um Eins erhöhen. Die Stellen dieser Dimensionssprünge, nämlich die Spaltenindizes j1 , . . . , jr , sind demnach ebenfalls durch A eindeutig festgelegt. Die ersten r Zeilen zi = , . . . , z ) von T bilden eine Basis B des Zeilenraumes von T . Entsprechend bil(zi1 in den die ersten r linear unabhängigen Zeilen zik = (zik1 1 , . . . , zik n ) mit k = 1, . . . , r wegen rg(A) = r eine Basis B des Zeilenraumes von A. Wegen der speziellen Ge = 1 und z = 0 für s = i, ist P = (z stalt der Zeilen zi , nämlich wegen zij ik js ) ijs i die Transformationsmatrix des Basiswechsels von B nach B. Sie ist ebenfalls durch A eindeutig bestimmt. Da umgekehrt die Zeilen z1 , . . . , zr von T durch die inverse Matrix P −1 als Linearkombinationen der Zeilen zi1 , . . . , zir von A ausgedrückt werden, ist schließlich T selbst durch A eindeutig bestimmt.
4.2
Lösungsverfahren für Gleichungssysteme
Jedes lineare Gleichungssystem mit m × n-Koeffizientenmatrix A, Unbestimmtenvektor x und Konstantenvektor d ∈ F m hat die Form (G)
A · x = d.
91
4.2 Lösungsverfahren für Gleichungssysteme
4.2.1 Definition. Sei Aˆ die m × (n + 1)-Matrix, die aus A entsteht, indem man den Vektor d als letzte Spalte zu A hinzufügt, d. h. Aˆ = (A, d). Aˆ heißt erweiterte Matrix des Gleichungssystems. 4.2.2 Beispiel. Das Gleichungssystem (G) A · x = d mit
5 A= 1 12 hat die erweiterte Matrix
10 1 12
20 1 20
5 Aˆ = 1 12
1000 d = 100 1400
und
10 20 1000 1 1 100 . 12 20 1400
4.2.3 Satz. Das lineare Gleichungssystem (G)
A·x =d
hat genau dann eine Lösung, wenn die Koeffizientenmatrix A und die erweiterte ˆ Matrix Aˆ von (G) den gleichen Rang haben, d. h. rg(A) = rg(A). Beweis: Nach Satz 3.2.8 ist Im(A) der Spaltenraum von A. Das Gleichungssystem (G) ist nach Satz 3.2.10 genau dann lösbar, wenn d ∈ Im(A). Nach Definition 4.2.1 ˆ ist diese Bedingung äquivalent zu rg(A) = rg(A). Darf man ein gegebenes Gleichungssystem stets durch elementare Zeilenoperationen umformen, ohne daß sich die Lösungsgesamtheit des neu entstandenen Gleichungssystems von der des ursprünglichen Systems unterscheidet? Eine Antwort auf diese Fragen geben die beiden folgenden Resultate. 4.2.4 Satz. Sei (G) A · x = d ein lineares Gleichungssystem mit m Gleichungen. Wenn S eine invertierbare m × m-Matrix ist, dann hat (G ) S · A · x = S · d die gleichen Lösungen wie (G). Beweis: Wenn u eine Lösung von (G) ist, dann ist A · u = d, also S · A · u = S · d. Daher ist u eine Lösung von (G ). Wenn v eine Lösung von (G ) ist, dann ist S · A · v = S · d, also A · v = S −1 · S · A · v = S −1 · S · d = d. Daher ist v eine Lösung von (G). 4.2.5 Folgerung. Seien Aˆ und Bˆ die erweiterten Matrizen der linearen Gleichungssysteme (G) und (G ). Wenn Bˆ aus Aˆ durch endlich viele elementare Zeilenumformungen hervorgeht, dann haben (G) und (G ) dieselben Lösungen.
92
4 Gauß-Algorithmus und lineare Gleichungssysteme
Beweis: Nach Satz 4.1.13 und Folgerung 4.1.15 werden elementare Zeilenumformungen durch Multiplikation von links mit einer invertierbaren Matrix bewirkt. Die Behauptung folgt also aus Satz 4.2.4. Nach Satz 4.1.30 geht die erweiterte Matrix Aˆ des Gleichungssystems (G) A · x = d durch den Gauß-Jordan-Algorithmus in eine Matrix Tˆ über, die in Treppennormalform ist. Wegen Folgerung 4.2.5 erhält man daher die Lösungsgesamtheit von (G) durch den folgenden 4.2.6 Satz. Sei (G) ein lineares Gleichungssystem mit m × n-Koeffizientenmatrix T , Unbestimmtenvektor x und Konstantenvektor d ∈ F m . Sei die erweiterte Matrix von (G) eine m × (n + 1)-Matrix Tˆ = (tij ) in Treppennormalform derart, daß die führenden Einsen an den Stellen (i, ji ) für i = 1, . . . , r stehen. Dann gilt: (a) Wenn die letzte Spalte von Tˆ eine führende Eins enthält, dann hat (G) keine Lösung. (b) Wenn die letzte Spalte von Tˆ keine führende Eins enthält, dann ist a = (a1 , . . . , an ), definiert durch ti,n+1 falls s = ji , as = 0 sonst eine spezielle Lösung von (G). Außerdem erhält man eine Basis des Lösungsraums des zugehörigen homogenen Systems (H) wie folgt: Für jedes 1 ≤ k ≤ n mit k = ji , i = 1, . . . , r, sei der Vektor bk = (b1k , . . . , bnk ) ∈ F n definiert durch tik falls s = ji , −1 falls s = k, bsk = 0 sonst. Dann ist {bk | 1 ≤ k ≤ n, k = ji für i = 1, . . . , r} eine Basis des Lösungsraumes Ker(T ) von (H). Beweis: (a) Enthält die letzte Spalte von Tˆ eine führende Eins, dann ist rg(Tˆ ) = 1 + rg(T ). Also hat (G) keine Lösung nach Satz 4.2.3. (b) Seien v 1 , . . . , v n+1 die Spaltenvektoren von Tˆ . Es ist nach Bemerkung 4.1.25 n
v s · as =
s=1
r i=1
vji · aji =
r
ei · ti, n+1 = v n+1 .
i=1
Daraus folgt, daß a eine spezielle Lösung von (G) ist. Für jedes k mit 1 ≤ k ≤ n und k = ji für i = 1, . . . , r gilt n s=1
v s · bsk = −v k +
r i=1
vji · tik = −v k +
r i=1
ei · tik = −v k + v k = 0.
93
4.2 Lösungsverfahren für Gleichungssysteme
Also sind alle bk Lösungen von (H). Wenn n
b k · ak = o
k=1 k=j1 ,...,jr
für ak ∈ F , dann ist für jedes q mit 1 ≤ q ≤ n und q = j1 , . . . , jr auch 0=
n
bqk · ak = −aq .
k=1 k=j1 ,...,jr
Daraus folgt, daß alle ak = 0 sind, und somit sind die bk ’s linear unabhängig. Da rg(Tˆ ) = r, ist die Dimension des Lösungsraumes von (H) nach Satz 3.2.13 gleich dim Ker(T ) = n − dim Im(T ) = n − r. Also bilden die bk ’s eine Basis des Lösungsraumes Ker(T ) von (H) nach Folgerung 3.2.14. Aus Folgerung 4.2.5 und Satz 4.2.6 ergibt sich folgendes Lösungsverfahren für lineare Gleichungssysteme. 4.2.7 Lösungsverfahren. Gegeben sei ein lineares Gleichungssystem (G) A·x = d mit m × n-Koeffizientenmatrix A = (aij ), Unbestimmtenvektor x und Konstantenvektor d ∈ F m . Sei Aˆ = (A, d) die zu (G) gehörige erweiterte Matrix. Dann wendet man den Gauß-Jordan-Algorithmus auf Aˆ an und erhält eine m × (n + 1)Matrix Tˆ = (tij ) in Treppennormalform mit führenden Einsen an den Stellen (i, ji ), i = 1, . . . , r. 1. Fall: Hat Tˆ in der letzten Spalte eine führende Eins, so hat (G) keine Lösung. 2. Fall: Gibt es keine führende Eins in der letzten Spalte, so sieht Tˆ wie folgt aus: j1 0 · · · 0 1 t1,j1 +1 · · · t1,j2 −1 0 0 ··· 0
j2 jr 0 t1,j2 +1 · · · · · · 0 t1,jr +1 · · · t1,n+1 1 t2,j2 +1 · · · · · · 0 t2,jr +1 · · · t2,n+1 .. .. 0 0 ······ 0 . . .. .. .. . . . .. .. 0 . . 1 tr,jr +1 · · · tr,n+1 0 0 ··· 0 .. .. . . 0
···
0
.
94
4 Gauß-Algorithmus und lineare Gleichungssysteme
Nun füge man in die Matrix Tˆ Nullzeilen so ein, daß die führenden Einsen in der neuen Matrix auf der Diagonalen stehen, d. h. sie stehen dann an der Stelle (ji , ji ). Durch weiteres Anhängen bzw. Streichen von Nullzeilen bringe man die neue Matrix auf das Format n × (n + 1). Dann ersetze man alle Nullen an der Stelle (k, k) mit 1 ≤ k ≤ n und k = j1 , . . . , jr durch eine −1. Sei S die neu entstandene Matrix mit den Spaltenvektoren s 1 , s 2 , . . . , s n+1 . Dann ist s n+1 eine spezielle Lösung von (G), und die Vektoren s k für 1 ≤ k ≤ n mit k = j1 , . . . , jr bilden eine Basis des homogenen Gleichungssystems (H) A · x = 0 von (G). Nach Satz 3.2.9 folgt dann: Die Menge L = {s n+1 + nk=1k=j ,...,j s k ·ak | ak ∈ F } ist die Lösungsgesamtheit r 1 des Gleichungssystems (G). 4.2.8 Beispiel. Sei
1 2 0 0 Aˆ = 0 0 0 0
0 1 0 0
−1 5 0 0
0 0 1 0
2 −2 . 7 0
Aˆ ist in Treppennormalform. Die Matrix wird mit Nullzeilen so erweitert, daß die führenden Einsen auf der Diagonalen (ohne letzte Spalte) stehen; durch anschließendes Streichen der letzten Nullzeile erhält man die 5 × 6-Matrix 1 2 0 −1 0 2 0 0 0 0 0 0 0 0 1 5 0 −2 . 0 0 0 0 0 0 0 0 0 0 1 7 Die Nullen in der Diagonalen werden durch −1 ersetzt: 1 2 0 −1 0 2 0 −1 0 0 0 0 0 0 1 5 0 −2 . 0 0 0 −1 0 0 0 0 0 0 1 7 Sei a = (2, 0, −2, 0, 7) die letzte, b1 = (2, −1, 0, 0, 0) die zweite und b2 = (−1, 0, 5, −1, 0) die vierte Spalte. Dann ist L = {a + b1 · s + b2 · r | s, r ∈ F } die Lösungsmenge des linearen Gleichungssystems, das zur erweiterten Matrix Aˆ gehört. 4.2.9 Bemerkung. Sei Tˆ die Treppennormalform der erweiterten Matrix zu einem lösbaren linearen Gleichungssystem, wobei die Nullzeilen weggelassen sind. Wenn
4.2 Lösungsverfahren für Gleichungssysteme
95
s 1 , . . . , s n+1 die Spalten von Tˆ sind, dann läßt sich das zugehörige Gleichungssystem schreiben als n sj · xj = s n+1 . j =1
Nun seien j1 , . . . , jr wie in der Definition der Treppennormalform. Nach Bemerkung 4.1.23 ist dann sji = ei für i = 1, . . . , r. Daher ist xj1 r n .. sji · xji = s n+1 − sj · xj , . = j =1 i=1 xjr j =j1 ,...,jr
d. h. die xji ’s lassen sich durch die übrigen xj ’s ausdrücken. Wenn die xj ’s in einer mathematischen Formel auftreten, dann kann man die xji ’s durch die entsprechenden Ausdrücke ersetzen und erhält eine Formel, welche nur noch die xj ’s mit j = j1 , . . . , jr enthält. Diesen Prozess nennt man Elimination. Zur Berechnung der Inversen einer invertierbaren n × n-Matrix kann der GaußJordan-Algorithmus ebenfalls benutzt werden. Das entsprechende Berechnungsverfahren ergibt sich aus 4.2.10 Satz. Sei A eine n × n-Matrix. Genau dann ist A ein Produkt von Elementarmatrizen, wenn rg(A) = n ist. Beweis: Nach Folgerung 4.1.15 sind die n×n-Elementarmatrizen invertierbar. Ist A ein Produkt von Elementarmatrizen, so ist A auch invertierbar. Daher ist rg(A) = n nach Satz 3.4.9. Sei umgekehrt rg(A) = n. Sei T die Treppennormalform von A. Nach Folgerung 4.1.15 gilt rg(T ) = n. Daher ist T = En die n × n-Einheitsmatrix. Nach Satz 4.1.13 läßt sich T schreiben als T = X1 . . . Xs ·A = En für geeignete Element−1 armatrizen Xi , i = 1, . . . , s. Daher ist X1 . . . Xs = A−1 und A = X−1 s . . . X1 . Also ist A ein Produkt von Elementarmatrizen nach Folgerung 4.1.15. 4.2.11 Berechnungsverfahren für die Inverse einer Matrix. Sei A eine n × nMatrix. Man bilde eine n × 2n-Matrix K = (A, En ), indem man die n × n-Einheitsmatrix En rechts an A anfügt. Nun wende man den Gauß-JordanAlgorithmus auf die Matrix K an. Die dadurch entstehende n × 2n-Matrix L ist in Treppennormalform, und, falls A invertierbar ist, sind nach Satz 4.2.10 die ersten n Spaltenvektoren von L die Spaltenvektoren der n × n-Einheitsmatrix En . Sei B die Matrix, deren Spaltenvektoren die letzten n Spaltenvektoren von L sind. Dann ist B = A−1 nach dem Beweis von Satz 4.2.10.
96
4 Gauß-Algorithmus und lineare Gleichungssysteme
1 1 4.2.12 Beispiel. Die Inverse der 3 × 3-Matrix A = 1 Verfahren 4.2.11 nach folgendem Schema berechnet. A 2 1 1 2 −1 −1 0 1 0
Umformung 1 1 1 1 0 0 1 0 0
zpivot(1, 1)
zpivot(2, 2)
1 0 0
zpivot(3, 3)
Also ist A−1
−1 = 1 0
3/2 −1 1/2
1 1 −1 1 0 −2 1 0 −2
1 0 0 1 −1 −1 −1 1 0
0 0 1
−1 1 0
0 1 0 E3
2 1 1
1 1 wird gemäß −1
E3 0 1 0 0 1 0 2 −1 −1
0 0 1 0 0 1 0 0 1
3 2
1 2
−1 1 2 A−1
0
− 21
1/2 0 . −1/2
4.3 Aufgaben 4.1 Berechnen Sie mit Hilfe elementarer Umformungen den Rang von
2 6 A= 4 6
3 18 12 18
−4 −4 −6 6
3 −22 −8 −42
18 −6 . 6 −36
4.2 Berechnen Sie den Zeilenrang von AB für die Matrizen A=
0 1 2 3 4 5
−1 0 1 2 3 4
−2 −1 0 1 2 3
−3 −2 −1 0 1 2
−4 −3 −2 −1 0 1
−5 −4 −3 −2 −1 0
,
97
4.3 Aufgaben B=
1 1 2 3 4 5
−1 1 1 2 3 4
−2 −1 1 1 2 3
−3 −2 −1 1 1 2
−4 −3 −2 −1 1 1
−5 −4 −3 −2 −1 1
.
4.3 Im R4 sei U der von den Vektoren (1, 3, 5, −4), (2, 6, 7, −7), (0, 0, 1, −1), (1, 3, −1, 2) und V der von den Vektoren (1, 0, 2, −2), (0, 3, 3, −5), (5, −3, 6, −3), (6, −6, 5, 0) erzeugte Unterraum. Berechnen Sie je eine Basis von U , V , U + V und U ∩ V . 4.4 Berechnen Sie mittels des Gauß-Algorithmus eine Treppenform T (A) und mittels des Gauß-Jordan Algorithmus die Treppennormalform T der folgenden Matrix: 1 3 4 0 2 2 5 7 1 0 −1 2 −3 0 0 A= . 3 8 11 4 0 3 8 11 1 2 4.5 Bestimmen Sie die Lösungsgesamtheit des folgenden linearen Gleichungssystems über den komplexen Zahlen: 2x1 − 3x2 − 7x3 + 5x4 + 2x5 = 1 x1 − 2x2 − 4x3 + 3x4 + x5 = i 2x1 − 4x3 + 2x4 + x5 = i x1 − 5x2 − 7x3 + 6x4 + 2x5 = 1. 4.6 Bestimmen Sie mit Hilfe eines Computeralgebrasystems die Lösungsgesamtheit des folgenden linearen Gleichungssystems mit Koeffizienten aus Q: −2x2 + 2x3 + x5 − 2x6 − 3x8 − x10 = −7 −x1 + x2 − 2x5 − 2x6 + 6x8 + 2x9 = 5 −x1 + x3 + x4 + 2x6 − 3x8 = 2 (G)
−3x1 − 6x2 + 9x3 + x5 − 10x6 − 3x8 − 3x10 = −32 2x1 + 3x2 − 5x3 + x4 + 8x6 + x7 − 3x8 = 16 −x1 + x3 − x5 − 2x6 + 3x8 + x9 = 1 2x1 + 2x2 − 4x3 + 4x6 + x10 = 13.
98
4 Gauß-Algorithmus und lineare Gleichungssysteme
4.7 Sei A eine n × n-Matrix. Zeigen Sie: (a) A ist genau dann invertierbar, wenn ihre transponierte Matrix AT invertierbar ist. (b) Ist A invertierbar, so ist (AT )−1 = (A−1 )T . 4.8 Berechnen Sie die Inversen der folgenden Matrix A und ihrer transponierten Matrix AT . −1 2 −3 0 0 0 2 1 0 0 0 0 4 −2 0 0 0 24 . A= 0 0 0 2 1 −1 0 0 0 2 1 0 0 0 0 5 2 −3 4.9 Es sei J eine Menge von n × n-Matrizen, so daß gilt: (a) J enthält eine von 0 verschiedene Matrix, (b) J ist bezüglich der Addition von Matrizen eine abelsche Gruppe, und (c) für eine Matrix A ∈ J und eine beliebige Matrix X ∈ Matn (F ) liegen XA und AX in J . Zeigen Sie: Die n × n-Einheitsmatrix En liegt in J . 4.10 Sei A = (aij ) eine reelle n × n-Matrix derart, daß die Absolutbeträge |aij | ihrer Koeffizienten die folgenden n Ungleichungen erfüllen: n j =1 j =i
Bestimmen Sie rg(A).
|aij | < |aii |
für i = 1, 2, . . . , n.
5 Determinanten
Die Determinantenabbildung ordnet jeder n × n-Matrix A = (aij ) mit Koeffizienten aij aus dem Körper F ein eindeutig bestimmtes Körperelement det A aus F zu. Sie ist ein wichtiges Hilfsmittel zur Berechnung der Eigenwerte von A, einem zentralen Problem der linearen Algebra, mit dem sich das nächste Kapitel befaßt. Zur Vorbereitung des Existenz- und Eindeutigkeitsbeweises für die Determinantenabbildung werden im ersten Abschnitt einige Ergebnisse über Permutationen endlicher Mengen dargestellt. Während in Abschnitt 2 auf die multilinearen Abbildungen und in Abschnitt 3 auf die Existenz und Eindeutigkeit der Determinantenabbildung eingegangen wird, behandelt der vierte Abschnitt einige Verfahren zur Berechnung der Determinante einer n × n-Matrix A. Hierbei findet auch der Gauß’sche Algorithmus eine weitere Anwendung. Schließlich werden im fünften Abschnitt die Determinanten zur Berechnung der Inversen A−1 einer invertierbaren n × n-Matrix und zur Auflösung linearer Gleichungssysteme herangezogen. Diese Anwendungen sind vor allem von theoretischem Interesse.
5.1
Permutationen
In 1.3.2 wurde die symmetrische Gruppe Sn eingeführt. Die dort gewählten Bezeichnungen gelten weiterhin. Zunächst werden einige grundlegende Begriffe und Ergebnisse über die symmetrische Gruppe dargestellt. Sie werden später bei der Entwicklung der Determinantentheorie benötigt. 5.1.1 Definition. Sei n ∈ N, n = 0 und M = {1, 2, . . . , n}. Eine bijektive Abbildung π von M auf M heißt Permutation von M. Die Menge aller Permutationen von M bildet bezüglich der Hintereinanderausführung als Verknüpfung eine Gruppe, die symmetrische Gruppe Sn . Bezeichnung: π = (π(1), π(2), . . . , π(n)) für alle π ∈ Sn . Entsprechend der in Beispiel 1.3.2 (c) festgelegten Multiplikation in Sn gilt (ππ )(m) = π(π (m)) für m ∈ {1, 2, . . . , n}. Die Fixpunkte π(i) = i einer Permutation π ∈ Sn werden von nun an in dem n-Tupel π = (π(1), π(2), . . . , π(n))
100
5 Determinanten
häufig weggelassen. Insbesondere ist das leere Tupel das Einselement id von Sn . Ist π = (2, 1, 3), also π(3) = 3, so ist π = (2, 1) ∈ S3 . 5.1.2 Definition. Eine Permutation π von M = {1, 2, . . . , n} mit n ≥ 2 heißt Transposition, wenn π(i) = j und π(j ) = i für zwei verschiedene Elemente i, j von M gilt und π alle anderen Elemente von M festläßt. Bezeichnung: π = (i, j ) ∈ Sn 5.1.3 Satz. Die symmetrische Gruppe Sn hat die Ordnung |Sn | = n!. Beweis: Vollständige Induktion nach n: Für n = 1 ist |S1 | = |{id}| = 1. Für n − 1 gelte |Sn−1 | = (n − 1)!. In der symmetrischen Gruppe Sn kann Sn−1 mit der Menge aller Bijektionen π von M = {1, 2, . . . , n} auf M mit der Eigenschaft π(n) = n identifiziert werden. Für alle anderen π ∈ Sn gilt π(n) = n. Für i = 1, 2, . . . , n − 1 sei πi diejenige Transposition von M, die n mit i vertauscht, d. h. πi = (n, i). Sei nun π(n) = i. Dann ist πi−1 π(n) = n. Also ist πi−1 π ∈ Sn−1 und so π ∈ πi Sn−1 = {πi σ |σ ∈ Sn−1 }. Daher ist Sn = n−1 i=1 πi Sn−1 ∪ Sn−1 , wobei in dieser Vereinigung die einzelnen Mengen paarweise disjunkt sind. Hieraus folgt: |Sn | = |Sn−1 | + n−1 |S | = n(n − 1)! = n! n−1 i=1 5.1.4 Satz. Für n ≥ 2 ist jede Permutation π von M = {1, 2, . . . , n} Produkt von endlich vielen Transpositionen. Beweis: Die symmetrische Gruppe S2 besteht aus den Elementen id und der Transposition σ = (2, 1). Wegen id = σ · σ gilt die Behauptung des Satzes für n = 2. Für i = 1, 2, . . . , n − 1 sei πi wie im Beweis von Satz 5.1.3 die Transposition mit πi (n) = i und πi (i) = n. Dann ist Sn = Sn−1 ∪ n−1 i=1 πi Sn−1 , wobei Sn−1 wieder aus allen Permutationen π von Sn mit π(n) = n besteht. Wegen der Induktionsannahme folgt hieraus die Behauptung für Sn . 5.1.5 Bemerkung. Die in Satz 5.1.4 gegebene Produktdarstellung einer Permutation π ∈ Sn ist im allgemeinen nicht eindeutig, z. B. gilt π = (3, 1, 2) = (2, 1)(3, 1) = (3, 1)(3, 2) in S3 . Sei n ≥ 2. Seien X1 , X2 , . . . , Xn Unbestimmte über dem Ring Z der ganzen Zahlen. Dann operiert die symmetrische Gruppe Sn auf den Polynomen p(X1 , X2 , . . . , Xn ) ∈ Z[X1 , X2 , . . . , Xn ], und zwar durch Vertauschung der Indizes, d. h. πp(X1 , X2 , . . . , Xn ) = p(Xπ(1) , Xπ(2) , . . . , Xπ(n) )
für π ∈ Sn .
101
5.1 Permutationen
5.1.6 Beispiel. Sei π = (2, 3, 1) ∈ S3 , p(X1 , X2 , X3 ) = X1 − X2 + X1 X3 ∈ Z[X1 , X2 , X3 ]. Dann ist πp(X1 , X2 , X3 ) = Xπ(1) − Xπ(2) + Xπ(1) Xπ(3) = X2 − X3 + X2 X1 . 5.1.7 Hilfssatz. Sei M = {1, 2, . . . , n} mit n ≥ 2. Seien X1 , X2 , . . . , Xn Unbestimmte über dem Ring Z der ganzen Zahlen. Sei f (X1 , X2 , . . . , Xn ) = (X − X j i ) ∈ Z[X1 , X2 , . . . , Xn ], wobei das Produkt über alle Paare (i, j ) ∈ i<j M × M mit i < j gebildet wird. Dann gelten: (a) Für jede Permutation π ∈ Sn ist πf (X1 , . . . , Xn ) = s(π )f (X1 , . . . , Xn ) für ein eindeutig bestimmtes Vorzeichen s(π ) ∈ {+1, −1}. (b) s(π ) = −1 für jede Transposition π ∈ Sn . Beweis: (a) Für jedes π ∈ Sn sei a(π ) die Anzahl der Paare (i, j ) ∈ M × M mit i < j und π(i) > π(j ). Dann ist πf (X1 , X2 , . . . , Xn ) = i<j (Xπ(j ) − Xπ(i) ) = (−1)a(π) i<j (Xj − Xi ) = s(π )f (X1 , X2 , . . . , Xn ), wobei s(π ) = (−1)a(π) ∈ {+1, −1} eindeutig durch π bestimmt ist. (b) Ist π = (j, i) mit i < j die Transposition von M, die i und j vertauscht, dann ist π(i) = j , π(j ) = i und π(k) = k für alle k ∈ {1, 2, . . . , n} mit k = i, j . Insbesondere gilt für k = i + 1, . . . , j − 1, daß π(i, j ) = (j, i),
π(i, k) = (j, k)
und
π(k, j ) = (k, i)
ist. Daher sind diese 2(j − i − 1) + 1 Paare (a, b) mit a < b alle Paare (x, y), x, y ∈ {1, 2, . . . , n} mit x < y, für die π(x) > y gilt. Hieraus folgt: πf (X1 , X2 , . . . , Xn ) = (−1)2(j −i−1)+1f (X1 , X2 , . . . , Xn ) = −f (X1 , X2 , . . . , Xn ). Also gilt s(π ) = −1.
5.1.8 Definition. Sei M = {1, 2, . . . , n} mit n ≥ 2. Das nach Hilfssatz 5.1.7 eindeutig bestimmte Vorzeichen s(π ) ∈ {+1, −1} der Permutation π ∈ Sn heißt Signum von π . Bezeichnung: sign π . Die Permutation π ∈ Sn heißt gerade, wenn sign π = 1. Sonst heißt π ungerade. 5.1.9 Satz. Für alle Paare σ, π ∈ Sn gilt: sign(σ π ) = (sign σ )(sign π ).
102
5 Determinanten
Beweis: Nach Hilfssatz 5.1.7 ist (σ π )f (X1 , . . . , Xn ) = s(σ π )f (X1 , . . . , Xn ). Andererseits ist (σ π )f (X1 , X2 , . . . , Xn ) = σ [πf (X1 , X2 , . . . , Xn )] = σ [s(π )f (X1 , X2 , . . . , Xn )] = s(π )[σf (X1 , X2 , . . . , Xn )] = s(π )[s(σ )f (X1 , X2 , . . . , Xn )] = s(σ )s(π )f (X1 , X2 , . . . , Xn ). Also gilt sign(σ π ) = (sign σ )(sign π ).
5.1.10 Satz. (a) Ist π ∈ Sn , so ist sign π = 1 dann und nur dann, wenn π ein Produkt einer geraden Anzahl von Transpositionen ist. (b) Die Permutation π ∈ Sn sei Produkt von k Transpositionen. Dann gilt sign π = (−1)k . Beweis: Da sign τ = −1 für jede Transposition τ gilt, folgt (a) sofort aus Satz 5.1.9 und Satz 5.1.4. (b) Nach Satz 5.1.4 existieren k Transpositionen σ1 , σ2 , . . . , σk mit π = σ1 σ2 . . . σk . Nach Satz 5.1.9 gilt daher sign π =
k
sign σi = (−1)k .
i=1
Da sign π entweder 1 oder -1 ist und nach (a) sign π = 1 genau dann gilt, wenn k gerade ist, gilt die Behauptung von (b) unabhängig von der jeweiligen Produktdarstellung von π als Produkt von Transpositionen. 5.1.11 Folgerung. Für n ≥ 2 gibt es genau 21 n! gerade und 21 n! ungerade Permutationen der Zahlen 1, 2, . . . , n. Beweis: Folgt unmittelbar aus Satz 5.1.3 und Satz 5.1.9.
5.1.12 Definition. Die geraden Permutationen bilden wegen Satz 5.1.9 eine Untergruppe An von Sn , die man die alternierende Gruppe nennt.
5.2
Multilinearformen
5.2.1 Definition. Seien V1 , V2 , . . . , Vn , W Vektorräume über dem gemeinsamen Körper F . Eine Abbildung ϕ : V1 × V2 × · · · × Vn → W heißt n-fach linear (oder n-linear), wenn sie folgende Eigenschaften besitzt:
103
5.2 Multilinearformen
(a) ϕ(v 1 , . . . , v i + v i , . . . , v n ) = ϕ(v 1 , . . . , v i , . . . , v n ) + ϕ(v 1 , . . . , v i , . . . , v n ) für alle vj ∈ Vj , j = 1, 2, . . . , n, und v i , v i ∈ Vi für i = 1, 2, . . . , n. (b) ϕ(v 1 , . . . , v i k, . . . , v n ) = ϕ(v 1 , . . . , v i , . . . , v n )k für k ∈ F und v i ∈ Vi , i = 1, 2, . . . , n. Ist W = F und Vi = V für i = 1, 2, . . . , n, so heißt ϕ eine n-fache Linearform von V . Ist zusätzlich n = 2, so heißt ϕ Bilinearform. 5.2.2 Beispiel. Die Abbildung ϕ : F 2 → F , definiert durch % $ a12 a11 , = a11 a22 − a12 a21 , ϕ a21 a22 ist eine Bilinearform. 5.2.3 Definition. Sei V ein n-dimensionaler F -Vektorraum. Eine n-fache Linearform ϕ von V heißt nicht ausgeartet, wenn n Vektoren a 1 , a 2 , . . . , a n in V existieren derart, daß ϕ(a 1 , a 2 , . . . , a n ) = 0, wenn also ϕ nicht die Nullform ist. 5.2.4 Definition. Eine n-fache Linearform ϕ von V heißt alternierend, wenn für jedes n-Tupel (a 1 , a 2 , . . . , a n ) von linear abhängigen Vektoren aus V stets ϕ(a 1 , a 2 , . . . , a n ) = 0 gilt. Für eine alternierende n-fache Linearform ist insbesondere ϕ(a 1 , . . . , a n ) = 0, falls a i = aj für ein Paar i < j gilt. 5.2.5 Hilfssatz. Sei ϕ eine alternierende n-fache Linearform von V und π eine Permutation. Dann gilt für a 1 , a 2 , . . . , a n ∈ V stets
ϕ a π(1) , a π(2) , . . . , a π(n) = (sign π ) · ϕ(a 1 , a 2 , . . . , a n ). Beweis: Sicherlich gilt die Behauptung für n = 1, weil dann π = id die Identität ist. Sei also n ≥ 2. Nach Satz 5.1.9 und Satz 5.1.4 genügt es, die Behauptung für eine Transposition π mit π(i) = j zu beweisen. Da ϕ alternierend ist, gilt für i < j : 0 = ϕ(a 1 , . . . , (a i + aj ), . . . , (a i + aj ), . . . , a n ) = ϕ(a 1 , . . . , a i , . . . , a i , . . . , a n ) + ϕ(a 1 , . . . , a i , . . . , aj , . . . , a n ) + ϕ(a 1 , . . . , aj , . . . , a i , . . . , a n ) + ϕ(a 1 , . . . , aj , . . . , aj , . . . , a n ) = ϕ(a 1 , . . . , aj , . . . , a i , . . . , a n ) + ϕ(a 1 , . . . , a i , . . . , aj , . . . , a n ). Daher folgt ϕ(a π(1) , a π(2) , . . . , a π(n) ) sign π = −1.
=
(sign π )ϕ(a 1 , a 2 , . . . , a n ) wegen
104
5 Determinanten
5.2.6 Hilfssatz. Sei V ein n-dimensionaler Vektorraum und ϕ eine nicht ausgeartete alternierende n-fache Linearform von V . Dann sind die n Vektoren a 1 , a 2 , . . . , a n genau dann linear abhängig, wenn ϕ(a 1 , a 2 , . . . , a n ) = 0. Beweis: Wegen Definition 5.2.4 bleibt nur zu zeigen, daß ϕ(b1 , b2 , . . . , bn ) = 0, wenn immer b1 , b2 , . . . , bn ∈ V linear unabhängig sind. Dann ist B = {b1 , b2 , . . . , bn } eine Basis von V . Da ϕ nicht ausgeartet ist, existieren nach Definition 5.2.3 Vektoren c1 , c2 , . . . , cn in V derart, daß ϕ(c1 , c2 , . . . , cn ) = 0. Jeder dieser Vektoren ci hat nach Folgerung 2.2.14 eine eindeutige Darstellung ci =
n
bj kij
mit kij ∈ F,
j =1
weil B eine Basis von V ist. Da ϕ eine n-fache Linearform ist, folgt 0 = ϕ(c1 , c2 , . . . , cn ) =
n n
...
j1 =1 j2 =1
n
ϕ(bj1 , bj2 , . . . , bjn )k1,j1 k2,j2 . . . kn,jn .
jn =1
Wenn in einem Summanden dieser n-fachen Summe zwei der Indizes j1 , j2 , . . . , jn gleich sind, verschwindet dieser Summand, weil dann ϕ(bj1 , bj2 , . . . , bjn ) = 0 gilt. Wenn aber die Indizes j1 , j2 , . . . , jn paarweise verschieden sind, stellen sie eine Permutation π der Zahlen 1, 2, . . . , n dar. Wegen Hilfssatz 5.2.5 folgt daher 0 = ϕ(c1 , c2 , . . . , cn ) = ϕ(b1 , b2 , . . . , bn ) (sign π )k1,π(1) k2,π(2) . . . kn,π(n) . π ∈Sn
Summiert wird dabei über alle n! Permutationen aus der symmetrischen Gruppe Sn . Also ist ϕ(b1 , b2 , . . . , bn ) = 0. 5.2.7 Satz. Sei V ein n-dimensionaler Vektorraum, und {a 1 , a 2 , . . . , a n } sei eine Basis von V . Dann gilt: (a) Haben die n Vektoren bi von V die Basisdarstellung bi = jn=1 aj kij für i = 1, 2, . . . , n, so ist ϕ(b1 , . . . , bn ) = ϕ(a 1 , . . . , a n ) (∗) (sign π )k1,π(1) . . . kn,π(n) . π ∈Sn
(b) Ersetzt man in (∗) auf der rechten Seite ϕ(a 1 , a 2 , . . . , a n ) durch einen nicht von b1 , . . . , bn abhängigen Skalar a = 0, so wird durch (∗) eine nicht ausgeartete alternierende n-fache Linearform ϕ von V definiert.
105
5.2 Multilinearformen
Beweis: Wegen des Beweises von Hilfssatz 5.2.6 ist nur die zweite Behauptung zu beweisen. Es kann n > 1 angenommen werden, weil dieAussage im Fall n = 1 trivial ist. Sei also für ein fest gewähltes a = 0 aus F dieAbbildung ϕ : V ×V ×· · ·×V → F definiert durch ϕ(b1 , b2 , . . . , bn ) = a (sign π )k1,π(1) k2,π(2) . . . kn,π(n) . π∈Sn
Dann ist ϕ eine n-fache Linearform, wie man leicht verifiziert. Wählt man speziell bi = a i für i = 1, 2, . . . , n, so ist kij = 0 für i = j und kii = 1 für i = 1, 2, . . . , n. Also ist 0 für π = id ∈ Sn , k1,π(1) k2,π(2) . . . kn,π(n) = 1 für π = id ∈ Sn . Hieraus folgt ϕ(a 1 , a 2 , . . . , a n ) = a = 0. Daher ist ϕ nicht ausgeartet. Wenn die Vektoren b1 , b2 , . . . , bn linear abhängig sind, dann existieren cj ∈ F mit b1 c1 + b2 c2 + · · · + bn cn = o, wobei c1 = 0 angenommen werden kann. Wegen n > 1 gilt cj b1 = b2 f2 + b3 f3 + · · · + bn fn mit fj = − für j = 2, . . . n. c1 Dann folgt ϕ(b1 , b2 , . . . , bn ) = ϕ(b2 , b2 , b3 , . . . , bn )f2 + ϕ(b3 , b2 , b3 , . . . , bn )f3 + · · · + ϕ(bn , b2 , . . . , bn )fn . Zum Nachweis von ϕ(b1 , b2 , . . . , bn ) = 0 genügt es daher zu beweisen, daß ϕ(b1 , . . . , bt , . . . , bn ) = 0 für b1 = bt und für t = 2, 3, . . . , n gilt. Es sei nun π0 diejenige Transposition, die die Indizes 1 und t vertauscht. Durchläuft dann π die Menge An aller geraden Permutationen, so durchlaufen nach Folgerung 5.1.11 die Produkte π π0 alle ungeraden Permutationen, weil sign(π π0 ) = − sign π = −1 nach Satz 5.1.9 gilt. Hieraus folgt, ϕ(bt , . . . bt , . . . , bn ) = (sign σ )kt,σ (1) . . . kt,σ (t) . . . kn,σ (n) σ ∈Sn
=
(sign π )kt,π(1) . . . kt,π(t) . . . kn,π(n)
π∈An
+
(sign π · π0 )kt,π π0 (1) . . . kt,π π0 (t) . . . kn,ππ0 (n)
π∈An
=
π∈An
= 0,
(sign π + sign π π0 )kt,π(1) . . . kt,π(t) . . . kn,π(n)
106
5 Determinanten
weil kt,π(t) . . . kt,π(1) . . . kn,π(n) = kt,π(1) . . . kt,π(t) . . . kn,π(n) und sign π + sign π π0 = 1 − 1 = 0 für alle π ∈ An gilt. Also ist ϕ auch alternierend. 5.2.8 Bemerkung. Durch den zweiten Teil des Satzes 5.2.7 ist gesichert, daß es für jedes n und jeden n-dimensionalen Vektorraum eine nicht ausgeartete alternierende n-fache Linearform gibt. 5.2.9 Satz. Es seien ϕ1 und ϕ2 zwei nicht ausgeartete alternierende n-fache Linearformen von V . Dann gibt es zu ihnen einen Skalar k = 0 mit ϕ2 = ϕ1 · k, d. h. ϕ2 (v 1 , . . . , v n ) = ϕ1 (v 1 , . . . , v n ) · k für alle v 1 , . . . , v n ∈ V . Beweis: Es sei {a 1 , . . . , a n } eine Basis von V . Nach Hilfssatz 5.2.6 gilt 1 ,a 2 ,...,a n ) ϕs (a 1 , a 2 , . . . , a n ) = 0 für s = 1, 2. Dann sei k = ϕϕ21 (a (a 1 ,a 2 ,...,a n ) ∈ F . Für beliebige Vektoren v 1 , . . . , v n mit den Basisdarstellungen vi =
n
i = 1, 2, . . . , n,
aj kij ,
j =1
gilt nach Satz 5.2.7 für s = 1, 2 :
ϕs (v 1 , v 2 , . . . , v n ) = ϕs (a 1 , a 2 , . . . , a n )
(sign π )k1,π(1) k2,π(2) . . . kn,π(n) .
π ∈Sn
Da c =
π∈Sn (sign π )k1,π(1) . . . kn,π(n)
∈ F unabhängig von s ist, folgt
ϕ1 (v 1 , . . . , v n ) ϕ1 (a 1 , . . . , a n )c = = k. ϕ2 (v 1 , . . . , v n ) ϕ2 (a 1 , . . . , a n )c
5.3
Determinanten von Endomorphismen und Matrizen
Mittels der Ergebnisse der vorangehenden Abschnitte wird nun der Begriff der Determinante eines Endomorphismus α eines n-dimensionalen F -Vektorraums V und einer n × n-Matrix A = (aij ) eingeführt. 5.3.1 Definition. Sei B = {a 1 , a 2 , . . . , a n } eine Basis des n-dimensionalen F Vektorraumes V , und sei ϕ eine nicht ausgeartete alternierende n-fache Linearform von V . Dann ist die Determinante des Endomorphismus α von V das Körperelement det(α) =
ϕ(α(a 1 ), α(a 2 ), . . . , α(a n )) . ϕ(a 1 , a 2 , . . . , a n )
5.3 Determinanten von Endomorphismen und Matrizen
107
Im folgenden Satz wird nun gezeigt, daß die Determinante allein durch den Endomorphismus α bestimmt ist. Sie hängt weder von der ausgewählten Basis B von V noch von der zugrunde liegenden n-fachen Linearform ϕ von V ab. 5.3.2 Satz. Die Determinante des Endomorphismus α von V ist unabhängig von der Auswahl der Basis {a 1 , a 2 , . . . , a n } von V und der nicht ausgearteten alternierenden n-fachen Linearform ϕ von V . Beweis: Ist der Endomorphismus α von V nicht bijektiv, so ist {α(a 1 ), α(a 2 ), . . . , α(a n )} nach Folgerung 3.2.14 linear abhängig. Also gilt nach Definition 5.2.4 ϕ(α(a 1 ), α(a 2 ), . . . , α(a n )) = 0 für alle Basen und alle alternierenden nicht ausgearteten n-fachen Linearformen ϕ von V . Insbesondere ist det α = 0. Sei nun α ein Automorphismus von V . Nach Folgerung 3.2.14 ist dann auch B = {α(a 1 ), α(a 2 ), . . . , α(a n )} eine Basis von V . Ist ϕ eine nicht ausgeartete alternierende n-fache Linearform von V , dann ist ϕ(α(a 1 ), α(a 2 ), . . . , α(a n )) = 0. Sei ϕα : V × V × · · · × V → F definiert durch ϕα (b1 , b2 , . . . , bn ) = ϕ(α(b1 ), α(b2 ), . . . , α(bn )). Da α linear und ϕ eine n-fache Linearform ist, ist ϕα n-linear. Da α ein Automorphismus von V ist, sind die α(bi ), i = 1, 2, . . . , n, nach Folgerung 3.2.14 genau dann linear abhängig, wenn die Vektoren b1 , b2 , . . . , bn von V linear abhängig sind. Da ϕ alternierend ist, folgt nach Hilfssatz 5.2.6, daß ϕα alternierend ist. Wegen ϕα (a 1 , a 2 , . . . , a n ) = ϕ(α(a 1 ), α(a 2 ), . . . , α(a n )) = 0 ist ϕα auch nicht ausgeartet. Nach Satz 5.2.9 gilt daher, daß k=
ϕα (a 1 , a 2 , . . . , a n ) ϕ(α(a 1 ), α(a 2 ), . . . , α(a n )) = = det α ϕ(a 1 , a 2 , . . . , a n ) ϕ(a 1 , a 2 , . . . , a n )
unabhängig von der jeweiligen Basis {a 1 , a 2 , . . . , a n } ist. Angenommen, ψ ist eine zweite nicht ausgeartete alternierende n-fache Linearform von V . Sei wieder ψα (b1 , b2 , . . . , bn ) = ψ(α(b1 ), α(b2 ), . . . , α(bn )) für alle b1 , b2 , . . . , bn ∈ V . Dann ist ψα ebenfalls eine nicht ausgeartete alternierende n-fache Linearform von V . Nach Satz 5.2.9 existiert ein 0 = c ∈ F derart, daß c=
ψ(a 1 , a 2 , . . . , a n ) ϕ(a 1 , a 2 , . . . , a n )
108
5 Determinanten
unabhängig von der Auswahl der Basis {a 1 , a 2 , . . . , a n } von V ist. Hieraus folgt det(α) = = = = =
ϕα (a 1 , a 2 , . . . , a n ) ϕ(a 1 , a 2 , . . . , a n ) cϕα (a 1 , a 2 , . . . , a n ) cϕ(a 1 , a 2 , . . . , a n ) cϕ(α(a 1 ), α(a 2 ), . . . , α(a n )) ψ(a 1 , a 2 , . . . , a n ) ψ(α(a 1 ), α(a 2 ), . . . , α(a n )) ψ(a 1 , a 2 , . . . , a n ) ψα (a 1 , a 2 , . . . , a n ) . ψ(a 1 , a 2 , . . . , a n )
Also ist det α auch unabhängig von der Wahl der alternierenden nicht ausgearteten n-fachen Linearform ϕ von V . 5.3.3 Folgerung. Sei V ein n-dimensionaler F -Vektorraum. Dann gilt: (a) Der Endomorphismus α von V ist genau dann ein Automorphismus von V , wenn det α = 0 ist. (b) Sind α und β Endomorphismen von V , so ist det(αβ) = det(α) det(β). (c) det(id) = 1. (d) Ist der Endomorphismus α von V invertierbar, so gilt det(α −1 ) = [det(α)]−1 . Beweis: Sei B = {a 1 , a 2 , . . . , a n } eine Basis von V und ϕ eine nicht ausgeartete alternierende n-fache Linearform von V , mit der die Determinanten det(α) =
ϕ(α(a 1 ), α(a 2 ), . . . , α(a n )) ϕ(a 1 , a 2 , . . . , a n )
aller Endomorphismen α von V konstruiert werden. Dann ist det α unabhängig von ϕ und B nach Satz 5.3.2. (a) Nach Folgerung 3.2.14 ist α genau dann ein Automorphismus von V , wenn α(a 1 ), α(a 2 ), . . . , α(a n ) linear unabhängige Vektoren von V sind. Wegen Hilfssatz 5.2.6 ist daher α genau dann ein Automorphismus von V , wenn ϕ(α(a 1 ), α(a 2 ), . . . , α(a n )) = 0 und somit det α = 0 ist.
5.3 Determinanten von Endomorphismen und Matrizen
109
(b) Sind α und β Automorphismen, dann gilt nach Definition 5.3.1 und Satz 5.3.2: ϕ(αβ(a 1 ), αβ(a 2 ), . . . , αβ(a n )) ϕ(a 1 , a 2 , . . . , a n ) ϕ(αβ(a 1 ), αβ(a 2 ), . . . , αβ(a n )) ϕ(β(a 1 ), β(a 2 ), . . . , β(a n )) = · ϕ(β(a 1 ), β(a 2 ), . . . , β(a n )) ϕ(a 1 , a 2 , . . . , a n ) = det(α) · det(β),
det(αβ) =
weil {β(a 1 ), β(a 2 ), . . . , β(a n )} nach Folgerung 3.2.14 eine Basis von V und damit ϕ(β(a 1 ), β(a 2 ), . . . , β(a n )) = 0 ist. Ist einer der beiden Endomorphismen α oder β kein Automorphismus, so ist nach Folgerung 3.2.14 auch αβ kein Automorphismus. Aus (a) folgt nun det(αβ) = 0 = det(α) det(β). (c) det(id) =
ϕ(id(a 1 ), id(a 2 ), . . . , id(a n )) ϕ(a 1 , a 2 , . . . , a n ) = = 1. ϕ(a 1 , a 2 , . . . , a n ) ϕ(a 1 , a 2 , . . . , a n )
(d) folgt aus det(α −1 ) · det(α) = det(α −1 α) = det(id) = 1.
Ist α ein Endomorphismus von V und A = {a 1 , a 2 , . . . , a n } eine fest gewählte Basis von V , so ist α(a i ) =
n
aj aij ,
i = 1, 2, . . . , n,
j =1
mit eindeutig bestimmten aij ∈ F , und Aα (A, A) = Aα = (aij ) ist nach Definition 3.3.1 die zu α gehörige n × n-Matrix in Matn (F ). Wegen Definition 3.3.1 und der Sätze 5.2.7 und 5.3.2 gilt det(α) = (sign π )a1,π(1) a2,π(2) . . . an,π(n) ∈ F. π∈Sn
Also ist det(α) = det(Aα (A, A)) im Sinne der folgenden Definition. 5.3.4 Definition. Als Determinante der n-reihigen quadratischen Matrix A = (aij ) mit Koeffizienten aus dem Körper F bezeichnet man das Element det A = (sign π )a1,π(1) a2,π(2) . . . an,π(n) ∈ F. π∈Sn
110
5 Determinanten
Bezeichnung: Wenn man bei der Determinante einer quadratischen Matrix A = (aij ) die Elemente der Matrix explizit angeben will, schreibt man statt det A ausführlicher det(aij ) oder a1,1 . . . a1,n .. .. , . . an,1 . . . an,n indem man das Matrix-Schema in senkrechte Striche einschließt.
5.4
Rechenregeln für Determinanten von Matrizen
In diesem Abschnitt werden die wesentlichen Verfahren für die Berechnung der Determinante einer n × n-Matrix A = (aij ) mit Koeffizienten aus einem Körper F dargestellt. 5.4.1 Satz. Die Determinante einer n-reihigen quadratischen Matrix A = (aij ) über dem Körper F besitzt folgende Eigenschaften: (a) Die Matrix A und ihre Transponierte AT besitzen dieselbe Determinante: det AT = det A. (b) Vertauscht man in A zwei Zeilen oder Spalten, so ändert die Determinante ihr Vorzeichen. (c) Addiert man zu einer Zeile (Spalte) eine Linearkombination der übrigen Zeilen (Spalten), so ändert sich die Determinante nicht. (d) Multipliziert man die Elemente einer Zeile (Spalte) mit einem Skalar c, so wird die Determinante mit c multipliziert. (e) Sind in A zwei Zeilen (Spalten) gleich, so gilt det A = 0. (f) det(Ac) = (det A)cn . (g) det A−1 = (det A)−1 , falls A invertierbar ist. (h) Ist B eine zweite n-reihige quadratische Matrix, so gilt det(AB) = (det A)(det B). (i) Für die Einheitsmatrix En gilt: det En = 1. Beweis: Es sei π −1 die zu π inverse Permutation. Da die Multiplikation im Körper F kommutativ ist, gilt für die in Definition 5.3.4 auftretenden Produkte a1,π(1) . . . an,π(n) = aπ −1 (1),1 . . . aπ −1 (n),n .
5.4 Rechenregeln für Determinanten von Matrizen
111
Da weiter mit π auch π −1 alle Permutationen aus Sn durchläuft und sign π −1 = sign π gilt, erhält man det A = (sign π )aπ(1),1 . . . aπ(n),n . π∈Sn
Der hier auf der rechten Seite stehende Ausdruck ist aber gerade die Determinante von AT . Damit ist die Behauptung (a) bewiesen. Aus ihr folgt, daß alle Ergebnisse über Determinanten richtig bleiben, wenn man in ihnen die Begriffe Zeile“ und ” Spalte“ vertauscht. Die Behauptungen (b) bis (e) brauchen daher nur für Spalten ” bewiesen zu werden. Entspricht die Matrix A hinsichtlich einer Basis {a 1 , . . . , a n } dem Endomorphismus α von V , so sind die Spalten von A gerade die Koordinaten der Bildvektoren α(a 1 ), . . . , α(a n ). Wegen der Definitionen 5.3.1 und 5.3.4 gilt det A =
ϕ(α(a 1 ), α(a 2 ), . . . , α(a n )) . ϕ(a 1 , a 2 , . . . , a n )
Deswegen folgt (b) aus Hilfssatz 5.2.5, (c) aus Definition 5.2.1 und Hilfssatz 5.2.6, (d) aus der Linearität der Determinantenformen und (e) aus Hilfssatz 5.2.6. Da bei der Bildung der Matrix Ac jede Zeile von A mit c multipliziert wird, folgt (f) durch n-malige Anwendung von (d). Schließlich sind (g), (h) und (i) eine unmittelbare Konsequenz von Folgerung 5.3.3. 5.4.2 Satz. Zwei ähnliche Matrizen A und B besitzen denselben Rang und dieselbe Determinante: rg(A) = rg(B) und det(A) = det(B). Beweis: Da Ähnlichkeit ein Spezialfall von Äquivalenz ist, gilt rg(A) = rg(B) nach Folgerung 3.5.3. Sei P eine invertierbare Matrix mit B = P −1 AP . Dann folgt aus (g) und (h) von Satz 5.4.1, daß det B = det(P −1 ) · det(A) · det(P ) = det(A) · det(P −1 ) · (det P ) = det(A) gilt.
5.4.3 Folgerung. Folgende Eigenschaften einer n × n-Matrix A über dem Körper F sind äquivalent: (a) A ist invertierbar, d. h. A besitzt eine inverse Matrix A−1 . (b) rg A = n. (c) det A = 0.
112
5 Determinanten
Beweis: Die Äquivalenz von (a) und (b) gilt nach Satz 3.4.9. Nach Satz 5.4.1 (g), (h) und (i) folgt (c) aus (a). Ist umgekehrt det A = 0, dann ist nach Satz 3.2.8 und der Definition von det A der Spaltenrang s(A) = n. Daher ist rg A = n nach Satz 3.4.4. Die Determinante einer n-reihigen quadratischen Matrix A = (aij ) kann mit Hilfe ihrer Definitionsgleichung det A = (sign π )a1,π(1) . . . an,π(n) π∈Sn
explizit berechnet werden. Praktisch brauchbar ist diese Gleichung indes nur in den einfachsten Fällen n = 1, 2, 3. Im Fall n = 1 besteht die Matrix A aus nur einem Element a und es gilt det A = a. Im Fall n = 2 liefert die Formel sofort a1,1 a1,2 a2,1 a2,2 = a1,1 a2,2 − a1,2 a2,1 . Im Fall n = 3 hat man es mit folgenden sechs Permutationen zu tun: (1, 2, 3), (2, 3, 1), (3, 1, 2)
und
(3, 2, 1), (2, 1, 3), (1, 3, 2).
Unter ihnen sind die ersten drei gerade, die letzten drei ungerade. Es folgt a1,1 a1,2 a1,3 a2,1 a2,2 a2,3 = a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 a3,1 a3,2 a3,3 − a1,3 a2,2 a3,1 − a1,2 a2,1 a3,3 − a1,1 a2,3 a3,2 . Als Merkregel für diesen Ausdruck ist folgende Vorschrift nützlich: 5.4.4 Regel von Sarrus. Man schreibe die erste und zweite Spalte der Matrix nochmals als vierte und fünfte Spalte hin. Dann bilde man die Produkte längs der ausgezogenen Linien, addiere sie und ziehe die Produkte längs der gepunkteten Linien ab:
.
a1,1 a1,2 a1,3 a1,1 a1,2 ·· ·· ··· @ @····· @····· ···· @ ·····@ ·····@ ····· a2,1 a2,2 a2,3 a2,1 a2,2 ··· ··· ··· ···· @ ···· @ ···· @ · · · · · · · · · @ ·· @ ·· @ ·· a3,1 a3,2 a3,3 a3,1 a3,2 . Für n 4 wird die Definitionsgleichung recht umfangreich und unübersichtlich, so daß sie für die praktische Rechnung im allgemeinen unbrauchbar ist. Hier hilft ein anderer Weg, der wieder an die elementaren Umformungen aus Kapitel 4 anknüpft.
5.4 Rechenregeln für Determinanten von Matrizen
113
Eigenschaft (c) aus Satz 5.4.1 besagt, daß die Determinante durch elementare Umformungen des Typs (c) in Definition 4.1.9 nicht geändert wird. Weiter besagt die Eigenschaft (b), daß Zeilen- und Spaltenvertauschungen, also die elementaren Umformungen des Typs (a) von Definition 4.1.9 bei der Determinante lediglich einen Vorzeichenwechsel bewirken. Nun kann man nach Satz 4.1.19 eine n-reihige quadratische Matrix A mit Hilfe des Gauß-Algorithmus immer in eine Matrix B folgender Gestalt überführen: b1,n b1,1 . . . .. 0 b2,2 . , B= . .. .. .. . . 0 ... 0 bn,n bei der unterhalb der Hauptdiagonale lauter Nullen stehen. Daß noch weitere Nullen auftreten können, interessiert in diesem Zusammenhang nicht. Nach den vorangehenden Bemerkungen gilt dann det A = (−1)k det B, wobei k die Anzahl der bei den Umformungen vorgenommen Zeilen- und Spaltenvertauschungen ist. Die Determinante der Matrix B kann aber sofort angegeben werden: Für die Elemente bi,j von B gilt zunächst bi,j = 0 für i > j . Ist nun π eine von der Identität verschiedene Permutation aus Sn , so gibt es mindestens ein i mit i > π(i). Wegen bi,π(i) = 0 verschwindet daher der zu dieser Permutation gehörende Summand in der Definitionsgleichung der Determinante. Die Summe reduziert sich somit auf den zur identischen Permutation gehörenden Summanden, und man erhält den 5.4.5 Satz. Eine Dreiecksmatrix B = (bij ) hat die Determinante det B = b1,1 b2,2 . . . bn,n . Damit hat sich für die Berechnung von Determinanten folgende allgemeine Vorschrift ergeben: 5.4.6 Berechnungsverfahren für Determinanten. Es sei A eine n-reihige quadratische Matrix. Diese werde durch elementare Umformungen (a) und (c), unter denen genau k Zeilen- oder Spaltenvertauschungen vorkommen, in eine Matrix B = (bij ) überführt, bei der unterhalb der Hauptdiagonale lauter Nullen auftreten. Dann gilt det A = (−1)k b1,1 b2,2 . . . bn,n .
114
5 Determinanten
5.4.7 Beispiel. Gegeben sei die Matrix 1 2 A= −1 0
3 5 2 0
4 7 −3 1
0 1 . 0 4
Durch elementare Umformungen der Form (c) von Definition 4.1.9 geht die Matrix A über in die Matrizen 1 3 4 0 1 3 4 0 0 −1 −1 1 , 0 −1 −1 1 0 0 0 −4 5 5 1 0 0 0 1 4 0 0 1 4 und schließlich
1 0 B= 0 0
3 −1 0 0
4 −1 −4 0
0 1 . 5 21 4
Da keine Vertauschungen vorgenommen wurden, ergibt sich nach Satz 5.4.5 21 = 21. det A = det B = 1(−1)(−4) 4
5.4.8 Definition. A = (aij ) sei eine n × n-Matrix über dem Körper F . Durch Weglassen der i-ten Zeile und der j -ten Spalte erhält man eine (n − 1) × (n − 1)-Matrix Mij , eine Untermatrix von A. Ihre Determinante det Mij heißt die Unterdeterminante von A bezüglich aij , und den Ausdruck Aij = (−1)i+j det Mij bezeichnet man als Adjunkte von aij . 5.4.9 Satz (Entwicklungssatz von Laplace). Ist A = (aij ) eine n × n-Matrix über dem Körper F , dann gelten: (a) det A = jn=1 aij Aij , Entwicklung nach der i-ten Zeile von A. (b) det A = ni=1 aij Aij , Entwicklung nach der j -ten Spalte von A. Beweis: Nach Definition 5.3.4 gilt det A = (sign π )a1,π(1) a2,π(2) . . . an,π(n) . (∗) π∈Sn
Jedes Monom a1,π(1) a2,π(2) . . . an,π(n) enthält genau einen Koeffizienten des i-ten Zeilenvektors zi = (ai1 , ai2 , . . . , ain ) von A. Daher läßt sich (∗) schreiben als (∗∗)
det A = ai1 A∗i1 + ai2 A∗i2 + · · · + ain A∗in ,
5.4 Rechenregeln für Determinanten von Matrizen
115
wobei jedes A∗ij eine Summe von Monomen mit n − 1 Faktoren ist, von denen keiner eine Komponente aij des i-ten Zeilenvektors zi ist. Daher genügt es zu zeigen, daß A∗ij = Aij ,
(∗∗∗)
wobei Aij die Adjunkte von aij ist. Sei zunächst i = n und j = n. Dann ist die Summe der Terme von det(A) in (∗), die den Faktor ann enthalten, gerade der Ausdruck ann A∗n,n
= ann (sign π )a1,π(1) a2,π(2) . . . an−1,π(n−1) , π
wobei die Summe über alle Permutationen π ∈ Sn mit π(n) = n gebildet wird. Indem man in (∗) und (∗∗) den Koeffizienten von ann betrachtet, erhält man nun A∗n,n =
(sign π )a1,π(1) a2,π(2) . . . an−1,π(n−1) .
π∈Sn−1
Daher ist A∗n,n = (−1)n+n det Mn,n = An,n . Man betrachte nun ein beliebiges Paar (i, j ). Dann werde die i-te Zeile zi mit der (i + 1)-ten Zeile zi+1 vertauscht. Dieser Prozeß wird solange fortgesetzt, bis zi zur letzten Zeile der Matrix A geworden ist. Ebenso vertauscht man dann die j -te Spalte sj von A solange mit der um 1 höher indizierten Spalte sj +1 von A, bis sj zur letzten Spalte von A geworden ist. Hierbei hat sich der Wert der Determinante der Matrix Mij nach Satz 5.4.1 nicht geändert. Jedoch hat sich das Vorzeichen von det(A) und von A∗ij um den Faktor (−1)n−i+n−j geändert. Also gilt A∗ij = (−1)n−i+n−j det(Mij ) = (−1)i+j det(Mi,j ) = Ai,j . Wegen (∗∗) folgt daher det A =
n
aij Aij .
j =1
(b) Wegen Satz 5.4.1(a) folgt (b) sofort durch Transposition aus (a).
In der Regel ist der Entwicklungssatz von Laplace für die Berechnung einer größeren n × n-Matrix A wenig brauchbar. Ist n > 4, so muß man die LaplaceEntwicklung auch auf alle (n − 1) × (n − 1)-Untermatrizen Mij anwenden. Das ist sehr rechenintensiv. Sind jedoch verhältnismäßig viele Koeffizienten aij der Matrix A gleich Null, dann kann es vorteilhaft sein, ihre Determinante mittels Satz 5.4.9 zu berechnen.
116
5 Determinanten
5.4.10 Beispiel. Durch Entwickeln nach der dritten Zeile und dann nach der zweiten Spalte erhält man 5 2 −2 1 5 2 −2 3 0 1 4 = (−1)3+4 · 2 · det 3 0 1 det 0 0 0 2 1 0 3 1 0 3 −4 3 1 = (−2) · (−2) det 1 3 = 4 · (9 − 1) = 32. 5.4.11 Definition. Eine n × n-Matrix A = (aij ) ist eine obere Blockmatrix, wenn eine natürliche Zahl p < n existiert mit aij = 0 für p + 1 ≤ i ≤ n und 1 ≤ j ≤ p. Sei P = (aij ) Q = (aij )
mit 1 ≤ i und j ≤ p,
D = (aij )
mit 1 ≤ i ≤ p und p + 1 ≤ j ≤ n.
mit p + 1 ≤ i und j ≤ n,
Dann hat A die Form
A=
P 0
D Q
.
Analog definiert man untere Blockmatrizen der Form P 0 A= . D Q 5.4.12 Satz. Ist A eine obere n × n-Blockmatrix von der Form A = ist det A = (det P ) · (det Q).
P D 0 Q
, dann
Beweis: Durch elementare Zeilenumformungen, die nur die ersten p Zeilen verändern, läßt sich A umformen zu P D A = 0 Q derart, daß P obere Dreiecksform hat. Sei s die Zahl der dabei benutzten Zeilenvertauschungen. Dann verwendet man elementare Zeilenumformungen, die nur die letzten n − p Zeilen verändern, um A zu P D A = 0 Q
117
5.5 Anwendungen
umzuformen, und zwar derart, daß auch Q obere Dreiecksform hat. Sei t die Anzahl der dabei verwendeten Zeilenvertauschungen. Dann hat A ebenfalls obere Dreiecksform, und nach den Sätzen 5.4.5 und 5.4.1 gilt: det A = (det P ) · (det Q ) = (−1)s+t det A = [(−1)s det(P )][(−1)t det Q] = (−1)s+t det(P ) det(Q),
woraus die Behauptung folgt.
5.5 Anwendungen Eine Anwendung der Determinantentheorie bezieht sich auf die Auflösung linearer Gleichungssysteme, deren Koeffizientenmatrix quadratisch und invertierbar ist. Ebenso ist es möglich, die Inverse A−1 einer invertierbaren n × n-Matrix A explizit mit Hilfe geeigneter Determinanten anzugeben. 5.5.1 Definition. Ist A = (aij ) eine n × n-Matrix über dem Körper F und Aij jeweils die Adjunkte zu aij , so heißt die Matrix A11 . . . An1 .. adj A = ... . A1n
...
Ann
die Adjunkte von A. Beachte: adj A ist die Transponierte zu (Aij ). 5.5.2 Satz. Für jede n × n-Matrix A über dem Körper F gilt: (a) A · (adj A) = (adj A) · A = En · (det A). (b) A−1 =
1 det A (adj A),
falls A invertierbar ist.
Beweis: (a) A · (adj A) = (aij )(Akj ) = T
n
aij Akj .
j =1
Nach Definition 5.4.8 und Satz 5.4.9 gilt wegen der anschließenden Bemerkung: n det A falls i = k, aij Akj = (∗) 0 sonst. j =1
n
Denn für k = i ist j =1 aij Akj = det Ck , wobei Ck diejenige n × n-Matrix ist, die aus A entsteht, indem man die k-te Zeile durch die i-te Zeile von A ersetzt. Da Ck
118
5 Determinanten
zwei gleiche Zeilen hat, ist det Ck = 0 nach Satz 5.4.1. Deshalb ist A · (adj A) = (det A) · En nach (∗). (b) Falls A invertierbar ist, folgt A−1 = det1A (adj A) aus (a). 5.5.3 Satz (Cramersche Regel). Gegeben sei ein lineares Gleichungssystem a11 x1 .. .
+
···
+
a1n xn .. .
=
d1 .. .
an1 x1
+
···
+ ann xn
=
dn
mit der n × n-Koeffizientenmatrix A = (aij ). Ist det A = 0, dann hat das Gleichungssystem die eindeutig bestimmte Lösung n 1 xj = · di Aij det A
für j = 1, . . . , n.
i=1
Beweis: Wegen det A = 0 hat das Gleichungssystem (G) Ax = d nach Folgerung 5.4.3 die eindeutig bestimmte Lösung x = A−1 d. Nach Satz 5.5.2 (b) ist 1 A−1 = det (adj A). Wegen Definition 5.5.1 erfüllt daher die j -te Komponente des Spaltenvektors (adj A)d die Gleichung (det A)xj = ni=1 Aij di . Also gilt die Behauptung. 5.5.4 Bemerkung. Da die Berechnung von Determinanten recht mühevoll ist, ist die Cramersche Regel für praktische Anwendungen zur Auflösung linearer Gleichungssysteme weitgehend unbrauchbar. Für theoretische Untersuchungen ist sie jedoch oft wegen ihrer expliziten Beschreibung der Lösung eines Gleichungssystems (G) Ax = d sehr hilfreich.
5.6 Aufgaben 5.1
(a) Bestimmen Sie die Determinante von 1 2 3 2 6 9 A= 3 10 18 4 14 27 5 18 36
(b) Berechnen Sie:
a b det r v
b a s w
4 12 24 40 56 c c t x
5 15 30 50 75
d d . u y
.
119
5.6 Aufgaben 5.2 (Vandermondesche Determinante) Man beweise det
1 c1 c12 .. . c1n−1
1 c2 c22 .. . c2n−1
1 cn cn2 .. . cnn−1
... ... ...
...
(cj − ci ). = i<j
5.3 Man berechne die Determinante der n × n-Matrizen A, B als Funktionen von n: 1 i≤j für 1 ≤ i, j ≤ n, A = (aij ), aij = n+1−j i >j 1 i+j =n+1 für 1 ≤ i, j ≤ n. B = (bij ), bij = 0 sonst 5.4 Die n × n-Matrix
A=
P R
Q S
sei durch die r × r-Matrix P , die (n − r) × r-Matrix R, die r × (n − r)-Matrix Q und die (n − r) × (n − r)-Matrix S in Blöcke unterteilt, wobei P außerdem invertierbar sei. (a) Zeigen Sie, daß durch elementare Umformungen die Matrix A in die Form
P R
0 S − R · P −1 · Q
gebracht werden kann. (b) Folgern Sie aus (a), daß det(A) = det(P ) · det(S − R · P −1 · Q). 5.5 Gegeben seien die n × n-Matrizen A und B über dem Körper F . Die 2n × 2n-Matrix En B P = −A 0 ist durch A, B und die n × n-Einheitsmatrix En in Blöcke zerlegt. (a) Folgern Sie aus dieser Zerlegung det(P ) = det(A) · det(B). (b) Zeigen Sie, daß durch elementare Zeilenumformungen die Matrix P in die Form En B 0 AB gebracht werden kann. (c) Folgern Sie aus (b), daß det(P ) = det(AB) gilt. Liefern Sie damit einen Beweis des Produktsatzes det(AB) = det(A) · det(B).
120
5 Determinanten
5.6 Bestimmen Sie die Lösungsgesamtheit des folgenden Gleichungssystems mittels der Cramerschen Regel: x1 + 3x2 + 4x3 = 19 2x1 + 5x2 + 7x3 + x4 = 32 −x1 + 2x2 − 3x3 = −6 x3 + 4x4 = −1. 5.7 Wie lautet die dem Satz 5.4.12 entsprechende Gleichung für die Determinante einer Matrix der Form 0 A1 A= ? A2 B 5.8 Berechnen Sie die Inverse der Matrix
1 A= 3 1
0 1 2
−1 −3 −2
mit Hilfe von Satz 5.5.2. 5.9 Für die invertierbare n × n-Matrix A = (ai,j ) gelte n j =1
ai,j ak,j =
1 0
für i = k, für i = k.
Folgern Sie, daß det A = ±1 und ai,k = (det A)(Ai,k ) gilt, wobei Ai,k die Adjunkte zu ai,k ist. 5.10 Es sei Ci,j diejenige n-reihige quadratische Matrix über einem Körper F , die im Kreuzungspunkt der i-ten Zeile und der j -ten Spalte eine 1 und sonst lauter Nullen aufweist. Ferner sei M die Menge aller Matrizen der Form En + aCi,j mit i = j und beliebigem a ∈ F . Beweisen Sie die folgenden Behauptungen: (a) Die Matrizen aus M besitzen die Determinante 1. (b) Jede n-reihige quadratische Matrix über F , die die Determinante 1 besitzt, kann als Produkt endlich vieler Matrizen aus M dargestellt werden.
6 Eigenwerte und Eigenvektoren
Zwei n × n-Matrizen A und B über dem Körper F heißen nach Definition 3.5.4 ähnlich, wenn es eine invertierbare n × n-Matrix P gibt derart, daß B = P −1 AP gilt. In diesem Kapitel wird die Frage untersucht, unter welchen Bedingungen eine Matrix A zu einer Diagonalmatrix D = (dij ), dij = 0 für i = j , ähnlich ist. Hierzu werden die Begriffe Eigenvektor“, Eigenwert“ und charakteristisches Polynom“ ” ” ” eingeführt. Im allgemeinen ist eine Matrix A nicht diagonalisierbar. Liegen jedoch alle Eigenwerte von A im Körper F , so ist A ähnlich zu einer sehr speziellen, eindeutig bestimmten Dreiecksmatrix J; sie heißt Jordansche Normalform von A. Diese Ergebnisse und ein Berechnungsverfahren für die Jordansche Normalform werden im dritten Abschnitt dieses Kapitels dargestellt. Im vierten Abschnitt wird eine Anwendung auf die Lösung linearer homogener Differentialgleichungssysteme vorgestellt.
6.1
Charakteristisches Polynom und Eigenwerte
Es seien V ein beliebiger F -Vektorraum und α : V → V ein Endomorphismus. Offenbar ist die Wirkung von α auf diejenigen Vektoren besonders einfach, die durch α nur auf Vielfache von sich selbst abgebildet werden. Derartige Vektoren spielen bei der Beschreibung von Normalformen von Endomorphismen und Matrizen eine entscheidende Rolle. 6.1.1 Definition. Ein Skalar f ∈ F heißt Eigenwert des Endomorphismus α ∈ EndF (V ), wenn es einen Vektor v = 0 in V gibt derart, daß α(v) = vf ist. Jeder vom Nullvektor verschiedene Vektor v ∈ V mit α(v) = vf heißt Eigenvektor von α mit Eigenwert f . Im Fall dim V = n < ∞ sei B eine Basis von V , und A = Aα (B, B) sei die α zugeordnete Matrix. Dann können die Begriffe Eigenvektor und Eigenwert unmittelbar auf die Matrix A und auf Spaltenvektoren von F n übertragen werden. 6.1.2 Definition. Sei A eine n × n-Matrix mit Koeffizienten aus dem Körper F . Ein Skalar f ∈ F heißt Eigenwert von A, wenn es einen vom Nullvektor verschiedenen Spaltenvektor s ∈ F n gibt derart, daß As = sf ist.
122
6 Eigenwerte und Eigenvektoren
Jeder Spaltenvektor 0 = s ∈ F n mit As = sf heißt Eigenvektor der Matrix A mit Eigenwert f . 6.1.3 Bemerkung. Ist A = Aα (B, B) die dem Endomorphismus α hinsichtlich einer Basis B zugeordnete Matrix und entspricht dem Vektor v ∈ V bezüglich B die Koordinatenspalte s ∈ F n , so ist die Gleichung α(v) = vf gleichwertig mit As = sf , d. h. v ist genau dann Eigenvektor von α, wenn s Eigenvektor der Matrix A ist. Der Koordinatenvektor s hängt dabei aber, ebenso wie die Matrix A, noch von der Wahl der Basis B ab und ändert sich im allgemeinen bei einem Basiswechsel. Der Eigenwert f hingegen ist in allen Fällen derselbe. Er hängt nur von α, nicht aber von der Wahl der Basis und der dadurch bestimmten Matrix A ab. 6.1.4 Satz. Ähnliche Matrizen besitzen dieselben Eigenwerte. Beweis: Zwei n × n-Matrizen A, B sind nach Bemerkung 3.5.5(a) genau dann ähnlich, wenn sie hinsichtlich geeigneter Basen denselben Endomorphismus α beschreiben. Da nach Bemerkung 6.1.3 die Eigenwerte von A und B mit den Eigenwerten von α übereinstimmen, folgt die Behauptung. Die Definitionsgleichung α(v) = vf für Eigenvektoren und Eigenwerte ist gleichwertig mit (∗)
o = vf − α(v) = (id ·f − α)v,
wobei dann id ·f − α wieder ein Endomorphismus von V ist. 6.1.5 Satz. Genau dann ist f Eigenwert von α bzw. der n × n-Matrix A, wenn Ker(id ·f − α) = {o} bzw. Ker(En · f − A) = {o} gilt. Ist f ein Eigenwert, so sind die zu f gehörenden Eigenvektoren genau die von o verschiedenen Vektoren v ∈ Ker(id ·f − α) bzw. s ∈ Ker(En · f − A). Beweis: Genau dann ist f Eigenwert von α, wenn (∗) einen Lösungsvektor v = o besitzt. Dies ist gleichwertig mit Ker(id ·f − α) = {o}. Die zugehörigen Eigenvektoren sind genau die Lösungsvektoren v = o von (∗), also die Vektoren v = o aus Ker(id ·f − α). Im endlich-dimensionalen Fall ergibt sich die entsprechende Behauptung für Matrizen aus Satz 3.2.8(b) und Definition 6.1.2. 6.1.6 Definition. Ist f ein Eigenwert des Endomorphismus α bzw. der n × n-Matrix A, so heißt der von {o} verschiedene Unterraum Ker(id ·f − α) der zu f gehörende Eigenraum.
bzw.
Ker(En · f − A)
123
6.1 Charakteristisches Polynom und Eigenwerte
Sei B = {v 1 , v 2 , . . . , v n } eine Basis des endlich-dimensionalen Vektorraums V . Sei A = Aα (B, B) = (aij ) die dem Endomorphismus α : V → V hinsichtlich B zugeordnete n × n-Matrix. Die Eigenwertbedingung Ker(id ·f − α) = {o} aus Satz 6.1.5 ist dann nach Satz 3.2.13 und Folgerung 3.4.8 gleichwertig mit rg(id ·f − α) < n bzw. rg(En · f − A) < n und wegen Folgerung 5.4.3 auch gleichwertig mit det(id ·f − α) = 0 bzw. det(En · f − A) = 0. Diese Determinantenbedingung kann man nun aber als Bestimmungsgleichung für die zunächst noch unbekannten Eigenwerte f auffassen, indem man in ihr f durch eine Unbestimmte X ersetzt. Dazu bedarf es allerdings zunächst einer Vorbemerkung. 6.1.7 Bemerkung. Die entstehende Bestimmungsgleichung X − a11 · · · −a1n . .. . .. .. det(id ·X − α) = det(En · X − A) = . −an1 · · · X − ann
=0
erfordert die Berechnung der Determinante einer Matrix, deren Koeffizienten nicht alle aus dem Körper F stammen. Denn aus der letzten Determinante erkennt man, daß jedenfalls die Hauptdiagonalelemente X − aii Polynome aus dem Polynomring F [X] sind. In Kapitel 10 wird gezeigt, daß Determinanten aber auch von Matrizen gebildet werden können, deren Koeffizienten nur in einem Ring liegen. In der dort entwickelten allgemeineren Determinantentheorie über kommutativen Ringen gelten dann auch die Rechenregeln des Kapitels 5, sofern sie sich nicht auf die Bildung von Inversen von Ringelementen bzw. Matrizen beziehen. 6.1.8 Definition. Sei X eine Unbestimmte über dem Körper F . Das Polynom char PolA (X) = det(E · X − A)
bzw.
char Polα (X) = det(id ·X − α)
heißt charakteristisches Polynom der n × n-Matrix A bzw. des Endomorphismus α des F -Vektorraums V . 6.1.9 Satz. (a) Sei A = Aα (B, B) die n × n-Matrix des Endomorphismus α bezüglich der Basis B des Vektorraums V . Dann gilt char Polα (X) = char PolA (X). (b) Ähnliche Matrizen besitzen dasselbe charakteristische Polynom. Beweis: (a) Für jeden Skalar f ∈ F ist En · f − A nach Definition 3.3.1 die Matrix des Endomorphismus id ·f − α von V . Ersetzt man nun f durch die Unbestimmte X, so folgt wegen Bemerkung 6.1.7 und Definition 5.3.4, daß det(id ·X − α) = det(En · X − A). Also gilt (a). (b) Nach Bemerkung 3.5.5 (a) beschreiben ähnliche Matrizen denselben Endomorphismus von V . Deshalb ist (b) eine Folge von (a).
124
6 Eigenwerte und Eigenvektoren
Wegen Satz 6.1.9 genügt es, im folgenden Sätze über charakteristische Polynome von Endomorphismen bzw. Matrizen nur für einen dieser Fälle zu formulieren. Falls Fragen der Berechenbarkeit im Vordergrund stehen, werden diese Sätze für Matrizen formuliert. 6.1.10 Satz. Das charakteristische Polynom einer n × n-Matrix A = (aij ) mit Koeffizienten aij ∈ F hat die Form char PolA (X) = Xn + qn−1 X n−1 + · · · + q1 X + q0 , mit geeigneten Koeffizienten q0 , q1 , . . . , qn−1 ∈ F , wobei q0 = (−1)n det A und qn−1 = − tr A gilt. Beweis: Sei (En · X − A) = (bij ) mit 1 ≤ i, j ≤ n. Nach Definition 5.3.4 ist det(En · X − A) =
(sign π ) b1,π(1) b2,π(2) . . . bn,π(n) .
π∈Sn
Für π = id ∈ Sn ist b1,π(1) b2,π(2) . . . bn,π(n) = ni=1 (X − aii ) ein normiertes Polynom vom Grade n. Alle anderen Summanden gehören zu Permutationen π = id. Bei denen gilt π(i) = i für mindestens zwei Indizes i. Daher ist der entsprechende Summand (sign π )b1,π(1) b2,π(2) . . . bn,π(2) ein Polynom höchstens (n − 2)-ten Grades in X, d. h. r(X) = (sign π ) b1,π(1) b2,π(2) . . . bn,π(n) ∈ F [X] id=π∈Sn
ist ein Polynom mit Grad r(X) ≤ n − 2. Hieraus folgt char PolA (X) = det(En X − A) =
n
(X − aii ) + r(X)
i=1
und Grad n
n
i=1 (X
− aii ) = n ≥ Grad r(X) + 2. Da
(X − aii ) = Xn − (a11 + a22 + · · · + ann )X n−1 + · · · + (−1)n
i=1
n
aii ,
i=1
und tr(A) =
n
i=1 aii
ist, folgt
char PolA (X) = X n − tr(A)X n−1 + qn−2 X n−2 + · · · + q1 X + q0 für geeignete qi ∈ F . Setzt man X = 0, so folgt q0 = char PolA (0) = det(−A) = (−1)n det A nach Satz 5.4.1.
125
6.1 Charakteristisches Polynom und Eigenwerte
6.1.11 Bemerkung. Theoretisch lassen sich die Koeffizienten des charakteristischen Polynoms char PolA (X) = X n + qn−1 X n−1 + · · · + q1 X + q0 einer (n × n)-Matrix A mit dem Entwicklungssatz 5.4.9 von Laplace berechnen. Hat man einen Computer zur Hand, so ist folgendes Verfahren erheblich praktischer. Man wählt n verschiedene Zahlen zi im Körper F , i = 1, 2, . . . , n. Dann berechnet man mit dem Verfahren 5.4.6 die n Determinanten det(zi E − A) = di ∈ F. Nach Satz 6.1.10 ergibt sich hieraus das inhomogene Ungleichungssystem mit den n Gleichungen (∗)
qn−1 zin−1 + qn−z zin−2 + · · · + q1 zi + q0 = di − zin ,
1 ≤ i ≤ n,
in den n Unbestimmten q0 , q1 , . . . , qn−1 . Mittels des Lösungsverfahrens 4.2.7 bestimmt man die Lösung von (∗). Es sei jetzt f (X) ∈ F [X] ein Polynom. Dann nennt man bekanntlich ein Element a ∈ F eine Nullstelle von f (X), falls f (a) = 0 gilt. 6.1.12 Satz. Genau dann ist f ∈ F ein Eigenwert der n × n-Matrix A, wenn f eine Nullstelle des charakteristischen Polynoms char PolA (X) von A ist. Beweis: f ∈ F ist Nullstelle des charakteristischen Polynoms von A genau dann, wenn 0 = char PolA (f ) = det(E · f − A). Dies ist nach Folgerung 5.4.3 genau dann der Fall, wenn rg(E · f − A) < n ist. Nach Satz 3.2.13 ist diese Ungleichung äquivalent zu dim Ker(E · f − A) = n − rg(E · f − A) > 0. Also ist f ∈ F genau dann eine Nullstelle von char PolA (X), wenn A einen Eigenvektor v = 0 zum Eigenwert f hat. 6.1.13 Beispiel. Mittels Satz 6.1.12 sollen nun die Eigenwerte und Eigenvektoren der folgenden Matrix bestimmt werden. 3 1 1 A = 2 4 2 . 1 1 3 Mit Hilfe der Regel 5.4.4 von Sarrus folgt X−3 −1 −1 −2 X − 4 −2 char PolA (X) = det −1 −1 X − 3 = (X − 3)2 (X − 4) − 2 − 2 − (X − 4) − 2(X − 3) − 2(X − 3) = X 3 − 10X 2 + 28X − 24.
126
6 Eigenwerte und Eigenvektoren
Dieses Polynom hat f1 = 2 als eine Nullstelle, wie man durch Einsetzen sieht. Um die übrigen Nullstellen zu finden, teilt man das charakteristische Polynom durch (X − 2) und erhält: (X3 −10X 2 + 28X −24) : (X − 2) = X 2 − 8X + 12. X3 − 2X 2 −8X 2 + 28X −8X 2 + 16X 12X −24 12X −24 √ X2 − 8X + 12 hat die Nullstellen f2,3 = 4 ± 16 − 12. Also ist f2 = 6, f3 = 2. Nach Satz 6.1.12 hat A die Eigenwerte f1 = f3 = 2 und f2 = 6. Der Eigenraum Ker(E3 · f1 − A) zum Eigenwert f1 ist die Lösungsgesamtheit des homogenen Gleichungssystems mit der Koeffizientenmatrix −1 −1 −1 E3 · 2 − A = −2 −2 −2 . −1 −1 −1 Da rg(E3 · 2 − A) = 1 ist, gilt dim Ker(E3 · 2 − A) = 2 nach Satz 3.2.13. Deshalb bilden v 1 = (1, −1, 0) und v 2 = (1, 0, −1) eine Basis von Ker(E3 · f1 − A). Ebenso sieht man, daß dim Ker(E3 · f2 − A) = 1 und v 3 = (1, 2, 1) ein Eigenvektor zum Eigenwert f2 = 6 ist, weil 3 −1 −1 (E3 · 6 − A) = −2 −2 −2 −1 −1 3 den Rang 2 hat. Diese drei Eigenvektoren sind sogar linear unabhängig. Also ist {v 1 , v 2 , v 3 } eine Basis von V = F 3 . 6.1.14 Bemerkungen. (a) Während die Berechnung von Eigenvektoren zu gegebenem Eigenwert unproblematisch ist, da nach Satz 6.1.5 nur lineare Gleichungssysteme gelöst werden müssen, stellt die Berechnung der Eigenwerte, also der Nullstellen des charakteristischen Polynoms char PolA (X), oft eine große Schwierigkeit dar. Selbst im Falle der Körper R oder C gibt es für Polynome eines Grades größer gleich 5 keine allgemeinen Verfahren zur Berechnung ihrer Nullstellen. Hierzu ist man auf numerische Nährungsverfahren angewiesen. (b) Es kann passieren, daß das charakteristische Polynom einer Matrix A gar keine Nullstellen in F hat. Dann hat A nach Satz 6.1.12 auch keine Eigenvektoren
6.1 Charakteristisches Polynom und Eigenwerte
127
0 1 im Fall des Körpers F = R der reellen Zahlen in F n . Hierfür ist A = −1 0 ein Beispiel; denn char PolA (X) = X 2 + 1 hat in R keine Nullstellen. (c) Besitzt das Polynom g(X) ∈ F [X] in F genau die nicht notwendig verschiedenen Nullstellen f1 , f2 , . . . , ft , so kann es in der Form g(X) = (X − f1 ) · (X − f2 ) . . . (X − ft ) · h(X) dargestellt werden, wobei dann h(X) ∈ F [X] in F keine Nullstellen besitzt. (d) Jeder Körper kann zu einem (kleinsten) algebraisch abgeschlossenen Körper erweitert werden. Im Falle des Körpers R ist C dieser algebraisch abgeschlossene Erweiterungskörper (Hauptsatz 1.4.4 der Algebra). Um fehlende Eigenwerte zu vermeiden, ist es häufig zweckmäßig, den Skalarenkörper zu einem algebraisch abgeschlossenen Körper zu erweitern, also z. B. einen reellen Vektorraum in seine komplexe Erweiterung einzubetten. Dies wird in Kapitel 7 näher beschrieben. In Beispiel 6.1.13 hatte der Eigenwert 2 die Vielfachheit 2, und dem entsprach, daß es zu diesem Eigenwert auch zwei linear unabhängige Eigenvektoren gab.
Diese Situation muß aber keineswegs immer eintreten. So besitzt die Matrix A = 01 11 den doppelten Eigenwert 1, es gilt aber dim Ker(E2 ·1−A) = 1. Umgekehrt zeigt aber der nächste Satz, daß die Dimension des Eigenraums die Vielfachheit des Eigenwertes nicht übersteigen kann. 6.1.15 Definition. Sind alle Eigenwerte fr , 1 ≤ r ≤ k, der n × n-Matrix A = (aij ) mit Koeffizienten aij aus dem Körper F in F enthalten, dann ist char PolA (X) = k cr r=1 (X − fr ) nach Satz 6.1.12. Die natürliche Zahl cr heißt die Vielfachheit des Eigenwerts fr von A. Analog erklärt man die Vielfachheit des Eigenwertes f eines Endomorphismus α ∈ EndF (V ). 6.1.16 Satz. Sei f ein Eigenwert von α ∈ EndF (V ) der Vielfachheit c. Dann gilt für die Dimension des Eigenraumes dim Ker(id ·f − α) ≤ c. Beweis: Es sei {v 1 , . . . , v r } eine Basis des Eigenraumes zum Eigenwert f , die zu einer Basis B = {v 1 , . . . , v r , . . . , v n } des Vektorraums V ergänzt wird. Wegen α(v i ) = v i · f für i = 1, . . . , r hat α bezüglich der Basis B die Matrix f ··· 0 .. . . . C . . .. 0 ··· f , Aα (B, B) = 0 · · · 0 . . .. D .. 0 ··· 0
128
6 Eigenwerte und Eigenvektoren
die eine obere Blockmatrix ist, deren oberstes linkes Kästchen eine Diagonalmatrix mit dem einzigen Eigenwert f ist. Nach Satz 5.4.12 und Satz 6.1.12 folgt, daß f ein mindestens r-facher Eigenwert von α ist.
6.2
Diagonalisierbarkeit von Matrizen
In diesem Abschnitt bezeichnet V stets einen endlich-dimensionalen Vektorraum über dem Körper F . Es werden diejenigen Endomorphismen α ∈ EndF (V ) charakterisiert, für die V eine Basis B besitzt, die aus Eigenvektoren von α besteht. 6.2.1 Satz. Eigenvektoren zu verschiedenen Eigenwerten eines Endomorphismus α von V sind linear unabhängig. Beweis: Es seien f1 , f2 , . . . , fk paarweise verschiedene Eigenwerte von α, wobei k ≤ n = dimF V . Für i = 1, 2, . . . , k sei v i ein zu fi gehörender Eigenvektor von α. Dann gilt: o für i = j, (id ·fi − α)vj = vj fi − α(vj ) = vj fi − vj · fj = vj (fi − fj ) sonst. Wäre {v 1 , v 2 , . . . , v k } linear abhängig, dann existierten ci ∈ F , die nicht alle gleich 0 wären, derart, daß k
(∗)
v i ci = o.
i=1
Sei c1 = 0. Wendet man den Endomorphismus folgt der Widerspruch o=
$ k i=2
% k
(id ·fi − α)
i=1
k
i=2 (id ·fi
− α) auf (∗) an, dann
v i ci
= v 1 c1 (f2 − f1 ) . . . (fk − f1 ) = o.
Entsprechend gilt Satz 6.2.1 auch für n × n-Matrizen A mit Koeffizienten aus dem Körper F . 6.2.2 Folgerung. Wenn das charakteristische Polynom des Endomorphismus α von V genau n = dim V verschiedene Nullstellen hat, dann besitzt V eine Basis aus Eigenvektoren von α. Beweis: Wenn b1 , . . . , bn Eigenvektoren zu den verschiedenen Eigenwerten f1 , . . . , fn sind, so sind sie linear unabhängig nach Satz 6.2.1. Nach Folgerung 2.2.14 bilden sie eine Basis von V .
6.2 Diagonalisierbarkeit von Matrizen
129
6.2.3 Definition. Eine quadratische Matrix D = (dij ) heißt Diagonalmatrix, falls dij = 0 für alle i = j gilt. Setzt man dii = di für i = 1, 2, . . . , n, dann wird die Diagonalmatrix D mit diag(d1 , d2 , . . . , dn ) bezeichnet. 6.2.4 Definitionen. (a) Eine quadratische n × n-Matrix A heißt diagonalisierbar, wenn sie zu einer n × n-Diagonalmatrix D ähnlich ist. (b) Ein Endomorphismus α von V heißt diagonalisierbar, wenn V eine Basis B besitzt, die aus Eigenvektoren von α besteht. 6.2.5 Bemerkung. Wenn D = diag(f1 , . . . , fn ) eine Diagonalmatrix ist, dann gilt char PolD (X) = (X − f1 ) . . . (X − fn ), d. h. die Diagonalelemente fi sind genau die Eigenwerte von D. 6.2.6 Satz. Sei A eine n × n-Matrix, und seien f1 , . . . , fs die verschiedenen Eigenwerte von A. Weiter sei di = dim Ker(E · fi − A) die Dimension des Eigenraums zu fi . Dann sind die folgenden Aussagen äquivalent: (a) Es gibt eine Basis von F n , welche aus Eigenvektoren von A besteht. (b) A ist diagonalisierbar. s (c) i=1 di = n. Beweis: (a) ⇒ (b): Sei B = {b1 , . . . , bn } eine Basis, die aus Eigenvektoren zu den Eigenwerten fi besteht. Dann ist A · bi = bi · fi . Die Matrix Aα (B, B) der linearen Abbildung α : v → A · v von F n nach F n bezüglich dieser Basis ist die Diagonalmatrix D = diag(f1 , . . . , fn ). Wenn P die Matrix des Basiswechsels von {e1 , . . . , en } nach {b1 , . . . , bn } ist, dann gilt D = P −1 · A · P nach Satz 3.3.9. Also ist A diagonalisierbar. (b) ⇒ (c): Da A diagonalisierbar ist, existiert eine invertierbare Matrix P so, daß P −1 AP = D = diag(f1 , . . . , fn ) eine Diagonalmatrix ist. Ihre Koeffizienten fr sind nach Bemerkung 6.2.5 und Satz 6.1.12 gerade die Eigenwerte von A. Sei cr die Vielfachheit des Eigenwerts fr . Dann ist n = sr=1 cr , wobei s die Anzahl der verschiedenen Eigenwerte von A ist. Für jeden Eigenvektor v ∈ V zum Eigenwert f von A gilt Av = vf , woraus D(P −1 v) = (P −1 AP )(P −1 v) = (P −1 v)f folgt. Also haben A und D isomorphe Eigenräume, d. h. dim Ker(E fr − A) = dim Ker(E fr − D). Daher genügt es, (c) für die Diagonalmatrix D zu beweisen. Die Diagonalmatrix E · fr − D hat genau cr Nullen auf der Diagonalen. Daher ist n − cr = rg(E · fr − D) = n − dim Ker(E fr − D) = n − dr .
130
6 Eigenwerte und Eigenvektoren
nach Satz 3.2.13. Also ist dr = cr und sr=1 dr = sr=1 cr = n. von A zum Eigenwert fi . Nach Satz 6.2.1 und (c) ⇒ (a): Sei Ui der Eigenraum Satz 2.3.6 ist die Summe si=1 Ui dieser Unterräume Ui von V = F n direkt. Nach Voraussetzung gilt daher n=
s i=1
di =
s
dim Ui = dim
i=1
s
Ui .
i=1
Also ist V = si=1 Ui nach Folgerung 2.2.14. Wegen Satz 2.2.11 hat jeder Unterraum Ui eine Basis Bi mit di Elementen bij , j = 1, 2, . . . , di . Wegen Ui = Ker(E fi − A) ist jeder Vektor bij ein Eigenvektor von A zum Eigenwert fi . Da V die direkte Summe der Eigenräume Ui ist, ist B = B1 ∪ B2 ∪ · · · ∪ Bs = {bij | i = 1, 2, . . . , s, 1 ≤ ji ≤ di } eine Basis von V , die aus Eigenvektoren von A besteht.
6.2.7 Beispiele. (a) Sei A = 01 11 . Dann ist char PolA (X) = (X − 1)2 , also ist 1 der einzige = 1 ist, folgt d1 = 2 − 1 = Eigenwert von A. Weil rg(E − A) = rg 00 −1 0 1 < 2 = n. Also ist A nicht diagonalisierbar. (b) Die Matrix
3 A= 2 1
1 4 1
1 2 3
ist dagegen diagonalisierbar, weil sie nach Beispiel 6.1.13 zwei Eigenwerte f1 = 2 und f2 = 6 hat, für die d1 = 2 und d2 = 1 gilt. Daher ist d1 + d2 = n = 3. 6.2.8 Berechnungsverfahren für die Transformationsmatrix P einer diagonalisierbaren n × n-Matrix. Nach Satz 6.2.6 ist die Matrix A = (aij ) genau dann diagonalisierbar, wenn der Vektorraum V = F n eine Basis {v 1 , v 2 , . . . , v n } besitzt, die aus Eigenvektoren von A besteht. Daher liegen nach Voraussetzung alle Eigenwerte fi von A im Körper F , und man kann folgende Schritte durchführen: (a) Man berechne die char PolA (X) von A.
Koeffizienten
des
charakteristischen
(b) Man bestimme die Nullstellen fj von char PolA (X) = sind alle fj ∈ F , j = 1, 2, . . . , k, verschieden, und es
k
Polynoms
dj j =1 (X−fj ) . Dabei k gilt n = j =1 dj .
131
6.2 Diagonalisierbarkeit von Matrizen
(c) Zu jedem Eigenwert fj von A berechne man eine Basis Bj = {s t+1 , s t+2 , . . . , s t+dj }, des Eigenraums Wj = Ker(E fj − A), wobei j −1 t = i=1 di ist. (d) Dann ist B = B1 ∪ B2 ∪ · · · ∪ Bk eine Basis von V . Sei P die n × n-Matrix, deren Spaltenvektoren die Vektoren s r von B sind, und zwar in der Reihenfolge von (c). Dann ist D = P −1 AP eine Diagonalmatrix. Beweis: Es bleibt nur zu zeigen, daß D eine Diagonalmatrix ist. Wegen dim Wj = dj und n = jk=1 dj besteht die Basis B von V nach Satz 6.2.6 aus Eigenvektoren s r von V . Nach Konstruktion der Matrix P sind diese Eigenvektoren s r gerade die Spaltenvektoren von P . Deshalb ist D = P −1 AP nach Satz 3.3.9 eine Diagonalmatrix. 6.2.9 Beispiel. Das charakteristische Polynom der reellen Matrix 2 0 0 0 0 2 0 0 A= 1 −2 0 −1 2 −4 1 0 ist nach Satz 5.4.12
X−2 0 char PolA (X) = det −1 −2
0 X−2 2 4
0 0 X −1
0 0 = (X − 2)2 (X 2 + 1). 1 X
Ist nun F = C der Körper der komplexen Zahlen, so sind 2, i und −i die verschiedenen Eigenwerte von A nach Satz 6.1.12. Der Eigenraum zum Eigenwert 2 hat die Dimension 0 0 0 0 0 0 0 0 = 2. n − rg(E · 2 − A) = 4 − rg −1 2 2 1 −2 4 −1 2 Also ist {v 1 = (2, 1, 0, 0), v 2 = (1, 0, 0, 1)} eine Basis des Eigenraums Ker(E ·2−A) zum Eigenwert 2. Zum Eigenwert i gehört das homogene Gleichungssystem 0 i−2 0 0 0 x1 0 i−2 0 0 x2 = 0 . −1 2 i 1 x3 0 0 x4 −2 4 −1 i
132
6 Eigenwerte und Eigenvektoren
Hieraus folgt x1 = x2 = 0 und ix3 + x4 = 0 −x3 + ix4 = 0. Da die beiden letzten Gleichungen sich nur um den Faktor −i ∈ C unterscheiden, gilt dim Ker(E i − A) = 1, und v 3 = (0, 0, i, 1) ist eine Basis dieses Eigenraums. Analog ist v 4 = (0, 0, i, −1) eine Basis von Ker(E (−i) − A). Die Transformationsmatrix P des Basiswechsels ist nach dem Verfahren 6.2.8 0 1 0 0 2 1 0 0 1 0 0 0 0 0 mit P −1 = 11 −2 P = 1 . i 0 0 i i −2 1 −2 2 i 1 1 0 1 1 −1 2 −1 − 2 − 2
2 0 P −1 AP = 0 0
0 2 0 0
0 0 i 0
0 0 0 −i
ist eine zu A ähnliche Diagonalmatrix über dem Körper C der komplexen Zahlen.
6.3
Jordansche Normalform
Sei V ein n-dimensionaler Vektorraum über dem Körper F . Von allen in diesem Abschnitt betrachteten Endomorphismen α ∈ EndF (V ) von V wird vorausgesetzt, daß ihr charakteristisches Polynom in Linearfaktoren über F zerfällt. Sind f1 , f2 , . . . , fm ∈ F die verschiedenen Eigenwerte von α mit den algebraischen Vielfachheiten c1 , c2 , . . . , cm , dann gilt also char Polα (X) = (X − f1 )c1 (X − f1 )c2 . . . (X − fm )cm , wobei c1 + c2 + · · · + cm = n. 6.3.1 Definition. Sei α ∈ EndF (V ) ein Endomorphismus des F -Vektorraumes V . Der Körper F heißt ein Zerfällungskörper für α, wenn sein charakteristisches Polynom char Polα (X) über F in Linearfaktoren zerfällt. 6.3.2 Beispiele. (a) C ist ein Zerfällungskörper für jedes α ∈ End(V ); denn nach dem Hauptsatz der Algebra 1.4.4 zerfällt jedes Polynom f (X) ∈ C[X] in Linearfaktoren.
133
6.3 Jordansche Normalform
(b) R ist kein Zerfällungskörper für die Matrix A = stisches Polynom ist char Polα (X) =
X2
0 1 −1 0
; denn ihr charakteri-
+ 1.
In diesem Abschnitt wird gezeigt, daß zu jedem Endomorphismus α ∈ EndF (V ) über einem Zerfällungskörper F eine Basis B von V existiert derart, daß die Matrix Aα (B, B) von α eine spezielle Dreiecksmatrix ist. Sie heißt Jordansche Normalform von α. Ist α diagonalisierbar, so ist Aα (B, B) eine Diagonalmatrix. 6.3.3 Satz (Fitting). Sei V ein n-dimensionaler Vektorraum über dem Körper F und α ∈ EndF (V ). Dann existiert eine natürliche Zahl 0 < k ≤ n derart, daß α k+1 V = α k V und Ker(α k+1 ) = Ker(α k ), V = α k V ⊕ Ker(α k ). Insbesondere sind die direkten Summanden α k V und Ker(α k ) von V α-invariante Unterräume. Beweis: Wegen dimF Ker(α i ) ≤ n für i = 1, 2, . . . tritt in der aufsteigenden Kette Ker(α) ≤ Ker(α 2 ) ≤ · · · ≤ Ker(α i ) ≤ Ker(α i+1 ) ≤ · · · das Gleichheitszeichen auf. Sei k = min{i | Ker(α i ) = Ker(α i+1 )}. Nach Satz 3.2.13 ist daher dimF (α k+1 V ) = n − dimF [Ker(α k+1 )] = n − dimF [Ker(α k )] = dimF (α k V ). Deshalb ist α k+1 V = α k V nach Folgerung 2.2.14, weil stets α k+1 V ≤ α k V gilt. Aus α k+1 V = α k V folgt α k+r V = α k V für alle r = 1, 2, . . . . Wegen Ker(α k ) ≤ Ker(α k+r ) und Satz 3.2.13 gilt daher Ker(α k+r ) = Ker(α k ) für alle r = 1, 2, . . . . Sei v ∈ α k V ∩ Ker(α k ). Dann ist v = α k u für ein u ∈ V und o = α k v = 2k α u. Also ist u ∈ Ker(α 2k ) = Ker(α k ), woraus v = α k u = o folgt. Deshalb ist Ker(α k ) ∩ α k V = o und V = α k V + Ker(α k ), weil n = dimF V = dimF (α k V ) + dimF (Ker α k ). Wegen α k+1 V = α k V und Ker(α k ) = Ker(α k+1 ) sind diese Unterräume von V beide α-invariant.
134
6 Eigenwerte und Eigenvektoren
6.3.4 Definition. Sei α ∈ EndF (V ) und f ∈ F ein Eigenwert von α. Sei β = α−f idV ∈ EndF (V ). Die nach dem Satz von Fitting existierende kleinste natürliche Zahl 0 < k ≤ n = dimF V mit β k+1 V = β k V , Ker(β k+1 ) = Ker(β k ) und V = β k V ⊕ Ker(β k ) heißt der Exponent des Eigenwerts f von α. Er wird mit e = eα (f ) = k bezeichnet. Der hierzu gehörige Unterraum Ker(β e ) = Ker(β k ) heißt der verallgemeinerte Eigenraum von α zum Eigenwert f . 6.3.5 Hilfssatz. Sei f ∈ F ein Eigenwert von α ∈ EndF (V ) mit Exponent eα (f ) = e. Sei β = α − f idV ∈ EndF (V ) und char Polα (X) = (X − f )c (X − f2 )c2 . . . (X − fm )cm , das charakteristische Polynom von α mit paarweise verschiedenen Eigenwerten f, f2 , . . . , fm . Dann gelten: (a) V = β e (V ) ⊕ Ker(β e ). (b) Beide Unterräume β e (V ) und Ker(β e ) von V sind sowohl α- als auch βinvariant. (c) Die Einschränkung β von β auf β e (V ) ist injektiv. (d) f ist kein Eigenwert der Einschränkung α von α auf β e (V ). (e) (X − f )c ist das charakteristische Polynom der Einschränkung α von α auf Ker(β e ). (f) char Polα (X) = (X−f2 )c2 (X−f3 )c3 . . . (X−fm )cm ist das charakteristische Polynom der Einschränkung α von α auf β e (V ). Beweis: (a) gilt nach Satz 6.3.3 und Definition 6.3.4. (b) Wegen β = α − f idV ∈ EndF (V ) ist αβ = βα, und so αβ e = β e α. Daher gilt α[β e (V )] = β e (αV ) ≤ β e (V ). Ist v ∈ Ker(β e ), so ist β e v = 0 und αβ e v = β e (αv) = 0. Also ist auch Ker(β e ) α-invariant. Nach Satz 6.3.3 sind beide Unterräume β-invariant. (c) Nach Definition 6.3.4 und Satz 6.3.3 gilt β e+1 (V ) = β e V . Also ist die Einschränkung β von β auf β e (V ) surjektiv. Aus dem Dimensionssatz 3.2.13 folgt daher Ker(β ) = 0. (d) Nach (c) gilt Ker(β ) = Ker(α − f idV ) = 0, wobei α die Einschränkung von α auf β e (V ) ist. Also ist f kein Eigenwert von α . (e) Sei α die Einschränkung von α auf Ker(β k ). Aus (a) und Satz 3.7.3 folgt (∗)
char Polα (X) = [char Polα (X)] · [char Polα (X)].
135
6.3 Jordansche Normalform
Nach (d) ist (X − f )c kein Teiler von char Polα (X). Wegen der eindeutigen Faktorisierung von char Polα (X) in Linearfaktoren folgt, daß (X − f )c ein Teiler von char Polα (X) ist. Wäre fi für ein i ∈ {2, 3, . . . , m} ein Eigenwert von α , dann wäre αv = vfi für ein 0 = v ∈ Ker(β e ). Also existiert eine kleinste natürliche Zahl s < e mit v ∈ Ker(β s ), aber v ∈ Ker(β s−1 ). Sicherlich ist αv = vfi = v(fi − f ) + vf, und so v(fi − f ) = αv − vf = βv
mit fi − f = 0.
Hieraus folgt β s−1 v(fi − f ) = β s v = 0. Also ist β s−1 v = 0 im Widerspruch zu v ∈ Ker(β s−1 ). Daher ist char Polα (X) = (X − f )c . (f) ist eine unmittelbare Folge von (∗) und (e). 6.3.6 Satz. Sei α ein Endomorphismus des n-dimensionalen Vektorraums V über dem Körper F , dessen Eigenwerte f1 , f2 , . . . fm zu F gehören. Dann gelten: (a) Jeder verallgemeinerte Eigenraum Ker[(α − fi idV )ei ] ist ein α-invarianter Unterraum von V . (b) V ist die direkte Summe der m verallgemeinerten Eigenräume Ker[(α − fi idV )ei ] von α, wobei ei der Exponent des Eigenwerts fi ist. Beweis: (a) folgt unmittelbar aus Hilfssatz 6.3.5. (b) Sei char Polα (X) = (X−f1 )ci (X−f2 )c2 . . . (X−fm )cm . Sei βi = α −fi idV und ei der Exponent von fi für i = 1, 2, . . . , m. Nach Hilfssatz 6.3.5 gilt: V = β1e1 (V ) ⊕ Ker(β1e1 ) und char Polα (X) = (X − f2 )c2 (X − f3 )c3 . . . (X − fm )cm , wobei α die Einschränkung von α auf V = β1e1 (V ) ist. Da V und Ker(β1e1 ) α-invariante Unterräume nach Hilfssatz 6.3.5 (b) sind, ergibt sich die Behauptung (b) durch vollständige Induktion nach m. 6.3.7 Definition. Ein Endomorphismus α des F -Vektorraums V heißt nilpotent, wenn es eine natürliche Zahl s gibt derart, daß α s = 0. Die kleinste Zahl k mit α k = 0 heißt der Nilpotenzindex von α.
136
6 Eigenwerte und Eigenvektoren
6.3.8 Bemerkung. Mit den Bezeichnungen des Satzes 6.3.3 von Fitting gilt: Die Einschränkung von α auf den α-invarianten Unterraum U = Ker(α k ) von V ist ein nilpotenter Endomorphismus von U mit Nilpotenzindex k. Im folgenden Satz wird ein Verfahren für die Berechnung der Elementarteiler eines nilpotenten Endomorphismus γ eines n-dimensionalen F -Vektorraums V beschrieben. Außerdem wird eine Basis B von V konstruiert, bezüglich derer die n × n-Matrix Aγ (B, B) die Jordansche Normalform von γ ist. Danach wird gezeigt, daß man auch die Bestimmung der Jordanschen Normalform eines beliebigen Endomorphismus α von V auf den nilpotenten Fall reduzieren kann. 6.3.9 Definition. Sei γ ∈ EndF (V ) ein nilpotenter Endomorphismus des n-dimensionalen Vektorraums V über dem Körper F mit Nilpotenzindex e = 0. Dann ist 0 < Ker(γ ) < Ker(γ 2 ) < · · · < Ker(γ e−1 ) < Ker(γ e ) = V eine echt aufsteigende Folge γ -invarianter Unterräume von V . Sei h = |{1 ≤ j ≤ e| dimF [Ker(γ j )/ Ker(γ j −1 )] > dimF [Ker(γ j +1 )/ Ker(γ j )]}|. Dann existiert eine eindeutig bestimmte echt absteigende Folge e1 = e > e2 > · · · > eh > 0 von natürlichen Zahlen ei derart, daß die Einschränkung γi von γ auf Ker(γ ei ) ein nilpotenter Endomorphismus von Ker(γ ei ) mit Nilpotenzindex ei ist. Die h natürlichen Zahlen ei sind die verschiedenen Elementarteiler des nilpotenten Endomorphismus γ ∈ EndF (V ). Für i = 1, 2, . . . , h ist die Vielfachheit wi des Elementarteilers ei sukzessiv durch die Gleichung i
wj = dimF [Ker(γ ei )/ Ker(γ ei −1 )]
j =1
eindeutig bestimmt. 6.3.10 Satz. Sei γ ∈ EndF (V ) ein nilpotenter Endomorphismus des n-dimensionalen Vektorraums V über dem Körper F mit den verschiedenen Elementarteilern e1 > e2 > · · · > eh > 0 mit den Vielfachheiten w1 , w2 , . . . , wh . Sei r = dimF Ker(γ ). Dann gelten: h (a) i=1 wi = r.
137
6.3 Jordansche Normalform
wi (b) Für jedes i = 1, 2, . . . , h gibt es eine direkte Summe ji =1 Uiji von γ -invarianten Unterräumen Uiji , 1 ≤ ji ≤ wi , die jeweils eine Basis Biji = {miji , γ miji , . . . , γ ei −1 miji } besitzen, bezüglich derer die Einschränkung γ|Uiji = γiji von γ auf Uiji die ei × ei -Matrix
Jiji
= Aγiji (Biji , Biji ) =
···
0
0
1
0
0 .. .
1 .. .
0 .. .
..
0
···
0
1
.. .
.
0
mit ei − 1 Einsen in der unteren Nebendiagonalen hat.
i (c) V = hi=1 jwi =1 Uiji und n = hi=1 ei wi . i (d) B = hi=1 jwi =1 Biji ist eine Basis von V bezüglich derer γ die diagonale Blockmatrix
J11
J = Aγ (B, B)
=
..
. J1,w1 ..
. Jh,1 ..
. Jh,wh
hat. Beweis: Da γ nilpotent ist, ist nach Definition 6.3.9 der Nilpotenzindex e1 von γ der größte Elementarteiler von γ . Also ist V = Ker(γ e1 ) > Ker(γ e1 −1 ). Nach Satz 2.3.18 gibt es daher w1 linear unabhängige Vektoren m1j1 ∈ V , 1 ≤ j1 ≤ w1 , die einen Unterraum U1 von V erzeugen derart, daß V = Ker(γ e1 −1 ) ⊕ U1
und so
Ker(γ e1 −1 ) ∩ U1 = 0
ist. Für jedes j1 sind die Vektoren m1j1 , γ m1j1 , . . . , γ e1 −1 m1j1 linear unabhangig, weil aus m1j1 f0 + γ m1j1 f1 + · · · + γ e1 −1 m1j1 fe1 −1 = 0
138
6 Eigenwerte und Eigenvektoren
zunächst γ e1 −1 m1j1 f0 = 0 und so m1j1 f0 ∈ Ker(γ e1 −1 ) ∩ U1 = 0 folgt, woraus sich f0 = 0 und anschließend durch analoge Schlußweise fi = 0 für alle 1 ≤ i ≤ e1 − 1 ergibt. Da γ den Nilpotenzindex e1 hat, ist U1j1 = m1j1 , γ m1j1 , . . . , γ e1 −1 m1j1
für jedes j1 = 1, 2, . . . , w1 ein γ -invarianter Unterraum von V mit Dimension e1 . Wäre U11 ∩ jw11=2 U1j1 = 0, dann wäre
(∗)
m1j1 f0 + γ m1j1 f1 + · · · + γ e1 −1 m1j1 fe1 −1 =
w1 e 1 −1
γ k m1j1 fkj1
j1 =2 k=0
für geeignete fk , fkj1 ∈ F , die nicht sämtlich Null sind. Durch Linksmultiplikation von (∗) mit γ e1 −1 folgt w1 e1 −1 e1 −1 m1j1 f0 = γ m1j1 f0j1 , γ j1 =2
und so m1j1 f0 −
w1
m1j1 f0j1 ∈ Ker(γ e1 −1 ) ∩ U1 = 0
j1 =2
Wegen der linearen Unabhängigkeit der w1 Vektoren m1j1 , 1 ≤ j1 ≤ w1 , gilt daher f0 = 0 = f0j1 für alle 2 ≤ j1 ≤ w1 . Analog zeigt man durch Linksmultiplikation von (∗) mit γ e1 −2 , γ e1 −3 , daß auch die restlichen Koeffizienten fi und fkj1 gleich
Null sind. Aus diesem Widerspruch folgt, daß W1 = jw11=1 U1j1 eine direkte Summe von γ -invarianten Unterräumen von V ist. Ist h = 1, dann ist V = W1 und weiter γ e1 −1 (W1 ) = Ker(γ ), d. h. w1 = dimF Ker(γ ) = r. Also gelten alle Behauptungen (a) bis (d) für h = 1. Angenommen, für i = 1, 2, . . . , k und k < h sei schon die Existenz von γ -invarianten
i Unterräumen Uiji , 1 ≤ ji ≤ wi , 1 ≤ i ≤ k gezeigt derart, daß Uiji eine direkte Summe von γ -invarianten, ei -dimensionalen UnterWi = jwi =1 räumen von V ist und W1 ⊕ W2 ⊕ · · · ⊕ Wk eine direkte Summe ist. Dabei sei Biji = {miji , γ miji , . . . , γ ei −1 miji } eine Basis von Uiji und Ui = miji | 1 ≤ ji ≤ wi ein Unterraum von V mit % $ i−1 es −ei ei −1 γ (Ws ) + Ker(γ ) ∩ Ui = 0 s=1
139
6.3 Jordansche Normalform
und Ker(γ ei ) =
$ i−1
% γ es −ei (Ws ) + Ker(γ ei −1 ) ⊕ Ui .
s=1
Wegen k < h ist 0 < ek+1 < ek . Nach Definition 6.3.9 ist wk+1 = dimF [Ker(γ k )/ Ker(γ k−1 )] − dimF [Ker(γ k+1 )/ Ker(γ k )] > 0. Also existiert ein wk+1 -dimensionaler Unterraum Uk+1 von Ker(γ ek+1 ) mit $ k
% γ es −ek+1 (Ws ) + Ker(γ ek+1 −1 ) ⊕ Uk+1 = Ker(γ ek+1 )
s=1
und Basis {mk+1,jk+1 | 1 ≤ jk+1 ≤ wk+1 }. Für jedes jk+1 sei Bk+1,jk+1 = {mk+1,jk+1 , γ mk+1,jk+1 , . . . , γ ek+1 −1 mk+1,jk+1 } und Uk+1,jk+1 das Erzeugnis von Bk+1,jk+1 . Dann sind nach dem im ersten Abschnitt gegebenen Beweis die wk+1 Unterräume Uk+1,jk+1 alle ek+1 -dimensional und γ -invariant. Weiter ist die Summe
wk+1
Wk+1 =
Uk+1,jk+1
jk+1 =1
k −1 ek+1 es −ek+1 direkt. Wegen Uk+1 ∩ ) = 0 ist es wie oben s=1 γ (Ws ) + Ker(γ k+1 einfach zu zeigen, daß die Summe s=1 Ws direkt ist. Insbesondere sind die wk+1 −1
linear unabhängigen Elemente γ ek+1 mk+1,jk+1 im Kern von γ . Durch vollständige Induktion nach k folgen nun (a) hi=1 wi = r = dimF Ker(γ ) und die Behauptungen (b) und (c) des Satzes. Die Behauptung (d) folgt unmittelbar aus (c) und Satz 3.7.3 6.3.11 Satz (Jordansche Normalform). Sei F ein Zerfällungskörper für den Endomorphismus α des n-dimensionalen F -Vektorraums V . Seien f1 , f2 , . . . , fk die verschiedenen Eigenwerte von α. Für jedes i = 1, 2, . . . , k sei βi = α − fi idV ∈ EndF (V ) und ei = eα (fi ) der Exponent von fi . Dann gelten: (a) Die k verallgemeinerten Eigenräume Ker(βiei ) von α sind α-invariante Unterräume.
(b) V = ki=1 Ker(βiei ). (c) βi ist ein nilpotenter Endomorphismus von Ker(βiei ) mit Nilpotenzindex ei . (d) Seien ei1 = ei > ei2 > · · · > eiri > 0 die verschiedenen Elementarteiler von βi und sei wiji die Vielfachheit des Elementarteilers eiji von βi . Dann gibt es
140
6 Eigenwerte und Eigenvektoren
eine Basis B von V , bezüglich derer die Matrix Aα (B, B) von α die folgende Gestalt hat: R1 0 · · · 0 .. 0 R2 . . . . , J = Aα (B, B) = .. .. .. . . . 0 0 · · · 0 Rk und jede Matrix Ri hat die Form Bi1 0 . Ri = .. 0
Bi2 .. .
··· .. . .. .
···
0
0
0 0 .. . 0 Biri
,
wobei Biji eine diagonale Blockmatrix mit wiji gleichen eiji × eiji -Matrizen Jiji der folgenden Gestalt ist:
Jiji
=
fi
0
0
···
1
fi
0
···
0 .. .
1
fi
0
1 .. .
··· .. . .. .
..
0
1
0
···
.
0 .. . 0 .. . . 0 fi
Die Matrizen Jiji heißen Jordankästchen von α zum Eigenwert fi und Elementarteiler eiji . Beweis: (a) und (b) gelten nach Satz 6.3.6. (c) folgt aus Satz 6.3.3. Nach (a), Hilfssatz 6.3.5 und Satz 3.7.3 kann angenommen werden, daß char Polα (X) = (X − f )n für ein f ∈ F ist. Insbesondere ist β = α − f idV ∈ EndF (V ) nilpotent mit Nilpotenzindex e = eα (f ). Wegen Satz 3.7.3 und Satz 6.3.10 existiert ein 0 = w ∈ V derart, daß B = {w, (α − t)w, . . . , (α − t)e−1 w} eine Basis des F -Vektorraums V ist. Hieraus folgt αw = (α − f )w + f w, α[(α − f ) w] = (α − f )j +1 w + f (α − f )j w j
für j = 1, 2, . . . , r − 1.
141
6.3 Jordansche Normalform
Daher hat α bezüglich der Basis B von V die Matrix Aα (B, B) =
f
0
0
···
1
f
0
···
0 .. .
1
f
0
1 .. .
··· .. . .. .
..
0
1
0
···
.
nach Definition 3.3.1.
0 .. . 0 .. . 0 f
6.3.12 Folgerung. Ein Endomorphismus α eines endlich-dimensionalen Vektorraums V ist genau dann diagonalisierbar, wenn sein charakteristisches Polynom in Linearfaktoren zerfällt und für alle Eigenwerte f von α und deren Exponenten eα (f ) = 1 gilt. Beweis: Folgt sofort aus Satz 6.3.11 und Definition 6.3.4.
6.3.13 Berechnungsverfahren für die Jordansche Normalform und die zugehörige Transformationsmatrix. Sei V = F n der n-dimensionale, arithmetische Vektorraum über dem Körper F . Sei E = {e1 , e2 , . . . , en } die kanonische Basis von V . Sei A = (aij ) ∈ Matn (F ) eine n × n-Matrix, deren sämtliche verschiedenen Eigenwerte fu , 1 ≤ u ≤ k, im Körper F liegen. n Sei α ∈ EndF (V ) der zu A gehörige Endomorphismus von V , d. h. α(ej ) = i=1 ei aij für j = 1, 2, . . . , n. Dann existiert nach Satz 6.3.11 eine Basis B von V , bezüglich derer die Matrix Aα (B, B) von α die Jordansche Normalform von A ist. Außerdem sind die Basisvektoren b von B die Spaltenvektoren der Transformationsmatrix Q, für die Aα (B, B) = Q−1 AQ gilt. Die Berechnung der Eigenwerte fu , 1 ≤ u ≤ k, von A, der zugehörigen Elementarteiler eu1 ≥ eu2 ≥ eu3 ≥ · · · ≥ euru > 0 und der Basisvektoren von B wird in folgenden Schritten durchgeführt. (a) Man berechnet die Koeffizienten des charakteristischen Polynoms char PolA (X). (b) Man bestimmt die Nullstellen fu von char PolA (X) = ku=1 (X − fu )ku . (c) Für jeden Eigenwert fu von A, 1 ≤ u ≤ k, bestimmt man den größten Elementarteiler eu1 = eu durch eu = min j ∈ {1, 2, . . . , ku } | Ker (A − fu En )j = Ker (A − fu En )j +1 }.
142
6 Eigenwerte und Eigenvektoren
Dann ist nach Satz 6.3.6 Vu = Ker[(A − fu En )eu ] der verallgemeinerte Eigenraum von A zum Eigenwert fu , und V hat die eindeutige Zerlegung V =
k
Vu .
u=1
(d) Für jeden Eigenwert fu von A, 1 ≤ u ≤ k, sei αu = α|V u die Einschränkung von α auf den α-invarianten Unterraum Vu von V . Weiter sei εu der identische Endomorphismus von Vu und βu = αu − fu εu ∈ EndF (Vu ). Dann ist βu ein nilpotenter Endomorphismus von Vu mit Nilpotenzindex eu . (e) Für jedes u ∈ {1, 2, . . . , k} sind nach Satz 6.3.11 die verschiedenen Elementarteiler eu = eu1 ≥ eu2 ≥ · · · ≥ euru > 0 von A zum Eigenwert fu gleich den Elementarteilern des nilpotenten Endomorphismus βu des verallgemeinerten Eigenraums Vu von V . Die Elementarteiler und die jeweilige Vielfachheit eines jeden der k nilpotenten Endomorphismen βu ∈ EndF (Vu ), 1 ≤ u ≤ k, berechnet man mit dem in Satz 6.3.10 beschriebenen Verfahren. (f) Für jedes u ∈ {1, 2, . . . , k} konstruiert man mit dem in Satz 6.3.10 beschriebenen Verfahren eine Basis Bu des verallgemeinerten Eigenraums Vu von B. Wegen Ker[(βu )j ] = {v ∈ Vu | (βu )j (v) = 0} = Ker[(A − fu En )j ] ≤ Vu ≤ V für j = 1, 2, . . . , e u sind die Vektoren der k Basis Bu Spaltenvektoren aus k n F = V . Da V = u=1 Vu ist, ist B = u=1 Bu eine Basis von V . Nach dem Beweis der Sätze 6.3.10 und 6.3.11 ist die n × n-Matrix Aα (B, B) von α die Jordansche Normalform der Matrix A. (g) Die Spaltenvektoren der n × n-Transformationsmatrix Q sind die n-Tupel der Vektoren der Basen Bu , 1 ≤ u ≤ k, in der in Satz 6.3.10 angegebenen Reihenfolge. Aα (B, B) = Q−1 AQ ist die Jordansche Normalform der n × nMatrix A. 6.3.14 Beispiel. Nach dem Verfahren 6.3.13 wird nun die Jordansche Normalform der Matrix −3 −1 4 −3 −1 1 1 −1 1 0 0 2 0 0 A = −1 4 1 −4 5 1 −2 0 2 −2 1
143
6.3 Jordansche Normalform
über dem Körper Q berechnet: (a)
char PolA (X) = det(XE5 − A) = X 5 − 6X 4 + 14X 3 − 16X 2 + 9X − 2 = (X − 1)4 (X − 2).
Also hat A die Eigenwerte f1 = 2 und f2 = 1. Nach Satz 6.3.6 ist V1 = Ker(2E5 −A) der verallgemeinerte Eigenraum von A zum Eigenwert 2, weil (X −2) nur zur ersten Potenz im charakteristischen Polynom von A aufgeht. Wegen rg(A − 2E5 ) = 4 ist a = (0, 1, 2, 3, −2) ∈ V = Q5 eine Basis von V1 = Ker(A − 2E5 ) = aQ. Nach Satz 6.3.11 ist daher e11 = 1 der einzige Elementarteiler von A zum Eigenwert f1 = 2. Für f2 = 1 betrachtet man zunächst die Ränge der Matrizen (A − E5 )j mit j =∈ {1, 2, 3, 4}. Wegen 0 0 0 0 0 1 0 −1 1 0 2 0 −2 2 0 (A − E5 )3 = = 0 3 0 −3 3 0 −2 0 2 −2 0 und rg[(A − E5 )3 ] = 1 ist V2 = Ker[(A − E5 )3 ] der verallgemeinerte Eigenraum zum Eigenwert f2 = 1, weil dimQ Ker[(A − E5 )3 ] = 4 = dimQ V − dimQ V1 ist. Nach 6.3.13 (c) ist e21 = 3 der größte Elementarteiler von A zum Eigenwert f2 = 1. Wegen −4 −1 4 −3 −1 1 0 −1 1 0 0 1 0 0 rg(A − E5 ) = rg −1 =3 4 1 −4 4 1 −2 0 2 −2 0 hat A nach Satz 6.3.10 zum Eigenwert f2 = 1 nur r2 = dimQ Ker(A − E5 ) = 2 verschiedene Elementarteiler e21 = 3 > e22 > 0. Wegen dimQ V2 = 4 folgt e22 = 1. Da 1 1 −1 1 1 1 0 −1 1 0 3 1 −3 3 1 (A − E5 )2 = , 3 0 −3 3 0 −2 0 2 −2 0 ist b = (0, 1, 0, 0, 0) ∈ Ker[(A − E5 )3 ] = V2 , aber b ∈ Ker[(A − E5 )2 ]. Nun ist (A − E5 )b = (−1, 0, 0, 1, 0) und 0 = (A − E5 )2 b = (1, 0, 1, 0, 0) ∈ Ker(A − E5 ).
144
6 Eigenwerte und Eigenvektoren
Also sind (A − E5 )2 b = (1, 0, 1, 0, 0) und c = (0, −1, 0, 0, 1) eine Basis von Ker(A − E5 ). Deshalb ist B = B1 ∪ B2 = {a} ∪ {b, (A − E5 )b, (A − E5 )2 b, c} eine Basis von V , bezüglich derer der zur Matrix A α ∈ EndQ (V ) die Jordansche Normalform 2 0 0 0 0 1 0 0 Aα (B, B) = 0 1 1 0 0 0 1 1 0 0 0 0
gehörige Endomorphismus 0 0 0 0 1
hat. Die Transformationsmatrix Q mit Aα (B, B) = Q−1 AQ ist daher 0 0 −1 1 0 1 1 0 0 −1 0 1 0 Q= 2 0 . 3 0 1 0 0 −2 0 0 0 1
6.4 Anwendung der Jordanschen Normalform Eine wichtige Anwendung findet die Jordansche Normalform einer (n × n)-Matrix A = (aij ) beim Lösen von Systemen homogener linearer Differentialgleichungen 1. Ordnung mit konstanten Koeffizienten aij ∈ F , wobei F entweder der Körper R der reellen Zahlen oder der Körper C der komplexen Zahlen ist. 6.4.1 Definition. Seien x1 (t), x2 (t), . . . , xn (t) gesuchte, auf R oder C definierte, reell- oder komplexwertige Funktionen in der Variablen t, die zusammen mit ihren erstenAbleitungen xi (t) für alle t ∈ R oder t ∈ C die folgenden linearen Gleichungen
(1)
x1 (t) = a11 x1 (t) + a12 x2 (t) + · · · + a1n xn (t) x2 (t) = a21 x1 (t) + a22 x2 (t) + · · · + a2n xn (t) .. . xn (t) = an1 x1 (t) + an2 x2 (t) + · · · + ann xn (t)
mit konstanten Koeffizienten aij ∈ F erfüllen. Ein solches System (1) heißt homogenes System von linearen Differentialgleichungen erster Ordnung mit konstanten Koeffizienten. Die (n × n)-Matrix A = (aij ) heißt Koeffizientenmatrix des homogenen linearen Differentialgleichungssystems.
145
6.4 Anwendung der Jordanschen Normalform
Mit den Spaltenvektoren x(t) = (x1 (t), x2 (t), . . . , xn (t)) und
x (t) = (x1 (t), x2 (t), . . . , xn (t))
hat das System (1) auch die Matrizenform x (t) = Ax(t).
(2)
In der Vorlesung über Differentialgleichungen wird gezeigt, daß ein System x (t) = Ax(t) von homogenen linearen Differentialgleichungen unendlich viele Lösungsvektoren x(t) besitzt, daß man aber unter ihnen jeweils eine durch eine Anfangsbedingung eindeutig festlegen kann. 6.4.2 Definition. Zur reellen bzw. komplexen Anfangsstelle t0 und gegebenen Werten b1 , b2 . . . , bn ∈ F gibt es genau einen Lösungsvektor x(t) des homogenen Systems von linearen Differentialgleichungen erster Ordnung x (t) = Ax(t)
(2)
derart, daß x(t0 ) = b = (b1 , b2 , . . . , bn ). Die Vektorgleichung x(t0 ) = b heißt Anfangsbedingung von (2). Der Vektor b heißt Anfangsvektor . 6.4.3 Hilfssatz. Sei (∗) x (t) = Ax(t) ein homogenes lineares Differentialgleichungssystem 1. Ordnung mit (n × n)-Koeffizientenmatrix A = (aij ), aij ∈ F , und Anfangsbedingung x(t0 ) = c ∈ F n . Sei D = P −1 AP für eine invertierbare (n × n)-Matrix P = (pij ), pij ∈ F . Genau dann ist u(t) eine Lösung von (∗) mit Anfangsbedingung u(t0 ) = x(t0 ) = c, wenn w = P −1 u eine Lösung ist von (∗∗)
y (t) = Dy(t) mit Anfangsbedingung y(t0 ) = b = P −1 c.
Beweis: Sei u(t) eine Lösung des Systems (∗)
bx (t) = Ax(t)
mit Anfangsvektor x(t0 ) = c ∈ F n .
Dann gilt u (t) = Au(t) = AP (P −1 u(t)), woraus wegen D = P −1 AP folgt P −1 u (t) = (P −1 AP )(P −1 u(t)) = D(P −1 u(t)). Da konstante Faktoren bei der Ableitung erhalten bleiben, ist (P −1 u(t)) = P −1 u (t). Also ist w(t) = P −1 u(t) eine Lösung des Systems (∗∗). Ist umgekehrt w(t) eine Lösung von (∗∗), dann ergibt sich ebenso, daß u(t) = P w(t) eine Lösung von (∗) ist.
146
6 Eigenwerte und Eigenvektoren
6.4.4 Satz. Sei (∗) y (t) = Jy(t) ein homogenes Differentialgleichungssystem erster Ordnung mit (k × k)-Koeffizientenmatrix f 0 0 ··· 0 .. 1 f 0 ··· . 0 1 f · · · 0 J= . . . . . . . . . 0 1 . .. .. .. . . . 0 0
···
0
1
f
und Eigenwert f ∈ F . Sei y(t0 ) = (b1 , b2 , . . . , bk ) ∈ F k die Anfangsbedingung von (∗). Dann bilden die k Funktionen $ 1 1 f (t−t0 ) yi (t) = e b1 (t − t0 )i−1 + b2 (t − t0 )i−2 + (i − 1)! (i − 2)! % · · · + bi−1 (t − t0 ) + bi für 1 ≤ i ≤ k eine Lösung y(t) = (y1 (t), y2 (t), . . . , yk (t)) von (∗). Dabei ist et die reelle bzw. komplexe Exponentialfunktion. Beweis: Ist k = 1 so ist y(t) = y1 (t) = b1 ef (t−t0 ) eine Lösung von (∗) y1 (t) = fy1 (t). Angenommen, die Behauptung ist schon für k − 1 bewiesen. Nach (∗) gilt dann für die k-te Gleichung: yk (t) = yk−1 (t) + fyk (t), wobei nach Induktionsannahme 1 f (t−t0 ) k−2 yk−1 (t) = e b1 (t − t0 ) + · · · + bk−2 (t − t0 ) + bk−1 (k − 2)! ist. Hieraus folgt yk (t)e−f (t−t0 ) −fyk (t)ef (t−t0 ) =
1 b1 (t −t0 )k−2 +· · ·+bk−2 (t −t0 )+bk−1 . (k − 2)!
Nach dem Produktsatz der Differentialrechnung gilt [yk (t)e−f (t−t0 ) ] = yk (t)e−f (t−t0 ) − fyk (t)e−f (t−t0 ) . Also ist nach Integration yk (t)e−f (t−t0 ) =
1 1 b1 (t − t0 )k−1 + · · · + bk−2 (t − t0 )2 + bk−1 )(t − t0 ) + c, (k − 1)! 2
147
6.4 Anwendung der Jordanschen Normalform
wobei c ∈ F eine Konstante ist. Hieraus folgt $ 1 b1 (t − t0 )k−1 + yk (t) = ef (t−t0 ) (k − 1)! % 1 2 · · · + bk−2 (t − t0 ) + bk−1 (t − t0 ) + c . 2 Wegen yk (t0 ) = bk ist c = bk .
Mit diesen Hilfsmitteln soll nun ein konkretes homogenes System von linearen Differentialgleichungen erster Ordnung gelöst werden. 6.4.5 Beispiel. Gegeben sei das homogene System linearer Differentialgleichungen erster Ordnung (∗) x (t) = Ax(t) mit der Koeffizientenmatrix A von Beispiel 6.3.14 und der Anfangsbedingung t0 = 1
und b = (3, −1, 2, 0, 4) .
Mit der in 6.3.14 berechneten Transformationsmatrix Q gilt 2 1 0 0 −1 . 1 1 0 Q AQ = J = 0 1 1 1 Dabei hat Q die inverse Matrix Q
−1
=
1 1 −3 −2 2
0 1 0 0 0
−1 −1 3 3 −2
1 1 −2 −2 2
0 1 0 0 1
.
Nach Hilfssatz 6.4.3 hat y (t) = Jy(t)
(∗∗)
die Anfangsbedingung c = y(1) = Q−1 b = (1, 4, −3, 0, 6). Da J aus 3 Jordankästchen besteht, liefert Satz 6.4.4 den folgenden Lösungsvektor y(t) = (y1 (t), y2 (t), . . . , y5 (t) von (∗∗), wobei y1 (t) = e2(t−1) ,
y2 (t) = 4et−1 ,
y3 (t) = et−1 [4(t − 1) − 3]
y4 (t) = et−1 [2(t − 1)2 − 3(t − 1)], y5 (t) = 6et−1 .
148
6 Eigenwerte und Eigenvektoren
Als Lösungsvektor x(t) des ursprünglichen Systems (∗) x (t) = Ax(t) mit Anfangsbedingung x(t0 ) = b erhält man wegen Hilfssatz 6.4.3 schließlich et−1 (2t 2 − 11t + 12 e2(t−1) − 2et−1 2(t−1) t−1 2 x(t) = Qy(t) = 2e + e (2t − 7t + 5) . 3e2(t−1) + et−1 (4t − 7) −2e2(t−1) + 6et−1 Von der Richtigkeit dieser Lösung überzeuge man sich durch Einsetzen in das homogene lineare Differentialgleichungssystem (∗) x (t) = Ax(t) und prüfe die Anfangsbedingung x(t0 ) = x(t) = b durch Einsetzen von t = 1.
6.5 Aufgaben 6.1
(a) Man zeige, daß die Matrix
0 A= 1 0
0 0 1
1 0 0
zu einer komplexen Diagonalmatrix D ähnlich ist und bestimme mittels des Berechnungsverfahrens 6.2.8 die Transformationsmatrix P ∈ GL(3, C), für die D = P −1 AP gilt. (b) Ist die Matrix 1 0 0 B= 1 1 0 0 1 1 diagonalisierbar? 6.2 Berechnen Sie das charakteristische Polynom und die Eigenwerte der folgenden reellen 5 × 5-Matrix 1 2 3 4 5 2 3 4 5 1 3 4 5 1 2 . 4 5 1 2 3 5 1 2 3 4 6.3 Zeigen Sie, daß die Matrizen 1 −2 1 3 −1 A= 0 0 2 0 folgende Eigenschaften haben:
−5 und B = 4 8
−10 9 12
2 −2 −1
149
6.5 Aufgaben (a) (b) (c) (d)
Sie sind vertauschbar, d. h. AB = BA. Sie sind beide diagonalisierbar. Es gibt eine Basis B von V = Q3 aus gemeinsamen Eigenvektoren von A wie von B. Nicht alle Eigenwerte von A und B stimmen überein.
6.4 Bestimmen Sie das charakteristische Polynom und die Eigenwerte der Matrix A gegeben durch: 1 1 0 0 0 1 1 1 0 0 A= 0 1 1 1 0 . 0 0 1 1 1 0 0 0 1 1 6.5 Zeigen Sie, daß die reelle Matrix
3 A= 2 0
2 6 0
−1 −2 2
zu einer Diagonalmatrix ähnlich ist. Bestimmen Sie diese, die Transformationsmatrix P und ihre Inverse P −1 . 6.6 Es sei c ein Eigenwert der n-reihigen quadratischen Matrix A mit der Vielfachheit k. Zeigen Sie: In jedem Fall gilt rg(En c − A) n − k. 6.7 Zeigen Sie: Eine quadratische Matrix A ist genau dann invertierbar, wenn 0 kein Eigenwert von A ist. 6.8 Es sei α ein Endomorphismus eines n-dimensionalen komplexen Vektorraums V . Zeigen Sie: (a) Sind c1 , c2 , . . . , cn ∈ C die n Eigenwerte von α, so hat α k die Spur tr(α k ) = ni=1 cik für alle k = 1, 2, . . . . (b) Eine komplexe Zahl a ist genau dann Eigenwert der r-ten Potenz von α, wenn es einen Eigenwert c von α mit a = cr gibt. (c) Geben Sie ein Beispiel an, für das die Vielfachheit von cr als Eigenwert von α r größer ist als die Vielfachheit von c als Eigenwert von α. 6.9 Es sei A eine komplexe 3 × 3-Matrix und ai = tr Ai , i = 1, 2, 3. Zeigen Sie: charPolA (X) = X3 − a1 X2 + 21 (a12 − a2 )X − 16 (a13 + 2a3 − 3a2 a1 ). 6.10 Berechnen Sie A1000 für die rationale 3 × 3-Matrix 0 0 2 1 . A= 1 0 0 1 −2
150
6 Eigenwerte und Eigenvektoren
6.11 Seien A, B zwei diagonalisierbare n × n-Matrizen über dem Körper F , für die AB = BA gilt. Zeigen Sie, daß A und B in V = F n ein gemeinsames n-Tupel von Eigenvektoren v 1 , v 2 , . . . , v n haben. 6.12 Berechnen Sie das charakteristische Polynom, die Elementarteiler, die Jordansche Normalform und die zugehörige Transformationsmatrix für die Matrix
1 0 A= 8 −12
0 1 6 −9
0 0 −2 4, 5
0 0 . −2 4
6.13 Bestimmen Sie die Jordansche Normalform und die Transformationsmatrix über dem Zerfällungskörper C von der folgenden Matrix A=
1 1 −1 −1 0 0
0 1 −1 0 0 0
0 1 1 0 0 0
1 1 −1 1 −2 2
0 0 0 0 0 −4
0 0 0 0 1 −4
.
6.14 Zeigen Sie: (a) Die n×n-Matrix A = (aij ) mit aij ∈ F ist genau dann zu einer oberen Dreiecksmatrix B = (bij ) mit bij ∈ F ähnlich, wenn ihr charakteristisches Polynom in F [X] in lauter Linearfaktoren zerfällt, d. h. char PolA (X) =
k
(X − fr )cr
mit c1 + c2 + · · · + ck = n.
r=1
(b) Gelten die äquivalenten Bedingungen der Aussage (a), dann sind die Diagonalelemente bii der Dreiecksmatrix B die Eigenwerte fr von A, und zwar mit der jeweiligen Vielfachheit cr . 6.15 Berechnen Sie eine Lösung des homogenen Differentialgleichungssystems x = Ax erster Ordnung mit Anfangsvektor x(0) = (2, 1, 4) und Koeffizientenmatrix
4 A= 1 −1
−3 0 2
−1 −1 . 3
6.5 Aufgaben
151
6.16 Man bestimme mit dem Verfahren der Bemerkung 6.1.11 das charakteristische Polynom der Matrix 1 3 4 −7 −1 3 −2 8 8 −17 1 12 2 −4 −4 11 1 −6 . A= 1 −2 −3 7 1 −2 0 1 1 −3 3 3 1 −3 −4 8 0 −3 6.17 Man bestimme mit der Lösung von Aufgabe 6.16 und dem Verfahren 6.3.13 die Jordansche Normalform J und eine Transformationsmatrix Q mit Q−1 AQ = J der Matrix A von Aufgabe 6.16. 6.18 Man berechne eine Lösung des homogenen Systems linearer Differentialgleichungen 1. Ordnung x = Ax mit der Koeffizientenmatrix 2 −1 2 2 2 A = −1 −1 −1 5 und Anfangsvektor x(0) = (4, 0, 1). 6.19 Man bestimme mittels Satz 6.3.10 alle möglichen Jordanschen Normalformen J der komplexen (5 × 5)-Matrizen A mit nur einem einzigen Eigenwert c ∈ C.
7 Euklidische und unitäre Vektorräume
In diesem Kapitel wird in reellen und komplexen Vektorräumen eine zusätzliche Struktur definiert, die die Einführung einer Maßbestimmung gestattet. Sie ermöglicht es, die Länge eines Vektors und den Winkel zwischen zwei Vektoren zu definieren. Diese zusätzliche Struktur wird durch das skalare Produkt bestimmt, das im ersten Abschnitt behandelt wird und zu dem Begriff des euklidischen bzw. unitären Vektorraums führt. Dabei handelt es sich tatsächlich um eine den Vektorräumen aufgeprägte neue Struktur, die nicht etwa durch den Vektorraum schon vorbestimmt ist. Skalare Produkte können in reellen und komplexen Vektorräumen auf mannigfache Art definiert werden und führen zu verschiedenen Maßbestimmungen. Die Begriffe Länge“ und ” Winkel“ erweisen sich also als Relativbegriffe, die von der Wahl des skalaren Pro” dukts abhängen. Sie werden im zweiten Abschnitt behandelt. Wesentlich ist besonders der Begriff der Orthogonalität, auf den in diesem Abschnitt ebenfalls eingegangen wird. Mit diesen Hilfsmitteln wird im dritten Abschnitt das Orthogonalisierungsverfahren von Gram und Schmidt für euklidische und unitäre Vektorräume dargestellt. Danach werden die adjungierten Abbildungen und normalen Endomorphismen behandelt. Der fünfteAbschnitt enthält die Klassifikation der orthogonalen und unitären Endomorphismen eines solchen Vektorraumes. Nach diesen Vorbereitungen werden im sechsten Abschnitt das Hauptachsentheorem und der Trägheitssatz von Sylvester für Hermitesche und symmetrische Matrizen bewiesen.
7.1
Skalarprodukte und Hermitesche Formen
Zunächst sei in diesem Paragraphen V ein beliebiger reeller Vektorraum; der Skalarenkörper F ist also der Körper R der reellen Zahlen. Weiter sei nun β eine Bilinearform von V : Jedem geordneten Paar (x, y) von Vektoren aus V wird also durch β eindeutig eine reelle Zahl β(x, y) als Wert zuge-
7.1 Skalarprodukte und Hermitesche Formen
153
ordnet, und es gelten die Linearitätseigenschaften β(x 1 + x 2 , y) = β(x 1 , y) + β(x 2 , y), β(x, y 1 + y 2 ) = β(x, y 1 ) + β(x, y 2 ), β(xc, y) = β(x, y)c = β(x, yc) für alle x, x 1 , x 2 , y, y 1 , y 2 ∈ V und c ∈ R. 7.1.1 Definition. Eine Bilinearform β von V heißt ein skalares Produkt von V , wenn sie folgende Eigenschaften besitzt: (a) β ist symmetrisch: Für beliebige Vektoren gilt β(x, y) = β(y, x). (b) β ist positiv definit: Für jeden von o verschiedenen Vektor x gilt β(x, x) > 0. 7.1.2 Bemerkung. Ein skalares Produkt ist somit eine positiv definite, symmetrische Bilinearform β von V . Wegen β(o, x) = β(o0, x) = β(o, x)·0 = 0 gilt β(o, o) = 0. Wegen (b) folgt aber aus β(x, x) = 0 umgekehrt auch x = o. Es ist also β(x, x) = 0 gleichwertig mit x = o. Für jeden Vektor x gilt daher β(x, x) ≥ 0. 7.1.3 Beispiele. (a) Es sei {v 1 , . . . , v n } eine Basis von V = Rn . Hinsichtlich dieser Basis entsprechen nach Satz 2.2.18 die Vektoren x, y ∈ V umkehrbar eindeutig den Koordinaten-n-Tupeln (x1 , . . . , xn ) bzw. (y1 , . . . , yn ). In Definition 3.1.11 wurde durch β(x, y) = x1 y1 + · · · + xn yn ein skalares Produkt definiert, das dort Skalarprodukt genannt wurde. Da es die in Definition 7.1.1 geforderten Eigenschaften besitzt, ist die in Kapitel 2 verwendete Bezeichnung gerechtfertigt. (b) Sei n = 2 und β : R2 × R2 → R definiert durch: β(x, y) = 4x1 y1 − 2x1 y2 − 2x2 y1 + 3x2 y2 . Die Linearitätseigenschaften und die Symmetrie von β ergeben sich unmittelbar. Wegen β(x, x) = (2x1 − x2 )2 + 2x22 ist β auch positiv definit, weil aus β(x, x) = 0 zunächst 2x1 − x2 = 0 und x2 = 0, also auch x1 = 0 folgt.
154
7 Euklidische und unitäre Vektorräume
(c) Es sei V ein unendlich-dimensionaler Vektorraum über R, und B sei eine Basis von V . Je zwei Vektoren x, y besitzen dann nach Satz 2.3.15 eindeutige Basisdarstellungen vxv und y = vyv , x= v∈B
v∈B
wobei jedoch nur höchstens endlich viele der Koordinaten xv bzw. yv von Null verschieden sind. In β(x, y) = xv y v v∈B
sind daher ebenfalls nur endlich viele Summanden von Null verschieden, und wie in (a) wird hierdurch ein skalares Produkt β von V definiert. (d) Es seien a und b zwei reelle Zahlen mit a < b, und V sei der Vektorraum aller auf dem Intervall [a, b] definierten und stetigen reellen Funktionen. Schließlich sei h eine stetige reelle Funktion mit h(t) > 0 für a t b. Setzt man für je zwei Funktionen f, g ∈ V & β(f, g) =
b
h(t)f (t)g(t) dt, a
so ist β ein skalares Produkt von V . Dies gilt nicht mehr, wenn V sogar aus allen in [a, b] integrierbaren Funktionen besteht; dann ist nämlich β nicht mehr positiv definit, wie folgendes Beispiel zeigt. Es sei a = 0, b = 1, h(t) = 1 für 0 ≤ t ≤ 1 und 1 für t = 0, f (t) = 0 für t > 0. Dann ist β(f, f ) =
'1 0
f (t)f (t) dt = 0, obwohl f = 0 in V ist.
7.1.4 Definition. Ein reeller Vektorraum V , in dem zusätzlich ein skalares Produkt β ausgezeichnet ist, wird ein euklidischer Vektorraum genannt. 7.1.5 Bezeichnung. Da in einem euklidischen Vektorraum das skalare Produkt fest gegeben ist, kann man auf das unterscheidende Funktionszeichen β verzichten. Man schreibt daher statt β(x, y) kürzer nur x · y oder bisweilen auch (x, y). Die zweite Bezeichnungsweise ist besonders in den Fällen üblich, in denen die Schreibweise x · y zu Verwechslungen führen kann. Dies gilt z. B. für Funktionenräume, in denen ja neben dem skalaren Produkt auch noch die gewöhnliche Produktbildung für Funktionen definiert ist.
155
7.1 Skalarprodukte und Hermitesche Formen
7.1.6 Bemerkung. In einem euklidischen Vektorraum ist das skalare Produkt durch folgende Eigenschaften gekennzeichnet: (x 1 + x 2 ) · y (xc) · y x·y x·x
= = = >
x 1 · y + x 2 · y, (x · y)c, y · x, 0 für x = o.
Die jeweils zweiten Linearitätseigenschaften x · (y 1 + y 2 ) = x · y 1 + x · y 2
und
x · (yc) = (x · y)c
folgen aus den ersten Linearitätseigenschaften und aus der Symmetrie; sie brauchen daher nicht gesondert aufgeführt zu werden. Der Begriff des skalaren Produkts kann auch auf Vektorräume über dem Körper C der komplexen Zahlen übertragen werden. Um hier ebenfalls den Begriff des skalaren Produkts erklären zu können, muß zuvor der Begriff der Bilinearform modifiziert werden. Es sei also jetzt V ein komplexer Vektorraum. 7.1.7 Definition. Unter einer Hermiteschen Form β von V versteht man eine Zuordnung, die jedem geordneten Paar (x, y) von Vektoren aus V eindeutig eine komplexe Zahl β(x, y) so zuordnet, daß folgende Eigenschaften erfüllt sind: (1) (2) (3)
β(x 1 + x 2 , y) = β(x 1 , y) + β(x 2 , y). β(xc, y) = β(x, y)c. β(y, x) = β(x, y).
Die ersten zwei Forderungen sind die Linearitätseigenschaften hinsichtlich des ersten Arguments. Forderung (3) tritt an die Stelle der Symmetrie bei reellen Bilinearformen. Sie besagt, daß bei Vertauschung der Argumente der Wert von β in die konjugiert komplexe Zahl übergeht. 7.1.8 Hilfssatz. Für eine Hermitesche Form β gilt: β(x, y 1 + y 2 ) = β(x, y 1 ) + β(x, y 2 ). β(x, yc) = β(x, y)c. ¯ β(x, x) ist eine reelle Zahl. Beweis: Aus (1) und (3) von Definition 7.1.7 folgt β(x, y 1 + y 2 ) = β(y 1 + y 2 , x) = β(y 1 , x) + β(y 2 , x) = β(x, y 1 ) + β(x, y 2 ).
156
7 Euklidische und unitäre Vektorräume
Ebenso ergibt sich aus (2) und (3) ¯ β(x, yc) = β(yc, x) = β(y, x)c¯ = β(x, y)c. Wegen (3) gilt schließlich β(x, x) = β(x, x), weswegen β(x, x) eine reelle Zahl ist. 7.1.9 Bemerkung. Hinsichtlich der zweiten Linearitätseigenschaft und des zweiten Arguments zeigen also die Hermiteschen Formen ein abweichendes Verhalten: Ein skalarer Faktor beim zweiten Argument tritt hinter die Form als konjugiert-komplexe Zahl. Da bei einer Hermiteschen Form β nach dem letzten Satz β(x, x) stets eine reelle Zahl ist, kann die Definition von positiv definit“ übernommen werden. ” 7.1.10 Definition. Eine Hermitesche Form β heißt positiv definit, wenn aus x = o stets β(x, x) > 0 folgt. 7.1.11 Definition. Unter einem skalaren Produkt eines komplexen Vektorraums V versteht man eine positiv definite Hermitesche Form von V . Ein komplexer Vektorraum, in dem ein skalares Produkt ausgezeichnet ist, wird ein unitärer Raum genannt. Ebenso wie vorher verzichtet man bei dem skalaren Produkt eines unitären Raumes auf das unterscheidende Funktionszeichen β und bezeichnet es wieder mit x · y bzw. (x, y). 7.1.12 Beispiele. (a) Es sei {v 1 , . . . , v n } eine Basis des komplexen Vektorraumes V = Cn . Je zwei Vektoren x, y ∈ V entsprechen dann komplexe Koordinaten x1 , . . . , xn bzw. y1 , . . . , yn , und durch x · y = x1 y¯1 + · · · + xn y¯n wird ein skalares Produkt definiert. Damit ist V ein unitärer Raum. (b) Sei n = 2 und V = C2 . Dann wird durch x · y = 4x1 y¯1 − 2x1 y¯2 − 2x2 y¯1 + 3x2 y¯2 auf V ein skalares Produkt definiert. Abschließend soll nun noch untersucht werden, in welchem Zusammenhang die euklidischen und die unitären Vektorräume stehen. Trotz der verschiedenartigen Definition der skalaren Produkte wird sich nämlich zeigen, daß die unitären Räume als Verallgemeinerung der euklidischen Räume aufgefaßt werden können.
7.1 Skalarprodukte und Hermitesche Formen
157
Es sei V wieder ein reeller Vektorraum. Dieser soll nun zunächst in einen komplexen Raum eingebettet werden: Die Menge Z bestehe aus allen geordneten Paaren von Vektoren aus V ; jedes Element z ∈ Z besitzt also die Form z = (x, y) mit Vektoren x, y ∈ V . Ist z = (x , y ) ein zweites Element von Z, so gelte z + z = (x + x , y + y ). Ist ferner a = a1 + a2 i eine komplexe Zahl, so werde (∗)
za = (xa1 − ya2 , ya1 + xa2 )
gesetzt. Man überzeugt sich nun unmittelbar davon, daß Z hinsichtlich der so definierten Operationen ein komplexer Vektorraum mit dem Paar (o, o) als Nullvektor ist. In ihn kann der Vektorraum V in folgendem Sinn eingebettet werden: Jedem Vektor x ∈ V werde als Bild das Paar ϕx = (x, o) aus Z zugeordnet. Dann gilt ϕ(x 1 + x 2 ) = (x 1 + x 2 , o) = (x 1 , o) + (x 2 , o) = ϕx 1 + ϕx 2 . Ist außerdem c eine reelle Zahl, so kann man sie auch als komplexe Zahl c = c + 0i auffassen und erhält wegen (∗) ϕ(xc) = (xc, o) = (x, o)c = (ϕx)c. Da ϕ außerdem injektiv ist, wird der Vektorraum V durch ϕ isomorph in Z eingebettet, und man kann einfacher die Paare (x, o) direkt mit den entsprechenden Vektoren x ∈ V identifizieren. Wegen (y, o)i = (o, y) gilt im Sinn dieser Identifikation (x, y) = x + yi. 7.1.13 Definition. Der komplexe Vektorraum Z = {(x, y) | x, y ∈ V } heißt die komplexe Erweiterung des reellen Vektorraums V . 7.1.14 Satz. Es sei α : V → V eine lineare Abbildung zwischen den reellen Vektorräumen V und V . Ferner seien Z und Z die komplexen Erweiterungen von V und V . Dann kann α auf genau eine Weise zu einer linearen Abbildung αˆ : Z → Z fortgesetzt werden, d. h. es gilt αx ˆ = αx für alle x ∈ V . Beweis: Wenn αˆ eine solche Fortsetzung ist, muß für jeden Vektor z = x + yi aus Z gelten α(z) ˆ = α(x ˆ + yi) = α(x) ˆ + α(yi) ˆ = α(x) + α(y)i. αˆ ist somit durch α eindeutig bestimmt. Umgekehrt wird durch die äußeren Seiten dieser Gleichung auch eine Fortsetzung αˆ der behaupteten Art definiert.
158
7 Euklidische und unitäre Vektorräume
7.1.15 Definition. Ist α : V → V eine lineare Abbildung zwischen den reellen Vektorräumen V und V mit den komplexen Erweiterungen Z und Z , dann heißt die nach Satz 7.1.14 eindeutig bestimmte lineare Abbildung αˆ : Z → Z die komplexe Fortsetzung von α. 7.1.16 Definition. In V sei nun ein skalares Produkt gegeben, das wie oben mit x · y bezeichnet werden soll. Außerdem sei β ein skalares Produkt der komplexen Erweiterung Z von V . Man nennt dann β eine Fortsetzung des skalaren Produkts von V auf Z, wenn β(x 1 , x 2 ) = x 1 · x 2 für alle Vektoren x 1 , x 2 ∈ V ist. 7.1.17 Satz. Jedes in V gegebene skalare Produkt kann auf genau eine Weise auf die komplexe Erweiterung Z von V fortgesetzt werden. Beweis: Es sei β eine solche Fortsetzung. Da sich Vektoren z, z ∈ Z eindeutig in der Form z = x + yi
bzw.
z = x + y i
mit x, y, x , y ∈ V
darstellen lassen, erhält man β(z, z ) = β(x + yi, x + y i) = β(x, x ) + β(y, x )i − β(x, y )i + β(y, y ) und wegen β(x, x ) = x · x usw. β(z, z ) = (x · x + y · y ) + (y · x − x · y )i. Daher ist β durch das in V gegebene skalare Produkt eindeutig bestimmt. Andererseits rechnet man unmittelbar nach, daß durch die letzte Gleichung umgekehrt ein skalares Produkt β von Z definiert wird, das tatsächlich eine Fortsetzung des skalaren Produkts von V ist. 7.1.18 Bemerkung. Dieser Satz besagt, daß sich jeder euklidische Raum in einen unitären Raum einbetten läßt. Sätze über skalare Produkte brauchen daher im allgemeinen nur für unitäre Räume bewiesen zu werden und können auf den reellen Fall übertragen werden.
7.2
Betrag und Orthogonalität
In diesem Paragraphen ist V stets ein euklidischer oder unitärer Vektorraum. Das skalare Produkt zweier Vektoren x, y ∈ V wird wieder mit x · y bezeichnet. 7.2.1 Satz (Schwarzsche Ungleichung). Für je zwei Vektoren x, y ∈ V gilt |x · y|2 (x · x)(y · y).
159
7.2 Betrag und Orthogonalität
Das Gleichheitszeichen gilt genau dann, wenn die Vektoren x und y linear abhängig sind. Beweis: Im Fall y = o gilt x · y = y · y = 0, und die behauptete Beziehung ist mit dem Gleichheitszeichen erfüllt. Es kann daher weiter y = o und damit auch y · y > 0 vorausgesetzt werden. Für einen beliebigen Skalar c gilt dann 0 (x − yc) · (x − yc) = x · x − (y · x)c − (x · y)c¯ + (y · y)cc¯ = x · x − (x · y)c − (x · y)c¯ + (y · y)cc. ¯ Setzt man hier c=
x·y , y·y
also
c¯ =
x·y , y·y
ein, so erhält man nach Multiplikation mit y · y wegen y · y > 0 0 (x · x)(y · y) − (x · y)(x · y) = (x · x)(y · y) − |x · y|2 und hieraus weiter die behauptete Ungleichung. Das Gleichheitszeichen gilt jetzt genau dann, wenn x − yc = o erfüllt ist. Zusammen mit dem Fall y = o ergibt dies die zweite Behauptung. 7.2.2 Definition. Für jeden Vektor x ∈ V gilt x · x 0. Daher ist |x| =
√ x·x
eine nicht-negative reelle Zahl, die man die Länge oder den Betrag des Vektors x ∈ V nennt. 7.2.3 Bemerkung. Man beachte jedoch, daß die Länge eines Vektors noch von dem skalaren Produkt abhängt. Im allgemeinen kann man in einem Vektorraum verschiedene skalare Produkte definieren, hinsichtlich derer dann ein Vektor auch verschiedene Längen besitzen kann. 7.2.4 Satz. Die Länge besitzt folgende Eigenschaften: (a) |x| 0. (b) |x| = 0 ist gleichwertig mit x = o. (c) |xc| = |x| · |c|. (d) |x + y| |x| + |y|.
(Dreiecksungleichung)
160
7 Euklidische und unitäre Vektorräume
Beweis: Unmittelbar aus der Definition folgt (a). Weiter gilt (b), weil |x| = 0 gleichwertig mit x · x = 0, dies aber wieder gleichwertig mit x = o ist. Eigenschaft (c) ergibt sich wegen √ √ |xc| = (xc) · (xc) = x · x cc¯ = |x||c|. Schließlich erhält man zunächst |x + y|2 = (x + y) · (x + y) = x · x + x · y + y · x + y · y = x·x+x·y+x·y+y·y = |x|2 + 2 Re(x · y) + |y|2 . Nun gilt aber Re(x · y) |x · y|, und aus Satz 7.2.1 folgt durch Wurzelziehen |x · y| |x||y|. Somit ergibt sich weiter |x + y|2 |x|2 + 2|x||y| + |y|2 = (|x| + |y|)2 und damit (d).
7.2.5 Bemerkung. Ersetzt man in der Dreiecksungleichung (d) aus Satz 7.2.4 einerseits x durch x −y und andererseits y durch y −x und beachtet man |x −y| = |y −x|, so erhält man zusammen die Ungleichung |x| − |y| |x − y|. 7.2.6 Satz. |x + y| = |x| + |y| ist gleichwertig damit, daß y = o oder x = yc mit einem reellem c 0 gilt. Beweis: Aus dem Beweis der Dreiecksungleichung folgt unmittelbar, daß in ihr das Gleichheitszeichen genau dann gilt, wenn Re(x · y) = |x||y| erfüllt ist. Wegen Re(x · y) |x · y| |x||y| folgt aus dieser Gleichung auch |x · y| = |x||y| und daher nach Satz 7.2.1 die lineare Abhängigkeit der Vektoren x und y. Setzt man y = o voraus, so muß x = yc und weiter |y|2 (Re c) = Re(yc · y) = Re(x · y) = |x||y| = |y|2 |c|, also Re c = |c| gelten. Dies ist aber nur für reelles c 0 möglich. Gilt umgekehrt x = yc mit einer reellen Zahl c 0 oder y = o, so erhält man durch Einsetzen sofort Re(x · y) = |x||y|. 7.2.7 Definition. Ein Vektor x heißt normiert, wenn |x| = 1 gilt. 1 7.2.8 Bemerkung. Ist x vom Nullvektor verschieden, so ist x |x| ein normierter Vektor.
161
7.2 Betrag und Orthogonalität
7.2.9 Definition. Für zwei vom Nullvektor verschiedeneVektoren x, y definiert man den Kosinus des Winkels zwischen diesen Vektoren durch x·y cos(x, y) = (∗) . |x||y| 7.2.10 Bemerkung. Wegen Satz 7.2.1 gilt |x · y| |x||y|. Für jedes Paar x, y von Vektoren eines euklidischen (reellen) Vektorraums folgt daher −1 cos(x, y) +1. Durch (∗) wird daher tatsächlich der Kosinus eines reellen Winkels definiert. Multiplikation von (∗) mit dem Nenner liefert x · y = |x||y| cos(x, y). Ausrechnung des skalaren Produkts (x − y) · (x − y) und Ersetzung von x · y durch den vorangehenden Ausdruck ergibt im reellen Fall die Gleichung |x − y|2 = |x|2 + |y|2 − 2|x||y| cos(x, y). Dies ist der bekannte Kosinussatz für Dreiecke: Zwei Seiten des Dreiecks werden durch die Vektoren x und y repräsentiert. Die Länge der dem Winkel zwischen x und y gegenüberliegenden Seite ist dann gerade |x − y|. Im Fall eines rechtwinkligen Dreiecks gilt cos(x, y) = 0, und der Kosinussatz geht in den Pythagoräischen Lehrsatz über. Der wichtige Spezialfall, daß x und y einen rechten Winkel einschließen, ist offenbar gleichwertig mit x · y = 0. 7.2.11 Definition. Zwei Vektoren x, y eines euklidischen bzw. unitären Vektorraums V heißen orthogonal, wenn x · y = 0 gilt. Eine nicht-leere Teilmenge M von V heißt ein Orthogonalsystem, wenn o ∈ M gilt und wenn je zwei verschiedene Vektoren aus M orthogonal sind. Ein Orthogonalsystem, das aus lauter normierten Vektoren besteht, wird ein Orthonormalsystem genannt. Unter einer Orthonormalbasis von V versteht man ein Orthonormalsystem, das gleichzeitig eine Basis von V ist. 7.2.12 Satz. Jedes Orthogonalsystem ist linear unabhängig. Beweis: Es sei M ein Orthogonalsystem, und für die paarweise verschiedenen Vektoren v 1 , . . . , v n ∈ M gelte v 1 c1 + · · · + v n cn = o. Für jeden festen Index k mit 1 k n folgt hieraus (v 1 · v k )c1 + · · · + (v k · v k )ck + · · · + (v n · v k )cn = o · v k = 0. Wegen v i · v k = 0 für i = k erhält man weiter (v k · v k )ck = 0 und wegen v k = o, also v k · v k > 0, schließlich ck = 0.
162
7 Euklidische und unitäre Vektorräume
7.2.13 Satz. Es sei {e1 , . . . , en } eine Orthonormalbasis von V . Sind dann x1 , . . . , xn bzw. y1 , . . . , yn die Koordinaten der Vektoren x und y bezüglich dieser Basis, so gilt x · y = x1 y¯1 + · · · + xn y¯n und für die Koordinaten selbst xi = x · ei für i = 1, . . . , n. Beweis: Sicherlich gilt ei · ej = δi,j wobei δi,j =
1 0
falls i = j, falls i = j
das Kronecker-Symbol ist. Hierdurch erhält man x·y =
n
n n n e i xi · ej yj = (ei · ej )xi y¯j = xi y¯i j =1
i=1
und x · ei =
n j =1
i,j =1
ej xj
· ei =
n
i=1
xj δj,i = xi .
j =1
7.2.14 Bemerkungen. (a) Dieser Satz gilt sinngemäß auch bei unendlicher Dimension und kann dann ebenso bewiesen werden. (b) Ist V ein reeller Vektorraum, so entfällt in Satz 7.2.13 die komplexe Konjugation, d. h. x · y = x1 y1 + x2 y2 + · · · + xn yn . (c) Jede Basis B = {v 1 , v 2 , . . . , v n } eines euklidischen oder unitären Vektorraums kann als Orthonormalbasis von V bzgl. eines neuen skalaren Produkts x · y = n n x1 y¯1 + x2 y¯2 + · · · + xn y¯n für x = v x und y = i=1 i i i=1 v i yi ∈ V angesehen werden. (d) Im folgenden wird bei den arithmetischen Vektorräumen Rn und Cn die jeweilige kanonische Basis B = {e1 , e2 , . . . , en } als Orthonormalbasis gewählt. 7.2.15 Beispiele. (a) Für je zwei Vektoren x = (x1 , x2 ) und y = (y1 , y2 ) des reellen arithmetischen Vektorraums R2 sei ein vom gewöhnlichen skalaren Produkt abweichendes skalares Produkt durch x · y = 4x1 y1 − 2x1 y2 − 2x2 y1 + 3x2 y2
163
7.2 Betrag und Orthogonalität
definiert. Dann bilden die Vektoren 1 ∗ e1 = ,0 und 2
e∗2
=
1 1 √ ,√ 2 2 2
eine Orthonormalbasis. Es gilt nämlich 1 1 · = 1, 2 2 1 1 1 1 e∗1 · e∗2 = 4 · · √ − 2 · · √ = 0, 2 2 2 2 2 1 1 1 1 1 1 1 1 e∗2 · e∗2 = 4 · √ · √ − 2 · √ · √ − 2 · √ · √ + 3 · √ · √ = 1. 2 2 2 2 2 2 2 2 2 2 2 2
e∗1 · e∗1 = 4 ·
Zwischen den Koordinaten x1 , x2 hinsichtlich der kanonischen Basis e1 = (1, 0), e2 = (0, 1) und den Koordinaten x1∗ , x2∗ hinsichtlich {e∗1 , e∗2 } besteht wegen 1 e1 , 2 1 1 e∗2 = √ e1 + √ e2 2 2 2
e∗1 =
die Beziehung
1 ∗ 1 1 x1 + √ x2∗ , x2 = √ x2∗ . 2 2 2 2 Einsetzen dieser Werte liefert in der Tat 1 ∗ 1 ∗ 1 ∗ 1 ∗ 1 ∗ 1 ∗ 1 ∗ x ·y = 4 x + √ x y + √ y −2 x + √ x √ y2 2 1 2 2 2 2 1 2 2 2 2 1 2 2 2 2 1 ∗ 1 ∗ 1 ∗ 1 ∗ 1 ∗ y + √ y + 3 √ x2 √ y2 − 2 √ x2 2 1 2 2 2 2 2 2 ∗ ∗ ∗ ∗ = x1 y1 + x2 y2 . x1 =
(b) In demVektorraum aller in dem Intervall [−π, +π ] stetigen reellen Funktionen wird durch & 1 +π f (t)g(t) dt (f, g) = π −π ein skalares Produkt definiert. Hinsichtlich dieses skalaren Produkts bilden die Funktionen 1 √ , 2
cos(nt),
sin(nt)
(n = 1, 2, 3, . . . )
ein unendliches Orthonormalsystem (vgl. Aufgabe 7.4).
164
7.3
7 Euklidische und unitäre Vektorräume
Orthonormalisierungsverfahren
In diesem Paragraphen sei V stets ein euklidischer oder unitärer Vektorraum endlicher oder höchstens abzählbar-unendlicher Dimension. Dabei ist V von abzählbar unendlicher Dimension, wenn dim V = ∞ ist und V eine Basis B besitzt, die bijektiv auf die Menge N aller natürlichen Zahlen abgebildet werden kann. Hierfür ist V = F [X], der Raum aller Polynome mit Koeffizienten aus einem Körper F , ein Beispiel. Daß sich die Ergebnisse im allgemeinen nicht auf Räume mit Basen höherer Mächtigkeit übertragen lassen, wird ebenfalls durch geeignete Gegenbeispiele gezeigt. 7.3.1 Satz (Gram-Schmidt’sches Orthonormalisierungsverfahren). Zu jedem endlichen oder höchstens abzählbar-unendlichen System {a 1 , a 2 , . . . } linear unabhängiger Vektoren des euklidischen oder unitären Vektorraums V gibt es genau ein entsprechendes Orthonormalsystem {b1 , b2 , . . . } mit folgenden Eigenschaften: (a) Für k = 1, 2, . . . erzeugen die Vektoren a 1 , . . . , a k und b1 , . . . , bk denselben Unterraum Uk von V . (b) Die zu der Basistransformation {a 1 , . . . , a k } → {b1 , . . . , bk } von Uk gehörende Transformationsmatrix Pk besitzt eine positive Determinante Dk = det(Pk ) > 0 für k = 1, 2, . . . . Beweis: Die Vektoren b1 , b2 , . . . werden induktiv definiert. Bei einem endlichen System {a 1 , . . . , a m } bricht das Verfahren nach m Schritten ab. Wegen der vorausgesetzten linearen Unabhängigkeit gilt a 1 = o, und b1 = a 1 |a11 | ist ein normierter Vektor. Die Vektoren a 1 und b1 erzeugen denselben Unterraum U1 , und es gilt D1 = |a11 | > 0. Ist umgekehrt b1 ein Vektor mit |b1 | = 1, der ebenfalls U1 erzeugt, so gilt b1 = a 1 c. Und da jetzt c die Determinante der Transformationsmatrix ist, muß bei Gültigkeit von (b) außerdem c > 0 gelten. Man erhält ¯ = |a 1 |2 |c|2 . 1 = b1 · b1 = (a 1 · a 1 )(cc) Wegen c > 0 folgt hieraus c = 1/|a 1 |, also b1 = b1 . Somit ist b1 auch eindeutig bestimmt. Es seien jetzt bereits die Vektoren b1 , . . . , bn so konstruiert, daß (a) und (b) für k = 1, . . . , n erfüllt sind. Dann werde zunächst cn+1 = a n+1 −
n
bi (a n+1 · bi )
i=1
gesetzt. Bei Berücksichtigung der Induktionsvoraussetzung ergibt sich Un+1 = a 1 , . . . , a n , a n+1 = b1 , . . . , bn , a n+1 = b1 , . . . , bn , cn+1
165
7.3 Orthonormalisierungsverfahren
und dim Un+1 = n + 1. Daher sind die Vektoren b1 , . . . , bn , cn+1 linear unabhängig und erzeugen denselben Unterraum wie die Vektoren b1 , . . . , bn , a n+1 , nämlich Un+1 . Insbesondere gilt cn+1 = o. Wegen bi · bj = δi,j , wobei δi,j das KroneckerSymbol ist, ergibt sich außerdem für j = 1, . . . , n cn+1 · bj = a n+1 · bj −
n
δi,j (a n+1 · bi ) = a n+1 · bj − a n+1 · bj = 0.
i=1
Setzt man daher bn+1 =
1 |cn+1 |
cn+1 ,
so bilden die Vektoren b1 , . . . , bn+1 ein Orthonormalsystem mit der Eigenschaft (a) für k = 1, . . . , n+1. Die Transformation Pn+1 der a i in die bi ist die Dreiecksmatrix Pn+1 = (aij ), deren Koeffizienten wie folgt bestimmt sind b1 = a 1 a1,1 b2 = a 1 a2,1 + a 2 a2,2 .. . bn = a 1 an,1 + · · · + a n an,n bn+1 = a 1 an+1,1 + · · · + a n+1
1 |cn+1 |
.
Aus Satz 5.4.5 folgen Dn = det Pn = a1,1 . . . an,n und Dn+1 = det(Pn+1 ) = 1 Dn |cn+1 | . Nach Induktionsannahme ist Dn > 0. Daher gilt die Behauptung (2). Ist umgekehrt bn+1 ein Vektor, für den {b1 , . . . , bn , bn+1 } ebenfalls ein Orthonormalsystem mit den Eigenschaften (a) und (b) ist, so muß wegen (a) und (b) bn+1 =
n
bi ai + bn+1 c
i=1
mit c > 0 gelten. Wegen bn+1 · bs = 0 für s = 1, . . . , n folgt nun bn+1 = bn+1 c. Daher ist c = |bn+1 |c = |bn+1 | = 1. Somit gilt bn+1 = bn+1 . 7.3.2 Satz. Der euklidische oder unitäre Vektorraum V besitze endliche oder höchstens abzählbar-unendliche Dimension. Dann kann jede Orthonormalbasis eines endlich-dimensionalen Unterraums U von V zu einer Orthonormalbasis von V ergänzt werden. Insbesondere besitzt V selbst eine Orthonormalbasis. Beweis: Es sei U ein n-dimensionaler Unterraum von V , und {b1 , . . . , bn } sei eine Orthonormalbasis von U . (Im Fall n = 0 ist die Orthonormalbasis durch
166
7 Euklidische und unitäre Vektorräume
die leere Menge zu ersetzen.) Diese Basis kann nach Satz 2.2.15 zu einer Basis {b1 , . . . , bn , a n+1 , a n+2 , . . . } von V ergänzt werden. Wendet man auf sie das GramSchmidt’sche Orthonormalisierungsverfahren an, so bleiben die Vektoren b1 , . . . , bn erhalten, und man gewinnt eine Orthonormalbasis {b1 , . . . , bn , bn+1 , . . . } von V . Der Fall U = {o} liefert die Existenz einer Orthonormalbasis von V .
7.3.3 Beispiele. (a) In dem reellen arithmetischen Vektorraum R4 sei das skalare Produkt je zweier Vektoren x = (x1 , . . . , x4 ) und y = (y1 , . . . , y4 ) durch x · y = x1 y1 + · · · + x4 y4 definiert. Das Orthonormalisierungsverfahren werde auf die Vektoren a 1 = (4, 2, −2, −1),
a 2 = (2, 2, −4, −5),
a 3 = (0, 8, −2, −5)
angewandt. Man erhält: b1 =
1 1 a 1 = (4, 2, −2, −1). |a 1 | 5
c2 = a 2 − b1 (a 2 · b1 ) = (2, 2, −4, −5) − (4, 2, −2, −1)
25 1 · 5 5
= (−2, 0, −2, −4), 1 b2 = (−2, 0, −2, −4) √ . 24 c3 = a 3 − b1 (a 3 · b1 ) − b2 (a 3 · b2 ) = (0, 8, −2, −5) − (4, 2, −2, −1)
24 25 1 1 · − (−2, 0, −2, −4) √ · √ 5 5 24 24
= (−2, 6, 2, 0), 1 b3 = (−2, 6, 2, 0) √ . 44 (b) In dem reellen Vektorraum aller in [0, 1] stetigen reellen Funktionen sei das skalare Produkt durch & (f, g) =
1
f (t)g(t) dt 0
definiert. Das Orthonormalisierungsverfahren soll auf die Polynome 1 = t 0 , t, t 2 , . . . angewandt werden. Die Funktionen des entstehenden Orthonormalsystems sollen hier mit e0 , e1 , e2 , . . . bezeichnet werden. Die ersten Schritte
167
7.3 Orthonormalisierungsverfahren
lauten:
& (1, 1) = &
(t, e0 ) =
1
0 1 0
dt = 1, also e0 (t) = 1. t dt =
1 , 2
1 e1 (t) = t − (t, e0 )e0 (t) = t − ; 2 & 1 √ 1 2 1 1 t− dt = , also e1 (t) = 12 t − . (e1 , e1 ) = 2 12 2 0 & 1 1 t 2 dt = , (t 2 , e0 ) = 3 0 & 1 √ 1 1 2 2 t t− dt = √ , (t , e1 ) = 12 2 12 0 e2 (t) = t 2 − (t 2 , e0 )e0 (t) − (t 2 , e1 )e1 (t) 1 1 1 2 =t − − t− = t2 − t + ; 3 2 6 2 & 1 √ 1 1 1 2 2 t −t + dt = , also e2 (t) = 6 5 t − t + . (e2 , e2 ) = 6 180 6 0 7.3.4 Definition. Zwei Teilmengen M und N des euklidischen oder unitären Vektorraumes V heißen orthogonal, wenn x · y = 0 für alle Vektoren x ∈ M und y ∈ N erfüllt ist, wenn also alle Vektoren aus M auf allen Vektoren aus N senkrecht stehen. Bezeichnung: M ⊥ N. Wenn hierbei z. B. die Menge M aus nur einem Vektor x besteht, wird statt {x} ⊥ N einfacher x ⊥ N geschrieben. Die leere Menge und der Nullraum sind zu jeder Teilmenge von V orthogonal. 7.3.5 Definition. Sei M eine Teilmenge des euklidischen oder unitären Vektorraumes V . Dann heißt M ⊥ = {v ∈ V | v ⊥ M} = {v ∈ V | m · v = o für alle m ∈ M} das orthogonale Komplement von M in V . 7.3.6 Bemerkung. Das orthogonale Komplement M ⊥ einer Teilmenge M des Vektorraums V ist ein Unterraum von V ; denn M ⊥ ist abgeschlossen gegenüber den linearen Operationen. 7.3.7 Satz. Sei U ein r-dimensionaler Unterraum des n-dimensionalen euklidischen oder unitären Vektorraumes V . Dann gelten:
168
7 Euklidische und unitäre Vektorräume
(a) Das orthogonale Komplement U ⊥ von U ist ein (n − r)-dimensionaler Unterraum von V . (b) U ⊥⊥ = {v ∈ V | a · v = 0 für alle a ∈ U ⊥ } = U . (c) V = U ⊕ U ⊥ . Beweis: (a) Nach Satz 7.3.2 besitzt U eine Orthonormalbasis B = {v 1 , v 2 , . . . , v r }, die sich zu einer Orthonormalbasis C = {v 1 , v 2 , . . . , v r , v r+1 , . . . , v n } von V ergänzen läßt. Also gehören die n−r linear unabhängigen Vektoren v r+1 , v r+2 , . . . , v n zu U ⊥ . Daher ist dim U ⊥ ≥ n − r. Sei u ein Element von U ⊥ ∩ U . Dann ist u · u = 0. Nach Bemerkung 7.1.2 folgt u = o. Daher ist U ∩ U ⊥ = {o}. Aus dem Dimensionssatz 2.2.16 folgt dim U ⊥ ≤ n − dim U = n − r. Deshalb ist V = U ⊕ U ⊥ , womit (a) und (c) bewiesen sind. (b) Nach Definition von U ⊥ gilt u · v = 0 für alle v ∈ U ⊥ und alle u ∈ U . Also ist U ⊆ U ⊥⊥ . Wegen (a) gilt dann dim(U ⊥⊥ ) = n − dim U ⊥ = n − (n − r) = r. Daher ist U = U ⊥⊥ nach Folgerung 2.2.14. 7.3.8 Bemerkung. Satz 7.3.7 läßt sich nicht auf unendlich-dimensionale euklidische oder unitäre Vektorräume verallgemeinern, wie folgendes Beispiel zeigt: Es sei V der reelle Vektorraum aller in [0, 1] stetigen reellen Funktionen mit dem skalaren Produkt & (f, g) =
1
f (t)g(t) dt. 0
Der Unterraum U aller Polynome besitzt abzählbar-unendliche Dimension. Daher existiert nach Satz 7.3.2 eine Orthonormalbasis von U . Es sei nun f eine von der Nullfunktion verschiedene Funktion aus V . Dann gilt (f, f ) = a > 0 und |f (t)| < b für alle t ∈ [0, 1]. Nach dem Approximationssatz von Weierstrass kann f in [0, 1] gleichmäßig durch Polynome approximiert werden, vgl. A. Ostrowski, [19], S. 170. a Es gibt also ein Polynom g ∈ U mit |f (t) − g(t)| < 2b für alle t ∈ [0, 1], und man erhält & 1 (f, g) = f (t)[f (t) − (f (t) − g(t))] dt &
0
1 0
& f 2 (t)dt −
(f, f ) − b
1 0
|f (t)||f (t) − g(t)| dt
a a = > 0. 2b 2
Daher ist außer der Nullfunktion keine Funktion aus V zu U orthogonal; d. h. U ⊥ ist der Nullraum und (U ⊥ )⊥ der ganze Raum V . Satz 7.3.7 gilt somit nicht mehr für unendlich-dimensionale Unterräume.
169
7.4 Adjungierte Abbildungen und normale Endomorphismen
Ebenso gilt auch Satz 7.3.2 nicht für euklidische oder unitäre Vektorräume mit überabzählbarer Dimension, weil eine Orthonormalbasis von U nicht zu einer Orthonormalbasis von V erweitert werden kann.
7.4 Adjungierte Abbildungen und normale Endomorphismen 7.4.1 Definition. Es seien V und W zwei euklidische oder unitäre Räume. Sei α eine lineare Abbildung von V in W . Eine lineare Abbildung α ∗ : W → V heißt eine zu α adjungierte Abbildung, wenn für alle Vektoren x ∈ V und y ∈ W αx · y = x · α ∗ y (und damit auch y · αx = α ∗ y · x) gilt. Ein Endomorphismus α des euklidischen oder unitären Vektorraums V heißt selbstadjungiert, wenn ein adjungierter Endomorphismus α ∗ existiert und α = α ∗ gilt. Ein Endomorphismus α von V heißt anti-selbstadjungiert, wenn ein adjungierter Endomorphismus α ∗ existiert und α = −α ∗ gilt. 7.4.2 Bemerkungen. (a) Im allgemeinen braucht es zu einer linearen Abbildung α : V → W keine adjungierte Abbildung zu geben, wie folgendes Beispiel zeigt. Wie in Bemerkung 7.3.8 sei V der reelle Vektorraum aller stetigen reellen Funktionen f : [0, 1] → R mit dem Skalarprodukt & 1 (f, g) = f (t)g(t) dt, f, g ∈ V . 0
Der Unterraum U aller polynomialen Funktionen p(t) = p0 + p1 t + p2 t 2 + · · · + pn t n ,
pi ∈ R, n < ∞,
besitzt abzählbare Dimension. Daher besitzt U nach Satz 7.3.2 eine Orthonormalbasis B = {p1 (t), p2 (t), . . . }. Sei = id U die Identität von U , d. h. (u) = u für alle u ∈ U . Dann ist ∈ HomR (U, V ). Angenommen, die adjungierte Abbildung ∗ von existierte. Dann wäre ∗ ∈ HomR (V , U ). Da die Exponentialfunktion et ∈ V ist, gilt ∗ (et ) = p1 (t)r1 +p2 (t)r2 +· · ·+pm (t)rm mit endlich vielen eindeutig bestimmten reellen Zahlen ri ; denn B ist eine Basis von U . t Sei f (t) = et − m i=1 pi (t)(e , pi (t)). Wegen m t t ∗ t (e , pj (t)) = (e , pj (t)) = ( (e ), pj (t)) = pk (t)rk , pj (t) = 0 k=1
170
7 Euklidische und unitäre Vektorräume
für alle j = m + 1, m + 2, . . . folgte dann, daß f (t) ∈ U ⊥ wäre. Nach Bemerkung 7.3.8 ist U ⊥ = {o}, d. h. f (t) = 0 und et ∈ U . Dies ist ein Widerspruch, denn et ist keine polynomiale Funktion. Daher hat keine adjungierte Abbildung. (b) Wenn jedoch zu α eine adjungierte Abbildung α ∗ existiert, so ist sie auch eindeutig bestimmt: Ist nämlich α ebenfalls eine zu α adjungierte Abbildung, so gilt x · (α ∗ y − α y) = x · α ∗ y − x · α y = αx · y − αx · y = 0 für jeden Vektor x ∈ V . Wäre x = α ∗ y − α y = 0 für ein y ∈ W , dann wäre x · x = 0 im Widerspruch zu Definitionen 7.1.4 und 7.1.11. Also ist α ∗ y = α y für jeden Vektor y ∈ W und damit α = α ∗ . 7.4.3 Hilfssatz. Wenn V endliche Dimension besitzt, existiert zu jeder linearen Abbildung α : V → W die adjungierte Abbildung α ∗ . Ist {e1 , . . . , en } eine Orthonormalbasis von V , so gilt α∗y =
n
ei (y · αei ) für alle y ∈ W.
i=1
Beweis: Wegen Satz 7.3.2 besitzt n V eine Orthonormalbasis {e1 , . . . , en }. Für jeden Vektor x ∈ V gilt dann x = i=1 ei (x · ei ). Denn aus x = e1 x1 + e2 x2 + · · · + en xn folgt n x · ei = xi nach Satz 7.2.13. Definiert man nun die Abbildung β durch βy = i=1 ei (y · αei ) für alle y ∈ W , so ist β wegen der Linearitätseigenschaften des skalaren Produkts jedenfalls eine lineare Abbildung. Wegen αx · y = =
n i=1 n i=1
(αei · y)xi =
n
(y · αei )xi =
i=1
(x · ei )(y · αei ) =
n
xi (y · αei )
i=1 n
x · [ei (y · αei )] = x · βy
i=1
ist β die zu α adjungierte Abbildung α ∗ nach Definition 7.4.1 und Bemerkung 7.4.2 (b). 7.4.4 Definition. Sei A = (aij ) eine komplexe m×n-Matrix. Dann heißt A¯ = (a¯ ij ) ¯ T die zu A adjungierte Matrix. die zu A konjugiert komplexe Matrix und A∗ = (A) 7.4.5 Bemerkung. Die adjungierte A∗ einer reellen m × n-Matrix A ist die transponierte Matrix AT von A, weil a¯ ij = aij für alle Koeffizienten aij von A gilt.
7.4 Adjungierte Abbildungen und normale Endomorphismen
171
7.4.6 Satz. Es seien V und W endlich-dimensional. Ferner sei B = {e1 , . . . , en } eine Orthonormalbasis von V und B = {f 1 , . . . , f r } eine Orthonormalbasis von W . Für die Matrizen der linearen Abbildung α : V → W und ihrer adjungierten Abbildung α ∗ bezüglich dieser Basen gilt: Aα ∗ (B , B) = (Aα (B, B ))∗ . Beweis: Die Koeffizienten der Matrix Aα (B, B ) = A = (aij ) sind nach Definition 3.3.1 durch die Gleichungen αej =
r
f i aij
(j = 1, . . . , n)
i=1
bestimmt. Aus ihnen folgt aij = αej · f i für j = 1, . . . , n und i = 1, . . . , r, weil B = {f 1 , . . . , f r } eine Orthonormalbasis ist. Bezeichnet man die α ∗ zugeordnete Matrix mit B = (bj i ), so gilt entsprechend α∗f i =
n
ej · bj i
(i = 1, . . . , r)
j =1
und bj i = α ∗ f i · ej für i = 1, . . . , r und j = 1, . . . , n. Hieraus folgt bj i = α ∗ f i · ej = ej · α ∗ f i = αej · f i = a¯ ij und somit B = A¯ T = A∗ .
7.4.7 Hilfssatz. Für lineare Abbildungen α, β, deren adjungierte Abbildungen α ∗ , β ∗ existieren, gelten die folgenden Gleichungen: (a) (α ∗ )∗ = α. (b) (α + β)∗ = α ∗ + β ∗ . ¯ (c) (α · c)∗ = α ∗ c. (d) (βα)∗ = α ∗ β ∗ . (e) Ist α ein Endomorphismus eines endlich-dimensionalen Vektorraums V , dann gilt det(α ∗ ) = det(α). Für komplexe bzw. reelle n × n-Matrizen gelten die zu (a) bis (e) analogen Aussagen entsprechend.
172
7 Euklidische und unitäre Vektorräume
Beweis: (a) Es gilt αx · y = x · α ∗ y = (α ∗ )∗ x · y, für alle x, y ∈ V . Also ist (αx − (α ∗ )∗ x) · y = 0 für alle y ∈ V . Daher ist α ∗ x = (α ∗ )∗ x für alle x ∈ V , woraus (α ∗ )∗ = α folgt. (b) x·(α+β)∗ y = (α+β)x·y = αx·y+βx·y = x·α ∗ y+x·β ∗ y = x·(α ∗ +β ∗ )y für alle x, y ∈ V . Hieraus folgt (α + β)∗ = α ∗ + β ∗ . (c) x · (α · c)∗ y = (α · c)x · y = (αx · y)c = (x · α ∗ y)c = x · (α ∗ c)y ¯ für alle x, y ∈ V . Also gilt (αc)∗ = α ∗ c. ¯ (d) x · (βα)∗ y = (βα)x · y = αx · β ∗ y = x · α ∗ β ∗ y für alle x, y ∈ V . (e) Sei B eine Basis des endlich-dimensionalen Vektorraums V und A = Aα (B, B) die Matrix des Endomorphismus α von V bezüglich B. Nach Definition 5.3.4 ist det(A) = π∈Sn (sign π )a1,π(1) a2,π(2) . . . an,π(n) . Da die komplexe Konjugation ein Automorphismus von C ist, folgt ¯ det(A) = (sign π )a¯ 1,π(1) a¯ 2,π(2) . . . a¯ n,π(n) = det(A). π∈Sn
¯ = det(A¯ T ) = det(A∗ ). Insbesondere gilt det(α ∗ ) = Nach Satz 5.4.1(a) ist det(A) det(α). Die Behauptung folgt nun unmittelbar aus Satz 7.4.6. 7.4.8 Definition. Ein Endomorphismus α eines unitären oder euklidischen Raumes V heißt normal, wenn der zu ihm adjungierte Endomorphismus α ∗ existiert und mit α vertauschbar ist, d. h. αα ∗ = α ∗ α. 7.4.9 Satz. Ein Endomorphismus α eines unitären oder euklidischen Raumes V ist genau dann normal, wenn sein adjungierter Endomorphismus α ∗ existiert und wenn für alle Vektoren x, y ∈ V gilt αx · αy = α ∗ x · α ∗ y. Beweis: Aus αα ∗ = α ∗ α folgt nach Definition 7.4.1, daß αx · αy = x · α ∗ (αy) = x · α(α ∗ y) = α ∗ x · α ∗ y. Umgekehrt gelte αx · αy = α ∗ x · α ∗ y für alle Vektoren x, y ∈ V . Man erhält (α(α ∗ x)) · y = α ∗ x · α ∗ y = αx · αy = (α ∗ (αx)) · y, also ((αα ∗ )x − (α ∗ α)x) · y = 0. Da diese Gleichung bei festem x für alle Vektoren y ∈ V gilt, folgt (αα ∗ )x = (α ∗ α)x nach Satz 7.3.7. Und da dies für beliebige Vektoren x ∈ V gilt, ergibt sich schließlich αα ∗ = α ∗ α. 7.4.10 Hilfssatz. Für einen normalen Endomorphismus α gilt Ker α = Ker α ∗ .
7.4 Adjungierte Abbildungen und normale Endomorphismen
173
Beweis: Wegen Satz 7.4.9 gilt für jeden Vektor x von V , daß |αx|2 = αx · αx = α ∗ x · α ∗ x = |α ∗ x|2 . Daher ist αx = o gleichwertig mit α ∗ x = o.
7.4.11 Satz. Es sei α ein normaler Endomorphismus. Dann gelten: (a) α und α ∗ besitzen dieselben Eigenvektoren. (b) Ist a Eigenvektor von α mit dem Eigenwert c, dann hat a als Eigenvektor von α ∗ den Eigenwert c. ¯ (c) Zwei Eigenvektoren von α, die verschiedene Eigenwerte haben, sind orthogonal. Beweis: Wegen Satz 7.4.9 gilt (αa − ac) · (αa − ac) = αa · αa − (a · αa)c − (αa · a)c¯ + (a · a)cc¯ = α ∗ a · α ∗ a − (α ∗ a · a)c − (a · α ∗ a)c¯ + (a · a)cc¯ = (α ∗ a − a c) ¯ · (α ∗ a − a c). ¯ Daher ist αa = ac gleichwertig mit α ∗ a = a c, ¯ woraus (a) und (b) folgen. (c) Seien a und b zwei Eigenvektoren von α mit den verschiedenen Eigenwerten f und g. Wegen (b) gilt α ∗ b = bg. ¯ Hieraus folgt (a · b)f = (af ) · b = (αa) · b = a · (α ∗ b) = a · (bg) ¯ = (a · b)g, also (a · b)(f − g) = 0. Wegen f = g ist daher a · b = 0.
7.4.12 Hilfssatz. Sei V ein n-dimensionaler euklidischer oder unitärer Vektorraum. Ferner seien α ein normaler Endomorphismus von V , e ein Eigenvektor von α und U = e⊥ = {v ∈ V | e · v = o}. Dann gelten: (a) U ist ein α-invarianter Unterraum mit dimF U = n − 1. (b) Die Einschränkung α|U von α auf U ist ein normaler Endomorphismus von U. Beweis: (a) Nach Satz 7.3.7 hat U = e⊥ die Dimension n − 1. Seien u ∈ U und c ∈ F ein Eigenwert von α mit Eigenvektor e. Wegen Satz 7.4.11 gilt dann ¯ = (u · e)c = 0. αu · e = u · α ∗ e = u · (ec) Daher ist αu ∈ U für alle u ∈ U , d. h. U ist ein α-invarianter Unterraum von V . (b) Wegen (a) ist α1 = α|U ∈ EndF (U ). Nach Hilfssatz 7.4.3 existiert α1∗ ∈ ∗ . Daher ist α ein normaler Endomorphismus von U nach EndF (U ), und α1∗ = α|U 1 Satz 7.4.9.
174
7 Euklidische und unitäre Vektorräume
7.4.13 Satz. Es sei V = 0 ein endlich-dimensionaler euklidischer oder unitärer F -Vektorraum. Sei α ein Endomorphismus von V , dessen sämtliche Eigenwerte im euklidischen Fall reell sind. Dann ist α genau dann normal, wenn es zu ihm eine Orthonormalbasis von V gibt, die aus lauter Eigenvektoren von α besteht. Beweis: Zunächst sei α normal, und sei c1 ein Eigenwert von α. Zu c1 gibt es einen Eigenvektor e1 , und zwar auch im euklidischen Fall, weil c1 dann als reell vorausgesetzt wurde. Ohne Beschränkung der Allgemeinheit kann e1 als Einheitsvektor angenommen werden. Im Fall n = 1 ist {e1 } bereits eine Orthonormalbasis von V . Es gelte nun n > 1, und die Behauptung sei für die Dimension n−1 vorausgesetzt. Weiter sei U der zu e1 orthogonale Unterraum von V . Wegen 7.4.12 ist U dann ein αinvarianter Unterraum von V mit dimF U = n − 1 und die Einschränkung α1 = α|U von α auf U ist ein normaler Endomorphismus von U . Nach Induktionsvoraussetzung gibt es daher eine Orthonormalbasis {e2 , . . . , en } von U , die aus lauter Eigenvektoren von α besteht. Es ist dann {e1 , . . . , en } eine Orthonormalbasis von V der behaupteten Art. Umgekehrt sei {e1 , . . . , en } eine Orthonormalbasis von V , die aus lauter Eigenvektoren des Endomorphismus α besteht; es gelte also αei = ei ci . Durch ψei = ei c¯i wird dann ein Endomorphismus ψ von V definiert. Für i, j = 1, . . . , n gilt αei · ej = (ei ci ) · ej = ci δi,j = cj δj,i = ei · (ej c¯j ) = ei · ψej und daher allgemein αx · y = x · ψy. Somit ist ψ der zu α adjungierte Endomorphismus α ∗ . Wegen α ∗ (αei ) = ψ(ei ci ) = ei ci c¯i = α(ei c¯i ) = α(ψei ) = α(α ∗ ei ) für i = 1, . . . , n folgt schließlich α ∗ α = αα ∗ ; d. h. α ist normal.
7.4.14 Folgerung. In einem endlich-dimensionalen unitären Vektorraum V existiert zu einem Endomorphismus α genau dann eine Orthonormalbasis aus Eigenvektoren von α, wenn α ein normaler Endomorphismus ist. 7.4.15 Hilfssatz. Sei αˆ die komplexe Fortsetzung des normalen Endomorphismus α ∈ EndR (V ) des endlich-dimensionalen euklidischen Vektorraums V auf dessen unitäre Erweiterung zum C-Vektorraum Z. Dann ist αˆ ebenfalls ein normaler Endomorphismus von Z. Beweis: Nach den Sätzen 7.1.14 und 7.1.17 existieren die komplexen Fortsetzungen eines Endomorphismus α und des Skalarprodukts des euklidischen R-Vektorraums V auf den komplexen Vektorraum Z mit Dimension dimC Z = dimR V . Für alle
7.4 Adjungierte Abbildungen und normale Endomorphismen
175
a, b, c, d ∈ V gilt außerdem α(a ˆ + bi) · (c + di) = αa · c + αb · d + (αb · c − αa · d)i = a · α ∗ c + b · α ∗ d + (b · α ∗ c − a · α ∗ d)i = (a + bi) · (α ∗ c + α ∗ di). Daher folgt für den zu αˆ adjungierten Endomorphismus αˆ ∗ (c + di) = α ∗ c + α ∗ di. Hieraus ergibt sich aber unmittelbar αˆ ∗ αˆ = αˆ αˆ ∗ . 7.4.16 Hilfssatz. Es sei α ein normaler Endomorphismus des euklidischen Vektorraums V . Ferner sei e = a + bi ein normierter Eigenvektor von αˆ mit dem nichtreellen Eigenwert c. Dann ist e = a − bi ebenfalls ein normierter Eigenvektor von αˆ mit dem Eigenwert c. ¯ Ferner sind e und e orthogonal. Beweis: Da a und b aus dem euklidischen Raum V stammen, gilt a · b = b · a. Man erhält e · e = a · a + b · b + (a · b − b · a)i = e · e. Mit e ist daher auch e normiert. Da e ein Eigenvektor von αˆ mit dem Eigenwert c = c1 + c2 i (c1 , c2 reell) ist, gilt αa + αbi = αe ˆ = ec = ac1 − bc2 + (bc1 + ac2 )i. Daher ist αa = ac1 − bc2 , αb = bc1 + ac2 und somit ¯ αe ˆ = αa − αbi = ac1 − bc2 − (bc1 + ac2 )i = (a − bi)(c1 − c2 i) = e c. ¯ Schließlich ist wegen Also ist e ein Eigenvektor von αˆ zu dem Eigenwert c. Satz 7.4.11 und 7.4.15 außerdem e Eigenvektor von αˆ ∗ zum Eigenwert c = c. Da c nicht reell ist, gilt c = c. ¯ Deshalb ist e · e = 0 nach Satz 7.4.11 (c). Nach diesen Vorbereitungen kann jetzt der allgemeine Fall normaler Endomorphismen in euklidischen Räumen behandelt werden. 7.4.17 Satz. Es sei V ein euklidischer Raum mit dim V = n < ∞. Ein Endomorphismus α von V ist genau dann normal, wenn es eine Orthonormalbasis B von V gibt derart, daß die Matrix Aα (B, B) von α die folgende Gestalt hat: c1 .. . c k , Aα (B, B) = A = . . .
176
7 Euklidische und unitäre Vektorräume
wobei c1 , . . . , ck die reellen Eigenwerte von α sind und jedes Kästchen eine 2 × 2Matrix der folgenden Form ist: a
−b
b
a
.
Jedem solchen Zweierkästchen entspricht dabei ein Paar c, c¯ konjugiert-komplexer Eigenwerte von α, ˆ und es gilt a = Re c,
b = Im c.
Beweis: Im Fall n = 1 ist die Behauptung trivial. Es gelte jetzt n > 1, und für kleinere Dimensionen sei die Richtigkeit der Behauptung vorausgesetzt. Besitzt α einen reellen Eigenwert c1 und somit einen Eigenvektor e1 ∈ V , so ist nach Hilfssatz 7.4.12 U = {v ∈ V | e1 · v = o} ein (n − 1)-dimensionaler, α-invarianter Unterraum von V derart, daß die Einschränkung α|U von α auf U ein normaler Endomorphismus von U ist. Also folgt in diesem Fall die Behauptung durch vollständige Induktion. Besitzt aber α keinen reellen Eigenwert, so werde V in seine komplexe Erweiterung Z eingebettet und α zu dem Endomorphismus αˆ von Z fortgesetzt. Weiter sei c ein (nicht-reeller) Eigenwert von α. ˆ Zu ihm gibt es dann einen normierten Eigenvektor e1 in Z. Es gelte e1 = a 1 + b1 i mit a 1 , b1 ∈ V . Nach Hilfssatz 7.4.16 ist dann auch e2 = a 1 − b1 i ein normierter und zu e1 orthogonaler Eigenvektor von αˆ mit dem Eigenwert c. ¯ Setzt man nun √ 1 f 1 = (e1 + e2 ) √ = a 1 2 2
und
√ 1 f 2 = (e1 − e2 ) √ = b1 2, 2i
so gilt f 1 , f 2 ∈ V . Wegen f 1 · f 1 = f 2 · f 2 = 21 (e1 · e1 + e2 · e2 ) = 1 sind die Vektoren f 1 , f 2 normiert und wegen f 1 · f 2 = (e1 · e1 − e1 · e2 + e2 · e1 − e2 · e2 )
−1 =0 2i
auch orthogonal. Weiter gilt √ 1 1 ˆ 1 + αe ˆ 2 ) √ = (e1 c + e2 c) ¯ √ = 2[a 1 (Re c) − b1 (Im c)] αf 1 = (αe 2 2 = f 1 (Re c) − f 2 (Im c) = f 1 a − f 2 b, √ 1 1 αf 2 = (αe ˆ 1 − αe ˆ 2 ) √ = (e1 c − e2 c) ¯ √ = 2[a 1 (Im c) + b1 (Re c)] i 2 i 2 = f 1 (Im c) + f 2 (Re c) = f 1 b + f 2 a. Hinsichtlich f 1 , f 2 entspricht also α ein Zweierkästchen der behaupteten Art.
177
7.4 Adjungierte Abbildungen und normale Endomorphismen
Wegen Satz 7.4.6 folgt nun α∗f 1 = f 1a + f 2 b
und
α ∗ f 2 = −f 1 b + f 2 a
Sei U = {f 1 , f 2 }⊥ . Für jedes u ∈ U erhält man dann αu · f 1 = u · α ∗ f 1 = (u · f 1 )a + (u · f 2 )b = 0, αu · f 2 = u · α ∗ f 2 = (u · f 1 )(−b) + (u · f 2 )a = 0. Hieraus folgt αu ∈ U für alle u ∈ U . Also ist U ein α-invarianter Unterraum von V . Nach Satz 7.3.7 ist dimR U = n − 2. Mittels Hilfssatz 7.4.3 und Satz 7.4.9 ergibt sich daher, daß die Einschränkung α|U von α auf U ein normaler Endomorphismus von U ist, auf den die Induktionsvoraussetzung angewandt werden kann. Sei umgekehrt α ein Endomorphismus von V mit k reellen Eigenwerten ci , 1 ≤ i ≤ k, und 21 (n−k) Paaren {cm , c¯m } konjugiert komplexer Eigenwerte cm = am +bm i (m) (m) mit 0 = am ∈ R und 0 = bm ∈ R. Weiter sei B = {e1 , e2 , . . . , ek } ∪ {f 1 , f 2 | 1 1 ≤ m ≤ 2 (n − k)} eine Orthonormalbasis von V derart, daß c1 .. . ck , Aα (B, B) = A = .. . und jedes Kästchen eine (2 × 2)-Matrix der Form ist: am −bm bm
am
für 1 ≤ m ≤
1 (n − k). 2
Nach Hilfssatz 7.4.3 existiert die zu α adjungierte lineare Abbildung α ∗ von V . Wegen Satz 7.4.6 gilt Aα ∗ (B, B) = [Aα (B, B)]∗ = [Aα (B, B)]T = AT Man bestätigt nun unmittelbar, daß AAT = AT A. Nach Satz 3.3.7 folgt αα ∗ = α ∗ α. Also ist α ein normaler Endomorphismus von V . 7.4.18 Folgerung. Sei α ein anti-selbstadjungierter Endomorphismus des endlichdimensionalen euklidischen oder unitären Vektorraums V . Dann gelten: (a) Die Realteile aller Eigenwerte von α sind Null.
178
7 Euklidische und unitäre Vektorräume
(b) V besitzt eine Orthonormalbasis B, die aus Eigenvektoren von α besteht. (c) Ist V ein euklidischer Vektorraum, dann sind alle Diagonalelemente der quadratischen Matrix Aα (B, B) gleich Null. Beweis: (a) Sei o = v ∈ V ein Eigenvektor zum Eigenwert c von α. Wegen α ∗ = −α folgt nach Satz 7.4.11, daß α ∗ (v) = v c¯ = −α(v) = −vc = v(−c). Daher ist c¯ = −c, woraus Re(c) = 0 folgt. (b) Wegen α ∗ α = −α 2 = αα ∗ ist α normal. Nach Satz 7.4.13 besitzt V eine Orthonormalbasis B, die aus Eigenvektoren von α besteht. (c) Folgt sofort aus (a) und Satz 7.4.17. 7.4.19 Bemerkung. Nach Folgerung 7.4.14 ist ein normaler Endomorphismus eines unitären Vektorraumes diagonalisierbar. Die Umkehrung gilt nicht. 0 −2 Denn die Matrix A = hat die Eigenwerte 2 und −1. Nach den −1 1 Sätzen 6.2.1 und 6.2.6 ist sie diagonalisierbar. Aber 4 −2 1 −1 T AA = = = AT A. −2 2 −1 5
7.5
Orthogonale und unitäre Abbildungen
Mit die wichtigsten linearen Abbildungen zwischen euklidischen bzw. unitären Räumen sind diejenigen, die das skalare Produkt invariant lassen. 7.5.1 Definition. Es seien V und W zwei euklidische bzw. unitäre Räume: Eine lineare Abbildung α : V → W wird eine orthogonale bzw. unitäre Abbildung genannt, wenn für je zwei Vektoren x, x ∈ V gilt: αx · αx = x · x . Derartige Abbildungen können noch auf verschiedene andere Weisen gekennzeichnet werden. 7.5.2 Satz. Folgende Aussagen über eine lineare Abbildung α : V → W zwischen zwei euklidischen bzw. unitären Vektorräumen sind gleichwertig: (a) α ist eine orthogonale bzw. unitäre Abbildung. (b) Aus |x| = 1 folgt stets |αx| = 1.
7.5 Orthogonale und unitäre Abbildungen
179
(c) Für alle x ∈ V gilt |x| = |αx|. (d) Ist {e1 , . . . , en } ein Orthonormalsystem von V , so ist {αe1 , . . . , αen } ein Orthonormalsystem von W . Beweis: (a) ⇒ (b): Aus |x| = 1 folgt αx · αx = x · x = 1, also auch |αx| = 1. (b) ⇒ (c): Ohne Beschränkung der Allgemeinheit kann x = o angenommen 1 werden. Mit e = x |x| gilt x = e|x| und |e| = 1, also |αx| = |αe||x| = |x|. (c) ⇒ (d): Für h = j (h, j = 1, . . . , n) gilt 2 Re(αeh · αej ) = |α(eh + ej )|2 − |αeh |2 − |αej |2 = |eh + ej |2 − |eh |2 − |ej |2 = 0, 2 Im(αeh · αej ) = |α(eh + ej i)|2 − |αeh |2 − |αej |2 = |eh + ej i|2 − |ei |2 − |ej |2 = 0. Es folgt αeh · αej = 0 für h = j und nach Voraussetzung auch |αeh | = |eh | = 1. Daher ist {αe1 , . . . , αen } ein Orthonormalsystem. (d) ⇒ (a): Für beliebige Vektoren x, x ∈ V ist αx · αx = x · x nachzuweisen. 1 Es kann x = o angenommen werden. Gilt nun erstens x = ec mit e = x |x| , so folgt x · x = (e · e)|x|c¯ = |x|c¯ und αx · αx = (αe · αe)|x|c. ¯ Nach Voraussetzung ist aber mit {e} auch {αe} ein Orthonormalsystem. Es gilt also αe · αe = 1 und daher αx · αx = x · x . Zweitens seien die Vektoren x, x linear unabhängig. Wegen Satz 7.3.1 gibt es dann eine Orthonormalbasis {e1 , e2 } des von x und x aufgespannten Unterraums. Es gelte x = e1 x1 + e2 x2 und x = e1 x1 + e2 x2 . Da auch {αe1 , αe2 } ein Orthonormalsystem ist, folgt αx · αx = x1 x1 + x2 x2 = x · x . 7.5.3 Folgerung. Die komplexe Fortsetzung einer orthogonalen Abbildung ist eine unitäre Abbildung. Beweis: Ergibt sich sofort aus Definition 7.1.13 und Satz 7.5.2.
7.5.4 Folgerung. Jede orthogonale oder unitäre Abbildung α ist injektiv. Beweis: Aus αx = o folgt wegen Satz 7.5.2 (c) auch |x| = |αx| = 0. Also ist x = o nach Satz 7.2.4. Daher ist α injektiv. 7.5.5 Definition. Die reelle n×n-Matrix A heißt orthogonal, wenn A−1 = AT gilt. ¯ T Die komplexe invertierbare n × n-Matrix A heißt unitär, wenn A−1 = A∗ = (A) gilt. 7.5.6 Satz. Für n-reihige quadratische Matrizen A = (ai,j ) sind folgende Aussagen paarweise gleichwertig:
180
7 Euklidische und unitäre Vektorräume
(a) A ist eine orthogonale bzw. unitäre Matrix. (b) Die Zeilen von A bilden ein Orthonormalsystem; d. h. es gilt n
ai,j a¯ k,j = δi,k (i, k = 1, . . . , n).
j =1
(c) Die Spalten von A bilden ein Orthonormalsystem; d. h. es gilt n
aj,i a¯j,k = δi,k (i, k = 1, . . . , n).
j =1
Beweis: Die Gleichungen aus (b) sind gleichwertig mit AA∗ = E , die Gleichungen aus (c) mit A∗ A = E . Jede dieser beiden Gleichungen ist aber wegen Folgerung 3.4.10 gleichbedeutend mit A−1 = A∗ . 7.5.7 Beispiele. (a) 0 1 A = 1 0 0 0
0 sin ϕ 0 , B = − cos ϕ 1
cos ϕ sin ϕ
2 1 und C = −2 3 1
1 2 2
2 1 −2
sind orthogonale Matrizen. 1 i 1 √ ist eine unitäre Matrix. (b) A = 2 −i −1 7.5.8 Satz. Der Endomorphismus α eines endlich-dimensionalen euklidischen bzw. unitären Vektorraums V ist genau dann orthogonal bzw. unitär, wenn α invertierbar ist und α −1 = α ∗ gilt. Insbesondere sind orthogonale bzw. unitäre Endomorphismen normal. Beweis: Ist α ein unitärer Endomorphismus von V , dann besitzt α nach Folgerung 7.5.4 ein Inverses α −1 . Sein adjungierter Endomorphismus α ∗ existiert nach Hilfssatz 7.4.3. Wegen der Definitionen 7.5.1 und 7.4.1 folgt daher für alle x, y ∈ V , daß x ·(α ∗ y −α −1 y) = x ·α ∗ y −x ·α −1 y = αx ·y −x ·α −1 y = x ·α −1 y −x ·α −1 y = 0. Also ist α ∗ y = α −1 y für alle y ∈ V , d. h. α ∗ = α −1 . Sei umgekehrt α −1 = α ∗ . Dann gilt nach Definition 7.4.1 für alle x, y ∈ V , daß x · α −1 y = x · α ∗ y = αx · y. Da mit y auch α −1 y alle Vektoren von V durchläuft, ist α ein unitärer Endomorphismus von V nach Definition 7.5.1. Wegen αα ∗ = αα −1 = id = α −1 α = α ∗ α ist er normal.
7.5 Orthogonale und unitäre Abbildungen
181
7.5.9 Satz. Sei B = {e1 , e2 , . . . , en } eine Orthonormalbasis des endlichdimensionalen euklidischen oder unitären Vektorraumes V . Sei α ein Endomorphismus von V . Dann gelten: (a) Die lineare Abbildung α : V → V ist genau dann orthogonal, wenn die zu α gehörige n × n-Matrix Aα (B, B) bezüglich der Basis B von V eine orthogonale Matrix ist. (b) Die lineare Abbildung α : V → V ist genau dann unitär, wenn die zu α gehörige n × n-Matrix Aα (B, B) bezüglich der Basis B von V eine unitäre Matrix ist. Beweis: (b) Ist α ∈ EndC (V ) ein unitärer Endomorphismus, so ist er nach Folgerung 7.5.4 eine injektive Abbildung. Daher ist α wegen Folgerung 3.2.14 ein Automorphismus von V . Also ist B = {α(e1 ), α(e2 ), . . . , α(en )} nach Satz 7.5.2 eine Orthonormalbasis von V . Wegen Definition 3.3.1 sind diese Vektoren sj = α(ej ), j = 1, 2, . . . , n, gerade die Spaltenvektoren der Matrix Aα (B, B) von α bezüglich der Basis B. Deshalb ist Aα (B, B) eine unitäre n × n-Matrix nach Satz 7.5.6. Ist umgekehrt A = (aij ) eine unitäre Matrix, dann ist A−1 = A∗ . Hieraus folgt nach Satz 7.4.6, daß der durch α(ej ) = ni=1 ei aij definierte Endomorphismus α von V und sein adjungierter Endomorphismus α ∗ von V die folgende Matrizengleichung erfüllen Aα ∗ (B, B) = (Aα (B, B))∗ = A∗ = A−1 = Aα −1 (B, B). Wegen Satz 3.2.4 ist daher α ∗ = α −1 . Daher ist α unitär nach Satz 7.5.8. (a) beweist man analog.
7.5.10 Satz. Es gelten die folgenden Aussagen: (a) Die Menge O(n, R) aller orthogonalen n×n-Matrizen A ist eine Untergruppe der generellen linearen Gruppe GL(n, R). (b) Die Menge U (n, C) aller unitären n × n-Matrizen A ist eine Untergruppe der generellen linearen Gruppe GL(n, C). (c) Die Determinante einer orthogonalen n × n-Matrix A ist det(A) = ±1. (d) Die Determinante einer unitären n×n-Matrix A hat den Betrag | det(A)| = 1. Beweis: (b) Da die Einsmatrix E eine unitäre Matrix ist, ist die Menge U (n, C) nicht leer. Seien A, B zwei unitäre n×n-Matrizen. Wegen Satz 7.5.8 gilt dann A−1 = A∗ und B −1 = B ∗ . Insbesondere ist dann (B −1 )∗ = B ∗∗ = B = (B −1 )−1 . Hieraus folgt nach Hilfssatz 7.4.7 (AB −1 )−1 = BA−1 = (B −1 )∗ A∗ = (AB −1 )∗ , d. h. AB −1 ∈ U (n, C). Also ist U (n, C) nach Hilfssatz 1.3.10 eine Untergruppe von GL(n, C).
182
7 Euklidische und unitäre Vektorräume
(a) beweist man analog. (d) Nach Satz 5.4.1 gilt für jede unitäre n × n-Matrix A, daß ¯ = det(A) det[(A) ¯ T ] = det(A) det(A−1 ) = det(E ) = 1. det(A) · det(A) Nach Beispiel 1.4.2(b) und Definition 5.3.4 gilt ¯ = det(A) (sign π )a¯ 1,π(1) a¯ 2,π(2) . . . a¯ n,π(n) π∈Sn
=
(sign π )a1,π(1) a2,π(2) . . . an,π(n) )
π∈Sn
= (det(A)). ¯ = 1, woraus | det(A)| = 1 folgt. Daher ist det(A) · det(A) = det(A) det(A) (c) Wegen A−1 = AT gilt 1 = det(A · AT ) = det(A)2 , d. h. det(A) = ±1. 7.5.11 Definition. Die Gruppe O(n, R) aller orthogonalen n × n-Matrizen heißt orthogonale Gruppe. Die Gruppe U (n, C) aller unitären n×n-Matrizen heißt unitäre Gruppe.
7.6
Hauptachsentheorem
Der Hauptsatz dieses Abschnitts ist das Hauptachsentheorem. Es besagt, daß die Hermiteschen und die symmetrischen Matrizen sich diagonalisieren lassen. Als eine wichtige Anwendung ergibt sich die Polarzerlegung der Endomorphismen euklidischer bzw. unitärer Vektorräume V als Produkte von selbstadjungierten Automorphismen und orthogonalen bzw. unitären Automorphismen von V . 7.6.1 Definition. Eine reelle n × n-Matrix A wird symmetrisch genannt, wenn A = AT . Weiter heißt A schiefsymmetrisch, wenn AT = −A. Eine komplexe n × n-Matrix A = (aij ) heißt Hermitesche Matrix, wenn A∗ = ¯ T = A gilt. A ist eine schief-Hermitesche Matrix, wenn A∗ = −A. (A) 7.6.2 Hilfssatz. Sei B = {e1 , e2 , . . . , en } eine Orthonormalbasis des endlichdimensionalen euklidischen bzw. unitären Vektorraums V . Dann gelten: (a) Der Endomorphismus α des euklidischen Vektorraums V ist genau dann selbstadjungiert, wenn die zu α gehörige n×n-Matrix Aα (B, B) bezüglich der Basis B eine reelle symmetrische Matrix ist. (b) Der Endomorphismus α des unitären Vektorraums V ist genau dann selbstadjungiert, wenn die zu α gehörige n × n-Matrix Aα (B, B) bezüglich der Basis B eine Hermitesche Matrix ist.
183
7.6 Hauptachsentheorem
(c) Der Endomorphismus α des euklidischen Vektorraums V ist genau dann antiselbstadjungiert, wenn die n × n-Matrix Aα (B, B) schiefsymmetrisch ist. (d) Der Endomorphismus α des unitären Vektorraums V ist genau dann antiselbstadjungiert, wenn die n × n-Matrix Aα (B, B) eine schief-Hermitesche Matrix ist. Beweis: Nach Satz 7.4.6 ist Aα ∗ (B, B) = (Aα (B, B))∗ , woraus sich alle Behauptungen ergeben. 7.6.3 Satz (Hauptachsentheorem). Sei α ein Endomorphismus des n-dimensionalen euklidischen bzw. unitären Vektorraums V . Dann sind äquivalent: (a) α ist selbstadjungiert. (b) V besitzt eine Orthonormalbasis B = {e1 , e2 , . . . , en } derart, daß Aα (B, B) eine reelle symmetrische bzw. eine komplexe Hermitesche Matrix ist. (c) Alle Eigenwerte von α sind reell, und zu jeder Orthonormalbasis B = {e1 , e2 , . . . en } von V existiert eine Orthonormalbasis B = {b1 , b2 , . . . , bn } von V , die aus lauter Eigenvektoren von α besteht. (d) Zu jeder Orthonormalbasis B = {e1 , e2 , . . . en } von V existiert eine orthogonale bzw. unitäre (n × n)-Matrix P derart, daß P −1 Aα (B, B)P = D eine reelle Diagonalmatrix ist. Beweis: Nach Satz 7.3.1 besitzt V eine Orthonormalbasis B = {e1 , e2 , . . . , en }. Wegen Hilfssatz 7.6.2 gilt α = α ∗ genau dann, wenn Aα (B, B) = [Aα ∗ (B, B)]∗ . Daher sind (a) und (b) äquivalent. Sei α ein selbstadjungierter Endomorphismus c von V . Nach Satz 7.4.11 existiert zu jedem Eigenwert c von α ein Vektor a ∈ V mit a = o derart, daß a c¯ = α ∗ a = αa = ac gilt, woraus c = c¯ folgt. Wegen α = α ∗ ist daher α ein normaler Endomorphismus von V , dessen sämtliche Eigenwerte reell sind. Also besitzt V nach Satz 7.4.13 eine Orthonormalbasis B , die aus lauter Eigenvektoren von α besteht. Deshalb folgt (c) aus (a). Gilt (c), dann ist die Matrix P des Basiswechsels von B nach B nach Satz 7.5.6 eine orthogonale bzw. eine unitäre Matrix. Wegen Satz 3.3.9 ist D = Aα (B , B ) = P −1 Aα (B, B)P eine reelle Diagonalmatrix. Daher folgt (d) aus (c). Gilt (c) so ist nach den Sätzen 7.5.9 und 7.4.6 Aα (B, B) = P DP −1 = P DP ∗ = (P DP ∗ )∗ = Aα (B, B)∗ = Aα (B, B). Also ist α = α ∗ .
184
7 Euklidische und unitäre Vektorräume
7.6.4 Berechnungsverfahren für die unitäre bzw. orthogonale Transformationsmatrix P des Hauptachsentheorems. Sei A = (aij ) eine reelle symmetrische bzw. komplexe Hermitesche n × n-Matrix. Entsprechend sei V = Rn oder V = Cn mit dem gewöhnlichen Skalarprodukt. Nach dem Hauptachsentheorem 7.6.3 ist A diagonalisierbar und hat nur reelle Eigenwerte. Daher kann man folgende Schritte durchführen. (a) Man berechne die Koeffizienten des charakteristischen Polynoms char PolA (X). (b) Man bestimme die Nullstellen fi von char PolA (X) = jk=1 (X − fi )di . Sie sind alle reell, und es gilt n = jk=1 dj . (c) Zu jedem Eigenwert fj von A berechne man eine Basis Bj = j −1 {s t+1 , s t+2 , . . . , s t+dj | t = i=1 di } des Eigenraums Wj = Ker(E fj − A). (d) Mittels des Gram-Schmidt’schen Orthonormalisierungsverfahrens wird diese j −1 Basis in eine Orthonormalbasis Cj = {ct+1 , ct+2 , . . . , ct+dj | t = i=1 di } von Wj transformiert. (e) Die Vereinigungsmenge C = jk=1 Cj = {c1 , c2 , . . . , cn } ist die gesuchte Orthonormalbasis von V . (f) Sei P die n × n-Matrix, deren Spaltenvektoren s r die Vektoren cr der Orthonormalbasis C von V sind. Dann ist P eine orthogonale bzw. unitäre Matrix derart, daß D = P −1 AP eine reelle Diagonalmatrix ist. Beweis: Es ist nur zu zeigen, daß ci · cj = 0 für i = j gilt. Dies ist klar, falls ci und cj zum selben Eigenraum gehören. Andernfalls folgt ci · cj = 0 aus Satz 7.4.11 (c). 7.6.5 Beispiel. Gegeben sei die reelle Matrix 2 −1 2 A = −1 2 2
2 2 . −1
Durch Entwicklung nach der 1. Zeile erhält man das charakteristische Polynom dieser Matrix. X−2 1 −2 1 X−2 −2 char PolA (X) = det −2 −2 X+1 = (X − 2)[(X − 2)(X + 1) − 4] − [(X + 1) − 4] − 2[−2 + (X − 2)2] = (X − 3) {[(X − 2)(X + 2)] − 5} = (X − 3)(X 2 − 9) = (X − 3)2 (X + 3).
185
7.6 Hauptachsentheorem
Die Eigenwerte von A sind f1 = −3 und f2 = 3. Der Eigenraum
W1 zum Eigenwert f1 = −3 ist eindimensional und wird von dem Vektor s 1 = − 21 , − 21 , 1 erzeugt. Der Eigenraum W2 zum Eigenwert f2 = 3 ist zweidimensional. B2 = {s 2 = (2, 0, 1), s 3 = (−1, 1, 0)} ist eine Basis von W2 . Nach dem Gram-Schmidt’schen Orthogonalisierungsverfahren ist 1 1 s 1 = (−1, −1, 2) √ , |s 1 | 6 1 1 s 2 = (2, 0, 1) √ , c2 = |s 2 | 5 1 1 b3 = (−1, 5, 2) √ , c3 = |b3 | 30 c1 =
wobei b3 = s 3 − c2 (s 3 · c2 ) = (−1, 1, 0) − (2, 0, 1) √1 (s 3 · c2 ) = 5
−1 5
, 1, 25 ,
weil s 3 · c2 = − √2 . Dann ist C = {c1 , c2 , c3 } eine Orthonormalbasis von R3 . Die 5 orthogonale Transformationsmatrix ist daher √2 − √1 − √1 6 30 5 √5 0 P = − √16 . 30 √2 6
Wegen P −1 = P T ergibt sich
√1 5
−3 P T AP = 0 0
√2 30
0 3 0
0 0 =D 3
als gesuchte, reelle Diagonalmatrix. Mittels des Hauptachsentheorems 7.6.3 kann jetzt auch die Frage untersucht werden, wie sich allgemein in endlich-dimensionalen reellen oder komplexen Vektorräumen ein skalares Produkt definieren läßt. 7.6.6 Satz. Es sei V ein endlich-dimensionaler, reeller oder komplexer Vektorraum, und {v 1 , . . . , v n } sei eine beliebige Basis von V . Für die Vektoren x, y ∈ V gelte x = v 1 x1 + · · · + v n xn und y = v 1 y1 + · · · + v n yn . Dann wird durch y¯1 n (∗) xi ai,j y¯j = (x1 , . . . , xn )A ... x·y = i,j =1 y¯n in V genau dann ein skalares Produkt definiert, wenn A = (ai,j ) eine symmetrische bzw. Hermitesche Matrix mit lauter positiven Eigenwerten ist.
186
7 Euklidische und unitäre Vektorräume
Beweis: Die Behauptung wird für einen komplexen Vektorraum bewiesen. Zunächst sei durch (∗) ein skalares Produkt definiert. Dann gilt ai,j = v i · vj = vj · v i = a¯j,i , also A = A∗ ; d. h. A ist eine Hermitesche Matrix. Weiter sei c ein Eigenwert von A und x = v 1 x 1 + · · · + v n x n ein zugehöriger Eigenvektor. Dann ist c nach Satz 7.6.3 ¯ = Ax¯ nach Satz 7.4.11, d. h. reell. Daher gilt A∗ x¯ = xc n
ai,j x¯j = x¯i c
für i = 1, . . . , n.
j =1
Daher ist x·x =
n
xi ai,j x¯j = (x1 x¯1 + · · · + xn x¯n )c = (|x1 |2 + · · · + |xn |2 )c.
i,j =1
Wegen x · x > 0 und |x1 |2 + · · · + |xn |2 > 0 folgt hieraus c > 0. Umgekehrt sei jetzt A eine Hermitesche bzw. symmetrische Matrix mit lauter positiven Eigenwerten. Aus (∗) folgt unmittelbar (x 1 + x 2 ) · y = x 1 · y + x 2 · y und (xc) · y = (x · y)c. Weiter erhält man wegen ai,j = a¯j,i x·y =
n
xi ai,j y¯j =
i,j =1
n
yj aj,i x¯i = y · x.
i,j =1
Es muß also nur noch x · x > 0 für jeden Vektor x = o nachgewiesen werden. Zu A gibt es nun aber nach dem Hauptachsentheorem 7.6.3 eine unitäre Matrix P , für die D = P ∗ AP eine Diagonalmatrix ist. Dabei sind die Hauptdiagonalelemente von D die positiven Eigenwerte c1 , . . . , cn von A. Setzt man noch (x1 , . . . , xn ) = (x1 , . . . , xn )P , so folgt wegen P P ∗ = P ∗ P = En , daß x¯1 x¯1 x · x = (x1 , . . . , xn )A ... = (x1 , . . . , xn )P P ∗ AP P ∗ ...
x¯n
x¯n
x¯1 = (x1 , . . . , xn )D ... = c1 x1 x¯1 + · · · + cn xn x¯n x¯n = c1 |x1 |2 + · · · + cn |xn |2 . Gilt nun x = o, so folgt wegen der Invertierbarkeit von P auch xi = 0 für mindestens einen Index i und wegen der Positivität der ci schließlich x · x > 0. Damit sind die kennzeichnenden Eigenschaften eines skalaren Produkts nachgewiesen.
187
7.6 Hauptachsentheorem
Eine weitere Folgerung des Hauptachsentheorems ist der Trägheitssatz von Sylvester. Zu seiner Formulierung werden die folgenden Begriffe benötigt. 7.6.7 Definition. Die Anzahl t (A) der positiven Eigenwerte einer reellen symmetrischen bzw. komplexen Hermiteschen n × n-Matrix A wird der Trägheitsindex von A genannt. 7.6.8 Definition. Zwei symmetrische bzw. Hermitesche n × n-Matrizen A und B heißen kongruent, wenn es eine invertierbare reelle bzw. komplexe n × n-Matrix Q mit B = QT AQ bzw. B = Q∗ AQ gibt. 7.6.9 Satz (Trägheitssatz von Sylvester). Sei A eine symmetrische bzw. Hermitesche n × n-Matrix mit Rang rg(A) = r und Trägheitsindex t = t (A). Dann gelten folgende Aussagen: (a) Es gibt eine reelle bzw. komplexe invertierbare Matrix S derart, daß D = S T AS bzw. D = S ∗ AS eine Diagonalmatrix diag(1, . . . , 1, −1, . . . , −1, 0, . . . 0) ist, in deren Hauptdiagonalen zunächst t-mal +1, dann (r − t)-mal −1 und danach lauter Nullen stehen. (b) Für jede invertierbare reelle bzw. komplexe n × n-Matrix Q ist B = QT AQ bzw. B = Q∗ AQ eine reelle symmetrische bzw. Hermitesche Matrix mit Trägheitsindex t (B) = t (A) = t und Rang rg(B) = rg(A) = r. (c) Zwei symmetrische bzw. Hermitesche n×n-Matrizen A und B sind genau dann kongruent, wenn sie denselben Trägheitsindex und denselben Rang haben. Beweis: Es wird nur der komplexe Fall bewiesen. (a) Sei A eine Hermitesche Matrix A. Wegen Satz 7.6.3 gibt es dann eine unitäre Matrix P , für die B = P −1 AP eine reelle Diagonalmatrix B = diag(b0 , . . . , bt , bt+1 , . . . , br , 0, . . . 0) ist, wobei b0 , . . . , bt positive und bt+1 , . . . , br negative reelle Zahlen sind. Da P eine unitäre Matrix ist, gilt P −1 = P ∗ und somit B = P ∗ AP . Setzt man nun noch 1 1 T = diag √ ,..., √ , 1, . . . , 1 und S = P T |b0 | |br |
188
7 Euklidische und unitäre Vektorräume
so ist D = T ∗ BT = S ∗ AS eine Diagonalmatrix, in deren Hauptdiagonale zunächst t-mal der Wert +1, dann (r − t)-mal der Wert −1 und danach lauter Nullen stehen. (b) Wegen B = Q∗ AQ haben A und B nach Folgerung 3.5.3 denselben Rang r. Zu den Hermiteschen Matrizen A und B gibt es nach Satz 7.6.3 jeweils eine unitäre Matrix P1 bzw. P2 , mit denen P1∗ AP1 = D und P2∗ BP2 = G die Diagonalmatrizen der Eigenwerte d1 , d2 , . . . , dn von A bzw. g1 , g2 , . . . , gn von B sind. Seien t (A) = t und t (B) = s die Trägheitsindizes von A und B. Dann können die beiden Orthonormalbasen von Cn , die aus Eigenvektoren von A bzw. B bestehen, so umnumeriert werden, daß di > 0 für 1 ≤ i ≤ t, di < 0 für t < i ≤ r gi > 0 für 1 ≤ j ≤ s, gi < 0 für s < j ≤ r
und
di = 0 für r < i ≤ n,
und
gi = 0 für r < j ≤ n
gelten. Da alle di und gj reell sind, existieren ai und bj in R mit 2 2 ai für 1 ≤ i ≤ t, bj für 1 ≤ j ≤ s, di = und gj = −ai2 für t < i ≤ r, −bj2 für s < j ≤ r, 0 sonst 0 sonst. Für alle Vektoren x = (x1 , x2 , . . . , xn ) ∈ Cn folgt nun x ∗ Dx =
t
aj2 x¯j xj −
j =1
r
aj2 x¯j xj =
j =t+1
t
aj2 |xj |2 −
j =1
r
aj2 |xj |2 .
j =t+1
Setzt man C = P2 Q−1 P1 = (cij ) und y = Cx = (y1 , y2 , . . . , yn ), so folgt ∗
∗
∗
∗
x Dx = (x C )G(Cx) = y Gy =
s
bj2 |yj |2
j =1
−
t
bj2 |yj |2 ,
j =s+1
weil D = P1∗ AP1 = P1∗ (Q∗ )−1 BQ−1 P1 = P1∗ (Q−1 )∗ P2 GP2∗ Q−1 P1 . Wäre t < s. Dann hätte das homogene lineare Gleichungssystem (H) mit den n − (s − t) < n Gleichungen x1 = x2 = · · · = xt = 0 und yi = jn=1 cij xj = 0 für s + 1 ≤ i ≤ n eine nicht triviale Lösung z = (z1 , z2 , . . . , zn ) ∈ Cn . Für diesen Vektor gelten gleichzeitig: r ∗ 2 2 aj |zj | < 0, z Dz = − j =t+1
z∗ Dz =
s
bj2 |yj |2 > 0.
j =1
Aus diesem Widerspruch folgt s ≥ t und so aus Symmetrie t = s. Die Behauptung (c) folgt unmittelbar aus (a) und (b).
189
7.6 Hauptachsentheorem
7.6.10 Bemerkung. Der Trägheitsindex t (A) einer reellen symmetrischen bzw. einer komplexen Hermiteschen Matrix A kann ohne explizite Berechnung der Eigenwerte von A mittels der Zeichenregel von Descartes (vgl. Korollar 3.2.14 von [29], S. 59) bestimmt werden. Ihre Voraussetzung ist nach Satz 7.6.3 erfüllt. Sie lautet: Bei einem Polynom Xn + an−1 X n−1 + · · · + a1 X + a0 ,
a0 = 0
mit reellen Koeffizienten, das lauter reelle Nullstellen besitzt, ist die Anzahl der positiven Nullstellen gleich der Anzahl der Vorzeichenwechsel in der Folge der Koeffizienten, die Anzahl der negativen Nullstellen gleich der Anzahl der Vorzeichenerhaltungen. Dabei müssen jedoch alle Koeffizienten berücksichtigt werden; also auch die Nullkoeffizienten, denen dann ein beliebiges Vorzeichen zugeordnet wird. Mit dem folgenden Satz, der ebenfalls aus dem Hauptachsentheorem folgt, wird nun die große Bedeutung der orthogonalen bzw. unitären und der selbstadjungierten Automorphismen eines endlich-dimensionalen euklidischen bzw. unitären Vektorraums V für die Beschreibung aller Automorphismen von V herausgestellt. 7.6.11 Satz (Polarzerlegung). Sei V ein endlich-dimensionaler euklidischer bzw. unitärer Vektorraum. Dann kann jeder Automorphismus α von V auf genau eine Weise als Produkt α = χ ψ eines orthogonalen bzw. unitären Automorphismus χ und eines selbstadjungierten Automorphismus ψ von V mit lauter positiven reellen Eigenwerten dargestellt werden. Beweis: Mit α ist nach Hilfssatz 7.4.10 auch α ∗ ein Automorphismus von V . Wegen Hilfssatz 7.4.7 ist dann β = α ∗ α ein selbstadjungierter Automorphismus von V . Nach Satz 7.6.3 sind alle Eigenwerte von β reell und von Null verschieden. Ist v = o ein Eigenvektor von β zum Eigenwert c, so gilt (v · v)c = vc · v = β(v) · v = (α ∗ α)(v) · v = (αv) · (αv) ≥ 0. Wegen v · v > 0 und c = 0 folgt c > 0. Also sind alle Eigenwerte von β positive reelle Zahlen. Daher besitzt der unitäre bzw. euklidische Vektorraum V nach Folgerung 7.4.14 bzw. Satz 7.4.13 eine Orthonormalbasis B = {v 1 , v 2 , . . . , v n }, die aus Eigenvektoren des normalen Automorphismus β besteht, d. h. es existieren n positive reelle Zahlen ci mit βv i = v i ci . Sei ψ ∈ Aut(V ) definiert durch ψv i = v i ri , i = 1, 2, . . . , n, √ wobei ri = + ci . Dann ist ψ ein selbstadjungierter Automorphismus von V mit lauter positiven reellen Eigenwerten ri > 0. Sicherlich ist χ = αψ −1 ein Automorphismus von V . Wegen ψ 2 = β = α ∗ α ist χ −1 = (αψ −1 )−1 = ψα −1 = ψ −1 ψ 2 α −1 = ψ −1 α ∗ αα −1 = ψ −1 α ∗ = (αψ −1 )∗ = χ ∗ . Also ist χ nach Satz 7.5.8 ein orthogonaler bzw. unitärer Automorphismus von V . Daher ist α = χ ψ eine gesuchte Produktdarstellung von α.
190 ψ
7 Euklidische und unitäre Vektorräume
Ist α = χ ψ eine weitere Faktorisierung von α mit (χ )∗ = (χ )−1 und (ψ )∗ = derart, daß alle Eigenwerte von ψ reell und positiv sind, dann gilt ψ 2 = β = α ∗ α = (ψ )∗ (χ )∗ χ ψ = ψ (χ )−1 χ ψ = (ψ )2 .
Nun besitzen ψ und (ψ )2 dieselben Eigenvektoren. Außerdem sind die Eigenwerte von (ψ )2 die Quadrate der Eigenwerte von ψ . Daher haben die Automorphismen ψ und ψ dieselben Eigenvektoren und dieselben Eigenwerte. Insbesondere folgt ψv i = v i ri = ψ v i für i = 1, 2, . . . , n. Also ist ψ = ψ. Hieraus folgt χ = α(ψ )−1 = αψ −1 = χ .
7.7 Aufgaben 7.1 In einem zweidimensionalen unitären Raum mit der Basis {a 1 , a 2 } gelte a 1 · a 1 = 4 und a 2 · a 2 = 1. Welche Werte kann dann das skalare Produkt a 1 · a 2 besitzen? 7.2 Es seien β1 und β2 zwei skalare Produkte eines komplexen Vektorraums V . (a) Zeigen Sie, daß aus β1 (x, x) = β2 (x, x) für alle Vektoren x sogar β1 = β2 folgt. (b) Welche Bedingung müssen die komplexen Zahlen a und b erfüllen, damit durch β(x, y) = β1 (x, y)a + β2 (x, y)b wieder ein skalares Produkt definiert wird? 7.3 Zeigen Sie, daß die durch ein skalares Produkt definierte Länge |x| der Vektoren x eines euklidischen oder unitären Vektorraums V die folgende Parallelogrammgleichung erfüllt: (∗)
|x + y|2 + |x − y|2 = 2(|x|2 + |y|2 ).
Ist umgekehrt V ein reeller Vektorraum, auf dem eine Länge |v| der Vektoren v ∈ V mit den üblichen Betragseigenschaften definiert ist, die (∗) erfüllt, dann gibt es auf V ein Skalarprodukt (·, ·) mit |x|2 = (x, x). 7.4 Zeigen Sie mit dem in Beispiel 7.2.15 b) definierten skalaren Produkt, daß die Funktionen √1 , cos(nt), sin(nt), n = 1, 2, 3, . . . ein unendliches Orthonormalsystem bilden. 2
7.5 In dem komplexen arithmetischen Vektorraum V = C4 sei das skalare Produkt zweier Vektoren x = (x1 , x2 , x3 , x4 ), y = (y1 , y2 , y3 , y4 ) durch x · y = x1 y¯1 + x2 y¯2 + x3 y¯3 + x4 y¯4 definiert. Man bestimme eine Orthonormalbasis des orthogonalen Komplements U ⊥ des Unterraums U = a 1 C + a 2 C von V , wobei a 1 = (−1, i, 0, 1), a 2 = (i, 0, 2, 0) ist. 7.6 Für einen orthogonalen Endomorphismus α eines n-dimensionalen euklidischen Raumes gilt | tr α| n. Wann steht hier das Gleichheitszeichen?
191
7.7 Aufgaben
7.7 Es seien v 1 , . . . , v k linear unabhängige Vektoren eines euklidischen Vektorraums V . Die Menge aller Vektoren x = v 1 x1 + · · · + v k xk
mit 0 xi 1 für i = 1, . . . , k
wird dann das von den Vektoren v 1 , . . . , v k aufgespannte Parallelotop genannt. Es sei nun {e1 , . . . , ek } eine Orthonormalbasis des von den Vektoren v 1 , . . . , v k aufgespannten Unterraums U von V . Man nennt den Betrag der Determinante (v 1 · e1 ) .. . (v · e ) 1 k
··· ···
(v 1 · ek ) .. . (v k · ek )
das Volumen dieses Parallelotops. Beweisen Sie: (v 1 · e1 ) · · · (v 1 · ek ) 2 (v 1 · v 1 ) .. .. .. (a) = . . . (v · e ) · · · (v · e ) (v · v )
(v 1 · v k ) .. . . · · · (v k · v k ) 1 1 k k k k (b) Die Definition des Volumens ist unabhängig von der Wahl der Orthonormalbasis von V . Die in (a) rechts stehende Determinante ist das Quadrat des Volumens. ···
7.8 In dem reellen arithmetischen Vektorraum R4 sei das skalare Produkt so definiert, daß die kanonische Basis eine Orthonormalbasis ist. Berechnen Sie mittels der Ergebnisse von Aufgabe 7.7 das Volumen des von den Vektoren (2, 1, 0, −1),
(1, 0, 1, 0),
(−2, 1, 1, 0)
aufgespannten Parallelotops. 7.9 Wenn die adjungierten Abbildungen von ϕ : V → W und ψ : W → Z existieren, dann existiert auch die adjungierte Abbildung zu ψϕ und es gilt (ψϕ)∗ = ϕ ∗ ψ ∗ . 7.10 In welcher Beziehung stehen die Koeffizienten des charakteristischen Polynoms eines Endomorphismus und des adjungierten Endomorphismus? 7.11 Es sei ϕ ein normaler Endomorphismus eines unitären oder euklidischen Raumes V endlicher Dimension. Zeigen Sie: (a) Jeder Vektor x ∈ V kann auf genau eine Weise in der Form x = x + x mit x ∈ ϕV und x ∈ Ker ϕ dargestellt werden, wobei die Vektoren x und x orthogonal sind. (b) Es gilt rg(ϕ) = rg(ϕ 2 ). 7.12 Ein unitärer Automorphismus ϕ ist genau dann selbstadjungiert, wenn ϕ ϕ die Identität ist.
192
7 Euklidische und unitäre Vektorräume
7.13 Es sei ϕ ein selbstadjungierter Endomorphismus eines endlich-dimensionalen euklidischen oder unitären Raumes mit lauter positiven Eigenwerten. Zeigen Sie, daß dann ϕ und ϕ 2 dieselben Eigenvektoren besitzen und daß die Eigenwerte von ϕ 2 die Quadrate der Eigenwerte von ϕ sind. 7.14 Es sei ∈ {+1, −1}. Das charakteristische Polynom der Matrix B=
1 0 0 1
0 1 0 1 0
0 1 0
0 1 0 1 0
1 0 0 1
ist gegeben durch X3 · (X − 3) · (X − 2). Bestimmen Sie eine orthogonale Matrix P , so daß P −1 · B · P eine Diagonalmatrix ist. 7.15 Gegeben sei die folgende symmetrische reelle 5 × 5-Matrix A=
1 0 1 1 √ − 2
0 1 1 √1 2
1 1 0 1 0
1 1 1 0 0
√ −√ 2 2 0 0 1
.
(a) Zeigen Sie, daß char PolA (X) = (X + 1)3 · (X − 3)2 gilt.
(b) Bestimmen Sie eine orthogonale 5×5-Matrix P , so daß P −1 AP eine Diagonalmatrix wird. 7.16 Sei A = (aij ) eine Hermitesche n × n-Matrix. Zeigen Sie: (a) Alle Hauptdiagonalelemente aii von A sind reell. (b) Das charakteristische Polynom char PolA (X) von A hat reelle Koeffizienten. (c) Die Determinante und die Spur von A sind reell. 7.17 Sei α ein selbstadjungierter Endomorphismus des n-dimensionalen unitären Raumes V , und seien c1 ≥ c2 ≥ · · · ≥ cn die nach Satz 7.4.11 reellen Eigenwerte von α. Zeigen Sie: c1 = max{(αv · v) | |v| = 1}
und
cn = min{(αv · v) | |v| = 1}.
7.18 Zeigen Sie: Jeder Endomorphismus α eines endlich-dimensionalen euklidischen bzw. unitären Vektorraums V kann auf genau eine Weise in der Form α = α1 + α2 mit einem selbstadjungierten Endomorphismus α1 und einem anti-selbstadjungierten Endomorphismus α2 dargestellt werden.
7.7 Aufgaben
193
7.19 Beweisen Sie die folgenden Behauptungen: (a) Jede invertierbare reelle n×n-Matrix A kann auf genau eine Weise als Produkt A = OS einer orthogonalen n × n-Matrix O und einer symmetrischen n × n-Matrix S mit lauter positiven reellen Eigenwerten dargestellt werden. (b) Jede invertierbare komplexe n × n-Matrix A kann auf genau eine Weise als Produkt A = UH einer unitären n × n-Matrix U und einer Hermiteschen n × n-Matrix H mit lauter positiven reellen Eigenwerten dargestellt werden. 7.20 Man bestimme die Polarzerlegung A = OS von Aufgabe 7.19 (a) der reellen Matrix 2 1 1 0 . A = −1 2 0 1 −1
8 Anwendungen in der Geometrie
Die Aufgabe der Analytischen Geometrie ist es, geometrische Objekte und die Beziehung zwischen ihnen rechnerisch zu erfassen. Dies wird durch die Festlegung eines Koordinatensystems ermöglicht. Die geometrischen Beziehungen gehen dann in rechnerische Beziehungen zwischen Zahlen über, nämlich den Koordinaten der Punkte. Die Wahl des Koordinatensystems ist dabei jedoch noch willkürlich und nicht durch die geometrische Struktur bedingt. Rechnerische Beziehungen zwischen den Koordinaten werden daher auch nur eine geometrische Bedeutung besitzen, wenn sie von der Willkür der Koordinatenbestimmung unabhängig sind. Der im ersten Abschnitt dieses Kapitels behandelte Begriff des affinen Raumes gestattet eine Beschreibung geometrischer Sachverhalte, die weitgehend frei von Willkür ist. Typisch für die affine Geometrie sind u. a. die Begriffe des Teilverhältnisses und der Parallelität von Unterräumen. Aber gerade der letzte Begriff bedingt häufig bei Sätzen der affinen Geometrie Komplikationen durch Fallunterscheidungen, die z. B. dadurch bedingt sind, daß parallele Geraden keinen Schnittpunkt besitzen. Dieser Umstand legt nahe, affine Räume durch Hinzunahme solcher fehlenden Schnittpunkte als ideelle Elemente zu sogenannten projektiven Räumen zu erweitern, auf die hier anschließend kurz eingegangen wird. Die Geometrie dieser Räume führt zu vielfach übersichtlicheren Sätzen, die ihrerseits affiner Spezialisierungen fähig sind. Als Beispiel hierfür wird am Ende des Kapitels auf die Klassifizierung von Quadriken eingegangen. Weitere Anwendungen beziehen sich auf die Klassifizierung der Drehungen im affinen euklidischen oder unitären Raum und die Beschreibung der Äquivalenzklassen der affinen Quadriken bezüglich der Gruppe der Kongruenzen.
8.1 Affine Räume In diesem Kapitel bedeutet F immer einen kommutativen Körper. Alle betrachteten F -Vektorräume sind endlich-dimensional. 8.1.1 Definition. Ein affiner Raum A über F besteht aus einer ebenfalls mit A bezeichneten Menge, deren Elemente Punkte genannt werden, und im Fall A = ∅ aus einem F -Vektorraum VA sowie einer Zuordnung, die jedem geordneten Paar (p, q) → bezeichneten Vektor aus V so zuordnet, von Punkten aus A eindeutig einen mit − pq A daß folgende Axiome erfüllt sind:
195
8.1 Affine Räume
(a) Zu jedem Punkt p ∈ A und jedem Vektor a ∈ VA gibt es genau einen Punkt → q ∈ A mit a = − pq. →+− → → (b) − pq qr = − pr. Im Fall F = R oder F = C heißt A reeller bzw. komplexer affiner Raum. Die Dimension dim A des affinen Raums A ist die Dimension des zugeordneten Vektorraums VA . Falls A = ∅ wird dim A = −1 gesetzt. 8.1.2 Bemerkung. Das Axiom (a) von Definition 8.1.1 besagt gerade, daß bei fester → eine Bijektion A → V zugeordnet Wahl des Punktes p ∈ A durch q → − pq A wird. Man kann daher VA als den Raum der Ortsvektoren von A bezüglich des Anfangspunktes p auffassen. Als Anfangspunkt kann jedoch jeder beliebige Punkt p gewählt werden. 8.1.3 Hilfssatz. Für Punkte p, q eines affinen Raumes A gilt: − → = o und − → = −− → pp qp pq. →+− → = − → und somit Beweis: Wegen Axiom (b) von Definition 8.1.1 gilt − pp pp pp − → − → − → − → − → − → pp = o. Weiter folgt pq + qp = pp = o. Daher ist qp = −pq. 8.1.4 Definition. Eine Teilmenge U eines affinen Raumes A heißt affiner Unterraum → ∈ V | p, q ∈ U} ein von A, wenn entweder U = ∅ oder die Menge VU = {− pq A Unterraum des F -Vektorraums VA ist. Bezeichnung: U ≤ A. 8.1.5 Bemerkung. Ist die nicht-leere Teilmenge U von A ein affiner Unterraum, dann kann für die Bestimmung des Untervektorraums VU ein Punkt p ∈ U fest gewählt und nur q ∈ U variiert werden. Denn für jeden anderen Punkt p ∈ U erhält −→ −→ → → + − → ∈ V denselben Unterraum V von V . man wegen p q = p p + − pq = −− pp pq U U A 8.1.6 Hilfssatz. Der Durchschnitt D = ∩{U | U ∈ S} eines nicht-leeren Systems S von affinen Unterräumen U eines affinen Raumes A ist selbst ein affiner Unterraum von A. Im Fall D = ∅ gilt VD = ∩{VU | U ∈ S}. Beweis: Im Fall D = ∅ ist die Behauptung trivial. Andernfalls gibt es ein p ∈ D derart, daß → | q ∈ D} = {− → | q ∈ U} = {V | U ∈ S} pq pq VD = {− U U∈S
gilt. Wegen Satz 2.1.8 ist VD ein Unterraum von VA .
196
8 Anwendungen in der Geometrie
8.1.7 Definition. Für jede Teilmenge M des affinen Raums A ist nach Hilfssatz 8.1.6 M =
{U | M ⊂ U, U ein Unterraum von A}
der kleinste affine Unterraum von A, der M enthält. Er heißt der von M aufgespannte oder erzeugte Unterraum. 8.1.8 Definition. Sei S ein System von affinen Unterräumen U des affinen Raumes A. Dann ist ∨{U | U ∈ S} = ∪ U | U ∈ S
der Verbindungsraum von S. Man schreibt auch U1 ∨ · · · ∨ Uk = ∨{Ui | 1 ≤ i ≤ k}, falls S aus k Unterräumen Ui von A besteht. Statt {p} ∨ {q} wird vereinfachend p ∨ q geschrieben. p ∨ q heißt die Verbindungsgerade der Punkte p, q ∈ A, falls p = q. 8.1.9 Beispiele. Jede einpunktige Teilmenge {p} eines affinen Raumes A ist ein Unterraum mit dem → als zugeordnetem Vektorraum. Es gilt daher dim{p} = 0. Nullraum {o} = {− pp} Umgekehrt besteht jeder Unterraum U mit dim U = 0 aus genau einem Punkt. DerVerbindungsraum p∨q zweier verschiedener Punkte besitzt die Dimension 1. Umgekehrt ist auch jeder Unterraum der Dimension 1 Verbindungsraum von zwei verschiedenen Punkten. Jeder Vektorraum V kann als affiner Raum V mit sich selbst als zugeordnetem Vektorraum aufgefaßt werden, wenn man für je zwei Vektoren a, b ∈ V den Vektor − → − → ab ∈ VV durch ab = b − a ∈ V definiert. 8.1.10 Definition. Unterräume der Dimension 1 des affinen Raumes A werden Geraden, Unterräume der Dimension 2 Ebenen genannt. Gilt für einen Unterraum H = A und einen Punkt p ∈ A bereits H ∨ p = A, so heißt H eine Hyperebene von A. 8.1.11 Bemerkung. Im Fall dim A = n, sind die Hyperebenen genau die Unterräume der Dimension n − 1. Ist n = 2, so ist jede Hyperebene eine Gerade von A.
197
8.1 Affine Räume
8.1.12 Satz (Dimensionssatz). Es seien U und W zwei endlich-dimensionale Unterräume des affinen Raumes A. Dann ist dim(U ∨ W) + dim(U ∩ W) falls U = ∅ oder W = ∅ oder U ∩ W = ∅, dim U + dim W = dim(U ∨ W) + dim(U ∩ W) + dim(VU ∩ VW ) falls U = ∅, W = ∅ und U ∩ W = ∅. Beweis: Da die Fälle U = ∅ bzw. W = ∅ trivial sind, kann weiterhin U = ∅ und W = ∅ angenommen werden. Sei zunächst auch U ∩ W = ∅ . Dann existiert ein p ∈ U ∩ W. Nach Hilfssatz 8.1.6 gilt VU∩W = VU ∩ VW . Unmittelbar ergibt sich →∈ VU ≤ VU∨W , VW ≤ VU∨W und daher VU + VW ≤ VU∨W . Da aber Z = {q | − pq VU + VW } ein Unterraum von A mit U ≤ Z und W ≤ Z ist, folgt Z = U ∨ W. Also ist VU∨W = VU + VW . Wegen Satz 2.2.16 erhält man jetzt dim(U ∨ W) + dim(U ∩ W) = dim(VU + VW ) + dim(VU ∩ VW ) = dim VU + dim VW = dim U + dim W. Nun sei U ∩ W = ∅. Weiter seien p ∈ U und p ∈ W fest gewählt. Man erhält → ]F ≤ V − → − → VU +VW +[− pp U∨W . Für den Unterraum Z = {q | pq ∈ VU +VW +[pq]F } von A gilt offenbar U ≤ Z und W ≤ Z. Daher ist Z = U ∨ W und VU∨V = → ]F . Wäre − → ∈ V + V , so gäbe es Punkte q ∈ U und q ∈ W VU + VW + [− pp pp U W − → → − → − → − → − → → + − mit pp = pq + q p , also mit qq = qp + − pp p q = o. Es würde q = q und damit q ∈ U ∩ W im Widerspruch zu U ∩ W = ∅ folgen. Daher gilt → ]F ) dim(U ∨ W) = dim(VU + VW + [− pp = dim(VU + VW ) + 1 = dim VU + dim VW − dim(VU ∩ VW ) − dim(U ∩ W) nach Satz 2.2.16, weil dim(U ∩ W) = −1 nach Definition 8.1.1 ist.
8.1.13 Definition. Zwei nicht-leere affine Unterräume U und W eines affinen Raumes A heißen parallel, wenn VU ⊆ VW oder VW ⊆ VU gilt. Außerdem soll der leere Unterraum ∅ parallel zu allen affinen Unterräumen U sein. Bezeichnung: U W. 8.1.14 Satz. Zwei nicht-leere parallele Unterräume U und W eines affinen Raumes A sind entweder punktfremd, oder einer von ihnen ist ein Unterraum des anderen. Beweis: Aus p ∈ U ∩ W und z. B. VU ⊆ VW folgt für jedes q ∈ U zunächst − → ∈ V , also − → ∈ V . Wegen p ∈ W ist daher auch q ∈ W und somit U ⊆ W. pq pq U W
198
8 Anwendungen in der Geometrie
8.1.15 Satz. Seien U ein nicht-leerer Unterraum und H eine Hyperebene des affinen Raumes A der Dimension dim A = n ≥ 1. Dann sind U und H parallel, oder es gilt dim(U ∩ H) = dim U − 1. Beweis: Aus U ≤ H folgt VU ≤ VH und daher U H. Weiter sei jetzt U nicht in H enthalten. Dann gilt U ∨ H = A und im Fall U ∩ H = ∅ wegen Satz 8.1.12 dim(U ∩ H) = dim U + dim H − dim(U ∨ H) = dim U + (n − 1) − n = dim U − 1. Im Fall U ∩ H = ∅ liefert Satz 8.1.12 jedoch dim(VU ∩ VH ) = dim U + dim H − dim(U ∨ H) − dim(U ∩ H) = dim U + (n − 1) − n − (−1) = dim U = dim VU . Es folgt VU ∩ VH = VU , also VU ≤ VH und daher wieder U H.
8.1.16 Folgerung. Zwei Geraden einer affinen Ebene sind entweder parallel oder besitzen genau einen Schnittpunkt. Beweis: Ergibt sich sofort aus Satz 8.1.15. Daß sich die beiden Fälle gegenseitig ausschließen, folgt aus dem Satz 8.1.14. 8.1.17 Definition. Ein (n + 1)-Tupel (p0 , . . . , pn ) von Punkten pi ∈ A heißt un−−→ abhängig, wenn die Vektoren − p−→ 0 p 1 , . . . , p0 p n aus VA linear unabhängig sind. Ein geordnetes (n + 1)-Tupel K = (p0 , . . . , pn ) von Punkten aus dem affinen Raum A heißt ein Koordinatensystem von A, wenn die n + 1 Punkte pi , 0 ≤ i ≤ n, unabhängig sind und A = p0 ∨ · · · ∨ pn gilt. Der Punkt p0 heißt der Anfangspunkt, und p1 , . . . , pn werden die Einheitspunkte von K genannt. 8.1.18 Bemerkung. Ist K = (p0 , . . . , pn ) ein Koordinatensystem von A, so ist dim A = n. Die Punkte p0 , . . . , pn bilden genau dann ein Koordinatensystem des −−→ affinen Raums A, wenn {− p−→ 0 p 1 , . . . , p0 p n } eine Basis von VA ist. 8.1.19 Definition. Sei K = (p0 , . . . , pn ) ein fest gewähltes Koordinatensystem des −−→ → n-dimensionalen affinen Raumes A über dem Körper F . Da A = {− p− 0 p1 , . . . , p 0 pn } eine Basis des F -Vektorraumes VA ist, existieren zu jedem Punkt x ∈ A eindeutig bestimmte Skalare x1 , x2 , . . . , xn ∈ F derart, daß der Vektor − p→ 0 x ∈ VA die Basisdarstellung − p→ x=− p−→ p x +− p−→ p x + ··· + − p−→ p x 0
0 1 1
0 2 2
0 n n
hat. Die Skalare x1 , x2 , . . . , xn heißen die Koordinaten des Punktes x bezüglich des Koordinatensystems K. Das n-Tupel x = (x1 , x2 , . . . , xn ) ∈ F n heißt der Koordinatenvektor des Punktes x von A bezüglich des Koordinatensystems K.
199
8.1 Affine Räume
8.1.20 Satz. Sei K = (p0 , . . . , pn ) ein fest gewähltes Koordinatensystem des ndimensionalen affinen Raumes A. Dann gilt: (a) Jeder Punkt x des affinen Raumes A ist eindeutig durch seinen Koordinatenvektor x = (x1 , . . . , xn ) ∈ F n bezüglich K bestimmt. → (b) Der Vektor − xy ∈ VA zwischen den Punkten x, y ∈ A besitzt bezüglich − der Basis {p−→ p ,...,− p−→ p } von V die eindeutig bestimmten Koordinaten 0 1
y1 − x1 , . . . , yn − xn .
0 n
A
Beweis: (b) Sind y1 , . . . , yn die Koordinaten eines weiteren Punktes y von A bezüglich des Koordinatensystems K, so gilt −→ −−→ −−→ − → xy = − p→ 0 y − p0 x = p0 p1 (y1 − x1 ) + · · · + p0 pn (yn − xn ). (a) Nach Hilfssatz 8.1.3 gilt daher x = y genau dann, wenn x = (x1 , . . . , xn ) = (y1 , . . . , yn ) = y ist. 8.1.21 Satz. Sei K = (p0 , . . . , pn ) ein Koordinatensystem des affinen Raumes A. Die Menge U aller Punkte x ∈ A, deren Koordinaten x1 , . . . , xn Lösungen eines gegebenen linearen Gleichungssystems (G)
n
ai,j xj = bi für i = 1, . . . , r
j =1
sind, ist ein affiner Unterraum von A. Im Fall U = ∅ gilt dim U = n − r, wobei r der Rang der Koeffizientenmatrix A = (ai,j ) von (G) ist. Umgekehrt ist jeder Unterraum U von A die Lösungsgesamtheit eines inhomogenen Gleichungssystems (G) Ax = b. Beweis: Wenn (G) nicht lösbar ist, gilt U = ∅. Andernfalls sei x ein fester Punkt aus U mit den Koordinaten x1 , . . . , xn . Dann ist y ∈ U nach Satz 8.1.20 gleichwertig damit, daß die Koordinaten y1 , . . . , yn von y eine Lösung von (G) sind. Also sind → die Koordinaten y1 − x1 , . . . , yn − xn des Vektors − xy Lösungen des zugehörigen homogenen Gleichungssystems (H) Ax = o. Wegen Satz 3.2.13 ist daher VU = → {− xy | y ∈ U} ein (n − r)-dimensionaler Unterraum des Vektorraums VA . Deshalb is U ein affiner Unterraum von A mit dim U = n − r. Die Umkehrung folgt sofort aus Übungsaufgabe 3.14 und Definition 8.1.4. 8.1.22 Bemerkung. Speziell ist a1 x1 + · · · + an xn = b nach Satz 8.1.21 die Gleichung einer Hyperebene, wenn nicht alle Koeffizienten ai verschwinden. 8.1.23 Definition. Man nennt drei Punkte x, y, z eines affinen Raumes A kollinear, wenn sie auf einer gemeinsamen Geraden liegen.
200
8 Anwendungen in der Geometrie
8.1.24 Definition. Sind die Punkte x, y, z des affinen Raumes A kollinear und x = y, → → so existiert ein Skalar c ∈ F derart, daß − xz = − xyc ist. Man nennt dann c das Teilverhältnis der kollinearen Punkte x, y, z. Bezeichnung: c = TV(x, y, z). 8.1.25 Bemerkung. Es seien xi , yi , zi für i = 1, . . . , n die Koordinaten der Punkte x, y, z aus Definition 8.1.24 hinsichtlich eines gegebenen Koordinatensystems. Wegen x = y, gibt es nach Definition 8.1.24 ein c ∈ F derart, daß zi − xi = (yi − xi )c für i = 1, . . . , n und yi = xi für mindestens einen Index i. Für jeden solchen Index erhält man daher zi − xi TV(x, y, z) = . yi − x i 8.1.26 Definition. Sei A ein reeller bzw. komplexer affiner Raum. Dann heißt A ein euklidisch-affiner bzw. unitär-affiner Raum, wenn in VA ein skalares Produkt definiert ist. In diesem Fall heißt ein Koordinatensystem K = (p0 , . . . , pn ) von −−→ → A kartesisches Koordinatensystem, wenn {− p− 0 p1 , . . . , p0 pn } eine Orthonormalbasis von VA ist. Der Abstand pq zweier Punkte p, q eines euklidisch-affinen bzw. unitär-affinen Raumes A und der Kosinus des Winkels (p, q, r) mit p als Scheitel werden definiert durch − → − → → und cos(p, q, r) = cos(− → − → = pq · pr . pq = |− pq| pq, pr) → · |− → |− pq| pr|
8.2 Affine Abbildungen In diesem Abschnitt bezeichnen A und B stets zwei nicht-leere affine Räume über dem Körper F mit den endlich-dimensionalen Vektorräumen VA und VB . 8.2.1 Definition. Eine Abbildung α : A → B heißt eine affine Abbildung, wenn →=− −−→ für alle Punkte es zu ihr eine lineare Abbildung αˆ : VA → VB mit αˆ − pq αpαq p, q ∈ A gibt. 8.2.2 Hilfssatz. Bei festen Punkten p ∈ A und p∗ ∈ B entsprechen die linearen Abbildungen αˆ : VA → VB umkehrbar eindeutig den affinen Abbildungen α : A → B mit αp = p∗ . Beweis: Jede affine Abbildung α : A → B bestimmt nach Definition 8.2.1 eindeutig eine lineare Abbildung αˆ : VA → VB . Ist umgekehrt eine lineare Abbildung αˆ : VA → VB gegeben, so kann man noch einem Punkt p ∈ A seinen Bildpunkt p∗ ∈ B beliebig vorschreiben. Dann aber gibt es genau eine affine Abbildung α : A → B mit αp = p ∗ und mit αˆ als zugeordneter linearer Abbildung: Für jeden
8.2 Affine Abbildungen
201
−−−→ −−→ = αˆ − → gelten. Umgekehrt wird Punkt x ∈ A muß dann nämlich p∗ αx = − αpαx px hierdurch eine affine Abbildung der behaupteten Art definiert. 8.2.3 Hilfssatz. Sei α : A → B eine affine Abbildung zwischen den affinen Räumen A und B. Dann gelten: (a) α : A → B ist genau dann eine injektive (surjektive) Abbildung, wenn die zugeordnete lineare Abbildung αˆ injektiv (surjektiv) ist. (b) Ist U ein affiner Unterraum von A, so ist αU ein affiner Unterraum von B. Im Fall U = ∅ gilt VαU = αV ˆ U. (c) Ist W ein affiner Unterraum von B, so ist α − (W) = {p ∈ A | αp ∈ W} ein Unterraum von A. Im Fall α − (W) = ∅ gilt Vα − (W) = αˆ − (WW ). (d) Mit α und β ist auch α β eine affine Abbildung, deren zugeordnete lineare Abbildung αˆ βˆ ist. (e) Wenn α eine bijektive affine Abbildung von A auf B ist, dann ist auch α −1 eine affine Abbildung mit αˆ −1 als zugeordneter linearer Abbildung. Die einfachen Beweise dieser fünf Behauptungen sollen dem Leser überlassen bleiben. 8.2.4 Satz. Es sei α : A → B eine affine Abbildung. Dann gelten: (a) Sind U und W parallele Unterräume von A, so sind αU und αW ebenfalls parallel. (b) Sind U und W parallele Unterräume von B, so sind auch α − (U ) und α − (W ) parallel. (c) Mit x, y, z sind auch die Bildpunkte αx, αy, αz kollinear. Aus x = y und αx = αy folgt TV(αx, αy, αz) = TV(x, y, z). Beweis: (a) Zunächst kann von allen auftretenden Unterräumen vorausgesetzt werden, daß sie nicht leer sind, da sonst die Parallelitätsaussage trivial ist. Ohne Einschränkung der Allgemeinheit kann weiter VU ⊂ VW angenommen werden. Nach Hilfssatz 8.2.3 sind αV ˆ U und αV ˆ W die zu αU und αW gehörenden Vektorräume. ˆ W sind daher αU und αW parallel. Entsprechend ergibt sich die Wegen αV ˆ U ≤ αV Behauptung (b). (c) Seien jetzt x, y, z kollineare Punkte des affinen Raumes A. Mit U = x ∨ y ∨ z gilt dann dim U 1. Daher ist dim(αU) = dim(αV ˆ U ) dim VU 1 wegen Folgerung 2.2.14 und Satz 3.2.7. Die Punkte αx, αy, αz ∈ αU sind somit ebenfalls → → −−→ = αˆ − → → kollinear. Gilt weiter x = y und − xz = − xyc, so folgt − αxαz xz = (αˆ − xy)c = − − − → αxαyc und im Fall αx = αy hieraus die Behauptung.
202
8 Anwendungen in der Geometrie
8.2.5 Hilfssatz. Es sei K = (p0 , . . . , pn ) ein Koordinatensystem des affinen Raumes A, und p0∗ , . . . , pn∗ seien beliebige Punkte des affinen Raumes B. Dann gilt: (a) Es gibt genau eine affine Abbildung α von A auf den Unterraum W = p0∗ ∨ · · · ∨ pn∗ von B derart, daß αpi = pi∗ für i = 0, . . . , n gilt. (b) Diese affine Abbildung α ist genau dann eine Bijektion, wenn (p0∗ , . . . , pn∗ ) ein Koordinatensystem von W ist. → −−→ Beweis: (a) Da die Vektoren − p− 0 p1 , . . . , p0 pn eine Basis von VA bilden, gibt es nach −− → ∗→ ∗ Satz 3.2.4 genau eine lineare Abbildung αˆ : VA → VB mit αˆ − p− 0 pi = p0 pi für ∗ i = 1, . . . , n. Der linearen Abbildung αˆ und den Punkten p0 , p0 entspricht aber nach Hilfssatz 8.2.2 umkehrbar eindeutig eine affine Abbildung α : A → B derart, −−−→ → −− ∗→ ∗ ∗ daß p0∗ αpi = αˆ − p− 0 pi = p0 pi und daher αpi = pi für i = 0, . . . , n gilt. (b) Diese affine Abbildung α ist wegen Folgerung 3.2.14 und Hilfssatz 8.2.3 −−→ −−→ genau dann bijektiv, wenn auch die Vektoren p0∗ p1∗ , . . . , p0∗ pn∗ linear unabhängig sind und VW erzeugen, wenn also K∗ = (p0∗ , . . . , pn∗ ) ein Koordinatensystem von W ist. 8.2.6 Bemerkung. Wegen Hilfssatz 8.2.2 benötigt man zur Beschreibung einer affinen Abbildung α nicht nur die zugeordnete lineare Abbildung α, ˆ sondern es muß auch noch der Bildpunkt p∗ eines Punktes p angegeben werden. Bei der koordinatenmäßigen Darstellung einer affinen Abbildung wählt man dabei für p den Anfangspunkt eines Koordinatensystems. 8.2.7 Satz. Es seien A und B zwei affine Räume über dem Körper F mit den Koordinatensystemen K = (p0 , p1 , . . . , pn ) bzw. K∗ = (p0∗ , p1∗ , . . . , pr∗ ). Ferner sei α : A → B eine affine Abbildung, deren zugehörige lineare Abbildung → −−→ αˆ : VA → VB bezüglich der Vektorraumbasen B = {− p− 0 p1 , . . . , p0 pn } und − − → − − → B ∗ = {p0∗ p1∗ , . . . , p0∗ pr∗ } von VA bzw. VB die r×n-Matrix A = Aαˆ (B, B ∗ ) = (aij ) hat. Schließlich sei t = (t1 , t2 , . . . , tr ) der Koordinatenvektor von αp0 bezüglich K∗ . Für einen beliebigen Punkt x ∈ A mit dem Koordinatenvektor x = (x1 , . . . , xn ) bezüglich K und seinen Bildpunkt αx mit dem Koordinatenvektor x ∗ = (x1∗ , . . . , xr∗ ) bezüglich K∗ gilt dann xi∗ = ti +
n
aij xj
für i = 1, 2, . . . , r
j =1
oder gleichwertig in Matrizen- und Spaltenschreibweise x ∗ = t + Ax.
203
8.2 Affine Abbildungen
Beweis: Nach Voraussetzung gelten für die lineare Abbildung αˆ : VA → VB die Gleichungen: r −−→ → p ) = (po∗ pi∗ )aij α( ˆ − p− 0 j
für i = 1, 2, . . . , n.
i=1
Sei x ∈ A ein beliebiger Punkt mit Bildpunkt αx. Wegen r −− −→ −−→ p0∗ αp0 = (p0∗ pi∗ )ti i=1
gilt dann
r −−∗−→ −− → p0 αx = p0∗ pi∗ xi∗
−−→ − p→ p0 pj xj . ox = n
und
j =1
i=1
−−−→ −−−→ −−→ −−αx →=− Da p0∗ αx = p0∗ αp0 + − αp p0∗ αp0 + αˆ − p→ 0 0 x ergibt sich hieraus r n r n r −− −− −− −−∗−→ − − → ∗→ ∗ ∗→ ∗ ∗→ ∗ p0 pi ti + αˆ p0 pi ti + p0 pi aij xj p0 pj xj = p0 αx = =
i=1 r
$
−− → p0∗ pi∗ ti +
j =1 n
%
i=1
j =1
i=1
aij xj .
j =1
i=1
Durch Koeffizientenvergleich folgt xi∗
= ti +
n j =1
aij xj
für 1 ≤ i ≤ r, d. h. x ∗ = t + Ax.
8.2.8 Definition. Bijektive affine Abbildungen eines affinen Raumes A auf sich werden Affinitäten genannt. 8.2.9 Bemerkung. Wegen Hilfssatz 8.2.3 (d) und (e) bilden die Affinitäten eines affinen Raumes A eine Gruppe. Sie heißt affine Gruppe von A. −→ = − −→ 8.2.10 Definition. Eine Affinität α von A heißt eine Translation, wenn − pαp qαq für alle Punkte p, q ∈ A gilt. Der dann von der Wahl des Punktes p unabhängige −→ ∈ V wird der Translationsvektor von α genannt. Vektor t = − pαp A 8.2.11 Bemerkung. Eine Translation ist durch ihren Translationsvektor eindeutig −→ = t debestimmt. Jeder Vektor t ∈ VA ist auch Translationsvektor der durch − pαp finierten Translation. Die Identität ist die Translation mit dem Nullvektor als Translationsvektor. Sind α und β zwei Translationen mit den Translationsvektoren t und
204
8 Anwendungen in der Geometrie
t , so sind auch βα und αβ Translationen mit t + t als Translationsvektor. Es folgt βα = αβ; d. h. je zwei Translationen sind vertauschbar. Schließlich ist −t der Translationsvektor von α −1 , wenn t der Translationsvektor von α ist. Die Translationen von A bilden daher eine abelsche Gruppe. 8.2.12 Hilfssatz. Für eine Affinität τ von A sind folgende Aussagen paarweise gleichwertig: (a) τ ist eine Translation. −−→ → (b) Für je zwei Punkte p, q ∈ A gilt − τpτ q=− pq. (c) Die τ zugeordnete lineare Abbildung τˆ ist die Identität. −→ = − −→ −−→ = −− −→ −−→ −→ + Beweis: Es ist − pτp qτ q gleichwertig mit τpp qτ q, wegen − τpτ q=− τpp − → − − → − − − → − → pq + qτ q also auch gleichwertig mit τpτ q = pq. Die letzte Gleichung ist aber →=− −−→ wegen τˆ − pq τpτ q wieder gleichwertig damit, daß τˆ die Identität von V ist. A
8.2.13 Definition. Ein Punkt p des affinen Raumes A heißt Fixpunkt einer Affinität α von A, wenn αp = p gilt. 8.2.14 Satz. Bei gegebenem p ∈ A kann jede Affinität α von A auf genau eine Weise in der Form α = α α dargestellt werden, wobei α eine Translation und α eine Affinität von A mit p als Fixpunkt ist. −→ Dann gilt α p = Beweis: Es sei α die Translation mit dem Translationsvektor − pαp. −1 αp, und für die Affinität α = α α folgt hieraus α p = α −1 (αp) = p. Ist umgekehrt α = α α eine Produktdarstellung der angegebenen Art, so folgt α p = −−→ der Translationsvektor von α sein; d. h. α und α (α p) = αp. Daher muß pαp damit auch α sind eindeutig bestimmt.
8.3
Kongruenzen und Drehungen
In diesem Abschnitt sei A stets ein euklidisch-affiner oder unitär-affiner Raum im Sinne der Definition 8.1.26. 8.3.1 Definition. Eine Affinität α von A heißt eine Kongruenz, wenn sie den Abstand je zweier Punkte von A nicht ändert, wenn also αpαq = pq für alle Punkte p, q ∈ A gilt. 8.3.2 Bemerkung. Jede Translation τ ist eine Kongruenz; denn wegen Hilfs−−→ → = pq. Mit ϕ und ψ sind außerdem offenbar τpτ q| = |− pq| satz 8.2.12 gilt τpτ q = |− −1 auch ψϕ und ϕ Kongruenzen. Die Kongruenzen von A bilden daher ihrerseits eine Gruppe, die die Gruppe der Translationen als Untergruppe enthält.
8.3 Kongruenzen und Drehungen
205
8.3.3 Satz. Eine Affinität α des euklidisch-affinen oder unitär-affinen Raumes A ist genau dann eine Kongruenz, wenn die ihr zugeordnete lineare Abbildung αˆ eine orthogonale bzw. unitäre Abbildung von VA ist. −−→ = αˆ − → ist α genau dann eine Kongruenz, wenn |αˆ − → = |− → Beweis: Wegen − αpαq pq pq| pq| für alle p, q ∈ A, also |αx| ˆ = |x| für alle x ∈ VA gilt. Dies ist aber nach Satz 7.5.2 gleichwertig damit, daß αˆ orthogonal bzw. unitär ist. 8.3.4 Definition. Eine Affinität α des euklidisch-affinen oder unitär-affinen Raumes A heißt eine Ähnlichkeit, wenn es eine reelle Zahl c > 0 gibt, so daß αpαq = pqc für alle p, q ∈ A gilt. Es wird dann c der Ähnlichkeitsfaktor von α genannt. 8.3.5 Bemerkung. Jede Kongruenz ist eine Ähnlichkeit mit dem Ähnlichkeitsfaktor 1. Sind α und β Ähnlichkeiten mit den Ähnlichkeitsfaktoren c bzw. c , so ist βα eine Ähnlichkeit mit dem Faktor cc und α −1 eine Ähnlichkeit mit dem Faktor 1c . Daher bilden auch die Ähnlichkeiten von A eine Gruppe, die die Gruppe der Kongruenzen als Untergruppe enthält. 8.3.6 Satz. Eine Affinität α des euklidisch-affinen oder unitär-affinen Raumes A ist genau dann eine Ähnlichkeit, wenn die ihr zugeordnete lineare Abbildung αˆ die Form ˆ mit einer reellen Zahl c > 0 und einer orthogonalen bzw. unitären Abbildung αˆ = βc βˆ besitzt. Insbesondere sind Ähnlichkeiten winkeltreu. Beweis: Es ist α genau dann eine Ähnlichkeit mit dem Ähnlichkeitsfaktor c, wenn → = c|− → für alle p, q ∈ A, also |αx| |αˆ − pq| pq| ˆ = c|x| für alle x ∈ VA gilt. Dies ist aber gleichwertig mit αˆ 1c x = |x|. Aus Satz 7.5.2 folgt, daß βˆ = αˆ 1c dann eine orthogonale bzw. unitäre Abbildung ist. Seien p, q, r drei Punkte und α eine Ähnlichkeit von A mit Ähnlichkeitsfaktor c. Nach Definition 8.1.26 gilt dann cos(αp, αq, αr) =
− →·− → → βˆ − → 2 → · (αˆ − → pq pr (βˆ − pq)( pr)c (αˆ − pq) pr) = = → αˆ − → → − → = cos(p, q, r). → βˆ − → 2 |αˆ − pq|| pr| |− pq|| pr| |βˆ − pq|| pr|c
8.3.7 Folgerung. Sei α eine Affinität des n-dimensionalen euklidisch-affinen bzw. unitär-affinen Raumes A mit kartesischem Koordinatensystem K. Dann gilt: (a) α ist genau dann eine Kongruenz, wenn α hinsichtlich K eine orthogonale bzw. unitäre n × n-Matrix A bezüglich K zugeordnet ist.
206
8 Anwendungen in der Geometrie
(b) α ist genau dann eine Ähnlichkeit, wenn α hinsichtlich K eine n × n-Matrix A von der Form A = Bc hat, wobei B eine orthogonale bzw. unitäre n × nMatrix und c eine positive reelle Zahl ist. Beweis: Folgt unmittelbar aus den Sätzen 8.3.3, 8.3.6 und 7.5.9.
8.3.8 Definition. Teilmengen M, N von A heißen kongruent (ähnlich), wenn es eine Kongruenz (Ähnlichkeit) α von A mit αM = N gibt. 8.3.9 Bemerkungen. Kongruenz und Ähnlichkeit von Teilmengen sind Äquivalenzrelationen. Ein Beispiel in der euklidisch-affinen Ebene A liefern die bekannten Kongruenzsätze für Dreiecke: Mit den Eckpunkten p0 , p1 , p2 und q0 , q1 , q2 zweier nicht entarteter Dreiecke sind K1 = (p0 , p1 , p2 ) und K2 = (q0 , q1 , q2 ) zwei Koordinatensysteme von A. Nach Hilfssatz 8.2.5 existiert genau eine Affinität α von A mit αpi = qi für i = 0, 1, 2, die somit das erste Dreieck auf das zweite abbildet. Zum Beweis der Kongruenzsätze ist zu zeigen, daß α unter den jeweiligen Voraussetzungen sogar eine Kongruenz ist. Entsprechendes gilt hinsichtlich der Ähnlichkeit. Zu einer Kongruenz α gibt es nach Satz 8.2.14 mit q = p eine Translation τ und eine Affinität α mit α = τ α und α p = p. Wegen Bemerkung 8.3.2 ist aber dann mit α und τ auch α eine Kongruenz. Da man die Translationen vollständig überblickt, kann man sich hiernach bei der Untersuchung von Kongruenzen auf solche mit einem Fixpunkt p beschränken. Hinsichtlich eines kartesischen Koordinatensystems K = (p0 , . . . , pn ) mit p0 = p entspricht einer derartigen Kongruenz die Koordinatendarstellung (y1 , . . . , yn ) = A(x1 , . . . , xn ) mit einer orthogonalen bzw. unitären Matrix A. Statt der Kongruenzen genügt es daher, die ihnen entsprechenden orthogonalen bzw. unitären Automorphismen von VA zu untersuchen. Wegen der Sätze 7.5.8 und 7.4.13 gibt es zu jedem unitären Automorphismus ϕ eines endlich-dimensionalen unitären Raumes V eine Orthonormalbasis B aus Eigenvektoren von ϕ derart, daß Aϕ (B, B) eine Diagonalmatrix ist, deren Diagonalelemente als Eigenwerte von ϕ nach Satz 7.5.2 sämtlich den Betrag 1 haben. Umgekehrt ist auch jede solche Diagonalmatrix unitär. Da man hiernach die unitären Automorphismen und damit auch die Kongruenzen vollständig übersieht, sollen weiterhin nur noch die orthogonalen Automorphismen ϕ eines endlich-dimensionalen euklidischen Raumes VA untersucht werden.
207
8.3 Kongruenzen und Drehungen
8.3.10 Satz. Ein Automorphismus ϕ von VA ist genau dann orthogonal, wenn es eine Orthonormalbasis B von VA gibt derart, daß +1 .. . +1 −1 .. Aϕ (B, B) = . −1 . . . gilt, wobei jedes Kästchen ein Zweierkästchen der Form cos αj sin αj
− sin αj cos αj
mit − π < αj ≤ π für 1 ≤ j ≤ s ist.
Beweis: Sei zunächst ϕ ein orthogonaler Automorphismus von VA . Wegen Satz 7.5.2 besitzen alle Eigenwerte von ϕ den Betrag 1. Als reelle Eigenwerte können daher nur +1 und −1 auftreten. Die komplexen Eigenwerte besitzen die Form cos αj + i sin αj mit −π < αj ≤ π . Wegen Satz 7.5.8 ist ϕ außerdem normal. Daher liefert Satz 7.4.17 die Behauptung. Die Umkehrung ist trivial, weil Aϕ (B, B) eine orthogonale Matrix ist. 8.3.11 Bemerkung. In der Matrix Aϕ (B, B) von Satz 8.3.10 können noch je zwei Diagonalelemente +1 zu einem Zweierkästchen mit dem Winkel α = 0 und je zwei Diagonalelemente −1 zu einem Zweierkästchen mit dem Winkel α = π zusammengefaßt werden, so daß neben den Zweierkästchen höchstens eine +1 und höchstens eine −1 auftritt. Für einen orthogonalen Automorphismus ϕ von V gilt nach Satz 7.5.10 stets det ϕ = ±1. 8.3.12 Definition. Ein orthogonaler Automorphismus ϕ des affin-euklidischen Raumes A heißt eigentlich orthogonal, oder eine Drehung wenn det ϕ = +1 gilt. Andernfalls wird ϕ uneigentlich orthogonal genannt. 8.3.13 Folgerung. Ein orthogonaler Automorphismus ist genau dann uneigentlich orthogonal, wenn −1 als Eigenwert eine ungeradzahlige Vielfachheit besitzt. Insbesondere bilden die Drehungen eine Untergruppe der orthogonalen Gruppe.
208
8 Anwendungen in der Geometrie
Beweis: Es sei k die Vielfachheit des Eigenwerts −1 des orthogonalen Automorphismus ϕ von VA . Da in Satz 8.3.10 jedes Zweierkästchen die Determinante cos2 αi + sin2 αi = +1 besitzt, folgt 1 = det ϕ = det Aϕ (B, B) = (−1)k genau dann, wenn k gerade ist. Also gilt die Behauptung. 8.3.14 Definition. Es sei H eine Hyperebene von VA und n = o sei ein Normalenvektor zu H . Dann besitzt jeder Vektor v ∈ VA eine eindeutige Darstellung (∗)
v = vH + vn
mit v H ∈ H und v n ∈ n .
Ein Automorphismus ϕ von VA heißt eine Spiegelung, wenn es eine Hyperebene H von VA gibt, so daß (ϕv)H = v H und (ϕv)n = −v n für alle v ∈ V gilt, wobei n ∈ VA der in (∗) gewählte Normalvektor zur Hyperebene H ist. 8.3.15 Satz. (a) Jede Spiegelung ϕ ist ein uneigentlich orthogonaler Automorphismus mit ϕ −1 = ϕ. (b) Ein uneigentlich orthogonaler Automorphismus ϕ von VA ist genau dann eine Spiegelung, wenn +1 ein (n − 1)-facher und −1 ein 1-facher Eigenwert von ϕ ist. (c) Es sei ϕ1 eine gegebene Spiegelung. Für jeden uneigentlich orthogonalen Automorphismus ϕ von VA gilt dann ϕ = ϕ2 ϕ1 = ϕ1 ϕ2 mit Drehungen ϕ2 , ϕ2 . Beweis: (a) Es sei {e1 , . . . , en−1 } eine Orthonormalbasis der zu ϕ gehörenden Hyperebene H , und en sei ein normierter Normalenvektor zu H . Dann ist {e1 , . . . , en } eine Orthonormalbasis von VA , hinsichtlich derer ϕ die Diagonalmatrix D mit den Diagonalelementen 1, . . . , 1, −1 entspricht. Sie ist eine orthogonale Matrix mit det D = −1, und es gilt D 2 = E , also D −1 = D. (b) Ist ϕ eine Spiegelung, so folgt die Behauptung über die Eigenwerte unmittelbar mit Hilfe der Matrix D aus Beweisteil (a). Umgekehrt ist der Eigenraum zum Eigenwert +1 eine Hyperebene H , und der Eigenraum zum Eigenwert −1 ist nach Satz 7.4.11 (c) zu H orthogonal. Es folgt, daß ϕ eine Spiegelung ist. (c) Die Behauptung gilt mit ϕ2 = ϕϕ1−1 , ϕ2 = ϕ1−1 ϕ, weil det ϕ2 = (−1)(−1) = 1 = det ϕ2 . Da man nach Satz 8.3.15 die Spiegelungen vollständig übersieht, bedarf es wegen 8.3.15 (c) nur noch einer Diskussion der Drehungen. Wegen Satz 8.3.10 und Bemerkung 8.3.11 setzt sich eine Drehung ϕ aus Drehungen in paarweise orthogonalen Ebenen zusammen, die noch durch den zu ihnen orthogonalen Eigenraum zum Eigenwert +1 ergänzt werden, auf dem jedoch ϕ die Identität ist. Man muß daher lediglich noch die Drehungen eines 2-dimensionalen euklidischen Vektorraums untersuchen.
209
8.3 Kongruenzen und Drehungen
8.3.16 Satz. (a) Die Drehungen eines 2-dimensionalen euklidischen Vektorraums V bilden eine abelsche Gruppe. (b) Für eine Drehung ϕ und einen uneigentlich orthogonalen Automorphismus ψ von V gilt hingegen ϕψ = ψϕ −1 . Beweis: (a) Es sei B = {e1 , e2 } eine feste Orthonormalbasis von V . Drehungen ϕ, ψ entsprechen dann bezüglich B Matrizen der Form Aϕ =
cos α sin α
− sin α cos α
und
Aψ =
cos β sin β
− sin β cos β
,
wobei −π < α, β ≤ π . Mit Hilfe der Additionstheoreme für cos und sin rechnet man unmittelbar die Gleichung Aϕ · Aψ =
cos(α + β) sin(α + β)
− sin(α + β) cos(α + β)
nach. Der Multiplikation der Matrizen entspricht also die Addition der Winkel α, β modulo 2π . Da die Addition kommutativ ist, gilt dasselbe für die Multiplikation der Matrizen und damit auch für die Gruppe der Drehungen. (b) Wegen 8.3.15 (c) kann ψ in der Form ψ = ψ1 ψ2 mit einer Drehung ψ1 und einer Spiegelung ψ2 an der Geraden e2 dargestellt werden. Es folgt bei Berücksichtigung von (a) Aϕ · Aψ = Aϕ · Aψ1 Aψ2 = Aψ1 · Aϕ · Aψ2 cos α − sin α 1 0 = A ψ1 · sin α cos α 0 −1 1 0 cos α sin α = Aψ1 · 0 −1 − sin α cos α = Aψ1 · Aψ2 · ATϕ = Aψ · ATϕ . Wegen ATϕ = A−1 ϕ folgt hieraus die Behauptung.
8.3.17 Bemerkung. Sei Aϕ die Matrix des Beweises zu 8.3.16 (a). Dann gilt offenbar cos α = ϕe1 · e1 und sin α = ϕe2 · e1 . Ersetzt man in der Orthonormalbasis B = {e1 , e2 } den Vektor e2 durch −e2 , so ändert sich das Vorzeichen von sin α und damit auch das von α. Der Winkel α hängt also nicht nur von ϕ sondern auch von der Wahl der Orthonormalbasis ab. Der nächste Satz wird jedoch zeigen, daß diese Abhängigkeit recht einfacher Natur ist. Dazu wird noch die folgende Begriffsbildung benötigt.
210
8 Anwendungen in der Geometrie
8.3.18 Definition. Es seien B und B zwei Basen des reellen Vektorraums V . Weiter sei T die Transformationsmatrix des Basiswechsels B → B . Dann heißen diese beiden Basen gleich orientiert, wenn det T > 0 gilt. Im anderen Fall werden sie entgegengesetzt orientiert genannt. Die Beziehung gleich orientiert“ ist offenbar eine Äquivalenzrelation. Die Ge” samtheit aller Basen eines endlich-dimensionalen reellen Vektorraums zerfällt daher in zwei Klassen: Je zwei Basen derselben Klassen sind gleich orientiert, während je eine Basis der einen und der anderen Klasse entgegengesetzt orientiert sind. 8.3.19 Definition. Man nennt den Vektorraum V orientiert, wenn eine der beiden Klassen gleich-orientierter Basen als positiv orientiert ausgezeichnet ist. Die Basen von V aus dieser ausgezeichneten Klasse werden dann ebenfalls positiv orientiert, die aus der anderen Klasse negativ orientiert genannt. 8.3.20 Bemerkung. Wie die Definition 8.3.18 zeigt, ist der Begriff der Orientierung nicht auf komplexe Vektorräume übertragbar. In reellen Vektorräumen V sind die beiden Klassen gleich-orientierter Basen zunächst gleichberechtigt. Eine Orientierung von V ist daher eine zusätzliche Festsetzung. 8.3.21 Satz. Es sei ϕ eine Drehung eines zweidimensionalen, orientierten, euklidischen Raumes V . Dann gibt es genau einen Winkel α mit −π < α +π und folgender Eigenschaft: Hinsichtlich jeder positiv orientierten Orthonormalbasis B hat ϕ dieselbe Matrix cos α − sin α Aϕ (B, B) = = A(α). sin α cos α Bezüglich jeder negativ orientierten Orthonormalbasis B hat ϕ die Matrix Aϕ (B , B ) = (A(α))T = A(−α). Beweis: Es sei B = {e1 , e2 } eine positiv orientierte Orthonormalbasis von V . Die ϕ hinsichtlich B = {e1 , e2 } zugeordnete Matrix Aϕ (B, B) = A(α) hat daher nach Satz 8.3.10 die behauptete Gestalt. Weiter sei jetzt B = {e1 , e2 } eine zweite Orthonormalbasis von V . Sei ψ die orthogonale Abbildung des Basiswechsels von B nach B . Dann gilt e1 = ψe1 , e2 = ψe2 und ψx · ψy = x · y für alle x, y ∈ V nach Definition 7.5.1. Es sei jetzt B ebenfalls positiv-orientiert, ψ also eine Drehung. Wegen Satz 8.3.16 (a) folgt dann cos α = (ϕe1 ) · e1 = (ϕψe1 ) · ψe1 = (ψϕe1 ) · ψe1 = (ϕe1 ) · e1 = cos α, sin α = (ϕe2 ) · e1 = (ϕψe2 ) · ψe1 = (ψϕe2 ) · ψe1 = (ϕe2 ) · e1 = sin α
8.3 Kongruenzen und Drehungen
211
und damit Aϕ (B , B ) = A(α). Zweitens sei B negativ-orientiert. Dann ist ψ uneigentlich orthogonal. Wieder wegen Satz 8.3.16 (b) und wegen ϕ −1 = ϕ ∗ erhält man nun cos α = (ϕe1 ) · e1 = (ϕψe1 ) · ψe1 = (ψϕ −1 e1 ) · ψe1 = ϕ ∗ e1 · e1 = e1 · ϕe1 = ϕe1 · e1 = cos α,
sin α = (ϕe2 ) · e1 = (ϕψe2 ) · ψe1 = (ψϕ −1 e2 ) · ψe1 = ϕ ∗ e2 · e1 = e2 · ϕe1 = − sin α.
Also gilt Aψ (B , B ) = (A(α))T = A(−α).
8.3.22 Definition. Der durch eine Drehung ϕ der orientierten euklidischen Ebene nach Satz 8.3.21 eindeutig bestimmte Winkel α heißt der orientierte Drehwinkel von ϕ. 8.3.23 Satz. Ein uneigentlich orthogonaler Automorphismus ϕ eines zweidimensionalen euklidischen Raumes ist eine Spiegelung an einer eindeutig bestimmten Geraden. Beweis: Nach Satz 8.3.15 (b) besitzt ϕ die Eigenwerte +1 und −1. Also ist ϕ eine Spiegelung an dem eindimensionalen Eigenraum zum Eigenwert +1. Dieser ist durch ϕ eindeutig bestimmt. 8.3.24 Bemerkung. Eine Drehung ϕ eines dreidimensionalen euklidischen Raumes wird nach Satz 8.3.10 hinsichtlich einer geeigneten Orthonormalbasis B = {e1 , e2 , e3 } durch eine Matrix der Form 1 0 0 A = Aϕ (B, B) = 0 cos α − sin α 0 sin α cos α beschrieben. Man nennt α den Drehwinkel von ϕ. Wenn ϕ nicht die Identität ist, A also nicht die Einheitsmatrix E3 ist, besitzt der Eigenwert +1 von ϕ die Vielfachheit 1, und der zugehörige Eigenraum D = e1 R ist nach Satz 6.1.16 eindimensional. Man nennt D die Drehachse von ϕ. Der zu D orthogonale, zweidimensionale Unterraum D ⊥ = {e2 , e3 } heißt die Drehebene von ϕ. Geometrisch ist eine Drehung ϕ = id durch ihre Drehachse D und ihren Drehwinkel α gekennzeichnet. Diese Bestimmungsstücke können in der oben angegebenen Matrix Aϕ (B, B) von ϕ unmittelbar abgelesen werden. Ist jedoch ϕ durch eine andere Matrix beschrieben, dann können die Drehachse D und der Drehwinkel α (bis auf das Vorzeichen) ebenfalls einfach berechnet werden, wie der folgende Satz zeigt.
212
8 Anwendungen in der Geometrie
8.3.25 Satz. Sei ϕ = id eine Drehung des dreidimensionalen euklidischen Raumes V . Dann ist die Drehachse von ϕ der Eigenraum zum Eigenwert +1. Hat ϕ bezüglich der Basis B von V die Matrix Aϕ (B, B) = A, so ergibt sich der Drehwinkel α von ϕ aus der Gleichung 1 cos α = (tr(A) − 1) 2 bis auf das Vorzeichen. Beweis: Wegen ϕ = id ist +1 ein einfacher Eigenwert von ϕ. Für den zugehörigen Eigenraum D gilt dim D = 1 nach Satz 6.1.16. Also ist D nach Bemerkung 8.3.24 die Drehachse von ϕ. Sei α der Drehwinkel von ϕ. Da die Spur unabhängig von der Basiswahl ist, kann die Bestimmungsgleichung für cos α unmittelbar an der Matrix A aus Bemerkung 8.3.24 abgelesen werden. 8.3.26 Bemerkung. Die Spur-Gleichung für cos α legt den Drehwinkel nur bis auf das Vorzeichen fest. Daran ändert sich auch nichts, wenn man voraussetzt, daß der dreidimensionale Raum V orientiert ist. Die Drehung ϕ induziert zwar in der zweidimensionalen Drehebene E eine Drehung, deren Drehwinkel α nach Satz 8.3.21 eindeutig bei vorliegender Orientierung bestimmt ist. Aber die Orientierung des dreidimensionalen Raumes V legt noch keine Orientierung der Drehebene E fest. Erst wenn man auch noch die Drehachse D orientiert, etwa durch Festlegung eines Einheitsvektors e mit D = eR, gibt es auch in der Drehebene E genau eine Orientierung, die z. B. durch eine Basis {e2 , e3 } der Drehebene E bestimmt wird, so daß {e, e2 , e3 } gerade die gegebene Orientierung des dreidimensionalen Raumes V liefert. 8.3.27 Beispiel. Hinsichtlich der kanonischen Basis des R3 als positiv orientierter Orthonormalbasis wird durch die Matrix 2 2 1 1 1 2 A = −2 3 1 −2 2 eine Drehung beschrieben, denn A ist eine orthogonale Matrix mit det A = +1. Für den zugehörigen Drehwinkel α gilt nach Satz 8.3.25 1 2 1 2 1 1 cos α = tr(A) − 1 = + + −1 = , 2 2 3 2 3 3 wobei das Vorzeichen von α zunächst noch nicht festgelegt werden kann. Die Drehachse D ist die Lösungsmenge des homogenen linearen Gleichungssystems (E3 −A)v = o. Ein normierter Lösungsvektor ist der Spaltenvektor e = √1 (1, 0, 1), 2 der somit die Drehachse D erzeugt. D soll nun zusätzlich dadurch orientiert werden, daß e als Basisvektor die positive Orientierung von D repräsentiert. Ein Orthonormalsystem der Drehebene E besteht z. B. aus den zu e orthogonalen Spaltenvektoren
213
8.3 Kongruenzen und Drehungen
e2 = √1 (1, 0, −1) und e3 = (0, 1, 0), so daß {e, e2 , e3 } eine Basis des R3 ist. Sie 2 ist positiv orientiert, weil
√1 2 √1 2
0 0 1
0
=1>0 0
√1 2 − √1 2
gilt. Durch die Basis {e2 , e3 } der Drehebene E kann in dieser jetzt auch die positive Orientierung festgelegt werden. Unterwirft man nun z. B. den Vektor e2 der Drehung, so erhält man als Bildvektor 2 2 1 1 1 1 1 1 2 0 = √ −4 Ae2 = √ −2 3 2 3 2 1 −2 2 −1 −1 wieder einen Einheitsvektor in der Drehebene E. Mit ihm ergibt sich jetzt 1 , 3 √ 2 2 sin α = (Ae2 ) · e3 = − . 3
cos α = (Ae2 ) · e2 =
Durch die Orientierungsfestsetzungen ist nun das Vorzeichen von sin α und damit von α bestimmt. Bei manchen Anwendungen ist es notwendig, eine gegebene Drehung aus mehreren Drehungen mit vorgegebenen Drehachsen zusammenzusetzen. Für dreidimensionale euklidische Vektorräume liefert der folgende Satz dazu ein Konstruktionsverfahren. 8.3.28 Satz. Es sei B = {e1 , e2 , e3 } eine positiv orientierte Orthonormalbasis des dreidimensionalen euklidischen Vektorraums V . Dann existieren zu jeder Drehung ϕ von V drei Drehungen ϕ1 , ϕ2 und ϕ3 mit den orientierten Drehachsen e3 , e1 und ϕe3 = e1 c1 + e2 c2 + e3 c3 , ci ∈ R, derart, daß ϕ = ϕ3 ϕ2 ϕ1 gilt, wobei
e1
e1 −e 2 = −e1
c2 c12 +c22
+ e2
c1
c12 +c22
falls ϕe1 , ϕe2 = e1 , e2 , falls ϕe1 , ϕe2 ∩ e1 , e2 = e2 R, sonst.
Ist A = Aϕ (B, B) die Matrix von ϕ bezüglich der Basis B, und ist αi der durch ϕ
214
8 Anwendungen in der Geometrie
und B eindeutig bestimmte Drehwinkel der Drehung ϕi , i = 1, 2, 3, so gilt 1 0 0 cos α3 − sin α3 0 cos α3 0 · 0 cos α2 − sin α2 · A = sin α3 0 0 1 0 sin α2 cos α2 cos α1 − sin α1 0 sin α1 cos α1 0 . 0 0 1 Die drei Drehwinkel α1 , α2 , α3 heißen die Eulerschen Winkel von ϕ bezüglich der Basis B. Beweis: Zunächst wird eine Drehung ϕ1 mit Drehachse e3 konstruiert. Wenn die Ebenen e1 , e2 und ϕe1 , ϕe2 zusammenfallen (d. h. wenn ϕe3 = ±e3 gilt), setze man e1 = e1 . Im anderen Fall schneiden sich diese beiden Ebenen in einer Geraden G. Gilt G = e2 , so setze man e1 = −e2 . Sonst aber gibt es genau einen Einheitsvektor e1 mit G = e1 derart, daß {e1 , e2 , e3 } eine positiv orientierte Basis ist. Hat ϕe3 die eindeutige Darstellung ϕe3 = e1 c1 + e2 c2 + e3 c3 , so ist der normierte Vektor e1 = −e1 c2 + e2 c1 . Nun ist aber eine dreidimensionac12 +c22
c12 +c22
le Drehung eindeutig bestimmt, wenn man zwei orthonormierten Vektoren wieder zwei orthonormierte Vektoren als Bilder vorschreibt, weil dann das Bild des dritten orthonormierten Vektors bereits mit festgelegt wird. Durch ϕ1 e1 = e1 , ϕ1 e 3 = e 3 ,
ϕ2 e1 = e1 , ϕ2 e3 = ϕe3 ,
ϕ3 e1 = ϕe1 , ϕ3 (ϕe3 ) = ϕe3
werden daher eindeutig drei Drehungen ϕ1 , ϕ2 , ϕ3 definiert. Und da ϕ3 ϕ2 ϕ1 die Vektoren e1 und e3 auf die Vektoren ϕe1 und ϕe3 abbildet, muß ϕ = ϕ3 ϕ2 ϕ1 gelten. Sei ei = ϕ1 ei und ei = ϕ2 ei für i = 1, 2, 3. Mit B = {e1 , e2 , e3 } und B = {e1 , e2 , e3 } folgt nach Satz 3.3.7, daß Aϕ (B, B) = Aϕ3 (B , B)Aϕ2 (B , B )Aϕ1 (B, B ). Zu den Drehungen ϕ1 , ϕ2 , ϕ3 gehören entsprechende Drehwinkel α1 , α2 , α3 . Man erhält ϕ1 e1 = e1 = e1 cos α1 + e2 (− sin α1 ), ϕ1 e2 = e2 = e1 sin α1 + e2 cos α1 , ϕ1 e3 = e3 = e3 , ϕ2 e1 = e1 = e1 ,
ϕ2 e2 = e2 = e2 cos α2 + e3 (− sin α2 ), ϕ2 e3 = e3 = e2 sin α2 + e3 cos α2 , ϕ3 e1 = ϕe1 = e1 cos α3 + e2 (− sin α3 ),
ϕ3 e2 = ϕe2 = e1 sin α3 + e2 cos α3 , ϕ3 e3 = ϕe3 = e3
215
8.4 Projektive Räume
und hieraus die behauptete Faktorisierung von Aϕ (B, B). Weiter folgt cos α1 = e1 · e1 , cos α2 = ϕe3 · e3 , cos α3 = ϕe1 · e1 ,
sin α1 = e1 · e2 , sin α2 = −ϕe3 · e2 = ϕe3 · ((e1 · e2 )e1 − (e1 · e1 )e2 ), sin α3 = −ϕe2 · e1 .
Also sind die drei Drehwinkel α1 , α2 , α3 durch ϕ und B eindeutig bestimmt.
8.4
Projektive Räume
Die Sätze der affinen Geometrie enthalten vielfach störende Fallunterscheidungen. So gilt z. B. in einer affinen Ebene nicht allgemein, daß sich zwei Geraden in einem Punkt schneiden; eine Ausnahme bilden die parallelen Geraden. Man kann nun die affinen Räume zu Räumen erweitern, die man projektive Räume nennt und in denen derartige Ausnahmefälle nicht mehr auftreten. Es sei V ein endlich-dimensionaler Vektorraum über dem kommutativen Körper F . Das Hauptinteresse gilt jetzt jedoch nicht mehr den Vektoren, sondern den 1dimensionalen Unterräumen von V , die als Punkte eines neuen Raumes aufgefaßt werden sollen. 8.4.1 Definition. Ein projektiver Raum P über F ist die Menge aller eindimensionalen Unterräume eines F -Vektorraumes V = VP . Eine Teilmenge U von P heißt ein (projektiver) Unterraum von P, wenn sie genau aus den 1-dimensionalen Unterräumen eines Unterraumes VU von VP besteht, wenn sie also selbst ein projektiver Raum ist. Die projektive Dimension des projektiven Raumes P ist definiert durch: p- dim P = dim VP − 1. 8.4.2 Definition. Für einen Punkt p ∈ P gilt speziell p = a mit einem Vektor a = o aus VP . Auch die leere Menge ist ein Unterraum von P, wobei V∅ = {o} der Nullraum ist, der ja keine 1-dimensionalen Unterräume enthält. Für ihn folgt p-dim ∅ = 0 − 1 = −1. Unterräume der projektiven Dimensionen 0, 1, 2 werden als Punkte, Geraden bzw. Ebenen bezeichnet. Ist p-dim P = n, so wird ein Unterraum H mit p-dim H = n − 1 Hyperebene von P genannt.
216
8 Anwendungen in der Geometrie
Man beachte, daß die Hyperebenen in einer projektiven Ebene P genau die Geraden von P sind. 8.4.3 Satz. (a) Es sei S ein System aus Unterräumen von P. Dann ist auch D = ∩{U | U ∈ S} ein Unterraum von P und VD = ∩{VU | U ∈ S}. (b) Es sei S ein System aus Unterräumen von P. Dann ist der Verbindungsraum V = ∨{U | U ∈ S}, nämlich der kleinste Unterraum V mit U ≤ V für alle U ∈ S, wieder ein Unterraum von P mit VV = U∈S VU . (c) Für Unterräume M, N von P gilt p- dim M + p- dim N = p- dim(M ∨ N) + p- dim(M ∩ N). (d) Für eine Hyperebene H von P und einen nicht in H enthaltenen Unterraum U von P gilt: p-dim(U ∩ H) = p-dim U − 1. (e) In einer projektiven Ebene besitzen je zwei verschiedene Geraden genau einen Schnittpunkt. Beweis: (a), (b), und (c) folgen aus den entsprechenden Sätzen 2.1.8, 2.1.10 und 2.2.16 für Vektorräume, wobei in (c) beim Übergang zur projektiven Dimension auf beiden Seiten zweimal eine Eins abzuziehen ist. (d) und (e) folgen aus (c), wobei in (d) noch U ∨ H = P zu beachten ist. 8.4.4 Definition. Seien p0 , . . . , pk Punkte des projektiven Raumes P, dann wird ihr Verbindungsraum mit p0 ∨ p1 ∨ · · · ∨ pk bezeichnet. 8.4.5 Hilfssatz. Sei P = ∅ ein n-dimensionaler projektiver Raum und H eine Hyperebene von P mit dem zugehörigen Vektorraum VH . Dann ist A = P \ H ein affiner Raum mit dem Vektorraum VA = VH und Dimension dim A = dim VH = n = p-dim P. Beweis: Sei VP der F -Vektorraum von P. Dann ist dimF VP = n + 1. Da H eine Hyperebene von P ist, ist VH ein n-dimensionaler Unterraum von VP . Nach Satz 2.3.18 gibt es daher einen 1-dimensionalen F -Unterraum a = a = aF von VP mit VP = VH ⊕ aF . Daher hat jeder Vektor p = VP \ VH die eindeutige Darstellung p = xp + afp
mit xp ∈ VH , fp ∈ F, fp = 0.
Jedem Punkt p = p ∈ P \ H wird durch p → xp ∈ VH bijektiv ein Vektor →=x −x ∈V . pq xp ∈ VH zugeordnet. Für jedes Punktepaar p, q ∈ P \ H sei − q p H Da VH ein Vektorraum ist, ist es nun einfach, die Bedingungen (a) und (b) von Definition 8.1.1 zu verifizieren. Also ist A = P\H ein affiner Raum mit dim A = n.
217
8.4 Projektive Räume
8.4.6 Definition. Sei P = ∅ ein n-dimensionaler projektiver Raum und H eine Hyperebene von P. Dann heißt der in Hilfssatz 8.4.5 konstruierte Raum A = P \ H der zu H gehörende affine Raum von P. Die Punkte von A werden dann eigentliche Punkte, die von H uneigentliche Punkte und H uneigentliche Hyperebene von P genannt. 8.4.7 Satz. Sei A der zur Hyperebene H gehörende affine Raum des projektiven Raumes P = ∅. Dann gelten folgende Aussagen: (a) Für jeden projektiven Unterraum U ist U0 = U ∩ A ein affiner Unterraum von A. (b) Zu jedem affinen Unterraum U0 = ∅ von A gibt es genau einen projektiven Unterraum U von P mit U0 = U ∩ A und VU0 = VU ∩ VH = VU∩H . (c) Ist U0 = ∅, so gilt dim U0 = p-dim U. (d) Ist U0 = ∅ eine Hyperebene, V0 = ∅ ein nicht in U0 enthaltener echter affiner Unterraum von A, und sind U und V die nach (b) eindeutig bestimmten projektiven Unterräume von P mit U0 = U ∩ A und V0 = V ∩ A, dann ist U0 genau dann zu V0 parallel, wenn U ∩ V ⊆ H. Beweis: (a) Ist U ⊆ H, dann ist U0 = U ∩ A = ∅ und somit ein affiner Unterraum von A. Ist U nicht in H enthalten, dann gibt es ein p ∈ U mit p ∈ H. Also ist p ∈ U ∩ A = U0 , und →|q ∈U }=V ∩V =V {− pq 0 U A U∩A = VU0 ist der zu U0 = ∅ gehörige Vektorraum. (b) Sei U0 = ∅ ein affiner Unterraum von A mit Vektorunterraum VU0 von VA = VH . Sei p ein fest gewählter Punkt aus U0 . Sei p = p der von p erzeugte 1-dimensionale Unterraum von VP . Dann ist p ∈ VA = VH , woraus (∗)
VU0 < VU0 + p = U ≤ VP
für einen F -Unterraum U von VP folgt. Sei U die Menge aller 1-dimensionalen F -Unterräume von U . Dann ist U ein projektiver Unterraum von P mit U0 = U ∩ A. Weiter gilt VU0 = VU ∩ VH = VU∩H . Umgekehrt folgt aus U0 = U ∩ A sofort VU = (VU ∩ VH ) + p = VU0 + p . Also ist U = U . (c) Ist U0 = ∅, so folgt aus (∗), daß dim VU0 = dim U − 1 = p-dim U. (d) Aus U0 || V0 und V0 ⊆ U0 folgt U0 ∩ V0 = ∅. Nach Satz 8.4.7 gibt es eindeutig bestimmte projektive Unterräume U und V von P mit U0 = U ∩ A und V0 = V ∩ A. Wegen A = P \ H folgt U ∩ V ⊆ H.
218
8 Anwendungen in der Geometrie
Sei umgekehrt U ∩ V ⊆ H. Dann ist U0 ∩ V0 = ∅. Da V0 = ∅ und U0 eine Hyperebene des endlich-dimensionalen affinen Raumes A ist, sind V0 und U0 nach Satz 8.1.15 parallel oder es gilt −1 = dim(U0 ∩ V0 ) = dim V0 − 1. Hieraus folgt dim V0 = 0 und so VV0 = {o} ≤ VU0 . Also sind U0 und V0 parallel. 8.4.8 Bemerkung. Da aus projektiven Unterräumen durch Fortlassen der uneigentlichen Punkte affine Unterräume entstehen, lassen sich aus projektiven Sätzen affine Sätze herleiten. Dabei können allerdings Fallunterscheidungen auftreten. Nach Satz 8.4.3 (e) besitzen in der projektiven Ebene je zwei verschiedene Geraden G, G genau einen Schnittpunkt p. Für die durch Fortlassen des jeweiligen uneigentlichen Punkts entstehenden affinen Geraden Go , Go ist jetzt jedoch zu unterscheiden, ob p ein eigentlicher oder ein uneigentlicher Punkt ist. Im ersten Fall besitzen auch Go und Go genau den einen Schnittpunkt p. Im zweiten Fall haben Go und Go jedoch keinen Schnittpunkt, sondern sind parallel. 8.4.9 Definition. Die k + 1 Punkte po , . . . , pk des projektiven Raumes P heißen unabhängig, wenn p-dim(po ∨ · · · ∨ pk ) = k gilt. 8.4.10 Satz. Für die Punkte po , . . . , pk ∈ P als 1-dimensionale Unterräume von VP gelte pj = pj für j = 0, . . . , k. Dann sind po , . . . , pk genau dann unabhängige Punkte von P, wenn po , . . . , p k linear unabhängige Vektoren sind. Beweis: Wegen po ∨ · · · ∨ pk = po + · · · + p k
ist p-dim(po ∨ · · · ∨ pk ) = k gleichwertig mit dim( p o + · · · + pk ) = k + 1, also mit der linearen Unabhängigkeit von po , . . . , p k . 8.4.11 Hilfssatz. Seien q0 , . . . , qn unabhängige Punkte des n-dimensionalen projektiven Raumes P. Sei e ein weiterer Punkt von P, der von je n der Punkte qi , 0 ≤ i ≤ n, unabhängig ist. Dann gilt: (a) Die 1-dimensionalen Unterräume qi und e von VP enthalten Vektoren q i ∈ qi und e ∈ e derart, daß e = q 0 + · · · + q n . (b) Sind q i ∈ qi und e ∈ e weitere n + 1 Vektoren von VP , für die e · f = q 0 + · · · + q n für ein 0 = f ∈ F gilt, dann existiert ein eindeutig bestimmter Skalar h = 0 derart, daß q i = q i h für alle i = 0, 1, . . . n gilt.
219
8.4 Projektive Räume
Beweis: Sei qi = p i mit o = pi ∈ VP für 0 ≤ i ≤ n. Sei e = e , e = o. Nach Satz 8.4.10 ist A = {pi | 0 ≤ i ≤ n} eine Basis des Vektorraums VP . Also ist e = p0 c0 + · · · + pn cn für geeignete ci ∈ F . Da e von je n der Punkte pi unabhängig ist, sind alle ci = 0. Setze q i = pi ci für i = 1, . . . , n, dann gilt (a). (b) Nach Voraussetzung gibt es q i , q i ∈ qi , e, e ∈ e derart, daß e = q 0 +· · ·+q n und e f = q 0 + · · · + q n für ein 0 = f ∈ F ist. Da qi und e 1-dimensionale F Unterräume von VP sind, existiert zu jedem 0 ≤ i ≤ n ein 0 = ci ∈ F mit q i = q i ci und ein 0 = g ∈ F mit e = eg. Hieraus folgt e = q 0 f −1 + · · · + q n f −1 = q 0 (c0 f −1 ) + · · · + q n (cn f −1 ) = e · g = q 0 · g + · · · + q n · g. Da B = {q i | 0 ≤ i ≤ n} eine Basis von VP ist, folgt ci f −1 = g für alle i = 0, . . . , n. Also gilt (b) mit h = f g. 8.4.12 Definition. Ein geordnetes (n + 2)-Tupel K = (qo , . . . , qn , e) von Punkten des n-dimensionalen projektiven Raumes P heißt projektives Koordinatensystem von P, wenn je n + 1 unter den Punkten aus K unabhängig sind. Es werden dann qo , . . . , qn die Grundpunkte und e der Einheitspunkt von K genannt. Nach Hilfssatz 8.4.11 enthalten die 1-dimensionalen Unterräume qi , 0 ≤ i ≤ n und e des Vektorraums VP von Null verschiedene Vektoren q i ∈ qi und e ∈ e mit e = q 0 + · · · + q n derart, daß für jeden Punkt x = x ∈ P der Vektor x = o die eindeutige Darstellung x = q 0 x0 + · · · + q n xn
mit xi ∈ F
hat, wobei die Koordinaten x0 , . . . , xn von x bis auf einen gemeinsamen Faktor d = 0 aus F durch x eindeutig bestimmt sind. Die Körperelemente x0 , . . . , xn heißen die homogenen Koordinaten des Punktes x ∈ P bezüglich des projektiven Koordinatensystems K. Der homogene Koordinatenvektor (x0 , . . . , xn ) ∈ F n+1 des Punktes x ∈ P ist durch x bis auf einen skalaren Faktor d = 0 bestimmt. Zum Beispiel sind in der reellen projektiven Ebene (1, 3, −2) und (−2, −6, 4) Koordinaten desselben Punkts. Allgemein sind die (n + 1)-Tupel (1, 0, . . . , 0), . . . , (0, . . . , 0, 1) die homogenen Koordinaten der Grundpunkte qi und (1, 1, . . . , 1) die Koordinaten des Einheitspunktes des n-dimensionalen projektiven Raums P bezüglich des projektiven Koordinatensystems K = (q0 , . . . , qn , e). Als einzige Ausnahme tritt das (n + 1)-Tupel (0, 0, . . . , 0) nicht als homogener Koordinatenvektor auf.
220
8 Anwendungen in der Geometrie
8.4.13 Satz. Sei H eine Hyperebene des n-dimensionalen projektiven Raumes P. Sei K = (p0 , . . . pn ) ein affines Koordinatensystem des affinen Raumes A = P \ H. Durch −−→ −−→ − p→ 0 e = p0 p1 + · · · + p0 pn ist der Punkt e ∈ A eindeutig bestimmt. Sei q0 = p0 und qj = (p0 ∨ pj ) ∩ H für 1 ≤ j ≤ n. Dann sind die n + 2 Punkte von K = (q0 , . . . , qn , e) ein projektives Koordinatensystem von P mit Einheitspunkt e derart, daß die beiden folgenden Aussagen für jeden Punkt x ∈ A gelten: (a) Sind (x1 , . . . , xn ) die affinen Koordinaten von x bezüglich K, so sind (1, x1 , . . . , xn ) die homogenen Koordinaten von x bezüglich K . (b) Sind (x0 , x1 , . . . , xn ) die homogenen Koordinaten von x bezüglich K , so ist
x x x0 = 0, und x1 , . . . , xn sind die affinen Koordinaten von x bezüglich K. 0
0
Beweis: Nach Satz 8.4.3 (d) ist p-dim[(p0 ∨ pj ) ∩ H] = 0 für alle 1 ≤ j ≤ n, weil p0 ∨ pj nicht in der Hyperebene H enthalten ist. Also ist jedes qj = (p0 ∨ pj ) ∩ → H = − p− 0 pj ein Punkt von H. Da p0 ∈ P \ H, gibt es einen Vektor a 0 ∈ VP mit q0 = p0 = a 0 und a 0 = o. Wegen P = H ∨ q0 und der linearen Unabhängigkeit → p− der n Vektoren aj = − o pj ∈ VA = VH ≤ VP sind nach Satz 8.4.10 die n + 1 Punkte q0 , q1 , . . . , qn von P unabhängig. Da e = − p→ 0 e = a 1 + · · · + a n nach Konstruktion des Punktes e ist, ist K = (q0 , . . . , qn , e) nach Definition 8.4.12 ein projektives Koordinatensystem von P mit Einheitspunkt e. (a) Sind (x1 , . . . , xn ) die affinen Koordinaten von x ∈ A bezüglich K, so ist x = a0 · 1 + − p→ 0 x = a 0 + a 1 · x1 + · · · + a n · xn ein Vektor mit x = x als Punkte von P. Daher sind (1, x1 , . . . , xn ) die homogenen Koordinaten von x bezüglich K . (b) Seien umgekehrt (x0 , x1 , . . . , xn ) die homogenen Koordinaten von x bezüglich K . Wegen x ∈ A = P \ H ist x ein eigentlicher Punkt. Deshalb ist x0 = 0, und x
x
0
0
(1, x1 , . . . , xn ) sind auch homogene Koordinaten von x. Wegen x1 xn → x1 −−→ xn − − a0 = − p− p→ 0x = a0 · 1 + a1 · + · · · + an · 0 p1 + · · · + p 0 pn · x0 x0 x0 x0
sind dann
x1 x0
x , . . . , xn die affinen Koordinaten von x ∈ A bezüglich K. 0
8.4.14 Definition. Im projektiven Raum P seien x, y, z, u kollineare Punkte, und x, y, z seien paarweise verschieden. Dann ist G = x ∨ y ∨ z ∨ u eine projektive Gerade, und K = (x, y, z) ist ein projektives Koordinatensystem von G mit x, y
221
8.4 Projektive Räume
als Grundpunkten und z als Einheitspunkt. Bezüglich K besitzt u homogene Koordinaten (u0 , u1 ), deren Quotient uu01 eindeutig nach Satz 8.4.13 bestimmt ist, sofern u0 = 0 oder gleichwertig u = y ist. Der durch vier kollineare Punkte x, y, z, u ∈ P im Fall u = y eindeutig bestimmte Quotient u1 DV(x, y, z, u) = ∈F u0 heißt das Doppelverhältnis dieser Punkte. Im Fall u = y setzt man formal DV(x, y, z, u) = ∞. 8.4.15 Bemerkungen. Auf der affinen Geraden seien x, y, z, u paarweise verschiedene Punkte. Hinsichtlich eines Koordinatensystems besitzen sie je eine Koordinate, die wieder mit x, y, z bzw. u bezeichnet werden soll. Berechnet man gemäß Satz 8.4.13 die homogenen Koordinaten von u bezüglich des projektiven Koordinatensystems mit den Grundpunkten x, y und dem Einheitspunkt z, so erhält man als Wert das Doppelverhältnis DV(x, y, z, u) =
x−u y−z x−u x−z TV(x, y, u) · = : = . y−u x−z y−u y−z TV(x, y, z)
Das Doppelverhältnis erweist sich also als Quotient von zwei Teilverhältnissen, wodurch die Namengebung motiviert ist. Auf der reellen affinen Geraden ist TV(x, y, z) < 0 gleichwertig damit, daß z zwischen x und y liegt. Auf der reellen projektiven Geraden G verliert der Begriff zwischen” seinen Sinn. Denn G kann bijektiv (und stetig) auf eine Kreislinie ab” gebildet werden: Hinsichtlich eines Koordinatensystems K von G seien
(x 0 , x1 ) die homogenen Koordinaten des Punktes x ∈ G. Durch α(x) = 2 arctg xx01 ∈ R wird dann x umkehrbar eindeutig ein Winkel α(x) mit −π < α(x) ≤ π zugeordnet. Jedem solchen Winkel α(x) entspricht genau ein Punkt x ∗ auf einer Kreislinie L. 8.4.16 Definition. Zwei Punktepaare (p1 , p2 ) und (p3 , p4 ) der reellen projektiven Geraden G trennen sich, wenn die beiden Bögen der Kreislinie L, die die Punkte p1∗ und p2∗ verbinden, je einen der beiden Punkte p3∗ und p4∗ enthalten. 8.4.17 Satz. Zwei Punktepaare (p1 , p2 ) und (p3 , p4 ) der reellen projektiven Geraden G trennen sich genau dann, wenn DV(p1 , p2 , p3 , p4 ) < 0 gilt. Beweis: Mit K = (p1 , p2 , p3 ) als Koordinatensystem von G entsprechen diesen Punkten die Winkel α1 = 0, α2 = π , α3 = π2 . Genau dann trennen sich (p1 , p2 ) und (p3 , p4 ), wenn der p4 zugeordnete Winkel α4 die Bedingung −π < α4 < 0 erfüllt, wenn also p4 die Koordinaten (1, c) mit c < 0 besitzt. Wegen DV(p1 , p2 , p3 , p4 ) = c < 0 gilt dann die Behauptung.
222
8 Anwendungen in der Geometrie
8.4.18 Definition. Zwei Punktepaare (p1 , p2 ) und (p3 , p4 ) der reellen projektiven Geraden G trennen sich harmonisch, wenn DV(p1 , p2 , p3 , p4 ) = −1.
8.5
Projektivitäten
In diesem Abschnitt ist P stets ein projektiver Raum über dem Körper F mit endlichdimensionalem Vektorraum VP = {o}. 8.5.1 Definition. Eine Abbildung ϕ von P auf sich heißt Projektivität, wenn sie von einem Automorphismus ϕˆ von VP induziert wird, wenn also für jeden Punkt p = p
von P stets ϕ(p) = ϕ(p)
ˆ gilt. 8.5.2 Hilfssatz. Zwei Automorphismen ϕˆ und ψˆ des Vektorraums VP induzieren ˆ für ein 0 = c ∈ F gilt. genau dann dieselbe Projektivität von P, wenn ϕˆ = ψc Beweis: Nach Definition 8.5.1 ergibt sich ψ = ϕ sofort aus ψˆ = ϕc, ˆ wobei 0 = c ∈ F. Umgekehrt gelte ψ = ϕ. Für jeden Punkt p = p ∈ P gilt dann ψ(p) = ˆ ˆ ψ(p)
= ϕ(p)
ˆ = ϕ(p). Also existiert ein 0 = cp ∈ F mit ϕ(p) ˆ = ψ(p)c p. Sind x = x , y = y zwei verschiedene Punkte von P, so sind x und y linear unabhängige Vektoren von VP . Sei z = x + y. Da ψˆ und ϕˆ Automorphismen von VP sind, folgt ˆ ˆ ˆ ϕ(z) ˆ = ϕ(x) ˆ + ϕ(y) ˆ = ψ(x)c x + ψ(y)c y = ψ(z)c z ˆ + y)cz = ψ(x)c ˆ ˆ = ψ(x z + ψ(y)c z. ˆ ˆ Da auch ψ(x) und ψ(y) linear unabhängige Vektoren von VP sind, ergibt sich durch Koeffizientenvergleich, daß cx = cy = cz = c ∈ F ist. Also gilt ϕˆ = ψˆ · c. 8.5.3 Satz. Sei P ein projektiver Raum. Dann gelten folgende Aussagen: (a) Die Menge aller Projektivitäten von P bildet bezüglich der Hintereinanderausführung eine multiplikative Gruppe. (b) Für jede Projektivität ϕ und jeden projektiven Unterraum U von P ist ϕ(U) ein projektiver Unterraum von P mit p-dim ϕ(U) = p-dim U. (c) Für jedes Quadrupel paarweise verschiedener kollinearer Punkte x, y, z, u ∈ P und jede Projektivität ϕ von P gilt DV(ϕx, ϕy, ϕz, ϕu) = DV(x, y, z, u).
223
8.5 Projektivitäten
Beweis: (a) und (b) ergeben sich unmittelbar aus Hilfssatz 8.5.2. (c) Mit x, y, z, u ∈ P sind nach (b) auch ϕx, ϕy, ϕz, ϕu paarweise verschieden und kollinear. Aus x = x , y = y , z = z , u = u , z = x + y und u = x · u0 + y · u1 mit eindeutig bestimmten u0 , u1 ∈ F folgt ϕx = ϕx , ˆ ϕy = ˆ · u1 . Daher ϕy , ˆ ϕz = ϕz , ˆ ϕu = ϕu , ˆ ϕz = ϕx ˆ + ϕy ˆ und ϕu ˆ = ϕx ˆ · u0 + ϕy ist DV(ϕx, ϕy, ϕz, ϕu) = uu01 = DV(x, y, z, u) nach Definition 8.4.14. 8.5.4 Satz. Sei P ein endlich-dimensionaler projektiver Raum mit p-dim P = n > 0. Seien K = (q0 , . . . , qn , e) und K∗ = (q0∗ , . . . , qn∗ , e∗ ) zwei projektive Koordinatensysteme von P. Dann gibt es genau eine Projektivität ϕ von P mit ϕq0 = q0∗ , . . . , ϕqn = qn∗ und ϕe = e∗ . Beweis: Es sei q0 = a 0 , . . . , qn = a n und e = a 0 + · · · + a n . Nach Definition 8.4.12 ist dann {a 0 , . . . , a n } eine Basis von VP . Entsprechend sei {a ∗0 , . . . , a ∗n } als Basis zu K∗ bestimmt. Dann gibt es nach Satz 3.2.4 genau eine lineare Abbildung ϕˆ mit ϕa ˆ 0 = a ∗0 , . . . , ϕa ˆ n = a ∗n , die wegen Satz 3.2.14 sogar ein Automorphismus ist. Es folgt ϕ(a ˆ 0 + · · · + a n ) = a ∗0 + · · · + a ∗n . Für die zu ϕˆ gehörende Projektivität ϕ gilt daher ϕq0 = q0∗ , . . . , ϕqn = qn∗ und ϕe = e∗ . Für eine zweite Projektivität ψ ˆ 0 = ϕa ˆ n · cn und ψe ˆ = ϕe mit denselben Eigenschaften muß ψa ˆ 0 · c0 , . . . , ψa ˆ ·c mit Skalaren c0 , . . . , cn , c = 0 erfüllt sein. Also gilt ˆ 0 + · · · + ψa ˆ n = ψe ˆ = ϕe ˆ n · cn = ψa ˆ · c = (ϕa ˆ 0 + · · · + ϕa ˆ n ) · c, ϕa ˆ 0 · c0 + · · · + ϕa woraus wegen der linearen Unabhängigkeit von ϕa ˆ 0 , . . . , ϕa ˆ n zunächst ci = c für i = 0, 1, . . . , n und damit ψˆ = ϕˆ · c folgt. Nach Hilfssatz 8.5.2 ist daher ψ = ϕ. 8.5.5 Satz. Sei K = (q0 , . . . , qn , e) ein Koordinatensystem des n-dimensionalen projektiven Raumes P und sei ϕ eine Projektivität von P. Seien x = (x0 , . . . , xn ) und x ∗ = (x0∗ , . . . , xn∗ ) die homogenen Koordinatenvektoren eines beliebigen Punktes x ∈ P und seines Bildpunkts ϕx bezüglich K. Dann existiert eine bis auf einen Faktor c = 0 eindeutig bestimmte, invertierbare (n + 1) × (n + 1)-Matrix A = (aij ) mit aij ∈ F derart, daß (∗)
x ∗ = Ax für alle x ∈ P gilt.
Umgekehrt bestimmt auch jede invertierbare (n + 1) × (n + 1)-Matrix A eindeutig eine Projektivität von P. Beweis: Wie im Beweis von Satz 8.5.4 sei q0 = a 0 , . . . , qn = a n und e = a 0 + · · · + a n . Bezüglich der Basis B = {a 0 , . . . , a n } von VP hat ϕˆ nach Definition 3.3.1 die invertierbare (n + 1) × (n + 1)-Matrix Aϕˆ (B, B) = A = (aij ). Da allerdings die Basisvektoren nur bis auf einen gemeinsamen Faktor c = 0 eindeutig bestimmt
224
8 Anwendungen in der Geometrie
sind, gilt dasselbe auch für die Matrix A. Für x = x ist x = ϕx = ϕx
ˆ ergibt sich n
a i · xi∗ = ϕx ˆ =
n
(ϕa ˆ j ) · xj =
j =0
i=0
n n
n
j =0 aj
· xj . Wegen
a i aij xj ,
i=0 j =0
woraus durch Koeffizientenvergleich xi∗ =
n
für i = 0, . . . , n.
aij xj
j =0
folgt. Umgekehrt bestimmt eine invertierbare Matrix A hinsichtlich der Basis B = {a 0 . . . , a n } eindeutig einen Automorphismus ϕˆ von VP und damit auch eine Projektivität ϕ. 8.5.6 Satz. Sei A der zur uneigentlichen Hyperebene H gehörende affine Raum des n-dimensionalen projektiven Raumes P = ∅. Sei K = (p0 , . . . , pn ) ein Koordinatensystem von A, und sei K = (q0 , . . . , qn , e) das nach Satz 8.4.13 durch K bestimmte projektive Koordinatensystem von P. Dann gelten folgende Aussagen: (a) Jede Affinität ϕ0 von A kann auf genau eine Weise zu einer Projektivität ϕ von P fortgesetzt werden. Umgekehrt ist eine Projektivität ϕ von P genau dann Fortsetzung einer Affinität ϕ0 von A, wenn ϕH = H gilt. (b) Der Affinität ϕ0 von A entspreche hinsichtlich K nach Satz 8.2.7 die Koordinatendarstellung (∗)
xi = ti +
n
aij xj
für i = 1, . . . , n
j =1
mit der n × n-Matrix A0 = (aij ). Der Fortsetzung ϕ von ϕ0 zu einer Projektivität von P entspricht dann hinsichtlich K die Matrix 1 0 ... 0 t1 A= . . .. A 0
tn Beweis: Beim Übergang von affinen Koordinaten (x1 , . . . , xn ) zu homogenen Koordinaten (x0∗ , . . . , xn∗ ) gilt nach Satz 8.4.13 zunächst xj =
xj∗ x0∗
für j = 1, . . . , n.
225
8.6 Projektive Quadriken
Aus (∗) folgt x ∗i = x0∗ · ti + jn=1 aij xj∗ für i = 1, . . . , n. Außerdem gilt x ∗0 = 1, woraus sich die Behauptung in (b) über die Matrix A ergibt. Bis auf einen Faktor c = 0 ist A durch A0 , also auch durch ϕ0 , eindeutig bestimmt und beschreibt somit eine eindeutig bestimmte projektive Fortsetzung ϕ von ϕ0 . Dies ist der erste Teil von (a). Umgekehrt sei ϕ eine Projektivität von P. Da eine Affinität von A die Menge der eigentlichen Punkte von P auf sich abbildet, kann ϕ nur Fortsetzung einer Affinität ϕ0 sein, wenn ϕH = H gilt. Dann aber muß in der ϕ bezüglich K zugeordneten Matrix die erste Zeile die Form (a00 , 0, . . . , 0) besitzen, wobei wegen der Invertierbarkeit a00 = 0 gelten muß. Und da es auf einen Faktor c = 0 nicht ankommt, kann a00 = 1 vorausgesetzt werden. Dann aber hat man es mit einer Matrix der in (b) angegebenen Form zu tun, aus der umgekehrt die Koordinatendarstellung einer Affinität ϕ0 mit ϕ als Fortsetzung folgt. Daher ist jede Projektivität ϕ mit ϕH = H auch Fortsetzung einer Affinität. 8.5.7 Definition. Sei A der zur uneigentlichen Hyperebene H gehörende affine Raum des endlich-dimensionalen projektiven Raumes P = ∅. Dann heißt eine Projektivität ϕ von P affine Projektivität, wenn ϕH = H gilt. Nach Satz 8.5.6 induziert ϕ eine Affinität ϕ0 des affinen Raumes A.
8.6
Projektive Quadriken
In diesem Abschnitt ist P stets ein reeller projektiver Raum der projektiven Dimension n ≥ 2. 8.6.1 Definition. Es sei β eine Bilinearform von VP . Dann heißt die für x ∈ VP durch ϕ(x) = β(x, x) definierte Abbildung ϕ : VP → R eine quadratische Form von VP mit der Nullstellenmenge Nϕ = {x ∈ VP | ϕ(x) = 0}. Aus x ∈ Nϕ und x = xc folgt auch ϕ(x ) = β(x , x ) = β(xc, xc)· = β(x, x)c2 = ϕ(x) · c2 = 0. Für jeden Vektor x ∈ Nϕ mit x = o ist der 1-dimensionale Unterraum x in Nϕ enthalten. Da aber x = x ein Punkt von P ist, kann man deshalb Nϕ auch als Teilmenge von P interpretieren. 8.6.2 Definition. Es sei ϕ eine quadratische Form von VP . Dann heißt die Teilmenge Qϕ = {x = x ∈ P | x ∈ Nϕ } von P eine projektive Quadrik von P.
226
8 Anwendungen in der Geometrie
8.6.3 Satz. Sei K = (q0 , . . . , qn , e) ein projektives Koordinatensystem von P. Sei x = (x0 , . . . , xn ) der homogene Koordinatenvektor des Punktes x ∈ P bezüglich K. Dann definiert jede reelle (n + 1) × (n + 1)-Matrix A = (aij ) durch x T Ax = 0
(∗)
eine projektive Quadrik Qϕ von P. Umgekehrt gehört zu jeder Quadrik Qϕ von P eine symmetrische (n+1)×(n+1)Matrix B = (bij ) mit Qϕ = {p ∈ P | ϕ(p) = 0} = {x ∈ P | x T Bx = 0}. Beweis: Durch β(x, y) = ni,j =0 aij xi yj wird eine Bilinearform definiert, die nach Definition 8.6.1 eine quadratische Form ϕ bestimmt. Es ist dann (∗) die Bestimmungsgleichung von Nϕ , also auch von der Quadrik Qϕ . Umgekehrt sei ϕ die durch ϕ(x) = β(x, x) bestimmte quadratische Form. Mit einer zu K gehörenden Basis {a 0 , . . . , a n } von VP sei dann aij = β(a i , aj ) ∈ R für 0 ≤ i, j ≤ n + 1. Für x = x ∈ P folgt dann ϕ(x) = β(x, x) =
n i,j =0
β(a i , aj )xi xj =
n
aij xi xj .
i,j =0
Also wird die Quadrik Qϕ von ϕ durch die Gleichung (∗) beschrieben. Aus auch aj i xi xj = 0. Sei bij = 21 (aij + aj i ). Dann wird die aij xi xj = 0 folgt aber bij xi xj = 0 mit der symmetrischen Matrix B = (bij ) Quadrik Qϕ auch durch dargestellt. 8.6.4 Definition. Sei K = (q0 , . . . , qn , e) ein Koordinatensystem des projektiven Raums P. Dann gehört nach Satz 8.6.3 zur projektiven Quadrik Q eine reelle symmetrische (n + 1) × (n + 1)-Matrix A derart, daß für die homogenen Koordinatenvektoren x der Punkte x ∈ Q bezüglich K die Bestimmungsgleichung x T Ax = 0 gilt. Die symmetrische Matrix A ist eine Koeffizientenmatrix der projektiven Quadrik Q. 8.6.5 Beispiele. Es sei hier stets n = 2. Durch x02 + 2x12 − x22 = 0 wird eine Quadrik der reellen projektiven Ebene beschrieben. Zeichnet man die durch x0 = 0 bestimmte Gerade als uneigentliche Gerade aus, so werden die eigentlichen Punkte durch x0 = 1 charakterisiert. Also wird der eigentliche Teil der Quadrik in affinen Koordinaten (x1 , x2 ) durch 2x12 − x22 = −1 beschrieben. Es handelt sich also um eine Hyperbel. Diese Kennzeichnung hat aber nur in dieser speziellen affinen Ebene einen Sinn. Dieselbe projektive Quadrik ergibt mit x2 = 0 als uneigentlicher Geraden für die
8.6 Projektive Quadriken
227
eigentlichen Punkte (x2 = 1) jetzt x02 + 2x12 = 1, also als affinen Teil eine Ellipse. Es sind Ellipse”, Hyperbel” und auch Parabel” affine Begriffe, die in der projektiven ” ” ” Ebene ihren Sinn verlieren. Sei x0 beliebig. Dann ist x12 − x22 = 0 gleichwertig damit, daß x1 = x2 oder x1 = −x2 erfüllt ist. Die zu dieser Gleichung gehörende Quadrik besteht also aus zwei Geraden mit dem Schnittpunkt (1, 0, 0). Eine solche Quadrik nennt man ein Geradenpaar. Schließlich wird durch x02 + x12 + x22 = 0 in der reellen projektiven Ebene die leere Menge ∅ als Quadrik gekennzeichnet, weil es keinen Punkt mit den Koordinaten (0, 0, 0) gibt. 8.6.6 Definition. Zwei projektive Quadriken Q, Q von P heißen projektiv äquivalent, wenn es eine Projektivität ϕ von P mit Q = ϕQ gibt. Bezeichnung: Q ∼ Q 8.6.7 Bemerkung. Offenbar ist ∼ eine Äquivalenzrelation, die geometrisch gleiche projektive Quadriken in einer Klasse zusammenfaßt. Ziel dieses Abschnitts ist eine Kennzeichnung dieser Klassen, um einen Überblick über alle projektiven Quadriken von P zu gewinnen. 8.6.8 Satz. Es sei Q eine projektive Quadrik mit Koeffizientenmatrix A. Dann ist Q ∼ Q gleichwertig mit der Existenz einer invertierbaren Matrix S, so daß A = S T A S eine Koeffizientenmatrix von Q ist. Beweis: Q ∼ Q ist gleichwertig mit Q = ϕQ , wobei die Projektivität ϕ hinsichtlich des gegebenen Koordinatensystems K durch eine invertierbare Matrix S beschrieben wird. Seien x und y die homogenen Koordinatenvektoren der Punkte x ∈ Q und y ∈ Q mit x = ϕy. Dann ist x = Sy. Wegen x T Ax = 0 folgt y T (S T A S)y = 0. Da A symmetrisch ist, ist nach Satz 3.1.28 auch A = S T A S symmetrisch. Also ist A nach Definition 8.6.4 eine Koeffizientenmatrix von Q . 8.6.9 Definition. Für jede projektive Quadrik Q von P sei u(Q) = max{p- dim U | U ⊆ Q, U projektiver Unterraum von P}. 8.6.10 Satz. Aus Q ∼ Q folgt u(Q) = u(Q ). Beweis: Nach Voraussetzung gibt es eine Projektivität ϕ von P mit Q = ϕQ . Wegen 8.5.3 werden die Unterräume U ⊆ Q durch ϕ bijektiv auf die Unterräume U ⊆ Q unter Erhaltung der Dimension abgebildet.
228
8 Anwendungen in der Geometrie
8.6.11 Definition. Ein Punkt x der projektiven Quadrik Q heißt Doppelpunkt von Q, wenn für jede Gerade G von P mit x ∈ G entweder G ⊆ Q oder G ∩ Q = {x} gilt. Eine Quadrik heißt ausgeartet, wenn sie mindestens einen Doppelpunkt besitzt. 8.6.12 Bemerkung. Bei einem Geradenpaar ist der Schnittpunkt der beiden Geraden ein Doppelpunkt. Später wird sich zeigen, daß es Quadriken gibt, die nur aus Doppelpunkten bestehen. Nach dem folgenden Satz sind sie projektive Unterräume von P. Diese werden im Fall der Dimensionen 0, 1, 2 als Doppelpunkte, Doppelgeraden bzw. Doppelebenen bezeichnet. 8.6.13 Satz. Sei A eine Koeffizientenmatrix der projektiven Quadrik Q des ndimensionalen projektiven Raums P bezüglich des Koordinatensystems K = (p0 , . . . , pn , e). Dann gelten folgende Aussagen: (a) Die Menge D(Q) aller Doppelpunkte der Quadrik Q ist ein projektiver Unterraum von P. (b) Ein Punkt x ∈ P liegt genau dann in D(Q), wenn sein homogener Koordinatenvektor x bezüglich K die Gleichung Ax = o ∈ Rn+1 erfüllt. Beweis: (a) Da die Lösungsgesamtheit L eines homogenen Gleichungssystems (H) Ay = o nach Folgerung 3.4.8 ein Unterraum von VP ist, ist D(Q) ein projektiver Unterraum von P. Also folgt (a) aus (b). (b) Sei x ∈ Q und x sein homogener Koordinatenvektor bezüglich K. Dann erfüllt x die Gleichung (∗)
x T Ax = 0.
Sei y ein beliebiger weiterer Punkt von P mit homogenem Koordinatenvektor y bezüglich K. Sei G die Gerade durch x und y. Dann hat ein Punkt z ∈ G den homogenen Koordinatenvektor z = xs + yt für Skalare s, t ∈ R. Da A eine symmetrische Matrix ist, gilt x T Ay = y T Ax. Wegen (∗) folgt hieraus (∗∗)
zT Az = (x T Ay)(2st) + (y T Ay)t 2 .
Ist nun Ax = o, so ist auch x T Ay = y T Ax = 0. Wegen (∗∗) gilt dann zT Az = 0 für alle Punkte z der Geraden G. Also ist G ganz in der Quadrik Q enthalten, weshalb x ein Doppelpunkt von Q ist. Sei umgekehrt x ∈ D(Q). Sei y = x ein weiterer Punkt von P. Für die Verbindungsgerade G = x ∨ y gilt dann nach Definition 8.6.11 entweder G ≤ Q oder G ∩ Q = {x}. Sei z = xs + yt der homogene Koordinatenvektor eines beliebigen Punktes z ∈ G, wobei s, t ∈ R. Im ersten Fall gilt y T Ay = zT Az = 0. Aus (∗) und (∗∗) folgt daher x T Ay = 0.
229
8.6 Projektive Quadriken
Im zweiten Fall gilt für t = 0, daß z = x und so z ∈ Q. Weiter ist y ∈ Q, d. h. y T Ay = 0. Wäre x T Ay = 0, dann gäbe es für t = 0 ein 0 = s ∈ R mit x T Ay(2st) + (y T Ay)t 2 = 0. Wegen (∗∗) folgt dann zT Az = 0, was z ∈ Q widerspricht. Also ist x T Ay = 0 bei beliebiger Wahl von y ∈ P. Hieraus folgt x T A = o und so Ax = o, weil A symmetrisch ist. 8.6.14 Definition. Für die projektive Quadrik Q von P sei d(Q) = p- dim D(Q). 8.6.15 Satz. Aus Q ∼ Q folgt d(Q) = d(Q ). Beweis: Die definierenden Eigenschaften eines Doppelpunkts und auch die Dimensionen von Unterräumen bleiben nach Satz 8.4.3 bei Projektivitäten erhalten. Die für die projektive Äquivalenz notwendigen Bedingungen aus den Sätzen 8.6.10 und 8.6.15 erweisen sich aber in dem folgenden Satz auch als hinreichend. 8.6.16 Satz. (a) Jede projektive Quadrik Q ist bei gegebenem Koordinatensystem K zu genau einer der folgenden Quadriken Qt,r mit −1 ≤ t ≤ r ≤ n und t + 1 ≥ r − t projektiv äquivalent, wobei t + 1 der Trägheitsindex und r + 1 der Rang einer Koeffizientenmatrix A von Q bezüglich K ist. Dabei wird Qt,r durch die Gleichung 2 x02 + · · · + xt2 − xt+1 − · · · − xr2 = 0
beschrieben, und es gilt u(Qt,r ) = n − t − 1, d(Qt,r ) = n − r − 1. Der Fall t = r = −1 besagt, daß die Gleichung 0 = 0 lautet. Sie wird von allen Punkten erfüllt, d. h. Q−1,−1 = P. (b) Für zwei projektive Quadriken Q, Q ist Q ∼ Q gleichwertig mit u(Q) = u(Q ) und d(Q) = d(Q ). Beweis: Die Quadrik Q sei durch die symmetrische (n + 1) × (n + 1)-Matrix A bestimmt. Nach dem Trägheitsssatz 7.6.9 von Sylvester gibt es eine invertierbare (n + 1) × (n + 1)-Matrix Q derart, daß C = QT AQ = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0) eine (n + 1) × (n + 1)-Diagonalmatrix ist, in deren Hauptdiagonale zunächst (t + 1)mal der Wert +1, dann (n − r)-mal der Wert −1 und danach lauter Nullen stehen, wobei (t + 1) der Trägheitsindex und r + 1 der Rang von A ist. Wegen Satz 8.6.8
230
8 Anwendungen in der Geometrie
ist die durch C bestimmte Quadrik Q zu Q projektiv äquivalent. Da aber Q auch durch die Matrix −C bestimmt wird, kann man sich auf den Fall beschränken, daß t + 1 ≥ (r − t), wobei r + 1 = rg(A) der Rang von A ist. Stets gilt −1 ≤ t ≤ r ≤ n. Der Fall t = r = −1 tritt genau dann auf, wenn C und damit A die Nullmatrix ist. Die (n+1)-reihige Diagonalmatrix C hat den Rang r +1. Die allgemeine Lösung des homogenen linearen Gleichungssystems Cx = 0 besitzt daher nach Folgerung 3.4.8 die Dimension (n+1)−(r +1) = n−r. Wegen Satz 8.6.13 bestimmt sie gerade den Unterraum D(Qt,r ) der Doppelpunkte von Qt,r , dessen projektive Dimension somit n − r − 1 ist. Mit Hilfe von Satz 8.6.15 erhält man daher d(Q) = d(Qt,r ) = n − r − 1. Durch die Gleichungen x0 = xt+1 , . . . , xr−t−1 = xr , xr−t = 0, . . . , xt = 0 wird ein Unterraum U von P mit dim U = n − t − 1 bestimmt. Da aus diesen 2 − · · · − x 2 = 0 folgt, gilt U ⊆ Q . Weiter Gleichungen auch x02 + · · · + xt2 − xt+1 t,r r beschreiben die Gleichungen xt+1 = 0, . . . , xn = 0 einen Unterraum V von P mit dim V = t, der mit Qt,r keinen Punkt gemeinsam hat: Aus diesen Gleichungen und 2 − · · · − x 2 = 0 würde nämlich außerdem x = · · · = aus x02 + · · · + xt2 − xt+1 0 r xt = 0 folgen. Die homogenen Koordinaten eines Punktes sind aber nicht alle gleich Null. Ist nun W ein in Qt,r enthaltener Unterraum, so gilt erst recht V ∩ W = ∅ und p-dim(V ∨ W) ≤ n. Wegen Satz 8.4.3 folgt daher p- dim W = p- dim(V ∨ W) + p- dim(V ∩ W) − p- dim V ≤ n + (−1) − t. Zusammen besagen diese Ergebnisse, daß die maximale Dimension der in Qt,r enthaltenen Unterräume n − t − 1 ist. Wegen Satz 8.6.15 gilt daher u(Q) = u(Qt,r ) = n − t − 1. Die Größen u(Q) und d(Q) bestimmen somit eindeutig die Indizes t und r. Daher ist Q auch nur zu genau einer der Quadriken Qt,r projektiv äquivalent. Außerdem ergibt sich hieraus: Gilt für zwei Hyperflächen Q und Q sowohl u(Q) = u(Q ) als auch d(Q) = d(Q ), so müssen Q und Q zu derselben Quadrik Qt,r , also auch zueinander projektiv äquivalent sein. Der Satz 8.6.16 ermöglicht eine vollständige Übersicht über die projektivenÄquivalenzklassen der Quadriken eines n-dimensionalen reellen projektiven Raumes P. In den nachfolgenden Tabellen sind die Äquivalenzklassen für die Dimensionen n = 2 und n = 3 zusammengestellt. Alle Behauptungen sind einfache Folgerungen von Satz 8.6.16. 8.6.17 Folgerung. Es gibt sechs verschiedene projektive Äquivalenzklassen von Quadriken in der reellen projektiven Ebene.
231
8.7 Affine Quadriken
r −1
t −1
d 2
u 2
Gleichung (Normalform) 0=0
Bezeichnung projektive Ebene
0
0
1
1
x02 = 0
Doppelgerade
x02 x02 x02 x02
1
0
0
1
1
1
0
0
2
1
−1
0
2
2
−1
−1
− x12 + x12 + x12 + x12
=0
Geradenpaar
=0
Doppelpunkt
− x22 + x22
=0
nicht-ausgeartete Kurve
=0
leere Menge
8.6.18 Folgerung. Es gibt neun verschiedene projektive Äquivalenzklassen im reellen, dreidimensionalen projektiven Raum. r −1
t −1
d 3
u 3
Gleichung (Normalform) 0=0
Bezeichnung 3-dim. projektiver Raum
0
0
2
2
x02 = 0
Doppelebene
− x12 + x12 + x12 + x12 + x12
=0
Ebenenpaar
=0
Doppelgerade
2
1
0
1
2
2
0
0
3
1
−1
1
x02 x02 x02 x02 x02
=0
nicht-ausgeartete Fläche, die Geraden enthält (Ringfläche)
3
2
−1
0
x02 + x12 + x22 − x32 = 0
nicht-ausgeartete Fläche, die keine Geraden enthält (Ovalfläche)
3
3
−1
−1
x02 + x12 + x22 + x32 = 0
leere Menge
1
0
1
2
1
1
1
1
− x22 + x22 − x22
=0
Kegel
=0
Doppelpunkt
− x32
8.7 Affine Quadriken In diesem Abschnitt bezeichnet A immer einen n-dimensionalen reellen affinen Raum der Dimension n ≥ 2. A wird durch eine Hyperebene H zu einem projektiven Raum P erweitert. Sei K = (p0 , . . . , pn ) ein affines Koordinatensystem von A. Nach Satz 8.4.13 bestimmt es eindeutig ein projektives Koordinatensystem K = (q0 , . . . , qn , e) von P. Ein Punkt x ∈ P hat bezüglich K den homogenen Koordinatenvektor x = (x0 , . . . , xn ). Die Punkte x von H sind durch x0 = 0 gekennzeichnet. Bei eigentlichen Punkten kann x0 = 1 gewählt werden. Es ist dann x = (x1 , . . . , xn ) der affine Koordinatenvektor von x bezüglich K.
232
8 Anwendungen in der Geometrie
8.7.1 Definition. Eine Teilmenge Q0 von A heißt affine Quadrik, wenn es eine projektive Quadrik Q von P mit Q0 = Q ∩ A gibt. Die Menge Qu = Q ∩ H wird der uneigentliche Teil von Q genannt. 8.7.2 Bemerkung. Eine projektive Quadrik Q bestimmt eindeutig die affine Quadrik Q0 = Q ∩ A. Umgekehrt kann aber Q0 durchaus Durchschnitt von verschiedenen projektiven Quadriken Q mit A sein, nämlich wenn sich diese nur in ihren uneigentlichen Teilen unterscheiden. 8.7.3 Bemerkung. Wenn die projektive Quadrik Q hinsichtlich K durch die Koordinatengleichung n aij xi xj = 0 i,j =0
mit einer symmetrischen (n + 1) × (n + 1)-Matrix A = (aij ) beschrieben wird, dann lautet die Koordinatengleichung der affinen Quadrik Q0 bezüglich K wegen x0 = 1 und der Symmetrie von A n i,j =1
aij xi xj + 2
n
ai0 xi + a00 = 0.
i=1
Die symmetrische n × n-Matrix A0 = (aij ) mit i, j = 1, 2, . . . , n heißt Koeffizientenmatrix der affinen Quadrik Q0 . Und umgekehrt ist auch jede solche Gleichung mit einer symmetrischen Matrix A0 = (aij ) die Gleichung einer affinen Quadrik. 8.7.4 Definition. Zwei affine Quadriken Q0 , Q0 heißen affin-äquivalent, wenn es eine Affinität ϕ0 von A mit ϕ0 Q0 = Q0 gibt. Bezeichnung: Q0 ≈ Q0 Zwei projektive Quadriken Q, Q heißen affin-äquivalent, wenn es eine affine Projektivität von P mit ϕQ = Q gibt. Bezeichnung: Q ≈ Q 8.7.5 Satz. Es seien Q, Q projektive Quadriken mit den affinen Quadriken Q0 , Q0 und den uneigentlichen Teilen Qu , Qu . (a) Aus Q ≈ Q folgt auch Q0 ≈ Q0 . (b) Aus Q ≈ Q folgen die projektiven Äquivalenzen Q ∼ Q und Qu ∼ Qu . Beweis: Ergibt sich unmittelbar aus den Definitionen 8.5.7, 8.7.1 und 8.7.4.
233
8.7 Affine Quadriken
8.7.6 Bemerkung. Teil (b) von Satz 8.7.5 besagt, daß die affine Äquivalenz eine Verfeinerung der projektiven Äquivalenz ist. Die projektiven Äquivalenzklassen der Quadriken werden daher durch die affinen Klassen unterteilt. Einen Einblick in diese Unterteilung vermitteln die uneigentlichen Teile der Quadriken: Ist Q eine Quadrik von P, so ist ihr uneigentlicher Teil Qu eine Quadrik von H. 8.7.7 Definition. Für eine projektive Quadrik Q sei u∗ (Q) = u(Qu ) und d ∗ (Q) = d(Qu ). 8.7.8 Satz. Aus Q ≈ Q folgt u(Q) = u(Q ), d(Q) = d(Q ), u∗ (Q) = u∗ (Q ) und d ∗ (Q) = d ∗ (Q ). Beweis: Ergibt sich unmittelbar aus den Sätzen 8.6.10, 8.6.15 und 8.7.5.
8.7.9 Satz. Sei P ein n-dimensionaler reeller projektiver Raum. Die Quadriken Qit,r von P vom Typ i ∈ {1, 2, 3, 4} seien durch die Gleichungen 2 Qit,r = x12 + · · · + xt2 − xt+1 − · · · − xr2 = (i)
definiert, wobei die rechte Seite i eines jeden Typs in der nachstehenden Tabelle definiert ist. Dann ist jede projektive Quadrik Q von P zu genau einer der Quadriken Qit,r affin-äquivalent. Die Invarianten u(Q), d(Q) und u∗ (Q) besitzen dabei die für Qit,r in der Tabelle angegebenen Werte: Typ
Gleichung
Bedingungen für t und r
d
u
u∗
(1)
(1) = 0
0≤t ≤r≤n
n−r
n−t
n−t −1
(2)
0≤t ≤r≤n
n−r −1
n−t
n−t −1
(3)
(2) = x02 (3) = x02
0≤t ≤r≤n
n − (r − t) − 1
n−r −1
n − (r − t) − 1
(4)
(4) = x0 xr+1
0≤t ≤r
n−r −2
n−t −1
n−t −1
Für alle 4 Typen Qit,r , 1 ≤ i ≤ 4, gilt d ∗ = d ∗ (Q) = n − r − 1. Ist t = 0, so treten auf der linken Seite der 4 Gleichungstypen keine positiven Glieder auf. Ist r = 0, so ist die linke Seite einer jeden dieser Gleichungen durch 0 zu ersetzen. Beweis: Es sei ni,j =0 aij xi xj = 0 die Gleichung der Quadrik Q von P. Indem man x0 = 0 setzt, erhält man die Gleichung ni,j =1 aij xi xj = 0 von Qu . Nach Satz 8.6.16 ist Qu zu einer Quadrik Q∗t,r mit der Gleichung 2 x12 + · · · + xt2 − xt+1 − · · · − xr2 = 0
mit 0 ≤ t ≤ r ≤ n und r − t ≤ t
234
8 Anwendungen in der Geometrie
projektiv äquivalent: Man beachte p-dim H = n − 1, die Indizierung beginnt erst bei 1, daher die Abweichungen gegenüber Satz 8.6.16. Es gibt also eine Projektivität ϕ ∗ von H mit ϕ ∗ Qu = Q∗t,r . Ist S ∗ die Matrix von ϕ ∗ , so ist
1
S∗
die Matrix einer Fortsetzung von ϕ ∗ zu einer affinen Projektivität ϕ von P, die Q auf Q = ϕQ ≈ Q abbildet. Dabei wird dann Q durch eine Gleichung der Form 2 x12 + · · · + xt2 − xt+1 − · · · − xr2 = bx02 +
n
bi x0 xi mit 0 ≤ t ≤ r ≤ n, r − t ≤ t
i=1
beschrieben. Weiter definieren die Gleichungen x0 = x0 , xj = xj +
xi = xi − bj x0 2
bi x0 2
für i = 1, . . . , t,
für j = t + 1, . . . , r,
xk = xk
für k = r + 1, . . . , n
eine affine Projektivität, die Q auf eine Quadrik Q ≈ Q ≈ Q abbildet. Die Gleichung von Q besitzt dann die Form (wieder xi statt xi ) 2 x12 + · · · + xt2 − xt+1 − · · · − xr2
n 2 = cx0 + bi x0 xi i=r+1
mit 0 ≤ t ≤ r ≤ n, r − t ≤ t.
Hier wird nun zwischen vier möglichen Fällen unterschieden, die den vier Typen der Tabelle entsprechen. Fall 1: c = 0 und bi = 0 für i = r + 1, . . . , n. In diesem Fall ist Q = Q1t,r schon vom Typ i = 1. Die in der Tabelle angegebenen Werte für u und d ergeben sich aus Satz 8.6.16. Dabei ist jedoch zu beachten, daß die Gleichung mit x1 statt mit x0 beginnt. In den Formeln von Satz 8.6.16 muß deshalb t durch t − 1 und r durch r − 1 ersetzt werden. Die Gleichung des uneigentlichen Teils (Qu ) ist dieselbe wie für Q . Wegen p-dim H = n − 1 muß jedoch bei der Berechnung von u∗ und d ∗ jetzt n durch n − 1 ersetzt werden. Es gilt somit u∗ (Q) = n − t − 1
und
d ∗ (Q) = n − r − 1.
Fall 2: c > 0 und bi = 0 für i = r + 1, . . . , n.
235
8.7 Affine Quadriken
√ Durch (x0 ) = cx0 , (xi ) = xi für i = 1, 2, . . . , n wird eine affine Projektivität ˜ mit der Gleichung von P definiert, die Q auf eine Quadrik Q (∗)
2 x12 + · · · + xt2 − xt+1 − · · · − xr2 = x02
mit 0 ≤ t ≤ r ≤ n, r − t ≤ t
˜ = Q2t,r vom Typ i = 2. Für r − t = t ist Q ˜ = Q3t,r abbildet. Für r − t < t ist Q vom Typ i = 3. In beiden Fällen stimmt die Gleichung des uneigentlichen Teils mit der entsprechenden Gleichung im Fall 1 überein. Daher gilt auch hier u∗ (Q) = n − t − 1
und
d ∗ (Q) = n − r − 1.
Allerdings kann man im Fall r − t = t ebenso u∗ (Q) = n − (r − t) − 1 schreiben. Zur Berechnung von u(Q) und d(Q) muß die Gleichung (∗) zunächst auf die Form 2 x12 + · · · + xt2 − xt+1 − · · · − xr2 − x02 = 0
(∗∗)
gebracht werden. Im Fall r − t < t ist hier immer noch die Bedingung erfüllt, daß die Anzahl der positiven Glieder nicht kleiner als die der negativen Glieder ist. Nach Satz 8.6.16 folgt dann u(Q) = n − t
d(Q) = n − r − 1,
und
wobei man allerdings t durch t − 1 zu ersetzen hat. Im Fall r − t = t muß man die Gleichung (∗∗) mit (−1) multiplizieren und in den Formeln von Satz 8.6.16 t durch r − t ersetzen, während r nicht geändert zu werden braucht. Man erhält jetzt u(Q) = n − (r − t) − 1
und
d(Q) = n − r − 1.
Fall 3: c < 0 und bi = 0 für i = r + 1, . . . , n. √ Wie im Fall 2 bildet hier die affine Projektivität x0 = |c|x0 , xi = xi für ˜ = Q3r−t,r ab. Dabei muß jedoch die i = 1, . . . , n die Quadrik Q auf die Quadrik Q Gleichung zunächst mit (−1) multipliziert werden, und es müssen entsprechende Schritte wie im Unterfall r − t = t des Falles 2 durchgeführt werden. Damit ergeben sich die Werte der Invarianten u, d, u∗ und d ∗ der Tabelle. Fall 4: bi = 0 für mindestens ein i ≥ r + 1. Da eine Vertauschung der Koordinaten xi mit i = 0 eine affine Projektivität ist, kann br+1 = 0 angenommen werden. Die durch xi
= xi
für i = r + 1
und
xr+1
= cx0 +
n i=r+1
bi xi
236
8 Anwendungen in der Geometrie
˜ mit der Gleichung definierte affine Projektivität bildet dann Q auf eine Quadrik Q 2 − · · · − xr2 = x0 xr+1 , x12 + · · · + xt2 − xt+1
0 ≤ t ≤ r ≤ n − 1, r − t ≤ t,
˜ = Q4t,r vom Typ i = 4. Für die Invarianten u∗ und d ∗ ergeben sich ab. Also ist Q dieselben Werte wie im Fall 1. Zur Berechnung von u und d wird auf Q4t,r noch die folgende Projektivität δ angewandt, die keine affine Projektivität ist. Sei δ definiert durch x0 =
1 (xr+1 − x0 ), 2
xr+1 =
1 (xr+1 + x0 ) und 2
xi = xi
für i = 0, r + 1.
Dann ändern sich die Invarianten u und d nach den Sätzen 8.6.10 und 8.6.15 nicht, und δ(Q4t,r ) hat die Gleichung 2 2 x02 + · · · + xt2 − xt+1 − · · · − xr+1 = 0,
woraus u(Q) = n − t − 1 und d(Q) = n − (r + 1) − 1 = n − r − 2 folgt. Da diese Fallunterscheidung vollständig ist, muß jede projektive Quadrik Q zu mindestens einer Quadrik Qit,r der Tabelle affin-äquivalent sein. Q bestimmt die Invarianten u, d, u∗ , d ∗ eindeutig. Innerhalb jedes der Typen (1) bis (4) sind die Indizes t und r bereits durch u und d oder durch u∗ und d ∗ festgelegt. Weiter ist der Typ (1) durch d ∗ = d − 1, der Typ (2) durch d ∗ = d und u∗ = u − 1, der Typ (3) durch d ∗ = d und u∗ = u und schließlich der Typ (4) durch d ∗ = d + 1 gekennzeichnet. Daher ist eine Quadrik Q auch nur zu genau einer Quadrik Qit,r affin-äquivalent. 8.7.10 Folgerung. Zwei projektive Quadriken Q, Q des n-dimensionalen, reellen, projektiven Raumes P sind genau dann affin-äquivalent, wenn ihre Invarianten u, d, u∗ und d ∗ übereinstimmen. Beweis: Nach Satz 8.7.9 müssen zwei Quadriken Q und Q mit gleichen Invarianten u(Q) = u(Q ), d(Q) = d(Q ), u∗ (Q) = u∗ (Q ) und d ∗ (Q) = d ∗ (Q ) zu genau einer Quadrik Qit,r affin-äquivalent sein. Also gilt auch Q ≈ Q . Die Umkehrung gilt nach Satz 8.7.8. Satz 8.7.9 gestattet eine systematische Aufstellung aller affinen Äquivalenzklassen projektiver Quadriken. In den folgenden beiden Tabellen ist sie für die Dimensionen n = 2 und n = 3 durchgeführt. Der Beweis folgt unmittelbar aus Satz 8.7.9. 8.7.11 Folgerung. Es gibt 12 verschiedene affine Äquivalenzklassen projektiver Quadriken in der reellen projektiven Ebene.
237
8.7 Affine Quadriken
Nr.
Typ
t
r
d
u
d∗
u∗
Gleichung (Normalform)
Bezeichnung (affin)
1 2 3
(1)
0 1 1
0 1 2
2 1 0
2 1 1
1 0 −1
1 0 0
0=0 x12 = 0 x12 − x22 = 0
2
2
0
0
−1
−1
x12 + x22 = 0
Ebene eigentl. Gerade Geradenpaar mit eigentl. Schnittpunkt eigentl. Punkt
1
1
0
1
0
0
2
2
−1
0
−1
−1
0
0
1
1
1
1
0 = x02
8
0
1
0
0
0
0
−x12 = x02
9 10
0 1
2 2
−1 −1
−1 0
−1 −1
−1 0
0
0
0
1
1
1
0 = x0 x1
1
1
−1
0
0
0
x12 = x0 x2
4 5
(2)
6 7
11
(3)
(4)
12
x12 = x02 x12 + x22 = x02
−x12 − x22 = x02 x12 − x22 = x02
Paar parall. Geraden Ellipse uneigentl. Gerade uneigentl. Punkt ∅ Hyperbel eine eigentl. u. die uneigentl. Gerade Parabel
Beim Übergang zu den affinen Quadriken fallen die Klassen der Nr. 7, 8 und 9 sowie die Klassen 2 und 11 zusammen, weil der eigentliche Teil jeweils die leere Menge ∅ bzw. eine Gerade ist. Alle anderen Klassen sind verschieden. Es gibt also 9 Klassen affin-inäquivalenter Quadriken in der affinen Ebene. 8.7.12 Folgerung. Es gibt 20 verschiedene affine Äquivalenzklassen projektiver Quadriken im dreidimensionalen projektiven Raum. Nr.
Typ
t
r
d
u
d∗
u∗
Gleichung (Normalform)
Bezeichnung (affin)
1 2 3
(1)
0 1 1
0 1 2
3 2 1
3 2 2
2 1 0
2 1 1
0=0 x12 = 0 x12 − x22 = 0
4 5
2 2
2 3
1 0
1 1
0 −1
0 0
x12 + x22 = 0 x12 + x22 − x32 = 0
3-dim. Raum eigentl. Ebene Ebenenpaar mit eigentl. Schnittgerade eigentl. Gerade Kegel
6
3
3
0
0
−1
−1
x12 + x22 + x32 = 0
eigentl. Punkt
238
8 Anwendungen in der Geometrie 1
1
1
2
1
1
x12 = x02
8
2
2
0
1
0
0
x12 + x22 = x02
9
2
3
−1
1
−1
0
x12 + x22 − x32 = x02
10
3
3
−1
0
−1
−1
x12 + x22 + x32 = x02
0
0
2
2
2
2
0 = x02
12
0
1
1
1
1
1
−x12 = x02
13
0
2
0
0
0
0
−x12 − x22 = x02
14 15
0 1
3 2
−1 0
−1 1
−1 0
−1 1
16
1
3
−1
0
−1
0
x12 − x22 − x32 = x02
0
0
1
2
2
2
0 = x0 x1
18
1
1
0
1
1
1
x12 = x0 x2
19
1
2
−1
1
0
1
x12 − x22 = x0 x3
20
2
2
−1
0
0
0
x12 + x22 = x0 x3
7
11
17
(2)
(3)
(4)
−x12 − x22 − x32 = x02 x12 − x22 = x02
Paar parall. Ebenen elliptischer Zylinder einschaliges Hyperboloid Ellipsoid uneigentl. Ebene uneigentl. Gerade uneigentl. Punkt ∅ hyperbol. Zylinder zweischaliges Hyperboloid eigentl. Ebene u.die uneigentl. Ebene parabol. Zylinder hyperbol. Paraboloid elliptisches Paraboloid
Beim Übergang zu den affinen Quadriken fallen die Klassen 11 bis 14 sowie die Klassen 2 und 17 zusammen, weil der eigentliche Teil jeweils die leere Menge ∅ bzw. eine Ebene ist. Alle anderen Klassen sind verschieden. Es gibt also 16 verschiedene Klassen affin-inäquivalenter Quadriken im dreidimensionalen affinen Raum. 8.7.13 Berechnungsverfahren von Normalformen affiner Quadriken. Die affine Quadrik Q des n-dimensionalen affin-euklidischen Raums A sei durch die Gleichung (∗)
n i,j =1
bij xi xj +
n
b i xi + b = 0
i=1
bezüglich des affinen Koordinatensystems K von A gegeben, wobei die symme-
239
8.7 Affine Quadriken
trische reelle n × n-Matrix B = (bij ) eine Koeffizientenmatrix von Q ist, und b = (b1 , . . . , bn ) ∈ Rn , b ∈ R. 1. Schritt: Man geht zu projektiven Koordinaten über, indem man xi durch xx 0i für 1 ≤ i ≤ n ersetzt. Dann multipliziert man (∗) mit (x 0 )2 . Die so gewonnene quadratische Gleichung bringt man auf die Form n
(∗∗)
aij xi xj = 0.
i,j =0
Ihre Koeffizientenmatrix ist die symmetrische reelle (n + 1) × (n + 1)-Matrix A=
a00 a10 .. .
a01 a11
an0
an1
···
a0n a1n . ann
Sie ist die Koeffizientenmatrix einer projektiven Quadrik Q . Die eingerahmte Teilmatrix A0 ist die Koeffizientenmatrix des uneigentlichen Teils (Qu ) der projektiven Quadrik Q mit Q ∩ A = Q. 2. Schritt: Man berechne die charakteristischen Polynome char PolA (X) und char PolA0 (X) von A und A0 . 3. Schritt: Man berechne die Trägheitsindizes t (A) und t (A0 ) von A und A0 . Da die symmetrischen reellen Matrizen A und A0 nach Satz 7.6.3 reelle Nullstellen haben, können die Vorzeichen der Eigenwerte von A und A0 aus den Koeffizienten der beiden charakteristischen Polynome charA (X) und char A0 (X) mittels der Kartesischen Zeichenregel in Bemerkung 7.6.10 bestimmt werden. 4. Schritt: Man berechne die Ränge rg(A) = r, rg(A0 ) = r0 mittels Algorithmus 4.1.18. 5. Schritt: Nach Satz 8.6.16 ist dann u(Q ) = n − t (A), ∗
u (Q ) =
u(Qu )
d(Q ) = n − rg(A),
= n − t (A0 ) − 2, d ∗ (Q ) = n − rg(A0 ) − 1.
6. Schritt: In den Fällen n = 2 bzw. n = 3 ergibt sich die Normalgleichung und der Typ der affinen Quadrik Q aus Folgerung 8.7.11 bzw. 8.7.12. Sonst muß man Satz 8.7.9 anwenden. 7. Schritt: Um die Transformation der Gleichung (∗) auf Normalform tatsächlich durchzuführen, muß man die Teilmatrix A0 mittels Berechnungsverfahren 7.6.4 auf Diagonalform transformieren. Danach ergibt sich mittels quadratischer Ergänzung wie im Beweis von Satz 8.7.9 die Normalform von Q.
240
8 Anwendungen in der Geometrie
8.7.14 Beispiel. Die affine Quadrik Q sei im 3-dimensionalen Raum A durch die Gleichung x12 − 5x22 − x1 x2 + x1 x3 + x2 x3 − 4x1 − 1 = 0 gegeben. In homogenen Koordinaten (x0 , x1 , x2 , x3 ) lautet sie dann −(x0 )2 + (x1 )2 − 5(x2 )2 − 4x0 x2 − x1 x2 + x1 x3 + x2 x3 = 0. Nach Multiplikation dieser Gleichung mit 2 erhält man die symmetrischen Koeffizientenmatrizen −2 0 −4 0 2 −1 1 0 2 −1 1 −1 −10 1 A= −4 −1 −10 1 , A0 = 1 1 0 0 1 1 0 der zugehörigen projektiven Quadrik Q bzw. des uneigentlichen Teils (Qu ) von Q . Ihre charakteristischen Polynome sind char PolA (X) = X 4 + 10X 3 − 23X 2 − 20X + 4, char PolA0 (X) = −X 3 − 8X 2 + 23X + 6. Also haben A und A0 nach der Kartesischen Zeichenregel 7.6.10 die Trägheitsindizes t (A) = 2, t (A0 ) = 1 und die Ränge rg(A) = 4, rg(A0 ) = 3. Es folgt nach 8.7.13 daß u(Q ) = 3 − 2 = 1, d(Q ) = 3 − 3 − 1 = −1, ∗ u (Q ) = 3 − 1 − 2 = 0 und d ∗ (Q ) = 3 − 3 − 1 = −1 ist. Die Quadrik Q gehört nach Folgerung 8.7.12 zur Klasse Nr. 9. Sie ist also ein einschaliges Hyperboloid. Die Bestimmung der Normalgleichung ist Aufgabe 8.13. 8.7.15 Bemerkung. Das einschalige Hyperboloid und das hyperbolische Paraboloid weisen folgende Besonderheit auf: Durch jeden ihrer Punkte gehen zwei verschiedene Geraden, die ganz in der Quadrik liegen. Beweis: Da die in der Behauptung auftretenden geometrischen Eigenschaften bei Affinitäten erhalten bleiben, kann man sich beim Beweis auf die durch die entsprechenden Normalgleichungen beschriebenen Quadriken beschränken. 1. Die Normalgleichung des einschaligen Hyperboloids Q lautet x12 + x22 − x32 = 1. Wegen der (euklidischen) Rotationssymmetrie in der (x1 , x2 )-Ebene kann man sich weiter auf einen Punkt x ∗ ∈ Q mit Koordinaten (x1∗ , 0, x3∗ ) beschränken, die also x1∗2 − x3∗2 = 1 erfüllen. Durch x1 = x1∗ + tx3∗ , x2 = ±t, x3 = x3∗ + tx1∗ mit t ∈ R werden je nach Wahl des Vorzeichens zwei verschiedene Geraden durch x ∗ gegeben.
241
8.8 Aufgaben
Einsetzen in die Normalgleichung ergibt x12 + x22 − x32 = x1∗2 − x3∗2 + 2t (x1∗ x3∗ − x3∗ x1∗ ) + t 2 (x3∗2 + 1 − x1∗2 ) = x1∗2 − x3∗2 = 1 für beliebige Werte von t. Deshalb sind beide Geraden ganz in Q enthalten. 2. Die Normalgleichung des hyperbolischen Paraboloids Q lautet x12 − x22 = x3 . Es sei x ∗ ∈ Q ein beliebiger Punkt mit den Koordinaten (x1∗ , x2∗ , x3∗ ), für die also x1∗2 − x2∗2 = x3∗ gilt. Durch x1 = x1∗ + t, x2 = x2∗ ± t, x3 = x3∗ + 2t (x1∗ ∓ x2∗ ) mit t ∈ R werden wieder zwei verschiedene Geraden durch x ∗ gegeben. Einsetzen ergibt jetzt x12 − x22 = x1∗2 − x2∗2 + 2t (x1∗ ∓ x2∗ ) + t 2 (1 − 1) = x3∗ + 2t (x1∗ ∓ x2∗ ) = x3 ; die beiden Geraden sind also ebenfalls ganz in Q enthalten.
8.8 Aufgaben 8.1 Im vierdimensionalen reellen affinen Raum A seien folgende Punkte durch ihre Koordinaten gegeben: q0 = (3, −4, 1, 6), q1 = (3, −2, −10, 0), q2 = (2, 0, −3, 2), q3 = (1, 2, 4, 4). Bestimmen Sie die Dimension des von diesen Punkten aufgespannten Unterraums U und den Durchschnitt von U mit der Hyperebene H, die durch die Gleichung 4x1 + x2 + x3 − 2x4 + 6 = 0 gegeben ist. 8.2 Im zweidimensionalen reellen affinen Raum seien hinsichtlich eines Koordinatensystems folgende Punkte gegeben: p1 : (1, 2),
p2 : (2, −1),
p3 : (1, −1),
p1 : (−2, 9),
p2 : (4, −2),
p3 : (1, −6).
Berechnen Sie die Matrix und den Translationsvektor derjenigen affinen Abbildung α, für die αpi = pi gilt für i = 1, 2, 3. 8.3 Im dreidimensionalen reellen affinen Raum seien hinsichtlich eines Koordinatensystems der Punkt p : (2, 1, 1), die Gerade G : g = (11, −1, 2) + (1, 2, 1) · t mit t ∈ R und die Ebene H durch die Gleichung 2x1 − x2 + 5x3 = 1 gegeben. Berechnen Sie eine Parameterdarstellung derjenigen Geraden G, für die p ∈ G, G ∩ G = ∅ und G H gilt. 8.4 Im dreidimensionalen euklidisch-affinen Raum seien hinsichtlich eines kartesischen Koordinatensystems die Geraden G : g = (1, 2, −1) + (3, 1, 1) · s mit s ∈ R, G : g = (0, 2, 16) + (1, 2, −3) · t mit t ∈ R gegeben. Zeigen Sie, daß diese beiden Geraden genau ein gemeinsames Lot besitzen, und berechnen Sie dessen Fußpunkte auf G und G .
242
8 Anwendungen in der Geometrie
8.5 (a) Im dreidimensionalen reellen affinen Raum seien drei paarweise windschiefe Geraden G1 , G2 , G3 (je zwei liegen nicht in einer Ebene) gegeben. Zeigen Sie: Zu einem Punkt p ∈ G1 gibt es im allgemeinen genau eine Gerade G mit p ∈ G, G ∩ G2 = ∅ und G ∩ G3 = ∅. Welche Ausnahmepunkte gibt es auf G1 , für die dies nicht der Fall ist? (b) Hinsichtlich eines Koordinatensystems gelte G1 : g 1 = (1, 0, 0) · u, G2 : g 2 = (0, 1, 0) + (0, 0, 1) · v, G3 : g 3 = (1, 1, 0) + (1, 1, 1) · w mit u, v, w ∈ R. Berechnen Sie für p : (1, 0, 0) eine Parameterdarstellung der entsprechenden Geraden G und außerdem die Ausnahmepunkte von G1 . 8.6 Hinsichtlich einer Orthonormalbasis des euklidischen 3-dimensionalen Vektorraums V = R3 sei einem Endomorphismus ϕ von V die Matrix √ √ √ 1 3 − 1 −1 2 1 3+ 1 4√ 2 2 4√ 4√ A = 41 3 − 21 41 3 + 21 − 41 2 √ √ √ 1 1 1 4 2 4 2 2 3 zugeordnet. Zeigen Sie, daß ϕ eine Drehung ist. Bestimmen Sie ihre Drehachse und ihren Drehwinkel und berechnen Sie die Eulerschen Winkel von ϕ mittels Satz 8.3.28. 8.7 Es sei V ein 3-dimensionaler, orientierter euklidischer Raum, und {e1 , e2 , e3 } sei eine positiv orientierte Orthonormalbasis von V . Das Vektorprodukt zweier Vektoren x = e1 x1 + e2 x2 + e3 x3 und y = e1 y1 + e2 y2 + e3 y3 ist definiert durch e1 e2 e3 x × y = x1 x2 x3 , y1 y2 y3 wobei die Determinante formal nach der ersten Zeile zu entwickeln ist. Zeigen Sie: (a) x × y = 0 ist gleichwertig damit, daß die Vektoren x und y linear abhängig sind. (b) Sind xi , yi , zi , 1 ≤ i ≤ 3 die Koordinaten von x, y, z hinsichtlich einer positiv orientierten Orthonormalbasis von V , dann gelten x1 x2 x3 (x × y) · z = y1 y2 y3 , z1 z2 z3 (z × y) · z = (y × z) · x = (z × x) · y. (c) x × y ist ein zu x und y orthogonaler Vektor mit Betrag |x × y| = |x| |y| | sin(x, y)|. 8.8 Es sei ϕ eine Bijektion der affinen Geraden G auf sich. Zeigen Sie, daß ϕ genau dann eine Affinität ist, wenn für je drei Punkte x, y, z ∈ G stets TV(ϕx, ϕy, ϕz) = TV(x, y, z). 8.9 Das Doppelverhältnis von vier kollinearen Punkten p1 , p2 , p3 , p4 hängt von der Reihenfolge dieser Punkte ab. Nachstehend bedeute π eine beliebige Permutation der vier Indizes.
243
8.8 Aufgaben
(a) Für welche Permutationen gilt DV(p1 , p2 , p3 , p4 ) = DV(pπ 1 , pπ 2 , pπ 3 , pπ 4 )? (b) Es gelte DV(p1 , p2 , p3 , p4 ) = c. Man drücke für alle Permutationen π das Doppelverhältnis DV(pπ1 , pπ2 , pπ3 , pπ 4 ) durch c aus. Wie viele verschiedene Doppelverhältnisse treten auf? 8.10 Zeigen Sie, daß eine Bijektion einer projektiven Geraden auf sich genau dann eine Projektivität ist, wenn sie das Doppelverhältnis ungeändert läßt. 8.11 Klassifizieren Sie die durch 5(x12 + x32 ) − 4x0 x2 + 2x1 x3 = 0 gegebene projektive Quadrik und bestimmen Sie die Matrix einer Transformation, die diese Gleichung in die Normalform überführt. 8.12 Bestimmen Sie die Normalgleichung der Quadrik Q im 3-dimensionalen affineuklidischen Raum A, die durch x12 + 2x1 x2 + x22 + 2x1 x3 + 2x2 x3 + x32 + 2x1 + 2x2 + 2x3 − 3 = 0 beschrieben wird. 8.13 Bestimmen Sie die Normalgleichung der Quadrik Q im dreidimensionalen affineuklidischen Raum A, die durch x12 − 5x22 − x1 x2 + x1 x3 + x2 x3 − 4x2 − 1 = 0 beschrieben wird. Benutzen Sie Näherungen für die Eigenwerte der Koeffizientenmatrix, und führen Sie die Lösung der Aufgabe mit den Näherungswerten durch. 8.14 Die Quadrik Q im dreidimensionalen reellen affinen Raum A sei durch die Gleichung 3x12 − 2x1 x2 + 3x22 − 6x32 − 2x1 − 4x2 − 2x3 = c mit c ∈ R gegeben. (a) Bestimmen Sie alle möglichen Typen von Q in Abhängigkeit von c. (b) Bestimmen Sie für c = 6 die Gleichungen der beiden in Q enthaltenen Geraden, die durch den Punkt q mit den Koordinaten (−1, −1, −1) gehen.
9 Ringe und Moduln
Für die in diesem Buch durchgeführte Lösung des allgemeinen Normalformenproblems einer n × n-Matrix A = (aij ) mit Koeffizienten aij aus einem kommutativen Körper F ist es notwendig, Teile der Theorie der F -Vektorräume auf R-Rechtsmoduln M über einem kommutativen Ring R zu verallgemeinern. Dabei zeigt sich, daß eine Reihe von Ergebnissen und Definitionen direkt übertragen werden können; das gilt insbesondere, wenn M ein freier R-Rechtsmodul ist. So wird im vierten Abschnitt gezeigt, daß je zwei Basen eines endlich erzeugten freien R-Rechtsmoduls gleich viele Elemente haben. Allerdings bedeutet frei“, daß man voraussetzt, daß ” M eine Basis besitzt, während man bei F -Vektorräumen V die Existenz einer Basis beweisen konnte. Im allgemeinen ist ein R-Rechtsmodul M nicht frei. Für die Strukturuntersuchungen der Moduln über Hauptidealringen, die im nächsten Kapitel durchgeführt wird, werden im ersten Abschnitt allgemeine Ergebnisse über Ideale und Restklassenringe beliebiger kommutativer Ringe R dargestellt. Im zweiten Abschnitt wird der allgemeine Modulbegriff eingeführt, und es werden alle drei Isomorphiesätze der Modultheorie bewiesen, die sich später als wichtige Hilfsmittel erweisen werden. Im dritten und sechsten Abschnitt werden einige grundlegende Begriffe und Ergebnisse der homologischen Algebra über kommutative Diagramme, exakte Folgen, direkte Produkte, direkte Summen, Faserprodukte und Fasersummen von R-Rechtsmoduln behandelt. Im vierten Abschnitt werden die grundlegenden Ergebnisse über endlich erzeugte und freie R-Rechtsmoduln bewiesen. Insbesondere wird gezeigt, daß jeder endlich erzeugte R-Rechtsmodul ein epimorphes Bild eines endlich erzeugten freien R-Rechtsmoduls ist. Außerdem wird ein Konstruktionsverfahren für freie Moduln angegeben, die nicht notwendig endlich erzeugt sind. Der fünfte Abschnitt behandelt die Beschreibung R-linearer Abbildungen zwischen endlich erzeugten freien R-Rechtsmoduln durch m × n-Matrizen über R.
9.1
Ideale und Restklassenringe
In diesem Abschnitt bezeichnet R stets einen kommutativen Ring mit Einselement 1. Der Begriff Ideal“ eines Ringes wird eingeführt. Es folgt, daß jedes Ideal Y von R ”
9.1 Ideale und Restklassenringe
245
eine Äquivalenzrelation ∼ auf R definiert. Damit wird gezeigt, daß die zugehörigen Äquivalenzklassen [r] der Ringelemente r ∈ R wiederum einen Ring R/Y bilden. 9.1.1 Definition. Die nicht leere Teilmenge Y des Ringes R ist ein Ideal, wenn Y eine Untergruppe der additiven Gruppe (R, +) von R ist, und yr ∈ Y für alle y ∈ Y und r ∈ R gilt. Das Ideal Y von R heißt echtes Ideal, wenn Y = R. 9.1.2 Beispiele. (a) Die nur aus dem Nullelement bestehende Teilmenge {0} eines Ringes R ist ein Ideal von R; es heißt das Nullideal und wird von nun an mit 0 bezeichnet. (b) Ist R = Z der Ring der ganzen Zahlen, so ist die Menge Y aller geraden Zahlen y = 2z mit z ∈ Z ein Ideal von Z. Denn Summe und Differenz zweier gerader Zahlen sind stets gerade; außerdem ist yz für alle y ∈ Y und alle z ∈ Z eine gerade Zahl. (c) Ist R = F ein Körper, so sind 0 und R die einzigen Ideale von R. 9.1.3 Definition. Das Ideal Y von R heißt Hauptideal, wenn Y = yR für ein y ∈ Y ist, d. h. es gibt ein y ∈ Y derart, daß zu jedem z ∈ Y ein r ∈ R mit z = yr existiert. Man sagt auch: Das Element y erzeugt das Ideal Y oder y ist ein Erzeuger von Y . 9.1.4 Definition. Sei Y ein Ideal des Ringes R. Dann heißen zwei Elemente r, s ∈ R äquivalent bezüglich Y , wenn r − s ∈ Y . Bezeichnung: r ∼ s oder r ∼Y s. Es ist einfach einzusehen, daß ∼ eine Äquivalenzrelation auf R ist. 9.1.5 Hilfssatz. Sei Y ein Ideal des Ringes R mit Y = R und R/Y die Menge der Äquivalenzklassen [r] = {s ∈ R | s ∼ r} der Elemente r von R. Dann wird R/Y bezüglich der Addition [r1 ] + [r2 ] = [r1 + r2 ] und der Multiplikation [r1 ] · [r2 ] = [r1 · r2 ] für alle r1 , r2 ∈ R ein Ring mit Einselement [1]. Beweis: Nach Satz 1.2.10 zerlegen die Äquivalenzklassen [r], r ∈ R, die Menge R in disjunkte Teilmengen. Seien [r1 ], [r2 ] ∈ R/Y . Dann ist zu zeigen, daß ihre Summe [r1 ] + [r2 ] = [r1 + r2 ] und ihr Produkt [r1 ][r] = [r1 r2 ] unabhängig von den Repräsentanten ihrer Äquivalenzklassen sind. Sind s1 , s2 ∈ R weitere Repräsentanten von [r1 ] bzw. [r2 ], so sind ri − si = yi ∈ Y für i = 1, 2, woraus zunächst [r1 +r2 ]−[s1 +s2 ] = [r1 +r2 −s1 −s2 ] = [(r1 −s1 )+(r2 −s2 )] = [y1 −y2 ] = [0] ∈ R/Y folgt. Deshalb ist die Addition + wohldefiniert und [0] ist das Nullelement der abelschen Gruppe R/Y bezüglich der Verknüpfung +.
246
9 Ringe und Moduln
Auch die Multiplikation · auf R/Y ist wohldefiniert; denn r1 r2 − s1 s2 = (s1 + y1 )(s2 + y2 ) − s1 s2 = s 1 s 2 + y 1 s2 + s 1 y 2 + y 1 y 2 − s 1 s 2 = y1 s2 + s1 y2 + y1 y2 ∈ Y, woraus [r1 ][r2 ] = [r1 r2 ] = [s1 s2 ] = [s1 ][s2 ] folgt. Man überzeugt sich unmittelbar davon, daß R/Y hinsichtlich der so definierten Rechenoperationen (im Sinn der Definition 1.4.1) ein Ring mit [1] als Einselement ist. 9.1.6 Definition. Der Ring R/Y wird der Restklassenring des Ringes R bezüglich des Ideals Y genannt. 9.1.7 Definition. Das Ideal M des Ringes R heißt maximal, wenn M = R gilt und es kein Ideal Y von R gibt mit M ⊂ Y ⊂ R. 9.1.8 Satz. Sei R ein kommutativer Ring mit 1 ∈ R. Dann gelten: (a) Jedes echte Ideal Y von R ist in einem maximalen Ideal enthalten. (b) Ist M ein maximales Ideal von R, so ist der Restklassenring F = R/M ein Körper. Beweis: (a) Da Y ein echtes Ideal von R ist, ist 1 ∈ / Y . Sei Y ⊆ Yα1 ⊆ Yα2 ⊆ · · · eine aufsteigende Kette von Idealen Y von R mit 1 ∈ / Yα , wobei α ∈ A und A α eine Indexmenge ist. Sei W = α∈A Yα . Sind u, v ∈ W , so existiert ein α ∈ A mit u, v ∈ Yα , weil die Ideale Yα eine Kette bilden. Also ist u − v ∈ Yα ⊆ W . Ebenso folgt ur ∈ W für alle u ∈ W and r ∈ R. Daher ist W ein Ideal von R, und 1 ∈ / W . Also besitzt die Menge M aller Ideale Z von R mit Y ⊆ Z und 1 ∈ / Z nach dem Lemma 1.1.9 von Zorn ein maximales Element M. Da jedes echt größere Ideal M > M das Einselement 1 enthält und somit M = R gilt, folgt, daß M ein maximales Ideal von R ist. Es enthält Y . (b) Sei [0] = [r]. Dann ist M + rR ein Ideal von R, das M echt enthält. Da M ein maximales Ideal von R ist, gilt R = M + rR. Also liegt die Eins von R in M +rR, d. h. 1 = m+rs für Elemente m ∈ M und s ∈ R. Daher ist [r][s] = [1] ∈ R/M und somit [s] = [r]−1 . Also ist der Restklassenring R/M ein Körper. 9.1.9 Beispiele. (a) Im Ring Z der ganzen Zahlen ist die Menge Y aller geraden Zahlen ein maximales Ideal. Der Restklassenkörper Z/Y besteht aus den beiden Restklassen [0] und [1]. Er hat also 2 Elemente und wird mit Z/2Z bezeichnet.
9.1 Ideale und Restklassenringe
247
(b) Im Polynomring R = F [X] über dem Körper F in der Unbestimmten X ist Y = {Xf (X)|f (X) ∈ R} ein maximales Ideal mit dem Restklassenkörper R/Y ∼ = F im Sinne der Definition 3.6.5. Denn ist f (X) = f0 + f1 X + · · · + fn X n ∈ R, so ist [f0 ] = [f (X)] in R/Y . Wegen Hilfssatz 9.1.5 ist die Abbildung [f0 ] → f0 ∈ F ein Isomorphismus zwischen den Körpern R/Y und F . 9.1.10 Definition. Ein Element u des kommutativen Ringes R mit Einselement 1 heißt Einheit, wenn es ein v ∈ R mit uv = 1 gibt. 9.1.11 Satz. Die folgenden Eigenschaften eines Elementes u ∈ R sind äquivalent: (a) u ist eine Einheit von R. (b) R ist das von u erzeugte Hauptideal, d. h. uR = R. (c) u ist in keinem maximalen Ideal von R enthalten. Beweis: (c) folgt trivialerweise aus (b). Ist u in keinem maximalen Ideal von R enthalten, dann ist das Hauptideal uR nach Satz 9.1.8 nicht echt. Also ist R = uR, und 1 = uv für ein v ∈ R, womit (a) bewiesen ist. Die Implikation (a) "⇒ (b) ist trivial. 9.1.12 Definition. Eine nicht leere Teilmenge U des Ringes R heißt Unterring, wenn für alle u1 , u2 ∈ U sowohl u1 − u2 ∈ U als auch u1 u2 ∈ U gilt. 9.1.13 Beispiele. (a) Jedes Ideal Y eines Ringes R ist ein Unterring von R. (b) Z ist ein Unterring von Q, aber kein Ideal von Q. (c) Die Menge Y aller geraden Zahlen von Z ist ein Unterring von Q. Insbesondere besitzt dieser Unterring Y kein Einselement. Da ein Unterring U im allgemeinen kein Einselement hat, ist es notwendig, den Begriff Ideal“ eines Unterringes einzuführen. ” 9.1.14 Definition. Sei U ein Unterring des Ringes R. Die nicht leere Teilmenge Y von U ist ein Ideal des Unterrings U , wenn y1 − y2 ∈ Y für alle y1 , y2 ∈ Y , und wenn yu ∈ Y für alle y ∈ Y und alle u ∈ U gilt. 9.1.15 Folgerung. Seien U ein Unterring und Y ein Ideal des Ringes R. Dann gelten: (a) Y1 = U ∩ Y ist ein Ideal von U .
248
9 Ringe und Moduln
(b) U + Y = {r ∈ R | r = u + y für ein u ∈ U und ein y ∈ Y } ist ein Unterring von R. (c) (U + Y )/Y ist ein Unterring des Restklassenringes R/Y . (d) Für jeden Unterring T von R/Y ist T − = {r ∈ R | [r] ∈ T } ein Unterring von R. (e) Für jedes Ideal I von R/Y ist I − = {r ∈ R | [r] ∈ I } ein Ideal von R mit Y ⊆ I − und I − /Y = I . Beweis: (a) Folgt unmittelbar aus Definition 9.1.12 und Definition 9.1.14. (b) Sind r1 = u1 + y1 , r2 = u2 + y2 ∈ U + Y mit ui ∈ U und yi ∈ Y , dann ist r1 − r2 = (u1 − u2 ) − (y1 − y2 ) ∈ U + Y . Da Y ein Ideal von R ist, ist auch r1 · r2 = (u1 + y1 )(u2 + y2 ) = u1 u2 + (y1 u2 + u1 y2 + y1 y2 ) ∈ U + Y . Die einfachen Beweise der übrigen Aussagen (c), (d) und (e) sind dem Leser überlassen.
9.2
Moduln
In diesem Abschnitt ist R stets ein kommutativer Ring mit Eins. Als Verallgemeinerung der Theorie der F -Vektorräume V werden hier einige grundlegende Begriffe und Ergebnisse über R-Moduln M dargestellt. Insbesondere werden alle drei Isomorphiesätze bewiesen. 9.2.1 Definition. Die abelsche Gruppe M mit Addition + heißt ein R-Rechtsmodul, wenn eine Verknüpfung (m, r) → mr von M × R in M existiert derart, daß für alle m, m1 , m2 ∈ M und r, r1 , r2 ∈ R folgende Gleichungen gelten: (a) (b) (c) (d)
m(r1 r2 ) = (mr1 )r2 . (m1 + m2 )r = m1 r + m2 r. m(r1 + r2 ) = mr1 + mr2 . m1 = m.
Analog erklärt man R-Linksmoduln mittels einer Verknüpfung (r, m) → rm. Die Axiome (a) bis (d) stimmen also mit denen der Definition 1.5.1 eines Vektorraums überein. Da Körper spezielle Ringe sind, ist der Modulbegriff eine Verallgemeinerung des Begriffs Vektorraum. 9.2.2 Beispiele. (a) Jeder Vektorraum V über einem Körper F ist ein F -Rechtsmodul.
249
9.2 Moduln
(b) Jede abelsche Gruppe (A, +) ist ein Z-Rechtsmodul; denn für jedes a ∈ A und jede natürliche Zahl n ist a · n in A als die n-fache Summe des Elements a mit sich selbst definiert. Außerdem gilt a · (−n) = (−a) · n für alle a ∈ A und alle natürlichen Zahlen n. Mit diesen Feststellungen ist es trivial, die Axiome von 9.2.1 für den Z-Modul A nachzuweisen. (c) Jedes Ideal Y des Ringes R ist ein R-Rechts- und ein R-Linksmodul. (d) Der Restklassenring R/Y des Ringes R nach dem Ideal Y ist ein RRechtsmodul bezüglich der Verknüpfung: [r] · s = [rs] für alle [r] ∈ R/Y und alle s ∈ R; diese Behauptung folgt einfach aus Hilfssatz 9.1.5. 9.2.3 Bemerkungen. (a) Die Definition 9.2.1 eines R-Rechtsmoduls gilt wörtlich auch für nicht notwendig kommutative Ringe R. Im nicht kommutativen Fall sind die Begriffe R-Rechtsmodul“ und R-Linksmodul“ strikt verschieden. ” ” (b) Ist R jedoch ein kommutativer Ring und M ein R-Rechtsmodul mit Verknüpfung (m, r) → mr, m ∈ M, r ∈ R, so wird M ein R-Linksmodul vermöge der neuen Verknüpfung (r, m) → r ∗ m = mr. Da R kommutativ ist, gilt insbesondere auch die kritische Gleichung (r1 r2 ) ∗ m = r1 ∗ (r2 ∗ m) = r1 ∗ (mr2 ) = (mr2 )r1 = mr2 r1 = m(r1 r2 ) für alle r1 , r2 ∈ R und alle m ∈ M. Es ist deshalb üblich, im kommutativen Fall R-Rechtsmoduln als R-Moduln zu bezeichnen. Diese Vereinbarung wird in allen folgenden Abschnitten und Kapiteln befolgt. 9.2.4 Definition. Sei M ein R-Modul. Die nicht leere Teilmenge U von M ist ein Untermodul von M, wenn die beiden folgenden Bedingungen erfüllt sind: (a) u1 − u2 ∈ U für alle u1 , u2 ∈ U . (b) u · r ∈ U für alle u ∈ U und r ∈ R. Bezeichnung:
U ≤ M; U < M, falls U ≤ M und U = M.
Jeder Untermodul ist ein R-Modul. Sicherlich ist {0} ein Untermodul von M. Es ist jedoch üblich, ihn nur mit 0 zu bezeichnen, obwohl er im Falle der Vektorräume dem Nullraum {o} entspricht. 9.2.5 Hilfssatz. Seien U , V zwei Untermoduln des R-Moduls M. Dann gelten die folgenden Aussagen:
250
9 Ringe und Moduln
(a) U + V = {u + v | u ∈ U , v ∈ V } ist ein Untermodul von M. (b) U ∩ V ist ein Untermodul von M. Beweis: (a) Ist m = u + v für geeignete u ∈ U und v ∈ V , dann ist mr = ur + vr ∈ U + V für alle r ∈ R, weil ur ∈ U und vr ∈ V ist. Ist m = u + v ein weiteres Element von U + V , so ist m − m = (u − u ) + (v − v ) ∈ U + V . Da 0 + 0 = 0 aus U + V ist, ist U + V nicht leer. Also gilt die Behauptung. (b) Ist trivial. 9.2.6 Definition. Seien U1 , U2 , …, Uk Untermoduln des R-Moduls M. Dann heißt der nach Hilfssatz 9.2.5 und vollständiger Induktion existierende Untermodul U1 + U2 + · · · + Uk die Summe der Untermoduln Ui von M. k Ui oder U1 + U2 + · · · + Uk . Bezeichnung: i=1
9.2.7 Definition. Die Summe ki=1 Ui der Untermoduln U1 , U2 , . . . , Uk des RModuls M heißt direkt, wenn für alle j = 1, 2, . . . , k stets gilt Uj ∩
k
Ui = 0.
i=1 i =j
Bezeichnung:
k Ui oder U1 ⊕ U2 ⊕ · · · ⊕ Uk . i=1
Wie bei Vektorräumen lassen sich diese beiden Definitionen auf beliebig viele Untermoduln übertragen. 9.2.8 Definition. Es sei {Uα | α ∈ A} ein System von Untermoduln des R-Moduls M derart, daß die Zuordnung α → Uα injektiv ist. (a) Die α∈A Uα = Summe der Untermoduln Uα von M ist der Untermodul α∈A uα ∈ M | uα ∈ Uα und uα = 0 für fast alle α ∈ A . (b) Die Summe α∈A Uα heißt direkt, wenn Uα = 0 für alle α ∈ A erfüllt ist und für jeden Index β ∈ A gilt: Uβ ∩ Uα = 0. α∈A\{β}
Bezeichnung:
α∈A Uα .
251
9.2 Moduln
9.2.9 Definition. Sind M und N zwei R-Moduln, dann nennt man die Abbildung α : M → N eine R-lineare Abbildung (Modulhomomorphismus), wenn α(m1 + m2 ) = α(m1 ) + α(m2 ), α(mr) = α(m)r für alle m, m1 , m2 ∈ M, r ∈ R gelten. Bezeichnung: HomR (M, N ) ist die Menge aller R-linearen Abbildungen von M nach N . 9.2.10 Definition. Eine Abbildung α : M → N zwischen den R-Moduln M und N heißt (a) Epimorphismus, wenn α R-linear und surjektiv ist. (b) Monomorphismus, wenn α R-linear und injektiv ist. (c) Isomorphismus, wenn α R-linear und bijektiv ist. 9.2.11 Definition. Sei α : M → N eine R-lineare Abbildung zwischen den RModuln M und N. Dann heißt Ker(α) = {m ∈ M | α(m) = 0 ∈ N} der Kern von α. Die Menge Im(α) = {w ∈ N | w = α(m) für ein m ∈ M} heißt das Bild von α. 9.2.12 Satz. Sei α : M → N eine R-lineare Abbildung zwischen den R-Moduln M und N . Dann gelten: (a) Das Urbild α − (Z) = {m ∈ M | α(m) ∈ Z} eines Untermoduls Z von N ist ein Untermodul von M. (b) Ker(α) ist ein Untermodul von M. (c) Ker(α) = 0 genau dann, wenn α injektiv ist. (d) Für jeden Untermodul U von M ist α(U ) ein Untermodul von N. (e) Im(α) ist ein Untermodul von N . (f) Im(α) = N genau dann, wenn α surjektiv ist. Beweis: Hierzu wird auf den Beweis von Satz 3.2.7 verwiesen.
9.2.13 Definition. Sei U ein Untermodul des R-Moduls M. Zwei Elemente u, v ∈ M heißen äquivalent bezüglich U , wenn u − v ∈ U ist. Bezeichnung: u ∼U v. 9.2.14 Hilfssatz. Sei U ein Untermodul des R-Moduls M über dem Ring R. Dann gelten:
252
9 Ringe und Moduln
(a) ∼U ist eine Äquivalenzrelation. (b) Sei M/U die Menge aller Äquivalenzklassen [v] = {m ∈ M | v ∼U m} der Elemente v ∈ M bezüglich ∼U . Dann ist M/U ein R-Modul bezüglich der Operationen + und · , die wie folgt definiert sind: [v1 ] + [v2 ] = [v1 + v2 ] für alle v1 , v2 ∈ M, [v] · r = [vr] für alle v ∈ M und r ∈ R. (c) Die durch ψ(v) = [v] ∈ M/U für alle v ∈ M definierte Abbildung ist ein R-Modulepimorphismus von M auf M/U mit Ker ψ = U . (d) Ist Y ein Ideal des Ringes R, dann ist U = MY ein Untermodul von M und M/U ist ein R/Y -Modul bezüglich der Verknüpfung [v][r] = [vr] = [v]r für alle [r] ∈ R/Y und [v] ∈ M/U . Beweis: (a) Ist trivial. (b) Zunächst ist zu zeigen, daß die Operationen + und · wohldefiniert sind, d. h. unabhängig von der jeweiligen Auswahl der Vertreter vi der Äquivalenzklassen [vi ]. Seien also v1 und v1 bzw. v2 , v2 jeweils zwei Repräsentanten der Äquivalenzklassen [v1 ] und [v2 ]. Dann ist v1 − v1 = u1 ∈ U und v2 − v2 = u2 ∈ U nach Definition von ∼U . Also ist (v1 + v2 ) − (v1 + v2 ) = u1 − u2 ∈ U , weil U ein Untermodul des R-Moduls M ist. Hieraus folgt, [v1 + v2 ] = [v1 + v2 ]. Also ist die Addition + wohldefiniert. Sei nun a ∈ R. Sind v und v zwei Repräsentanten der Restklasse [v], dann ist v − v = u ∈ U . Also ist v · a − v · a = (v − v ) · a = u · a ∈ U und somit [va] = [v a]. Daher ist auch die Multiplikation · mit Elementen a ∈ R auf M/U wohldefiniert. Da 0 ∈ U , ist [0] das Nullelement in M/U . Die übrigen Axiome eines R-Moduls folgen nun für M/U sofort aus der Tatsache, daß sie nach Definition 9.2.1 für alle Elemente von M gelten. (c) Wegen (b) ist die Abbildung ψ : v → [v] ∈ M/U für alle v ∈ M ein RModulepimorphismus. Weiter ist ψ(v) = 0 genau dann, wenn [v] = [0] ∈ M/U , d. h. v ∈ U ist. Also ist Ker(ψ) = U . (d) Da R ein kommutativer Ring ist, ist My für jedes y ∈ Y ein Untermodul des R-Moduls M; denn m1 y − m2 y = (m1 − m2 )y ∈ My für m1 y, m2 y ∈ My und (my)r = m(ry) = (mr)y ∈ My für m ∈ M und r ∈ R. Nach Definition 9.2.8 ist daher MY = y∈Y My ein Untermodul von M. Nach (b) gilt [m]y = [my] = 0 ∈ M/MY für alle y ∈ Y und [m] ∈ M/MY . Sei [r] ∈ R/Y . Dann wird M/MY ein R/Y -Modul vermöge der nun wohldefinierten Verknüpfung [m] · [r] = [mr] = [m]r.
253
9.2 Moduln
9.2.15 Definitionen. Sei U ein Untermodul des R-Moduls M. Der R-Modul M/U aus Hilfssatz 9.2.14 (b) heißt Faktormodul von M nach U . Bezeichnung: M/U . Der in Hilfssatz 9.2.14 (c) erklärte R-Modulepimorphismus ψ : M → M/U , ψ(m) = [m] ∈ M/U für alle m ∈ M, heißt kanonischer Epimorphismus von M auf M/U . 9.2.16 Satz (1. Isomorphiesatz). Ist α : M → W ein Epimorphismus zwischen den R-Moduln M und W , dann ist M/ Ker(α) ∼ = W. Beweis: Nach Satz 9.2.12 ist Ker(α) ein Untermodul von M. Sei ψ : M → M/ Ker(α) der in Hilfssatz 9.2.14 beschriebene kanonische Epimorphismus ψ(v) = [v] ∈ M/ Ker(α) für alle v ∈ M. Dann ist Ker(ψ) = Ker(α). Die Abbildung ϕ : M/ Ker(α) → W , die jeder Restklasse [v] ∈ M/ Ker(α) das Bild α(v) ∈ W des Elements v ∈ M zuordnet, ist daher eine wohldefinierte R-lineare Abbildung. Da α surjektiv ist, ist auch ϕ ein Epimorphismus. Wegen Ker(ψ) = Ker(α) ist ϕ injektiv. Also ist ϕ : M/ Ker(α) → W ein Isomorphismus. 9.2.17 Satz (2. Isomorphiesatz). Seien U und W Untermoduln des R-Moduls M. Dann gilt (U + W )/W ∼ = U/(U ∩ W ). Beweis: Nach Hilfssatz 9.2.5 ist U + W ein R-Modul. Sicherlich ist W ein Untermodul von U + W . Sei α : (U + W ) → (U + W )/W der zu W gehörige kanonische Epimorphismus. Dann ist Ker(α) = W nach Hilfssatz 9.2.14. Wegen Hilfssatz 9.2.5 ist U ∩ W ein Untermodul von U . Sei β : U → U/(U ∩ W ) der zugehörige kanonische Epimorphismus mit Ker(β) = U ∩ W . Für ein Element v = u + w ∈ U + W mit u ∈ U und w ∈ W gilt α(v) = [v] = [u+w] = [u]+[w] = [0] ∈ (U +W )/W genau dann, wenn [u] = [0] ∈ (U +W )/W ist, d. h. wenn u ∈ U ∩ W . Also ist die durch γ (α(u + w)) = β(u) für alle u ∈ U und w ∈ W definierte Abbildung γ : (U + W )/W → U/(U ∩ W ) wohldefiniert und injektiv. Da α und β surjektive R-lineare Abbildungen sind, ist γ ein Isomorphismus. 9.2.18 Satz (3. Isomorphiesatz). Seien U und W Untermoduln des R-Moduls M derart, daß W ≤ U . Dann gilt M/U ∼ = (M/W )/(U/W ). Beweis: Seien α : M → M/U und β : M → M/W die zu den Untermoduln U und W gehörigen kanonischen Epimorphismen von M. Wegen W ≤ U ist dann β(U ) =
254
9 Ringe und Moduln
U/W ein Untermodul von β(M) = M/W . Sei γ der kanonische Epimorphismus von β(M) auf β(M)/β(U ). Die Abbildung δ : β(M)/β(U ) → α(M) = M/U sei definiert durch δ (γ (β(v))) = α(v) für alle v ∈ M. Zunächst wird gezeigt, daß δ wohldefiniert ist: Aus γβ(v) = 0 ∈ β(M)/β(U ) folgt β(v) ∈ β(U ), weil Ker(γ ) = β(U ) ist. Daher ist β(v) = β(u) für ein u ∈ U , weil β : M → M/W und seine Einschränkung auf U wegen W ≤ U surjektive Abbildungen sind. Also ist v − u ∈ Ker(β) = W, woraus v − u = w für ein w ∈ W ≤ U und somit v = u + w ∈ U folgt. Da U = Ker(α) ist, ergibt sich hieraus schließlich die Gleichung δ (γ (β(v))) = α(v) = 0. Die Abbildung δ ist auch linear und surjektiv, weil die Abbildungen α, β und γ diese beiden Eigenschaften haben. Ist schließlich δ (γ (β(v))) = α(v) = 0 ∈ M/U, dann ist v ∈ Ker(α) = U , woraus β(v) ∈ β(U ) = Ker(γ ) und somit γβ(v) = 0 ∈ β(M)/β(U ) folgt. Daher ist δ : β(M)/β(U ) = (M/W )/(U/W ) → M/U ein Isomorphismus. 9.2.19 Folgerung. Seien M und Y zwei R-Moduln. Sei U ein Untermodul von M und ψ : M → M/U der kanonische Epimorphismus mit Kern U . Dann gibt es zu jeder R-linearen Abbildung α : M → Y mit U ≤ Ker α genau eine R-lineare Abbildung τU mit α = τU ψ. Weiter gilt: (a) τU ist genau dann injektiv, wenn Ker(α) = Ker(ψ) = U . (b) τU ist genau dann surjektiv, wenn α surjektiv ist. Beweis: Für jedes m ∈ M sei [m] die Restklasse von m in M/U . Die Abbildung τU : M/U → Y sei definiert durch τU [m] = α(m) für alle m ∈ M. Wegen U ⊆ Ker(α) ist τU wohldefiniert. Offensichtlich ist τU auch R-linear. Sei σ : M/U → Y eine weitere R-lineare Abbildung mit α = σ ψ. Dann gilt: σ [m] = σ ψ(m) = α(m) = τU ψ(m) = τU [m] für alle [m] ∈ M/U . Also ist σ = τU . Wegen U ≤ Ker α ist Ker(α)/U ein Untermodul von M/U . Aus τU ψ = α ergibt sich nun Ker(τU ) = Ker(α)/U . Also ist τU genau dann injektiv, wenn Ker α = U . Nach Konstruktion ist τU genau dann surjektiv, wenn α surjektiv ist.
255
9.3 Kommutative Diagramme und exakte Folgen
9.2.20 Bemerkung. Im Spezialfall eines Vektorraums V über einem Körper F ist der Faktormodul V /U nach einem Unterraum U von V ein F -Vektorraum. Er heißt der Faktorraum von V nach U . 9.2.21 Satz. Sei V ein endlich-dimensionaler F -Vektorraum mit dim V = n. Der Faktorraum V /U von V nach dem Unterraum U hat die Dimension dim(V /U ) = dim V − dim U. Beweis: Sei ψ : V → V /U der kanonische Epimorphismus. Nach dem 1. Isomorphiesatz 9.2.16 und Hilfssatz 9.2.14 gilt dann dim(V /U ) = dim Im(ψ) und Ker(ψ) = U . Wegen Satz 3.2.13 folgt daher dim(V /U ) = dim Im(ψ) = dim V − dim Ker(ψ) = dim V − dim U.
9.3
Kommutative Diagramme und exakte Folgen
In diesem Abschnitt werden allgemeine Eigenschaften von Produkten R-linearer Abbildungen zwischen R-Moduln über einem kommutativen Ring R mit Einselement betrachtet. Zur Veranschaulichung der Hintereinanderausführung R-linearer Abbildungen bedient man sich häufig der Diagramm- bzw. der Folgenschreibweise. 9.3.1 Definition. Ein Diagramm von vier R-Moduln T , U , V und W und R-linearen Abbildungen α, β, γ und δ der Form T
α
/U
δ
/W
γ
V
β
heißt kommutativ, wenn βα = δγ , d. h. βα(t) = δγ (t) für alle t ∈ T gilt. Analog heißt das Diagramm der Form ~~ ~~ ~ ~ ~ α
V
UA AA γ AA AA /W β
kommutativ, wenn γ (u) = βα(u) für alle u ∈ U gilt. Ein zusammengesetztes Diagramm heißt kommutativ, wenn jedes Teildreieck oder Teilrechteck kommutativ ist.
256
9 Ringe und Moduln
9.3.2 Definition. Eine (endliche, einseitig oder beidseitig unendliche) Folge ···
αn−2
/ Vn−1
αn−1
/ Vn
αn
/ Vn+1
αn+1
/ ···
von R-Moduln Vm und R-linearen Abbildungen αm heißt an der Stelle n exakt, wenn Im(αn−1 ) = Ker(αn ) gilt. Die Folge ist exakt, wenn sie an jeder Stelle n exakt ist. Eine exakte Folge der Form / V1
0
α1
/ V2
α2
/ V3
/0
wird eine kurze exakte Folge genannt. 9.3.3 Bemerkungen. α1 α2 (a) Sei 0 −→ V1 −→ V2 −→ V3 −→ 0 eine kurze exakte Folge. Wegen Im(α2 ) = V3 als Kern der Nullabbildung ist dann α2 ein Epimorphismus. Da Ker(α1 ) = 0, ist α1 injektiv. Deshalb folgt Ker α2 = Im(α1 ) ∼ = V1 . Weiter gilt dann nach dem ersten Isomorphiesatz 9.2.16, daß V3 = Im(α2 ) ∼ = V2 / Ker α2 = V2 / Im(α1 ) ist. (b) Ist umgekehrt α : V → W ein Epimorphismus des R-Moduls V auf den R-Modul W mit Ker(α) = U , so ist / Ker(α)
0
/V
ι
α
/W
/0
eine kurze exakte Folge, wobei ι : Ker(α) → V die natürliche Einbettung des Unterraumes Ker(α) von V ist, die jedem Element u ∈ Ker(α) das Element ι(u) = u ∈ Ker(α) ≤ V zuordnet. 9.3.4 Satz. In dem Diagramm (ohne ω) U
α
β
τ
σ
U
/V
α
/W ω
/ V
β
/ W
seien die Zeilen exakte Folgen, und es gelte τ α = α σ.
/0
257
9.4 Endlich erzeugte und freie Moduln
Dann gibt es genau eine R-lineare Abbildung ω, die das Diagrammkommutativ ergänzt, d. h. ωβ = β τ. Beweis: Wegen τ αU = α σ U ⊆ α U = Ker(β ) ist β τ αU = 0. Deshalb ist Ker(β) = αU ⊆ Ker(β τ ). Da β ein Epimorphismus ist, existiert zu jedem w ∈ W ein v ∈ V mit w = β(v). Die Abbildung ω : W → W sei definiert durch ω(w) = β τ (v). Sie ist wohldefiniert; denn ist w = β(v1 ) = β(v2 ) für zwei Elemente v1 und v2 aus V , dann ist v1 − v2 ∈ Ker(β) ⊆ Ker(β τ ), woraus ω(w) = β τ (v1 ) = β τ (v2 ) folgt. Da β τ eine R-lineare Abbildung von V in W ist, ist ω ebenfalls eine R-lineare Abbildung von W nach W . Nach Definition von ω gilt ωβ(v) = β τ (v) für alle v ∈ V . Da β surjektiv ist, ist ω die einzige R-lineare Abbildung von W nach W , die das Diagramm kommutativ ergänzt.
9.4
Endlich erzeugte und freie Moduln
In diesem Abschnitt werden einige grundlegende Ergebnisse über endlich erzeugte bzw. freie R-Moduln dargestellt. Dabei ist R wieder stets ein kommutativer Ring mit Einselement 1. Außerdem wird ein Konstruktionsverfahren für freie R-Moduln angegeben, die nicht endlich erzeugt sind. 9.4.1 Definitionen. Sei T = {m1 , m2 , …, mk } eine endliche Teilmenge des RModuls M. Ein Element m ∈ M ist eine R-Linearkombination der Elemente von T , wenn gilt: k m= m i ri i=1
für geeignete ri ∈ R. Der R-Modul M ist endlich erzeugt, wenn eine endliche Teilmenge T von M existiert derart, daß jedes m ∈ M eine R-Linearkombination der Elemente von T ist. Es wird dann T ein Erzeugendensystem von M genannt. Der R-Modul M heißt zyklisch, wenn ein m ∈ M existiert derart, daß M = mR. 9.4.2 Definition. Die endliche Teilmenge {m1 , m2 , . . . , mn } des R-Moduls M heißt linear unabhängig über R, wenn aus ni=1 mi ri = 0 und ri ∈ R stets ri = 0 für i = 1, 2, . . . , n folgt. Andernfalls wird sie linear abhängig genannt.
258
9 Ringe und Moduln
9.4.3 Definition. Der endlich erzeugte R-Modul M ist ein freier R-Modul, wenn M ein Erzeugendensystem B = {mi ∈ M | i = 1, 2, . . . , k} besitzt, das linear unabhängig ist. Solch ein Erzeugendensystem B heißt Basis des freien R-Moduls M. 9.4.4 Beispiele. (a) Für jeden Ring R und jede positive natürliche Zahl n ist R n = {(r1 , r2 , . . . , rn ) | ri ∈ R} bezüglich der komponentenweisen Addition und der Multiplikation (r1 , r2 , . . . , rn ) · r = (r1 r, r2 r, . . . , rn r) für alle ri , r ∈ R ein freier R-Modul mit der kanonischen Basis B = {e1 , e2 , . . . , en }. (b) Sei Y die Menge aller geraden Zahlen. Dann ist Y ein Ideal von Z, und M = Z/Y ist nach 9.2.2 (d) ein zyklischer Z-Modul mit erzeugendem Element [1]. M ist kein freier Z-Modul, weil [1] · 2 = [2] = [0] und 2 = 0 in Z, [1] also nicht linear unabhängig ist. 9.4.5 Hilfssatz. Es gelten die folgenden Behauptungen: (a) R-lineare Bilder von endlich erzeugten R-Moduln sind endlich erzeugt. (b) Sei N ein Untermodul des R-Moduls E und M = E/N . Sind die s Elemente mi ∈ E und die t Elemente nj ∈ N so gewählt, daß M = si=1 [mi ]R mit [mi ] = mi + N ∈ E/N und N = jt =1 nj R gilt, dann wird E von den s + t Elementen m1 , m2 , . . . , ms , n1 , n2 , . . . , nt erzeugt. (c) Ist
nB = {m1 , m2 , …, mn } eine Basis des freien R-Moduls M, so ist M = i=1 mi R. Beweis: (a) Ist ϕ ein Epimorphismus von M auf N , und ist M = ki=1 mi R für eine natürliche Zahl k, so ist N = ϕ(M) = ki=1 ϕ(mi )R. (b) Sicherlich ist U = si=1 mi R+ jt =1 nj R nach Hilfssatz 9.2.5 (a) ein endlich erzeugter Untermodul des R-Moduls E. Sei ϕ : E → M = E/N der kanonische Epimorphismus aus Hilfssatz 9.2.14 von E mit Ker(ϕ) = N . Sei e ein beliebiges Element von E. Ist e ∈ N , dann existieren rj ∈ R mit e = jt =1 nj rj ∈ U . Daher kann angenommen werden, daß e ∈ N ist. Wegen 0 = ϕ(e) ∈ M = E/N = si=1 [mi ]R existieren dann Elemente ri ∈ R, 1 ≤ i ≤ s derart, daß s s ϕ(e) = [mi ]ri = ϕ(mi )ri . i=1
i=1
s Somit ist 0 = ϕ(e) − i=1 ϕ(mi )ri = ϕ e − i=1 mi ri , d. h. es ist s m r ∈ Ker(ϕ) = N . Daher existieren Elemente zj ∈ R derart, u = e− t i=1 i i daß u = j =1 nj zj , woraus e = si=1 mi ri + jt =1 nj zj ∈ U und so E = U folgt. (c) Die Behauptung ergibt sich mit dem Beweisargument von Satz 2.3.9 unmittelbar aus den Definitionen 9.4.3 und 9.2.7. s
9.4 Endlich erzeugte und freie Moduln
259
9.4.6 Satz. Je zwei Basen eines endlich erzeugten freien R-Moduls M haben gleich viele Elemente. Beweis: Sei B = {b1 , b2 , …, bn } eine Basis von M. Da das Nullideal 0 von R ein echtes Ideal ist, besitzt der Ring R nach Satz 9.1.8 mindestens maximales
ein n Ideal P , und F = R/P ist ein Körper. Wegen 1 ∈ R gilt MP = i=1 bi R P ≤ n n
n i=1 bi RP = i=1 bi P ≤ MP , woraus MP = i=1 bi P folgt. Insbesondere ist MP ein Untermodul von M. Restklasse von bi in M/MP für i = 1, 2, …, n. Dann ist M/MP = n Sei [bi ] die n i=1 [bi ]R = i=1 [bi ]F nach Hilfssatz 9.2.14. Also ist M/MP ein F -Vektorraum mit dim (M/MP ) = n, falls {[bi ] | 1 ≤ i ≤ n} linear unabhängig über F ist. Sei F n [b ][r ] = [0] in M/MP i i i=1 n für [ri ] ∈ F = R/P . Nach Hilfssatz n9.2.14 ist n b r ∈ MP = b P . Daher existieren p ∈ P mit dann i i i i i=1 i=1 bi ri = n n i=1 b p , woraus folgt: b (r − p ) = 0. i i=1 i i i=1 i i Da {bi | 1 ≤ i ≤ n} eine Basis von M ist, folgt ri = pi ∈ P für i = 1, 2, …, n. Also sind alle [ri ] = [0], und dimF (M/MP ) = n. Ist nun C = {c1 , c2 , …, cm } eine weitere Basis des freien R-Moduls M, so folgt hieraus, daß dimF (M/MP ) = m. Also ist m = n nach Satz 2.2.11. 9.4.7 Definition. Sei M ein endlich erzeugter freier R-Modul mit Basis B. Die nach Satz 9.4.6 durch M eindeutig bestimmte Anzahl der Elemente von B heißt der Rang von M. Bezeichnung: rg(M) Der folgende Satz wird bei der Entwicklung der Modultheorie von Hauptidealringen in Kapitel 11 benötigt. Er ist eine teilweise Verallgemeinerung des Komplementierungssatzes 2.3.18. β
α
9.4.8 Satz. Ist 0 −→ T −→ P −→ M −→ 0 eine kurze exakte Folge von endlich erzeugten R-Moduln, und ist M frei, so existiert ein Untermodul U von P mit P = U ⊕ β(T ) und U ∼ = M. Beweis: Sei {mi ∈ M | 1 ≤ i ≤ k} eine Basis des freien R-Moduls M. Da α ist, hat jedes mi ∈ M ein Urbild fi in P für i = 1, 2, . . . , k. Sei U = surjektiv k f R. Dann ist U nach Hilfssatz 9.2.5 ein Untermodul von P . Sei V = Ker α = i=1 i β(T ). Ist v ∈ V ∩ U , dann ist v = f1 r1 + f2 r2 + · · · + fk rk für geeignete ri ∈ R, und es gilt: 0 = α(v) = α(f1 )r1 + α(f2 )r2 + · · · + α(fk )rk = m1 r1 + m2 r2 + · · · + mk rk . Da {mi ∈ M | 1 ≤ i ≤ k} eine Basis des freien R-Moduls M ist, gilt ri = 0 für i = 1, 2, . . . , k. Also ist v = 0, d. h. U ∩ V = 0.
260
9 Ringe und Moduln
Aus M = α(P ) ∼ = P / Ker(α) = P /V und α(U ) = M folgt P = U + V nach Satz 9.2.12. Also ist P = U ⊕ V = U ⊕ β(T ). Nach dem zweiten Isomorphiesatz 9.2.17 und Hilfssatz 9.2.14 gilt: (U + V )/V ∼ = U/U ∩ V = U/0 = U. Nach dem ersten Isomorphiesatz 9.2.16 folgt daher M = α(P ) ∼ = P / Ker(α) = (U ⊕ V )/V ∼ = U.
Für spätere Anwendungen ist es erforderlich, auch freie R-Moduln zu betrachten, die nicht endlich erzeugt sind. Deshalb werden nun die Definitionen 9.4.1, 9.4.2 und 9.4.3 verallgemeinert. 9.4.9 Definition. Die Teilmenge T des R-Moduls M ist ein Erzeugendensystem von M, wenn jedes Element m ∈ M eine R-Linearkombination einer endlichen Teilmenge von T ist. 9.4.10 Definition. Eine Teilmenge T des R-Moduls M heißt linear unabhängig über R, wenn jede endliche Teilmenge von T linear unabhängig ist. Anderenfalls heißt T linear abhängig. 9.4.11 Definition. Der R-Modul M heißt frei, wenn M ein Erzeugendensystem B besitzt, das linear unabhängig ist. Ein linear unabhängiges Erzeugendensystem B heißt Basis des freien R-Moduls M. 9.4.12 Definition. Sei M eine nicht leere Menge und R ein kommutativer Ring. Dann ist die Abbildung f : M → R fast überall Null, falls es nur endlich viele Elemente mi ∈ M gibt mit f (mi ) = 0. Diese Bedingung ist gleichwertig damit, daß f (m) = 0 für fast alle m ∈ M ist. 9.4.13 Hilfssatz. Sei M eine nicht leere Menge und R ein kommutativer Ring. Die Menge R M aller Abbildungen f :M→R mit f (m) = 0 für fast alle m ∈ M ist ein R-Modul bezüglich der Addition + und Multiplikation · , die folgendermaßen definiert sind: (f1 + f2 )(m) = f1 (m) + f2 (m) für alle m ∈ M und alle f1 , f2 ∈ R M , (f r)(m) = f (m) · r für alle m ∈ M, r ∈ R und alle f ∈ R M . Für jedes m ∈ M sei fm ∈ R M definiert durch 1 falls n = m, fm (n) = 0 falls n = m für n ∈ M. Dann ist R M ein freier R-Modul mit Basis B = {fm | m ∈ M}.
261
9.4 Endlich erzeugte und freie Moduln
Beweis: Seien f1 , f2 ∈ R M . Dann ist auch (f1 + f2 )(m) = f1 (m) + f2 (m) = 0 für fast alle m ∈ R M . Also ist f1 + f2 ∈ R M . Sei f ∈ R M und r ∈ R. Dann ist (f r)(m) = f (m)r = 0 für fast alle m ∈ M. Daher ist f r ∈ R M . Sei r ∈ R. Dann ist [(f1 + f2 )r](m) = (f1 + f2 )(m) · r = [f1 (m) + f2 (m)]r = f1 (m)r + f2 (m)r = (f1 r + f2 r)(m) für alle m ∈ M. Also ist (f1 + f2 )r = f1 r + f2 r. Seien r1 , r2 ∈ R. Dann ist [f (r1 r2 )](m) = f (m)(r1 r2 ) = (f (m)r1 )r2 = [(f r1 )(m)]r2 = [(f r1 )r2 ](m) für alle m ∈ M. Also ist f (r1 r2 ) = (f r1 )r2 . Ebenso zeigt man f (r1 + r2 ) = f r1 + f r2 . Wegen (f · 1)(m) = f (m) · 1 = f (m) für alle m ∈ M gilt auch f · 1 = f für alle f ∈ R M . Also ist R M ein R-Modul im Sinne der Definition 9.2.1. Sei {fmi | 1 ≤ i ≤ k} eine endliche Teilmenge von B so, daß ki=1 fmi ri = 0 für k Elemente ri ∈ R gilt. Wertet man g = ki=1 fmi ri an den Stellen mj aus, so folgt 0 = g(mj ) =
k
(fmi ri )(mj ) =
i=1
k
fmi (mj )ri = fmj (mj )rj = rj
i=1
für alle j = 1, 2, . . . , k. Das beweist die lineare Unabhängigkeit von B. Zu jedem f ∈ R M existieren nur endlich viele ms ∈ M, 1 ≤ s ≤ t mit 0 = f (ms ) = rs ∈ R, weil f fast überall Null ist. Daher gilt f = ts=1 fms rs , wie man durch Auswertung an allen Stellen m ∈ M nachrechnet. Also ist B ein linear unabhängiges Erzeugendensystem des R-Moduls R M . Daher ist R M ein freier R-Modul. 9.4.14 Satz. Sei M = 0 ein freier R-Modul mit Basis B. Sei N ein beliebiger RModul. Ordnet man jedem b ∈ B ein b aus N zu, dann gibt es genau eine R-lineare Abbildung α : M → N mit α(b) = b für alle b ∈ B. Beweis: Jedes Element v ∈ M besitzt eine Darstellung v = b∈B brb , wobei die Ringelemente rb ∈ R eindeutig durch v bestimmt sind, und rb = 0 für fast alle b ∈ B gilt. Die R-lineare Abbildung α sei definiert durch α(v) =
b∈B
b rb .
262
9 Ringe und Moduln
Dann ist α wegen der eindeutigen Basisdarstellung v = b∈B brb aller v ∈ M wohldefiniert. Ist auch w = b∈B bgb ∈ M mit gb ∈ R, so ist b[fb + gb ] α(v + w) = α =
b∈B
b [fb + gb ]
b
=
b fb +
b
b gb
b
= α(v) + α(w).
Ebenso b∈B b[fb f ] = b∈B b [fb f ] = b∈B b fb )f = folgt α(v · f ) = α α(v · f für alle v ∈ V und f ∈ R. Also ist α eine R-lineare Abbildung von M in N . Ist nun β eine weitere R-lineare Abbildung von M in N mit β(b) = b für alle b aus B, so folgt β(v) = β bfb = β(b)fb = b fb = α(v) für alle v ∈ M. b∈B
b∈B
b∈B
Also ist β = α.
Mit den Bezeichnungen von Hilfssatz 9.4.13 gilt nun der folgende Satz. 9.4.15 Satz. Sei T ein Erzeugendensystem des R-Moduls M. Dann ist R T ein freier R-Modul mit Basis B = {ft | t ∈ T } derart, daß die durch α(ft ) = t erklärte Rlineare Abbildung α : R T → M ein Epimorphismus ist. Ist T eine endliche Menge, so ist R T ein endlich erzeugter, freier R-Modul. Insbesondere ist jeder R-Modul M ein epimorphes Bild eines freien R-Moduls P . Beweis: Nach Hilfssatz 9.4.13 ist R T ein freier R-Modul mit Basis B = {ft | t ∈ T }. Ist T endlich, so auch B. Wegen Satz 9.4.14 ist die R-lineare Abbildung α eindeutig bestimmt. Da T ein Erzeugendensystem von M ist, ist α ein Epimorphismus. Ist M ein R-Modul, dann ist die Menge T = M sicherlich auch ein Erzeugen densystem von M. Also ist M ein epimorphes Bild des freien R-Moduls R M .
9.5
Matrizen und lineare Abbildungen freier Moduln
In diesem Abschnitt werden die Beziehungen zwischen den R-linearen Abbildungen α : M → W zwischen zwei endlich erzeugten freien R-Moduln M und W und den m × n-Matrizen A = (aij ) mit Koeffizienten aij aus dem kommutativen Ring R behandelt.
9.5 Matrizen und lineare Abbildungen freier Moduln
263
Man überzeugt sich leicht, daß alle Rechenregeln von Abschnitt 3.1 auch für die m × n-Matrizen über R gelten. Daher ist die Menge Matn (R) aller n × n-Matrizen A = (aij ) mit Koeffizienten aij aus dem kommutativen Ring R ein assoziativer Ring mit Einselement En , der n × n-Einheitsmatrix. 9.5.1 Definition. Eine n×n-Matrix A über R heißt invertierbar, wenn es in Matn (R) eine Matrix B gibt mit A · B = B · A = En . Die Matrix B = A−1 ist durch A eindeutig bestimmt und heißt Inverse von A. Die Menge GL(n, R) aller invertierbaren n × n-Matrizen aus Matn (R) ist eine Gruppe. Sie heißt die generelle lineare Gruppe vom Rang n über dem kommutativen Ring R. 9.5.2 Bemerkungen. (a) In der Literatur werden die invertierbaren Matrizen im Sinne der Definition 9.5.1 auch unimodular genannt. Bezüglich der Äquivalenz dieser beiden Begriffe wird auf die Übungsaufgabe 10.9 verwiesen. (b) Die Gruppeneigenschaften von GL(n, R) weist man mit den analogen Argumenten des Beweises von Satz 3.1.31 nach. 9.5.3 Bemerkung. Die folgenden drei Aussagen beweist man wie die analogen Aussagen von Folgerung 4.1.15. Dabei werden die Bezeichnungen der Elementarmatrizen übernommen. (a) Die Elementarmatrizen ZVi,j , die zur Vertauschung der i-ten und j -ten Zeile einer n × n-Matrix A ∈ Mat n (R) gehören, sind invertierbar. (b) Die Elementarmatrizen ZMi,a , die zur Multiplikation der i-ten Zeile einer n×n-Matrix A ∈ Matn (R) mit einer Einheit a ∈ R gehören, sind invertierbar. (c) Die Elementarmatrizen ZAi,j,a , die zur Addition des a-fachen der i-ten Zeile zur j -ten Zeile einer n × n-Matrix A ∈ Mat n (R) gehören, sind invertierbar. Sind M und W zwei freie R-Moduln endlichen Ranges, so ordnet man jedem α ∈ HomR (M, W ) wie bei den Vektorräumen eine Matrix zu. 9.5.4 Definition. Seien M und W endlich erzeugte freie R-Moduln über dem Ring R mit den Basen A = {u1 , . . . , ur } und B = {v1 , . . . , vs }. Sei α : M → W eine R-lineare Abbildung. Für jedes uj ∈ A ist α(uj ) ∈ W , also hat α(uj ) eine nach Hilfssatz 9.4.5 (c) eindeutige Darstellung als Linearkombination α(uj ) =
s i=1
vi · aij ,
wobei aij ∈ R für alle 1 ≤ i ≤ s, 1 ≤ j ≤ r.
264
9 Ringe und Moduln
Die s × r-Matrix A = (aij ) heißt die Matrix von α bezüglich der Basen A und B. Man schreibt A = Aα = Aα (A, B). 9.5.5 Definition. Seien A = {u1 , . . . , ur } und A = {u1 , . . . , ur } zwei Basen des freien R-Moduls M. Für jedes j = 1, . . . , r schreibt man uj als Linearkombination von u1 , . . . , ur mit geeignetem pij ∈ R: uj
=
r
ui · pij .
i=1
Die r × r-Matrix P = (pij ) heißt die Matrix des Basiswechsels von A nach A . 9.5.6 Hilfssatz. Die Matrix P des Basiswechsels von A nach A ist invertierbar. Ihre Inverse ist die Matrix des Basiswechsels von A nach A. Beweis: Der Beweis verläuft genauso wie der von Hilfssatz 3.3.8.
9.5.7 Satz. Sei α eine R-lineare Abbildung des freien R-Moduls M in den freien R-Modul W mit den endlichen Basen A, A von M und B, B von W . Sei P die Matrix des Basiswechsels von A nach A und Q die Matrix des Basiswechsels von B nach B . Dann ist Aα (A , B ) = Q−1 · Aα (A, B) · P . Beweis: Der Beweis verläuft genauso wie der von Satz 3.3.9.
9.5.8 Definition. Zwei m × n-Matrizen A und B mit Koeffizienten aus dem kommutativen Ring R mit 1 ∈ R heißen äquivalent, wenn eine invertierbare Matrix Q ∈ GL(m, R) und eine invertierbare Matrix P ∈ GL(n, R) existieren derart, daß QAP = B.
9.6
Direkte Produkte und lineare Abbildungen
In diesem Abschnitt ist R stets ein kommutativer Ring mit Einselement. Zu jedem System {Mα | α ∈ A} von R-Moduln Mα mit Indexmenge A wird ein R-Modul P = α∈A Mα konstruiert, den man das direkte Produkt der R-Moduln Mα nennt. Ein wichtiger Untermodul des direkten Produkts P ist die externe direkte Summe
S = α∈A Mα der Mα . Mit Hilfe der Projektionen πα : P → Mα und Injektionen βα : Mα → S wird gezeigt, daß jede externe direkte Summe eine direkte Summe der Untermoduln βα Mα von P im Sinne der Definition 9.2.8 ist. Schließlich
265
9.6 Direkte Produkte und lineare Abbildungen
werden wesentliche Zusammenhänge zwischen der Bildung direkter Produkte oder direkter Summen und Eigenschaften R-linearer Abbildungen zwischen R-Moduln beschrieben. Zur Konstruktion des direkten Produkts eines Systems {Mα | α ∈ A} von RModuln Mα wird der folgende Hilfssatz benötigt. 9.6.1 Hilfssatz. Es sei {Mα | α ∈ A} ein System vonR-Moduln Mα = 0. Sei P = α∈A Mα die Menge aller Abbildungen σ : A → α∈A Mα der Indexmenge A in die Vereinigungsmenge α∈A Mα der R-Moduln Mα derart, daß σ (α) ∈ Mα für jeden Index α ∈ A ist. Dann ist P ein R-Modul bezüglich der linearen Operationen + und · , die wie folgt definiert sind: (a) Für alle σ, τ ∈ P sei die Summe σ + τ erklärt durch (σ + τ )(α) = σ (α) + τ (α) ∈ Mα für alle α ∈ A. (b) Für alle σ ∈ P und f ∈ R sei σ · f die Abbildung erklärt durch (σ · f )(α) = σ (α) · f ∈ Mα für alle α ∈ A. Beweis: Das Nullelement von P ist die Abbildung 0, die jeden Index α ∈ A auf das Nullelement 0 ∈ Mα abbildet, d. h. 0(α) = 0 ∈ Mα
für alle α ∈ A.
Da jedes Mα ein R-Modul ist und zwei Abbildungen σ, τ ∈ P genau dann gleich sind, wenn σ (α) = τ (α) für alle α ∈ A gilt, ergibt sich aus (a) sofort, daß P bezüglich + eine abelsche Gruppe mit Nullelement 0 ist. Wegen (b) gilt sicherlich σ ·1 = σ für alle σ ∈ P . Nach Definition 9.2.1 genügt es daher, das Assoziativgesetz und die beiden Distributivgesetze nachzuweisen. Seien f, g ∈ R und σ ∈ P . Dann gilt [σ · (f g)] (α) = σ (α) · (f g) = (σ (α) · f ) · g = [(σ · f )(α)] g = [(σ · f ) · g] (α) für alle α ∈ A, d. h. σ · (f g) = (σ · f ) · g. Da jedes Mα ein R-Modul ist, ergeben sich aus (a) und (b) auch die folgenden Gleichungen: [σ · (f + g)] (α) = = = =
σ (α) · (f + g) σ (α) · f + σ (α) · g (σ · f )(α) + (σ · g)(α) [σ · f + σ · g] (α)
für alle α ∈ A. Also ist σ · (f + g) = σ · f + σ · g. Analog zeigt man das zweite Distributivgesetz (σ + τ ) · f = σ · f + τ · f für alle σ, τ ∈ P und f ∈ R.
266
9 Ringe und Moduln
9.6.2 Definition. Sei {Mα | α ∈ A} ein System von R-Moduln Mα = 0. Der RModul P = α∈A Mα heißt das direkte Produkt der Mα , α ∈ A. Die Teilmenge S = {σ ∈ P | σ (α) = 0 für fast alle α ∈ A} ist ein Untermodul des direkten Produkts P = α∈A Mα , weil S bezüglich der linearen Operationen + und · von P abgeschlossen ist. Der R-Modul S heißt die externe direkte Summe der RModuln Mα , α ∈ A. Bezeichnung: S = α∈A Mα .
9.6.3 Bemerkung. S = α∈A Mα ist ein echter Untermodul von P = α∈A Mα , wenn die Indexmenge A unendlich ist. Bei endlicher Indexmenge A gilt stets σ (α) = 0 für höchstens endlich viele α ∈ A. Daher ist S = P genau dann, wenn A endlich ist. 9.6.4 Definition. Sei {Mα | α ∈ A} ein System von R-Moduln Mα = 0. Sei S = α∈A Mα die externe direkte Summe der Mα . Bei festem α ∈ A sei für jedes Element v ∈ Mα die Abbildung σv ∈ S für alle γ ∈ A definiert durch v ∈ Mα für γ = α, σv (γ ) = 0 ∈ Mγ für γ = α. Dann wird durch βα (v) = σv eine Abbildung βα : Mα → S definiert, die die natürliche Injektion von Mα in die externe direkte Summe S = α∈A Mα heißt. Zu jedem festen Index α ∈ A erhält man eine Abbildung πα : P → Mα vom direkten Produkt P = α∈A Mα auf den R-Modul Mα , indem man das Bildelement von σ ∈ P durch πα (σ ) = σ (α) ∈ Mα definiert. Diese Abbildung πα wird die natürliche Projektion von P auf Mα genannt. 9.6.5 Satz. Es sei {Mα | α ∈ A} ein System von R-Modul Mα = 0. Dann gelten die folgenden Aussagen für alle α ∈ A:
(a) Die natürliche Injektion βα : Mα → S = β∈A Mβ ist eine injektive R-lineare Abbildung. (b) Die natürliche Projektion πα : P = β∈A Mβ → Mα ist eine surjektive R-lineare Abbildung. (c) Es ist πα βα = idα ∈ EndR (Mα ) und πγ βα = 0 für alle γ = α. (d) Es ist (βα πα )σ = σ für alle σ ∈ βα Mα . Beweis: Im folgenden sei α ∈ A ein fest gewählter Index. (a) Seien v1 , v2 ∈ Mα und σv die für alle v ∈ Mα in Definition 9.6.4 erklärte Abbildung σv ∈ S. Dann ist σv1 +v2 = σv1 +σv2 , weil für alle γ ∈ A gilt: σv1 +v2 (γ ) = σv1 (γ ) + σv2 (γ ). Hieraus folgt für die natürliche Injektion βα , βα (v1 + v2 ) = σv1 +v2 = σv1 + σv2 = βα (v1 ) + βα (v2 ).
267
9.6 Direkte Produkte und lineare Abbildungen
Da für alle r ∈ R auch σv·r (γ ) = [(σv ) · r] γ = σv (γ ) · r v · r für γ = α, = 0 für γ = α gilt, ist βα (v ·r) = σv·r = (σv )·r = [βα (v)]·r. Also ist βα : Mα → S eine R-lineare Abbildung. Es sei βα (v) = 0 für ein v ∈ Mα . Dann ist βα (v) = σv die Nullabbildung σv (γ ) = 0 ∈ Mγ für alle γ ∈ A. Deshalb ist v = σv (α) = 0 ∈ Mα . Also ist βα injektiv. (b) Nach der Definition der natürlichen Projektion πα gelten für alle σ, τ ∈ P und r ∈ R die folgenden Gleichungen: [πα (σ + τ )] (α) = (σ + τ )(α) = σ (α) + τ (α) = (πα σ )(α) + (πα τ )(α) = (πα σ + πα τ )(α), πα (σ · r)(α) = σ (α) · r = [(πα σ )(α)] · r = [(πα σ ) · r] (α). Daher ist πα : P → Mα eine R-lineare Abbildung.
sei σv ∈ S = in Definition 9.6.4 erklärte Für jedes v ∈ Mα α∈A Mα die Abbildung σv : A → γ ∈A Mγ . Wegen S ≤ P = γ ∈A Mγ ist (πα σv )(α) = σv (α) = v ∈ Mα . Also ist πα : P → Mα surjektiv. (c) Sei v ∈ Mα . Dann ist (πα βα )(v) = πα (βα (v)) = πα (σv ). Wertet man diese Abbildung πα (σv ) : A → β∈A Mβ an allen γ ∈ A aus, so erhält man [πα (σv )] (γ ) = σv (γ ) =
v 0
für γ = α, für γ = α.
Daher ist (πα βα )(v) = v für alle v ∈ Mα , d. h. πα βα = idα . Da [πβ (σv )](γ ) = 0 für alle β = α gilt, ergibt sich auch die Gleichung πβ βα = 0 für alle β = α. (d) Sei σ ∈ βα Mα . Dann existiert ein v ∈ Mα mit σ = βα v. Wegen (c) ist v = idα (v) = πα βα (v). Also ist σ = βα v = βα πα βα v = βα πα σ . Der folgende Satz enhält eine Aussage über die Beziehungen zwischen den Definitionen 9.2.8 und 9.6.2.
268
9 Ringe und Moduln
9.6.6 Satz. Es sei {Mα | α ∈ A}
ein System von R-Moduln Mα = 0. Dann ist die externe direkte Summe S = α∈A Mα der R-Moduln Mα gleich der
direkten Summe α∈A βα Mα der Untermoduln βα Mα des direkten Produkts P = α∈A Mα im Sinne der Definition 9.2.8.
Beweis: Nach Satz 9.6.5 ist βα Mα ein γ ∈A Mγ für alle Untermodul von S = α ∈ A. Daher ist die Summe U = α∈A βα Mα nach Definition 9.2.8 ebenfalls ein Untermodul von S. Sei umgekehrt 0 = σ ∈ S. Dann existieren nur endlich viele Indizes α1 , α2 , . . . , αr ∈ A mit σ (αi ) = 0 ∈ Mαi , d. h. σ (γ ) = 0 für alle γ ∈ A \ {α1 , α2 , . . . , αr }. Sei vi = σ (αi ) ∈ Mαi . Nach Definition 9.6.4 ist βαi (v i ) = σv i ∈ S, wobei gilt: vi ∈ Mαi für γ = αi , σvi (γ ) = 0 für γ = αi . r r Hieraus folgt, daß σ = i=1 σvi = i=1 βαi (vi ) ∈ ri=1 βαi Mαi ≤ U und somit U = S gilt. Um zu zeigen, daß U = α∈A βα Mα die direkte Summe der Untermoduln βα Mα von S ist, betrachtet man den Durchschnitt βγ M γ βα Mα ∩ γ ∈A\{α}
für ein beliebiges α ∈ A. Wäre 0 = σ ∈ βα Mα in diesem Durchschnitt enthalten, dann gäbe es nach Definition 9.2.8 endlich viele Indizes γ1 , γ2 , . . . , γs in A \ {α} und Elemente uγi ∈ βγi Mγi derart, daß 0 = σ = βα vα = βγ1 uγ1 + βγ2 uγ2 + · · · + βγs uγs für ein 0 = vα ∈ Mα wäre. Wegen Satz 9.6.5 wäre dann aber 0 = vα = idα (vα ) = πα βα (vα ) = πα βγ1 (uγ1 ) + πα βγ2 (uγ2 ) + · · · + πα βγs (uγs ) = 0.
Aus diesem Widerspruch folgt, daß U sogar die direkte Summe α∈A βα Mα der Untermoduln βα Mα von S im Sinne der Definition 9.2.8 ist. 9.6.7
Bemerkung. Die Definition 9.6.2 der externen direkten
Summe S = M geht über die Definition 9.2.8 der direkten Summe α∈A α α∈A Uα von Untermoduln Uα eines Moduls M hinaus, weil bei dem System {Mα | α ∈ A} von R-Moduln Mα zu verschiedenen Indizes α und β nicht notwendig verschiedene RModuln Mα und Mβ gehören müssen. Es kann sogar Mα für alle Indizes α ∈ A derselbe R-Modul sein. Die Untermoduln βα Mα von S sind dann zwar alle isomorph; sie
stellen jedoch nach Satz 9.6.6 lauter verschiedene Untermoduln von S = α∈A Mα dar.
9.6 Direkte Produkte und lineare Abbildungen
269
9.6.8 Satz. Sei S = α∈A Mα die externe direkte Summe der R-Moduln Mα mit den natürlichen Injektionen βα : Mα → S. Dann gelten folgende Aussagen: (a) Sei W ein R-Modul. Zu jedem System {ϕα ∈ HomR (Mα , W ) | α ∈ A} von R-linearen Abbildungen ϕα gibt es genau ein ϕ ∈ HomR (S, W ) mit ϕβα = ϕα für alle α ∈ A.
(b) Ein R-Modul Z ist genau dann zu S = α∈A Mα isomorph, wenn es R-lineare Abbildungen γα ∈ HomR (Mα , Z) so gibt, daß zu jedem R-Modul W und zu jedem System {ϕα ∈ HomR (Mα , W ) | α ∈ A} von R-linearen Abbildungen ϕα genau eine R-lineare Abbildung τ ∈ HomR (Z, W ) existiert mit τ γα = ϕα für alle α ∈ A. (c) Die Abbildungen γα sind automatisch Monomorphismen, und das folgende Diagramm ist kommutativ. S=
M α∈A O bE P α
EEEEPPP EEEE PP EEEE PPP E E PPP ϕ πα EEEE EEEE βα PPPP PPP EEEE PPP EEEE PPP EEEE E" ϕα PP' γ /7 W β Mα nnn y n y n nn yy nnn yy n n γα yy y nnn yy nnnn τ y n yy nn ynynnnn y y |ynnn Z
Beweis: (a) Es sei σ ein beliebiges Element aus S = α∈A Mα . Dann gilt παi (σ ) = σ (αi ) = 0 wegen der Definitionen 9.2.8 und 9.6.2 für höchstens endlich viele Indizes α1 , . . . , αn ∈ A. Durch n ϕ(σ ) = (ϕαi παi )σ i=1
wird daher eine Abbildung ϕ : S → W definiert. (Gilt πi (σ ) = 0 für alle Indizes, so ist ϕ(σ ) = 0 zu setzen.) Wegen der R-Linearität der Abbildungen πi und ϕi ergibt sich unmittelbar, daß ϕ eine R-lineare Abbildung ist. Weiter sei jetzt α ein
270
9 Ringe und Moduln
fester Index. Nach Satz 9.6.5 gilt dann πα βα = idα , während πχ βα für χ = α die Nullabbildung ist. Für ein beliebiges Element a ∈ Mα folgt daher πα βα a = a und πχ (βα a) = 0 im Fall χ = α. Man erhält (ϕβα )a = ϕ(βα a) = (ϕα πα )(βα a) = ϕα a und somit ϕβα = ϕα . Weiter gelte für die R-lineare Abbildung ψ : S → W ebenfalls ψβα = ϕα für alle α ∈ A. Nach Satz 9.6.5 ist σ = βα1 (σ (α1 )) + · · · + βαn (σ (αn )) = (βα1 πα1 )σ + · · · + (βαn παn )σ und daher ψ(σ ) =
n i=1
(ψβαi παi )σ =
n
(ϕαi παi )σ = ϕ(σ ).
i=1
Es gilt somit ψ = ϕ; d. h. ϕ ist eindeutig bestimmt. (b) Jeder zu ⊕Mα isomorphe R-Modul Z besitzt die in (b) angegebene Eigenschaft: Ist nämlich β : Z → S ein Isomorphismus, so braucht man nur γα = β −1 βα für alle α ∈ A zu setzen. Mit τ = ϕβ gilt dann τ γα = (ϕβ)(β −1 βα ) = ϕβα = ϕα . Andererseits folgt aus ϕ γα = ϕα zunächst ϕ β −1 βα = ϕα und weiter nach (a) ϕ β −1 = ϕ, also ϕ = ϕβ = τ . Umgekehrt sei jetzt Z ein R-Modul, zu dem es R-lineare Abbildungen γα : Mα → Z so gibt, daß die in (b) formulierte Bedingung erfüllt ist. Setzt man dann W = S, so gibt es zu den R-linearen Abbildungen βα : Mα → S eine R-lineare Abbildung β : Z → S mit βγα = βα für alle α ∈ A. Setzt man andererseits W = Z, so gibt es nach (a) zu den R-linearen Abbildungen γα : Mα → Z eine R-lineare Abbildung γ : S → Z mit γβα = γα für alle α ∈ A. Für die R-lineare Abbildung γβ : Z → Z gilt nun γβγα = γβα = γα . Aber für die Identität idZ von Z gilt ebenfalls idZ γα = γα = γβα . Wegen der geforderten Eindeutigkeit folgt daher γβ = idZ . Entsprechend ergibt sich aus βγβα = βγα = βα und idS βα = βα auch βγ = idS . Somit gilt β = γ −1 und γ = β −1 ; d. h. β und γ sind Isomorphismen zwischen S und Z. (c) Wegen γα = γβα ist mit βα und γ auch γα eine Injektion. 9.6.9 Satz. Sei P = α∈A Mα das direkte Produkt der R-Moduln Mα mit den Projektionen πα : P → Mα und den Injektionen βα : Mα → P . Dann gelten folgende Aussagen: (a) Sei W ein R-Modul. Zu jedem System {ϕα ∈ HomR (W, Mα ) | α ∈ A} von R-linearen Abbildungen ϕα gibt es genau eine R-lineare Abbildung ϕ ∈ HomR (W, P ) mit πα ϕ = ϕα für alle α ∈ A.
271
9.6 Direkte Produkte und lineare Abbildungen
(b) Ein R-Modul Z ist genau dann zu P = α∈A Mα isomorph, wenn es R-lineare Abbildungen γα ∈ HomR (Z, Mα ) so gibt, daß zu jedem R-Modul W und zu jedem System {ϕα ∈ HomR (W, Mα ) | α ∈ A} von R-linearen Abbildungen ϕα genau eine R-lineare Abbildung τ ∈ HomR (Z, W ) existiert derart, daß γα τ = ϕα für alle α ∈ A gilt. (c) Die Abbildungen γα sind dann automatisch Epimorphismen, und das folgende Diagramm ist kommutativ.
α∈A < Mα = P oyoy7 yyy O o o oo yy y ooo yyyyyy ϕ ooo yyy y y πα oo ooo βα yyyyyy o o oo yyyy ooo yyyyy o y o |y oo ϕα γ / Mα π W PPP E b PPP EE E PPP EE PPP EE PPP PPP EEγEαE τ PPP EE PPP EE PPP EE PPPE ' Z
Beweis: (a) Jedem Element y ∈ W werde diejenige Abbildung σy aus P = M zugeordnet, für die σy (α) = ϕα y für alle α ∈ A gilt. Durch ϕy = σy α α∈A wird dann eine Abbildung ϕ : W → P definiert. Für jeden Index α ∈ A gilt (ϕ(y + y ))(α) = σy+y (α) = ϕα (y + y ) = ϕα y + ϕα y = σy (α) + σy (α) = (σy + σy )(α) = (ϕy + ϕy )(α) und daher ϕ(y + y ) = ϕy + ϕy . Entsprechend zeigt man ϕ(yc) = (ϕy)c für alle c ∈ R. Daher ist ϕ eine R-lineare Abbildung. Außerdem gilt für jedes Element y ∈ W (πα ϕ)y = πα (σy ) = σy (α) = ϕα y und somit πα ϕ = ϕα . Gilt umgekehrt für die R-lineare Abbildung ψ : W → P entsprechend πα ψ = ϕα für alle α ∈ A, so folgt für die Abbildung ψy ∈ P (ψy)(α) = πα (ψy) = (πα ψ)y = ϕα y = σy (α) = (ϕy)(α).
272
9 Ringe und Moduln
Also ist ψy = ϕy für alle y ∈ W ; d. h. ψ = ϕ. Daher ist ϕ auch eindeutig bestimmt. (b) Wie vorher folgt auch hier, daß jeder zu P isomorphe R-Modul Z die in (b) angegebene Eigenschaft besitzt. Umgekehrt sei jetzt Z ein R-Modul mit R-linearen Abbildungen γα : Z → Mα , die die in (b) formulierte Eigenschaft für den R-Modul W = P besitzen. Wie im vorangehenden Beweis schließt man: Zu den Projektionen πα gibt es eine R-lineare Abbildung π : P → Z mit γα π = πα . Ebenso gibt es zu den Abbildungen γα eine R-lineare Abbildung γ : Z → P mit πα γ = γα . Wieder gilt πα γ π = γα π = πα wegen πα idP = πα , also γ π = idP . Ebenso γα πγ = πα γ = γα wegen γα idZ = γα , also π γ = idZ . Es folgt π = γ −1 und γ = π −1 ; d. h. π und γ sind Isomorphismen. (c) Schließlich ist γα = πα γ als Produkt von Epimorphismen selbst ein Epimorphismus. 9.6.10 Bemerkung. Die beiden Sätze 9.6.8 und 9.6.9 zeigen eine bemerkenswerte Dualität: Sie gehen auseinander hervor, wenn man in ihnen die Richtung sämtlicher Abbildungen umkehrt und in den Abbildungs-Produkten die Reihenfolge der Faktoren vertauscht. Da bei endlichen Indexmengen die direkte Summe und das direkte Produkt zusammenfallen, gelten dann beide Sätze gleichzeitig für die direkte Summe. Bei unendlicher Indexmenge trifft dies aber nicht zu. 9.6.11 Bemerkung. Bei der n-Tupel-Darstellung einer endlichen direkten Summe V1 ⊕ · · · ⊕ Vn haben die Abbildungen ϕ aus den letzten beiden Sätzen folgende Bedeutung: Die Abbildung ϕ aus Satz 9.6.8 bildet das n-Tupel (x1 , . . . , xn ) auf das Element ϕ1 x1 + · · · + ϕn xn aus W ab. Das Bild eines Elements y ∈ W bei der Abbildung ϕ aus Satz 9.6.9 ist das n-Tupel (ϕ1 y, . . . , ϕn y).
∼ = α∈A HomR (Mα , W ). (b) HomR (W, α∈A Mα ) ∼ = α∈A HomR (W, Mα ).
Beweis: (a) Sei ϕ ∈ HomR α∈A Mα , W und βα die Injektion von Mα in S =
α∈A Mα . Dann ist γα = ϕβα ∈ HomR (Mα , W ) für alle α ∈ A. Man definiere γ ∈ α∈A HomR (Mα , W ) durch
9.6.12 Satz.
(a) HomR
α∈A Mα , W
γ (α) = γα = ϕβα ∈ HomR (Mα , W ) für alle α ∈ A. Dann wird
durch σ (ϕ) = γ = γϕ eine injektive R-lineare Abbildung von Hom M , W in α∈A HomR (Mα , W ) definiert. Sei umgekehrt τ ∈ R α α∈A Hom (M , W ). Dann existiert nach Hilfssatz 9.6.1 zu jedem α ∈ A ein R α α∈A γα ∈ HomR (Mα , W ) derart, daß τ (α) = γα
für alle α ∈ A
273
9.6 Direkte Produkte und lineare Abbildungen
ist. Nach Satz 9.6.8 existiert dann genau ein γ ∈ HomR (S, W ) mit γβα = γα = τ (α) für alle α ∈ A. Also ist σ surjektiv und somit der gesuchte Isomorphismus. (b) Sei ϕ ∈ HomR (W, α∈A Mα ) und πα die Projektion von P = α∈A Mα auf Mα für alle α ∈ A. Dann ist γα = πα ϕ ∈ HomR (W, Mα ) für alle α ∈ A. Man definiere γ ∈ α∈A HomR (W, Mα ) durch γ (α) = γα = πα ϕ ∈ HomR (W, Mα )
für alle α ∈ A.
Dann wird durch σ (ϕ) = γ = γϕ eine injektive R-lineare Abbildung von HomR (W, P ) in α∈A Hom R (W, Mα ) definiert. Sei umgekehrt τ ∈ α∈A HomR (W, Mα ). Dann existiert nach Hilfssatz 9.6.1 zu jedem α ∈ A ein γα ∈ HomR (W, Mα ) derart, daß τ (α) = γα für alle α ∈ A ist. Nach Satz 9.6.9 gibt es dann genau ein γ ∈ HomR (W, P ) mit πα γ = γα für alle α ∈ A. Also ist τ das Bild von γ unter σ , womit (b) bewiesen ist. 9.6.13 Definition. Sei M ein R-Modul. Sei {Mα | α ∈ A} ein System von R-Moduln Mα und {ϕα ∈ HomR (Mα , M) | α ∈ A} ein System von R-linearen Abbildungen. Ein Faserprodukt (oder Pullback) der Abbildungen ϕα : Mα → M ist ein R-Modul Y und ein System von R-linearen Abbildungen ψα : Y → Mα , α ∈ A, derart, daß (a) ϕα ψα = ϕχ ψχ für alle α, χ ∈ A gilt und die folgende universelle Abbildungseigenschaft erfüllt ist: (b) Ist W ein beliebiger R-Modul, zu dem ein System {ψα ∈ HomR (W, Mα ) | α ∈ A} von R-linearen Abbildungen ψα mit ϕα ψα = ϕχ ψχ für alle α, χ ∈ A existiert, dann existiert genau ein η ∈ HomR (W, Y ) derart, daß ψα = ψα η für alle α ∈ A ist. 9.6.14 Satz. Sei A eine Indexmenge und M ein R-Modul. Dann gelten die folgenden Aussagen: (a) Zu jedem System {ϕα ∈ HomR (Mα , M) | α ∈ A} von R-linearen Abbildungen ϕα zwischen den R-Moduln Mα und M existiert ein Faserprodukt Y mit Rlinearen Abbildungen ψα ∈ HomR (Y, Mα ). (b) Der Faserproduktraum Y ist bis auf Isomorphie eindeutig durch die R-Moduln M, Mα und die R-linearen Abbildungen ϕα : Mα → M, α ∈ A, bestimmt. Insbesondere ist das folgende Diagramm kommutativ.
274
9 Ringe und Moduln
7 Mα oo{o{= O CCC o o CC { o CC ooo {{{ o o CCϕα { ψα oo { o CC { πα oo {ψ o CC { o α o { o CC { o o { o CC { oo { o C! { o { oo η α /Y // M W OOO M λ λ∈A {= OOO CC { ψ C OOO CC {{ OOO CC {{ { OOO ψ CC χ {{ OOO πχ C {{ϕχ OOO CCC { ψχ { OOO CC {{ OOO CC { { OO' ! { Mχ
Beweis: Es sei Y die Menge aller derjenigen Elemente a ∈ P = λ∈A Mλ , bei denen (ϕα πα )a = (ϕχ πχ )a für alle Indexpaare gilt, wobei πα die Projektion von P auf Mα ist. Offenbar ist Y ein Untermodul, der für sich als R-Modul betrachtet durch die natürliche Injektion α in den Produktraum P abgebildet wird. Mit ψα = πα ist dann die Bedingung von Definition 9.6.13 (a) für alle α ∈ A erfüllt. Zu den Abbildungen ψα : W → Mα gibt es wegen Satz 9.6.9 genau eine Abbildung ψ : W → P = λ∈A Mλ mit ψα = πα ψ für alle α ∈ A. Für beliebiges y ∈ W und beliebige Indizes α, χ erhält man (ϕα πα )(ψ y) = (ϕα ψα )y = (ϕχ ψχ )y = (ϕχ πχ )(ψ y), also ψ y ∈ Y . Daher kann ψ sogar als Abbildung in Y aufgefaßt werden. Als solche wird sie mit η bezeichnet. Damit ist die Bedingung (b) von Definition 9.6.13 nachgewiesen. Besitzt auch Y mit den Abbildungen ψα die Eigenschaften (a) und (b), so gibt es lineare Abbildungen η : Y → Y und η : Y → Y mit ψα = ψα η und ψα = ψα η für alle α ∈ A. Es folgt ψα idY = ψα ηη
und ψα idY = ψα η η
für alle α ∈ A
wegen der Eindeutigkeit der Faktorisierungen mit ψα bzw. ψα , die aus den Spezialisierungen W = Y bzw. W = Y folgt. Also ist ηη = idY und η η = idY . Daher sind η und η inverse Isomorphismen. Hiermit ist die Eindeutigkeit des Faserprodukts bewiesen. ϕi
9.6.15 Bemerkung. Selbst im Falle von nur zwei Abbildungen Mi −→ M, i = 1, 2 hat der Satz 9.6.14 eine interessante Folgerung. Er besagt nämlich, daß
275
9.6 Direkte Produkte und lineare Abbildungen
das Faserprodukt Y mit den Abbildungen ψ1 und ψ2 und den gegebenen Abbildungen ϕ1 und ϕ2 das folgende kommutative Diagramm Y
ψ1
ϕ1
ψ2
M2
/ M1
ϕ2
/M
bildet, und zwar so, daß sich jede andere Ergänzung W durch Y faktorisieren läßt: W1 QQQ 11 QQQQ ψ 11 η QQ1QQ QQQ 11 Q( 11 ! / M1 Y ψ2 1 ψ 1 11 11 ψ2 ϕ1 1 ϕ2 /M M2 Indem man in der Definition 9.6.13 des Faserprodukts alle Pfeile umdreht, erhält man die folgende duale“ Definition der Fasersumme. ” 9.6.16 Definition. Sei M ein R-Modul. Sei {Mα | α ∈ A} ein System von R-Moduln und {ϕα ∈ HomR (M, Mα ) | α ∈ A} ein System von R-linearen Abbildungen. Eine Fasersumme (oder Pushout) der Abbildungen ϕα : M → Mα ist ein R-Modul Z und ein System von R-linearen Abbildungen ψα : Mα → Z, α ∈ A, derart, daß (a) ψα ϕα = ψχ ϕχ für alle α, χ ∈ A gilt und die folgende universelle Abbildungseigenschaft erfüllt ist: (b) Ist W ein beliebiger R-Modul, für den ein System {ψα ∈ HomF (Mα , W ) | α ∈ A} R-linearer Abbildungen ψα mit ψα ϕα = ψχ ϕχ für alle α, χ ∈ A existiert, dann existiert genau ein η ∈ HomR (Z, W ) mit ψα = ηψα
für alle α ∈ A.
In Analogie zu Satz 9.6.14 beweist man den folgenden Satz. 9.6.17 Satz. Sei M ein R-Modul. Dann gelten die folgenden Aussagen: (a) Zu jedem System {ϕα ∈ HomR (M, Mα ) | α ∈ A} von R-linearen Abbildungen ϕα des R-Moduls M in die R-Moduln Mα existiert eine Fasersumme Z mit R-linearen Abbildungen ψα ∈ HomR (Mα , Z). (b) Der Fasersummenraum Z ist bis auf Isomorphie eindeutig durch die R-Moduln M, Mα und die Abbildungen ϕα : M → Mα , α ∈ A, bestimmt.
276
9 Ringe und Moduln
Insbesondere ist das folgende, für den Beweis erweiterte Diagramm kommutativ. = Mα BOBOOO || BB OOO | BB OOO || | BB O ϕα || BB OOOψOα | βα | OOO | ψα BB OOO BB || | OOO BB | | OOO B ||
η '/ ω / Mλ MB Z 7/ W λ∈A > p O } ψ BB pp } p p } BB } pp BB }} ppp p BB ψχ }} p pp } B βχ ϕχ BB }} pppppψχ } BB } p BB }p}pppp B } }pp Mχ
9.7 Aufgaben 9.1 Sei R ein kommutativer Ring, S = R[X], a ∈ R und f (X) ∈ S. Zeigen Sie: S(X − a) + Sf (X) = S genau dann, wenn f (a) eine Einheit in R ist. 9.2 Man gebe den Isomorphismus der Aussage des zweiten Isomorphiesatzes (U + V )/V ∼ = U/(U ∩ V ) explizit für die Untermoduln U = 4Z, V = 6Z des Z-Moduls Z an. 9.3 Sei R = Z/6 · Z und M = R 2 = {(a, b) | a, b ∈ R} der freie Modul vom Rang 2 über R. Zeigen Sie: (a) Die Teilmengen B1 := {(1, 0), (0, 1)}, B2 := {(2, 3), (3, 2)} von M bilden jeweils eine Basis von M. (b) Nach Austausch eines Elements von B1 gegen (2, 3) ist die so entstehende Menge keine Basis von M. 9.4 Sei ϕ : V → W eine R-lineare Abbildung zwischen den R-Moduln V und W . Seien S und S Systeme aus Untermoduln von V bzw. W . Ist T ein Untermodul von W , dann sei ϕ − (T ) = {t ∈ V | ϕ(t) ∈ T }. Beweisen Sie die folgenden Behauptungen:
(a) {ϕU | U ∈ S} = ϕ {U | U ∈ S} .
− {T | T ∈ S } . (b) {ϕ (T ) | T ∈ S } ⊆ ϕ − (c) Gilt T ⊂ Im ϕ für alle T ∈ S , so ist (b) mit dem Gleichheitszeichen erfüllt.
(d) ϕ {U | U ∈ S} ⊆ {ϕU | U ∈ S}.
(e) ϕ − {T | T ∈ S } = {ϕ − (T ) | T ∈ S }. (f) Gilt U ⊃ Ker ϕ für alle U ∈ S, so ist (d) mit dem Gleichheitszeichen erfüllt. 9.5 Beweisen Sie die folgenden Behauptungen:
277
9.7 Aufgaben
(a) Eine R-lineare Abbildung α : V → W ist genau dann injektiv, wenn für jeden RModul Z und für je zwei R-lineare Abbildungen γ , β : Z → V aus αγ = αβ stets γ = β folgt. (b) Eine R-lineare Abbildung α : V → W ist genau dann surjektiv, wenn für jeden RModul Z und für je zwei R-lineare Abbildungen γ , β : W → Z aus γ α = βα stets γ = β folgt. (c) Ist ψϕ injektiv (surjektiv), so ist ϕ injektiv (ψ surjektiv). 9.6 Zeigen Sie, daß die lineare Gruppe GL(n, R) im Fall n 2 nicht abelsch ist. 9.7
(a) Zeigen Sie, daß die Abbildung ϕ : α∈A Mα → W aus Satz 9.6.8 genau dann surjektiv ist, wenn W = α∈A ϕα Mα gilt. (b) Zeigen Sie, daß die Abbildung ϕ : W → α∈A Mα aus Satz 9.6.9 genau dann injektiv ist, wenn es zu verschiedenen Elementen y, y ∈ W stets einen Index α mit ϕα y = ϕα y gibt.
9.8 (a) Zeigen Sie: Für den Kern der R-linearen Abbildung ϕ : W → gilt Ker ϕα . Ker ϕ =
α∈A Mα aus Satz 9.6.9
α∈A
(b) Zeigen Sie: Für die Abbildungen ϕ und ϕα aus Satz 9.6.8 gilt
Ker ϕα ≤ Ker ϕ.
α∈A
Zeigen Sie jedoch an einem Beispiel, daß hierbei das Gleichheitszeichen im allgemeinen nicht gilt. 9.9 Man beweise den folgenden, zu Satz 9.3.4 dualen“ Satz, der durch Umkehrung aller ” Abbildungspfeile entsteht: Wenn in dem Diagramm W ω
0
/W
β
/ V τ
β
/V
α
/ U σ
α
/U
die Zeilen exakte Folgen sind und wenn der rechte Teil kommutativ ist, dann gibt es eine kommutative Ergänzung ω. Unter welchen Bedingungen ist ω injektiv bzw. surjektiv?
278
9 Ringe und Moduln
9.10 In dem Diagramm V
ϕ
/W
ϕ
α
V
χ
/X
ψ
/Y
/ X
ψ
β
/ W
χ
ω
/Z
ω
γ
/ Y
δ
/ Z
von F -Vektorräumen seien die Zeilen exakte Folgen. Ferner sei das Diagramm kommutativ. Zeigen Sie, daß es eine lineare Abbildung η : X → X so gibt, daß das durch η ergänzte Diagramm ebenfalls kommutativ ist. 9.11 Es sei {Vα | α ∈ A} ein System von Vektorräumen Vα über dem Körper F . Zeigen Sie: ∗ Vα ∼ Vα∗ . = α∈A
α∈A
10 Multilineare Algebra
In diesem Kapitel wird im ersten Abschnitt das Tensorprodukt M ⊗R N von zwei R-Moduln M und N über einem kommutativen Ring konstruiert. Im zweiten Abschnitt werden Tensorprodukte α ⊗β von linearen Abbildungen zwischen R-Moduln definiert und ihre Eigenschaften studiert. Der dritte Abschnitt enthält Anwendungen dieser Konstruktionen. Schließlich wird für jede natürliche Zahl p ≥ 2 und jeden RModul die p-te äußere Potenz p M eingeführt und damit die Determinante det(α) eines Endomorphismus α eines freien R-Moduls M erklärt. Es zeigt sich, daß diese Determinantentheorie von Matrizen über kommutativen Ringen alle Ergebnisse des Kapitels 5 über Determinanten von Matrizen mit Koeffizienten aij aus einem Körper F als Spezialfälle enthält. In diesem Kapitel ist R stets ein kommutativer Ring mit Einselement 1. Alle hier betrachteten R-Moduln sind R-Rechtsmoduln im Sinne der Definition 9.2.1.
10.1
Multilineare Abbildungen und Tensorprodukte
Für die Konstruktion des Tensorprodukts von endlich vielen R-Moduln wird die Definition 5.2.1 einer n-fach linearen Abbildung auf R-Moduln übertragen. 10.1.1 Definition. Seien M 1 , M2 , . . . , Mn und M endlich viele R-Moduln über dem kommutativen Ring R. Sei ni=1 Mi = {(m n1 , m2 , . . . , mn ) | mi ∈ Mi } das kartesische Produkt der Mi . Eine Abbildung ϕ : i=1 Mi → M heißt n-fach linear, wenn die beiden folgenden Bedingungen für alle i = 1, 2, . . . , n erfüllt sind: (a) ϕ(m1 , …, mi + mi , …,mn ) = ϕ(m1 , . . . , mi , . . . , mn ) + ϕ(m1 , . . . , mi , . . . , mn ) , (b) ϕ(m1 , . . . , mi r, . . . , mn ) = ϕ(m1 , . . . , mi , . . . , mn )r für alle mi , mi ∈ M und r ∈ R. Ist n = 2, so ist ϕ eine bilineare Abbildung vom kartesischen Produkt M1 × M2 in den R-Modul M. 10.1.2 Beispiel. Sei R ein kommutativer Ring und R 2 = {(r1 , r2 ) | ri ∈ R} der freie R-Modul vom Range 2. Die durch $ % r12 r11 , = r11 r22 − r12 r21 für alle mi = (r1i , r2i ) ∈ R 2 , i = 1, 2, ϕ r21 r22 definierte Abbildung ϕ : R 2 → R ist bilinear.
280
10 Multilineare Algebra
10.1.3 Hilfssatz. Seien M, N zwei R-Moduln über dem kommutativen Ring R. Dann ist die Menge HomR (M, N ) aller R-linearen Abbildungen α : M → N ein R-Modul. Beweis: Der Beweis verläuft genauso wie in Satz 3.6.1.
10.1.4 Definition. Gegeben seien die R-Moduln A und B über dem kommutativen Ring R. Ein Tensorprodukt (T , t) von A und B über R besteht aus einem R-Modul T und einer bilinearen Abbildung t : A × B → T derart, daß für jede bilineare Abbildung g von A × B in einen beliebigen R-Modul X genau ein h ∈ HomR (T , X) existiert, so daß das Diagramm /T
t
A×B @@ @@ @@ g @@@ @
X
h∈HomR (T ,X)
kommutativ ist, d. h. g(a, b) = ht (a, b) für alle (a, b) ∈ A × B. Die bilineare Abbildung t : A × B → T heißt Tensorabbildung des Tensorprodukts T . Bezeichnung: T = A ⊗R B, a ⊗ b = t (a, b) für alle (a, b) ∈ A × B. In den beiden folgenden Sätzen wird nun die Existenz und die Eindeutigkeit des Tensorprodukts A ⊗R B zweier R-Moduln gezeigt. 10.1.5 Satz (Eindeutigkeit des Tensorprodukts). Sind (T , t) und (T , t ) zwei Tensorprodukte der R-Moduln A und B, dann gibt es genau einen R-Modulisomorphismus j : T → T mit j t = t . Beweis: Da T und T R-Moduln sind und t bilinear ist, gibt es zum Tensorprodukt (T , t) von A und B genau ein h1 ∈ HomR (T , T ) derart, daß das folgende Diagramm B/ T
t
A×B @@ @@ @@ @ t @@ @
h2
T
h1
kommutativ ist, d. h. t (a, b) = h1 t (a, b) für alle (a, b) ∈ A × B. Analog gibt es genau ein h2 ∈ HomR (T , T ) mit t (a, b) = h2 t (a, b). Hieraus folgt, daß t (a, b) = h1 h2 t (a, b) für alle (a, b) ∈ A × B. Sicherlich ist die Identität
281
10.1 Multilineare Abbildungen und Tensorprodukte
id : T → T eine R-lineare Abbildung aus HomR (T , T ), die nach Definition 10.1.4 das zum Tensorprodukt (T , t ) und R-Modul T gehörige Diagramm t
A×B @@ @@ @@ @ t @@ @
T
/ T
idT
kommutativ macht, d. h. t (a, b) = id t (a, b) für alle (a, b) ∈ A × B. Daher gilt wegen der geforderten Eindeutigkeit h1 h2 = id. Analog zeigt man h2 h1 = id. Also ist h1 : T → T der eindeutig bestimmte Isomorphismus j . 10.1.6 Satz (Existenz des Tensorprodukts). Zu jedem Paar A, B von R-Moduln existiert ein Tensorprodukt (A ⊗R B, t) mit Tensorabbildung t : A × B → T = A ⊗R B, t (a, b) = a ⊗ b ∈ T
für alle (a, b) ∈ A × B,
das bis auf R-Modulisomorphie eindeutig bestimmt ist. Beweis: Wegen Satz 10.1.5 ist nur die Existenz des Tensorprodukts (T , t) zu beweisen. Dazu betrachtet man die Menge M = {(a, b) | a ∈ A, b ∈ B} = A × B. Nach Hilfssatz 9.4.13 ist C = {f(a,b) ∈ R M | (a, b) ∈ M} eine Basis des freien R-Moduls R M . Sei U der R-Untermodul von R M , der von der Menge aller folgenden Elemente erzeugt wird: (a) f(a1 +a2 ,b) − f(a1 ,b) − f(a2 ,b) , (b) f(a,b1 +b2 ) − f(a,b1 ) − f(a,b2 ) , (c) f(ar,b) − f(a,br) , (d) f(ar,b) − f(a,b) · r, wobei die Elemente a, a1 , a2 ∈ A, b, b1 , b2 ∈ B und r ∈ R beliebig sind. Sei T der nach Hilfssatz 9.2.14 eindeutig bestimmte Faktormodul T = R M /U mit dem kanonischen R-Modulepimorphismus α : R M → T , der jedem f ∈ R M seine Restklasse α(f ) = [f ] = f + U ∈ R M /U zuordnet. Nach Hilfssatz 9.2.14 ist U = Ker(α). Die Tensorabbildung t : A × B → T wird definiert durch t (a, b) = α(f(a,b) ) ∈ T
für (a, b) ∈ A × B.
282
10 Multilineare Algebra
Diese Abbildung t : A × B → T ist wohldefiniert und bilinear; denn wegen (a) ist f(a1 +a2 ,b) − f(a1 ,b) − f(a2 ,b) ∈ U für alle a1 , a2 ∈ A und b ∈ B. Daraus folgt 0 = α(f(a1 +a2 ,b) − f(a1 ,b) − f(a2 ,b) ) = α(f(a1 +a2 ,b) ) − α(f(a1 ,b) ) − α(f(a2 ,b) ) = t (a1 + a2 , b) − t (a1 , b) − t (a2 , b), woraus sich t (a1 + a2 , b) = t (a1 , b) + t (a2 , b) ergibt. Analog ergeben sich aus (b), (c) und (d) die Gleichungen t (a, b1 + b2 ) = t (a, b1 ) + t (a, b2 ), t (ar, b) = t (a, br), t (ar, b) = t (a, b)r für alle a ∈ A, b, b1 , b2 ∈ B und r ∈ R. Also ist t : A × B → T eine bilineare Abbildung. Sei nun X ein beliebiger R-Modul und g : A × B → X eine bilineare Abbildung. Da C = {f(a,b) ∈ R M | (a, b) ∈ M} eine Basis des freien R-Moduls R M ist, wird nach Satz 9.4.14 durch die Zuordnung ϕ(f(a,b) ) = g(a, b) für alle (a, b) ∈ A × B = M ein R-Modulhomomorphismus ϕ : R M → X definiert. Da g : A × B → X eine bilineare Abbildung ist, folgt für alle a1 , a2 ∈ A und b ∈ B ϕ(f(a1 +a2 ,b) − f(a1 ,b) − f(a2 ,b) ) = ϕ(f(a1 +a2 ,b) ) − ϕ(f(a1 ,b) ) − ϕ(f(a2 ,b) ) = g(a1 + a2 , b) − g(a1 , b) − g(a2 , b) = 0. Analog zeigt man, daß auch alle Erzeuger der Form (b), (c) und (d) von U auf das Nullelement in X abgebildet werden. Daher ist U ≤ Ker(ϕ). Nach Folgerung 9.2.20 gibt es deshalb genau einen R-Modulhomomorphismus h ∈ HomR (T , X) mit g(a, b) = ϕ(f(a,b) ) = ht (a, b) = hα(f(a,b) ) für alle (a, b) ∈ A × B, weil C = {f(a,b) | (a, b) ∈ M) eine Basis des freien R-Moduls R M ist. Daher ist (T , t) das gesuchte Tensorprodukt (A ⊗R B, t). 10.1.7 Folgerung. Sei T = A ⊗R B das Tensorprodukt der R-Moduln A und B. Dann gelten folgende Rechengesetze: (a) (a1 + a2 ) ⊗ b = (a1 ⊗ b) + (a2 ⊗ b) für alle a1 , a2 ∈ A und b ∈ B. (b) a ⊗ (b1 + b2 ) = (a ⊗ b1 ) + (a ⊗ b2 ) für alle a ∈ A und b1 , b2 ∈ B. (c) (a ⊗ b)r = (a ⊗ br) = (ar ⊗ b) für alle a ∈ A, b ∈ B und r ∈ R.
283
10.1 Multilineare Abbildungen und Tensorprodukte
(d) 0 ⊗ a = 0 = b ⊗ 0 für alle a ∈ A und b ∈ B. Beweis: Wegen a ⊗b = t (a, b) folgen alle Aussagen unmittelbar aus der Bilinearität der Tensorabbildung t : A × B → T = A ⊗R B. 10.1.8 Folgerung. Sei (T = A ⊗R B, t) das Tensorprodukt der R-Moduln A und B. Dann existieren zu jedem u ∈ T endlich viele Elemente ai ∈ A, bi ∈ B und ri ∈ R, 1 ≤ i ≤ k, derart, daß k u= (ai ⊗ bi )ri . i=1
Beweis: Sei M = A × B. Nach Hilfssatz 9.4.13 ist C = {fm | m ∈ M} eine Basis des freien R-Moduls R M . Nach dem Beweis von Satz 10.1.6 gibt es einen RUntermodul U von R M derart, daß T = R M /U und für die Restklassenabbildung α : R M → R M /U gilt: t (a, b) = α(f(a,b) ) für alle (a, b) ∈ M. Sei w ∈ R M ein Urbild von u ∈ T in R M . Da C eine Basis des freien R-Moduls R M ist, existieren endlich viele Basiselemente f(ai ,bi ) ∈ C und Ringelemente ri ∈ R, 1 ≤ i ≤ k, derart, daß k w= f(ai ,bi ) ri . i=1
Hieraus folgt u = α(w) =
k i=1
α(f(ai ,bi ) )ri =
k
(ai ⊗ bi )ri .
i=1
10.1.9 Beispiel. Das Tensorprodukt (Z/3Z) ⊗Z (Z/2Z) der zyklischen Z-Moduln A = Z/3Z und B = Z/2Z über dem Ring Z der ganzen Zahlen ist der Nullmodul 0. Hierzu genügt es, nach Folgerung 10.1.8 zu zeigen, daß (a ⊗ b) = 0
für alle a ∈ A und b ∈ B.
Da 1 = 3 − 2 = 3 · 1 + 2(−1), folgt nach Folgerung 10.1.7 wegen a3 = 0, b2 = 0, daß a ⊗ b = (a ⊗ b)1 = (a ⊗ b)(3 · 1 + 2(−1)) = (a ⊗ b)3 + (a ⊗ b)2(−1) = a3 ⊗ b − a ⊗ b2 = 0 ⊗ b − a ⊗ 0 = 0. 10.1.10 Beispiel. Das Tensorprodukt T = Q ⊗Z Q des Körpers Q der rationalen Zahlen mit sich selbst über dem Ring Z der ganzen Zahlen ist isomorph zu Q, d. h. Q ⊗Z Q ∼ = Q, wie folgende Überlegungen zeigen.
284
10 Multilineare Algebra
Die Abbildung γ : Q × Q → Q, definiert durch γ (q1 , q2 ) = q1 q2 für qi ∈ Q, i = 1, 2 ist bilinear. Nach Satz 10.1.6 existiert daher ein ϕ ∈ HomZ (Q ⊗Z Q, Q) mit ϕ(q1 ⊗ q2 ) = q1 q2 ∈ Q für alle qi ∈ Q, i = 1, 2. ϕ ist ein Z-Modulepimorphismus; denn jedes q = ab−1 ∈ Q mit b = 0 ist Bild −1 ϕ(a ⊗ b−1 ) von n a ⊗ b ∈ Q ⊗Z Q. der Hauptnenner Ist q = i=1 qi ⊗ pi ∈ Ker ϕ und 0 = d ∈ Z −2 der Brüche n −1 −1 q und pi = bi d , dann ist ϕ(q) = = 0, woraus i = ai d i=1 ai bi d n i=1 ai bi = 0 folgt. Also ist q=
n
qi ⊗ p i =
i=1
n
ai d −1 ⊗ bi d −1
i=1
=
n
d −1 ⊗ ai bi d −1
i=1
=d
−1
⊗
n
ai bi d −1 = d −1 ⊗ 0 = 0
i=1
wegen Folgerung 10.1.7. Daher ist ϕ ein Z-Modulisomorphismus. 10.1.11 Satz. Seien A, B, C R-Moduln über dem kommutativen Ring R. Dann gelten: (a) A ⊗R B ∼ = B ⊗R A. (b) (A ⊗R B) ⊗R C ∼ = A ⊗R (B ⊗R C). Beweis: (a) Sei (A ⊗R B, t) das Tensorprodukt der R-Moduln A und B. Die Abbildung f : A × B → B ⊗R A mit f (a, b) = b ⊗ a für alle (a, b) ∈ A × B ist nach Folgerung 10.1.7 bilinear über R. Wegen Definition 10.1.4 existiert daher genau ein h ∈ HomR (A ⊗R B, B ⊗R A) derart, daß b ⊗ a = f (a, b) = ht (a, b) = h(a ⊗ b)
für alle (a, b) ∈ A × B
gilt. Nach Folgerung 10.1.8 hat jedes u ∈ B ⊗R A die Form u=
k i=1
(bi ⊗ ai )ri =
k
h(ai ⊗ bi )ri
i=1
k
=h
i=1
(ai ⊗ bi )ri
∈ h(A ⊗R B)
10.1 Multilineare Abbildungen und Tensorprodukte
285
für endlich viele (ai , bi ) ∈ A×B und ri ∈ R. Also ist h ein R-Modulepimorphismus von A⊗R B auf B ⊗R A. Analog findet man genau ein h ∈ HomR (B ⊗R A, A⊗R B) mit h (b ⊗ a) = a ⊗ b für alle (b, a) ∈ B × A. Wiederum ist h (B ⊗R A) = A ⊗R B. Nun ist hh (b ⊗ a) = h(a ⊗ b) = b ⊗ a und h h(a ⊗ b) = h (b ⊗ a) = a ⊗ b für alle a ∈ A und b ∈ B. Wegen Folgerung 10.1.8 sind daher die R-linearen Abbildungen h und h zueinander inverse Isomorphismen. (b) Nach Satz 10.1.6 existieren die Tensorprodukte ([A ⊗R B] ⊗R C, t) und (A⊗R [B ⊗R C], s). Sei a ∈ A fest gewählt. Dann ist die durch λa (b, c) = (a ⊗b)⊗c für alle (b, c) ∈ B × C definierte Abbildung λa : B × C → (A ⊗R B) ⊗R C bilinear. Also gibt es nach Definition 10.1.4 ein eindeutig bestimmtes Element ha ∈ HomR (B ⊗R C, (A ⊗R B) ⊗R C) derart, daß ha (b ⊗ c) = (a ⊗ b) ⊗ c
für alle b ⊗ c ∈ B ⊗R C
gilt. Wegen Folgerung 10.1.7 ist daher die durch µ(a, b ⊗ c) = ha (b ⊗ c) für alle b ∈ B, c ∈ C definierte Abbildung µ : A × (B ⊗R C) → (A ⊗R B) ⊗R C bilinear. Nach Definition 10.1.4 existiert genau ein h ∈ HomR (A ⊗R (B ⊗R C), (A ⊗R B) ⊗R C) derart, daß das folgende Diagramm s / A ⊗R (B ⊗R C) A × (B ⊗FR C) FF ww FF ww FF w F ww µ FF ww h FF w w F# {ww (A ⊗R B) ⊗R C
kommutativ ist, d. h. h(a ⊗ (b ⊗ c)) = µ(a, b ⊗ c) = ha (b ⊗ c) = (a ⊗ b) ⊗ c für alle a ∈ A, b ∈ B, c ∈ C. Wie in (a) folgt nun mit Hilfe von Folgerung 10.1.8, daß h ein R-Modulisomorphismus ist. 10.1.12 Folgerung. Sei M ein R-Modul über dem kommutativen Ring R. Sei p ≥ 2 eine natürliche Zahl. Dann existiert das p-fache Tensorprodukt T = ⊗p M von M mit sich selbst, d. h. es gibt einen bis auf Isomorphie eindeutig bestimmten R-Modul T und eine p-lineare Abbildung tp von M × M × · · · × M = M p in T derart, daß für jeden R-Modul N und für jede p-lineare Abbildung g von M p in N das folgende
286
10 Multilineare Algebra
Diagramm für genau eine R-lineare Abbildung h ∈ HomR (T , N ) kommutativ ist: tp
M p< << << < g << <
/T h
N
Beweis: Folgt unmittelbar aus den Sätzen 10.1.5, 10.1.6 und 10.1.11.
Das Tensorprodukt ⊗ vertauscht mit direkten Summen ⊕, wie nun gezeigt wird. 10.1.13 Satz. Seien A, B und C drei R-Moduln über dem kommutativen Ring R. Dann gilt: (A ⊕ B) ⊗R C ∼ = (A ⊗R C) ⊕ (B ⊗R C). Beweis: Nach Satz 10.1.6 existieren die Tensorprodukte T = ((A ⊕ B) ⊗R C, t), T1 = (A⊗R C, t1 ) und T2 = (B ⊗R C, t2 ). Sei T = T1 ⊕T2 . Die bilineare Abbildung t : (A ⊕ B) × C → T sei definiert durch t (a + b, c) = t1 (a, c) + t2 (b, c) ∈ T1 ⊕ T2 = T für alle a ∈ A, b ∈ B und c ∈ C. Wegen der Direktheit der Summe ist t wohldefiniert. Da (T , t) ein Tensorprodukt ist, existiert nach Definition 10.1.4 genau ein h ∈ HomR (T , T ) derart, daß das Diagramm /T (A ⊕ B) F× C FF FF FF F h t FFF F" T = T1 ⊕ T 2 t
kommutativ ist, d. h. t (a + b, c) = ht (a + b, c) für alle a + b ∈ A ⊕ B und c ∈ C. Sicherlich sind die Einschränkungen t1 und t2 von t auf A×C und B ×C bilineare Abbildungen in den R-Modul T . Nach Definition 10.1.4 existieren daher eindeutig bestimmte R-lineare Abbildungen gi ∈ HomR (Ti , T ) derart, daß die Gleichungen t1 (a, c) = t (a, c) = g1 t1 (a, c) = g1 t (a, c), t2 (b, c) = t (b, c) = g2 t2 (b, c) = g2 t (b, c)
für alle a ∈ A, b ∈ B und c ∈ C gelten. Sei g ∈ HomR (T , T ) definiert durch g(t (a, c) + t (b, c)) = g1 t1 (a, c) + g2 t2 (b, c). Dann ist hg die Identität auf T und gh die Identität auf T . Also sind T und T = T1 ⊕ T2 isomorphe R-Moduln.
287
10.2 Tensorprodukte von linearen Abbildungen
10.1.14 Folgerung. Sind V und W zwei endlich erzeugte, freie R-Moduln über dem kommutativen Ring R mit den Basen {v1 , v2 , . . . , vn } und {w1 , w2 , . . . , wm }, dann ist V ⊗R W ein freier R-Modul mit der Basis {vi ⊗ wj | 1 ≤ i ≤ n, 1 ≤ j ≤ m}. Insbesondere gilt für die Ränge dieser freien R-Moduln rg(V ⊗R W ) = rg(V ) · rg(W ).
n
m Beweis: Nach Voraussetzung ist V = i=1 vi R und W = j =1 wj R. Wegen Folgerung 10.1.7 und Satz 10.1.13 folgt V ⊗R W =
n
vi R ⊗ R
i=1
= =
n
vi R i=1 m n
⊗R
m
$ m
wj R
j =1
%
wj R
j =1
(vi ⊗ wj )R.
i=1 j =1
Insbesondere ist rg(V ⊗R W ) = nm = rg(V ) · rg(W ).
10.1.15 Folgerung. Sind V und W zwei endlich-dimensionale Vektorräume über dem Körper F , so gilt: dimF (V ⊗F W ) = (dimF V )(dimF W ). Beweis: Folgt unmittelbar aus Satz 2.2.11 und Folgerung 10.1.14.
10.2 Tensorprodukte von linearen Abbildungen In diesem Abschnitt werden Beziehungen zwischen Tensorprodukten von R-linearen Abbildungen und R-linearen Abbildungen zwischen Tensorprodukten von R-Moduln beschrieben. Weiter werden Tensorprodukte von Matrizen mit Koeffizienten aus einem kommutativen Ring R mit Einselement eingeführt. 10.2.1 Satz. Seien A, A , B, B vier R-Moduln. Dann existiert zu jedem α ∈ HomR (A, A ) und β ∈ HomR (B, B ) genau eine R-lineare Abbildung α ⊗ β ∈ HomR (A ⊗R B, A ⊗R B ) mit (α ⊗ β)(a ⊗ b) = αa ⊗ βb für alle a ∈ A, b ∈ B.
288
10 Multilineare Algebra
Beweis: Sei (A⊗R B, t) das Tensorprodukt von A und B mit der Tensorabbildung t : A×B → A⊗R B. Seien α ∈ HomR (A, A ) und β ∈ HomR (B, B ) fest gewählt. Die durch µ(a, b) = αa⊗βb ∈ A ⊗R B definierte Abbildung µ : A×B → A ⊗R B ist wegen Folgerung 10.1.7 und der Linearität von α und β bilinear. Daher gibt es nach Definition 10.1.4 genau eine R-lineare Abbildung α⊗β ∈ HomR (A⊗R B, A ⊗R B ) derart, daß das folgende Diagramm kommutativ ist. t / A ⊗R B A × BG GG vv GG vv v GG v vv µ GG GG vv α⊗β v # {v A ⊗R B
Somit ist (α ⊗ β)(a ⊗ b) = µ(a, b) = αa ⊗ βb für alle a ∈ A, b ∈ B.
Wegen Folgerung 10.1.14 (b), Satz 10.2.1 und Definition 9.5.4 ist es natürlich, das Tensorprodukt zweier Matrizen A und B wie folgt zu erklären. Seien V , W, Y und Z endlich erzeugte, freie R-Moduln über dem kommutativen Ring R mit den Basen A = {v1 , v2 , . . . , vn }, B = {w1 , w2 , . . . , wm }, C = {y1 , y2 , . . . , ys } und D = {z1 , z2 , . . . , zt }. Zu jedem Paar α ∈ HomR (V , W ) und β ∈ HomR (Y, Z) existiert das nach Satz 10.2.1 eindeutig bestimmte Tensorprodukt α ⊗ β ∈ HomR (V ⊗R Y, W ⊗R Z) der R-linearen Abbildungen α und β. 10.2.2 Definition. Seien Aα (A, B) = (aij ) mit 1 ≤ i ≤ m und 1 ≤ j ≤ n und Aβ (C, D) = (bpq ) mit 1 ≤ p ≤ t und 1 ≤ q ≤ s die zu α und β gehörigen m × nbzw. t × s-Matrizen über R. Dann hat das in Satz 10.2.1 konstruierte Tensorprodukt α ⊗ β von α und β bezüglich der nach Folgerung 10.1.14 existierenden, geordneten Basen P = {v1 ⊗ y1 , . . . , v1 ⊗ ys , . . . , vn ⊗ y1 , . . . , vn ⊗ ys } und Q = {w1 ⊗ z1 , . . . , w1 ⊗ zt , . . . , wm ⊗ z1 , . . . , wm ⊗ zt } von V ⊗R Y bzw. W ⊗R Z nach Definition 9.5.4 die mt × ns-Matrix Aα⊗β (P , Q) = (aij bpq ), die das Kronecker-Produkt Aα ⊗Aβ der Matrizen Aα (A, B) und Aβ (C, D) heißt. Bezeichnung: A ⊗ B 10.2.3 Beispiel. Das Kronecker-Produkt A ⊗ B der beiden Matrizen A =
12 30
289
10.3 Ringerweiterungen und Tensorprodukte
und B =
123 021
ist die 4 × 6-Matrix
A⊗B =
1 · (B) 3 · (B)
2 · (B) 0 · (B)
1 0 = 3 0
2 2 6 6
3 2 4 1 0 4 9 0 0 3 0 0
Das Kronecker-Produkt B ⊗ A dieser beiden Matrizen ist 1 3 1 · (A) 2 · (A) 3 · (A) B⊗A= = 0 0 · (A) 2 · (A) 1 · (A) 0
2 0 0 0
2 6 2 6
4 0 4 0
6 2 . 0 0 3 6 9 0 . 1 2 3 0
Insbesondere ist A ⊗ B = B ⊗ A. 10.2.4 Satz. Seien A, A , A und B, B , B sechs R-Moduln und α ∈ HomK (A, A ), α ∈ HomK (A , A ), β ∈ HomK (B, B ), β ∈ HomK (B , B ). Dann gilt für die Hintereinanderausführung der jeweiligen R-linearen Abbildungen die Gleichung (α ⊗ β ) (α ⊗ β) = (α α) ⊗ (β β). Beweis: Das Tensorprodukt (α α) ⊗ (β β) ∈ HomR (A ⊗R B, A ⊗R B ) der R-linearen Abbildungen α α und β β ist nach Satz 10.2.1 die eindeutig bestimmte R-lineare Abbildung, für die für alle (a, b) ∈ A × B (α α) ⊗ (β β)(a ⊗ b) = α α(a) ⊗ β β(b) gilt. Ebenso gelten (α ⊗ β)(a ⊗ b) = α(a) ⊗ β(b) für alle (a, b) ∈ A × B und (α ⊗ β )(a ⊗ b ) = α (a ) ⊗ β (b ) für alle (a , b ) ∈ A × B . Hieraus ergibt sich (α ⊗ β ) (α ⊗ β)(a ⊗ b) = α α(a) ⊗ β β(b) für alle a, b ∈ A × B. Daher gilt die Behauptung.
10.3
Ringerweiterungen und Tensorprodukte
In Kapitel 7 wurde die Einbettung eines endlich-dimensionalen, reellen Vektorraums V in einen Vektorraum über dem Körper C der komplexen Zahlen mit gleicher Dimension betrachtet. Dies war ein wichtiger Schritt für den Beweis des Hauptachsentheorems 7.6.3. Diese Einbettung ist ein Spezialfall des folgenden Satzes.
290
10 Multilineare Algebra
10.3.1 Satz. Sei R ein Unterring des kommutativen Ringes S. Das Einselement 1 ∈ R sei auch das Einselement von S. Dann ist S ein R-Modul, und es gelten folgende Aussagen: (a) Ist M ein R-Modul, dann ist M ⊗R S ein S-Modul. (b) Für jeden zyklischen R-Modul mR ist mr ⊗ s → (m ⊗ 1)rs ein S-Modulisomorphismus von mR ⊗R S auf (m ⊗ 1)S. (c) Ist B = {mi ∈ M | 1 ≤ i ≤ k} eine Basis des endlich erzeugten, freien R-Moduls M, dann ist BS = {mi ⊗ 1 | 1 ≤ i ≤ k} eine Basis des freien S-Moduls M ⊗R S. Beweis: (a) Der R-Modul M ⊗R S ist ein S-Modul vermöge der Verknüpfung (m ⊗ s)t = m ⊗ st für alle m ∈ M und s, t ∈ S. (b) Sei (mR ⊗R S, t) das Tensorprodukt der R-Moduln M = mR und S. Die Abbildung (mr, s) → (m⊗1)rs ist eine bilineare Abbildung von M ×S auf (m⊗1)S. Daher existiert nach Satz 10.1.6 genau ein ψ ∈ HomR (mR ⊗R S, (m ⊗ 1)S) mit
ψ(mr ⊗ s) = (m ⊗ 1)rs
für alle r ∈ R, s ∈ S.
Wegen (a) ergibt sich nun für alle s1 , s2 ∈ S, daß ψ(m ⊗ s1 s2 ) = (m ⊗ 1)s1 s2 = (m ⊗ s1 )s2 ist. Also ist ψ eine surjektive S-lineare Abbildung. Sie hat eine inverse Abbildung η : (m ⊗ 1)s → m ⊗ s, s ∈ S. Daher gilt (b). (c) Da B eine Basis des freien R-Moduls M ist, gilt M=
k
mi R.
i=1
Nach Satz 10.1.13 folgt hieraus, daß M ⊗R S ∼ =
k i=1
k mi R ⊗ R S ∼ (mi R ⊗R S). = i=1
Wegen (b) sind die S-Moduln mi R ⊗R S und (mi ⊗ 1)S für i = 1, . . . , k isomorph.
k Also ist M ⊗R S ∼ = i=1 (mi ⊗ 1)S. 10.3.2 Bemerkung. Sei V ein endlich-dimensionaler, reeller Vektorraum mit Basis B = {v 1 , v 2 , . . . , v n }. Dann ist BC = {v i ⊗ 1 | 1 ≤ i ≤ n} nach Satz 10.3.1 eine Basis des komplexen Vektorraums V ⊗R C über dem Körper C der komplexen Zahlen.
291
10.3 Ringerweiterungen und Tensorprodukte
V ⊗R C ist isomorph zur komplexen Erweiterung Z = {(x, y) | x, y ∈ V } des reellen Vektorraums V , die in Definition 7.1.13 erklärt ist. Denn als R-Vektorraum hat C die Basis {1, i}. Nach Satz 10.1.13 sind daher die R-Vektorräume V ⊗R C = V ⊗R (R ⊕ Ri) = V ⊗R R ⊕ V ⊗R Ri ∼ =V ⊗1⊕V ⊗i ∼ =Z isomorph. Wegen i 2 = −1 ∈ V ⊗ 1 sind V ⊗R C und Z auch als C-Vektorräume isomorph. 10.3.3 Satz. Sei R ein Unterring des kommutativen Ringes S mit demselben Einselement 1. Seien M und N zwei R-Moduln. Dann gelten folgende Aussagen: (a) Für jedes α ∈ HomR (M, N ) ist α ⊗ 1 ∈ HomS (M ⊗R S, N ⊗R S) eine S-lineare Fortsetzung. (b) Sind M und N endlich erzeugte, freie R-Moduln mit den Basen A = {mj | 1 ≤ j ≤ r} und B = {ni | 1 ≤ i ≤ s}, dann sind M ⊗R S und N ⊗R S endlich erzeugte, freie S-Moduln mit den Basen AS = {mj ⊗ 1 | 1 ≤ j ≤ r} und BS = {ni ⊗ 1 | 1 ≤ i ≤ s}. Für die s × r-Matrizen Aα (A, B) und Aα⊗1 (AS , BS ) gilt die Gleichung Aα (A, B) = (aij ) = Aα⊗1 (AS , BS ). Beweis: (a) Die Multiplikation mit 1 ist die identische S-lineare Abbildung des S-Moduls S in sich. Also ist α ⊗ 1 ∈ HomS (M ⊗R S, N ⊗R S) nach Satz 10.2.1 durch (∗)
(α ⊗ 1)(m ⊗ s) = α(m) ⊗ s
für alle m ∈ M und s ∈ S
eindeutig bestimmt. (b) AS und BS sind nach Satz 10.3.1 je eine Basis von M ⊗R S und N ⊗R S. Wegen (∗) und Folgerung 10.1.7 folgt mit Aα (A, B) = (aij ) (α ⊗ 1)(mj ⊗ 1) = α(mj ) ⊗ 1 s = ni aij ⊗ 1 = =
i=1 s
(ni aij ⊗ 1)
i=1 s
(ni ⊗ 1)aij
für j = 1, 2, . . . , r.
i=1
Also ist Aα⊗1 (AS , BS ) = (aij ) = Aα (A, B) nach Definition 9.5.4.
292
10 Multilineare Algebra
10.4 Äußere Potenzen und alternierende Abbildungen Zunächst werden die p-ten äußeren Potenzen eines R-Moduls über einem kommutativen Ring R mit Einselement eingeführt. 10.4.1 Definition. Sei M ein R-Modul und p ≥ 2 eine natürliche Zahl. Sei Mp = ⊗p M das (bis auf Isomorphie eindeutig bestimmte) p-fache Tensorprodukt von M mit sich selbst. Sei tp die zugehörige Tensorabbildung. Sei Up derjenige Untermodul von Mp , der erzeugt wird von allen Elementen der Form a1 ⊗ · · · ⊗ ap mit ai ∈ M und ai = aj für mindestens ein Paar (i, j ) mit 1 ≤ i < j ≤ p. Der Faktormodul p M = Mp /Up heißt das p-fache äußere Produkt von M mit sich selbst. Für p = 0 und p = 1 setzt man 0 M = R bzw. 1 M = M. Die Elemente von p M heißen p-Vektoren. Sei ρp die Restklassenabbildung von Mp auf Mp /Up = p M. Bezeichnung: a1 ∧ · · · ∧ ap = ρp (a1 ⊗ · · · ⊗ ap ) ∈ Mp /Up = p M. 10.4.2 Hilfssatz. Sei p M das p-fache äußere Produkt des R-Moduls M über dem kommutativen Ring R. Dann gelten für i = 1, 2, . . . , p die folgenden Aussagen: (a) a1 ∧· · ·∧(ai +ai )∧· · ·∧ap = (a1 ∧· · ·∧ai ∧· · ·∧ap )+(a1 ∧· · ·∧ai ∧· · ·∧ap ) für alle a1 , a2 , . . . , ai , ai , . . . , ap ∈ M. (b) a1 ∧ · · · ∧ (ai · c) ∧ · · · ∧ ap = (a1 ∧ · · · ∧ ai ∧ · · · ∧ ap ) · c für alle a1 , a2 , . . . , ai , . . . , ap ∈ M und c ∈ R. Beweis: Beide Aussagen folgen unmittelbar aus der p-fachen Linearität
der Tensorabbildung t und der R-Linearität der Restklassenabbildung ρ : p p pM → p M. 10.4.3 Hilfssatz.
(a) Sind a1 , a2 , . . . , ap ∈ M und ist 1 ≤ i < j ≤ p, dann ist
a1 ∧ · · · ∧ ai ∧ · · · ∧ aj ∧ · · · ∧ ap = −a1 ∧ · · · ∧ aj ∧ · · · ∧ ai ∧ · · · ∧ ap . (b) Ist π eine Permutation der Zahlen 1, 2, . . . , p, dann ist aπ(1) ∧ aπ(2) ∧ · · · ∧ aπ(p) = (a1 ∧ · · · ∧ ap ) · sign π. Beweis: (a) Nach der Bestimmung von Up in Definition 10.4.1 und Hilfssatz 10.4.2 (a) ist 0 = a1 ∧ · · · ∧ (ai + aj ) ∧ · · · ∧ (ai + aj ) ∧ · · · ∧ ap = a1 ∧ · · · ∧ ai ∧ · · · ∧ ai ∧ · · · ∧ ap + a1 ∧ · · · ∧ ai ∧ · · · ∧ aj ∧ · · · ∧ ap + a1 ∧ · · · ∧ aj ∧ · · · ∧ ai ∧ · · · ∧ ap + a1 ∧ · · · ∧ aj ∧ · · · ∧ aj ∧ · · · ∧ ap .
293
10.4 Äußere Potenzen und alternierende Abbildungen
In der letzten Summe verschwinden nach Definition 10.4.1 der erste und der letzte Summand. Deshalb ist a1 ∧ · · · ∧ aj ∧ · · · ∧ ai ∧ · · · ∧ ap = −(a1 ∧ · · · ∧ ai ∧ · · · ∧ aj ∧ · · · ∧ ap ).
(b) folgt sofort aus (a) und Satz 5.1.10 (b).
Wegen Hilfssatz 10.4.3 ist es naheliegend, die Definition 5.2.4 einer alternierenden Abbildung ϕ eines Vektorraums auf R-Moduln zu übertragen. 10.4.4 Definition. Seien M und N zwei R-Moduln. Sei p ≥ 2 eine natürliche Zahl und M p das p-fache kartesische Produkt von M. Eine p-fach lineare Abbildung ϕ : M p → N heißt eine alternierende Abbildung des R-Moduls M in den R-Modul N, wenn ϕ(m1 , m2 , . . . , mp ) = 0 ∈ N ist, sofern zwei verschieden indizierte Elemente unter den Elementen m1 , m2 , . . . , mp von M gleich sind. Die p-te äußere Potenz p M eines R-Moduls M über einem kommutativen Ring R hat die folgende universelle Abbildungseigenschaft. 10.4.5 Satz. Seien M ein R-Modul und p ≥ 2 eine natürliche Zahl. Dann gibt es zu jeder p-fach linearen alternierenden Abbildung ϕ : M p → in einem
N mit Werten R-Modul N genau eine R-lineare Abbildung ϕ ∈ HomR p M, N derart, daß ϕ (a1 ∧ · · · ∧ ap ) = ϕ(a1 , . . . , ap ) für alle (a1 , . . . , ap ) ∈ M p . Beweis: Da ϕ eine p-fach lineare Abbildung ist, gibt es nach Folgerung 10.1.12 genau ein h ∈ HomR (⊗p M, N ) derart, daß das linke Dreieck des Diagramms tpρp- Mp M ⊗ M p
p
@
@ ϕ
h
ϕ
@ @ R ? @ N kommutativ ist, wobei tp : M p → T = ⊗p M die p-fache Tensorabbildung von M p auf T ist. Da ϕ außerdem alternierend ist, gilt für alle p-Tupel (a1 , a2 , . . . , ap ) ∈ M p , bei denen mindestens zwei verschieden indizierte Elemente ai ∈ M gleich sind, daß 0 = ϕ(a1 , . . . , ap ) = h(a1 ⊗ · · · ⊗ ap ) = htp (a1 , . . . , ap ).
294
10 Multilineare Algebra
Also ist der Untermodul Up von T = ⊗p M, der von allen a1 ⊗ · · · ⊗ ap erzeugt wird, bei denen Sei mindestens zwei ai ∈ M gleich sind, in Ker(h) enthalten. ρp : ⊗p M → p M der kanonische Epimorphismus von T = ⊗p M auf p M mit 9.2.20 eine eindeutig Ker(ρp ) = Up . Wegen Up ≤ Ker(h) gibt es nach Folgerung bestimmte, R-lineare Abbildung ϕ ∈ HomR M, N mit p ϕ (a1 ∧ · · · ∧ ap ) = ϕ(a1 , . . . , ap ) für alle (a1 , . . . , ap ) ∈ M p .
10.4.6 Folgerung. Seien M, N zwei R-Moduln. Sei p ≥ 2 eine natürliche Zahl und AltR (p, M, N) die Menge aller p-fach linearen alternierenden Abbildungen von M mit Werten in N. Dann gelten: (a) AltR (p, M, N) ist ein R-Modul.
∼ (b) HomR p M, N = Alt R (p, M, N ) als R-Moduln. Beweis: (a) Seien ϕ, ψ ∈ AltR (p, M, N ) und r ∈ R beliebig. Dann sind ϕ + ψ und ϕr p-fach lineare alternierende Abbildungen von M in N. Also ist AltR (p, M, N ) ein R-Modul.
(b) Da p M und N zwei R-Moduln sind, ist HomR p M, N nach Hilfssatz 10.1.3 ein R-Modul. Nach den Hilfssätzen 10.4.2 und 10.4.3 ist die Zuordnung ρp tp : M p → p M, die durch ρp tp (a1 , . . . , ap ) = ρp (a1 ⊗ · · · ⊗ ap ) = a1 ∧ · · · ∧ ap für alle p-Tupel (a1 , a2 , . . . , ap ) ∈ M p erklärt ist, eine p-fach lineare alternierende Abbildung von M in p M. Daher ist α = αρp tp für jedes α ∈
HomR p M, N eine p-fach lineare alternierende Abbildung von M in N, d. h. αρp tp ∈ AltR (p, M, N). Nach existiert zu jedem α ∈ Alt R (p, M, N ) genau ein α ∈
Satz 10.4.5 HomR p M, N derart, daß α(a1 ∧ a2 ∧ · · · ∧ ap ) = α (a1 , a2 , . . . , ap ), also α = αρp tp ist. Daher Abbildung α → α eine injektive R-lineare
ist die Abbildung von HomR R M, N in Alt R (p, M, N ). Diese Abbildung ist auch surjektiv nach Satz 10.4.5, also ein Isomorphismus.
Sei ϕ eine p-fach lineare alternierendeAbbildung des freien R-Moduls M mit Basis B = {m1 , m2 , . . . , mn }. Dann ist ϕ schon durch die Bilder ϕ(mk1 , mk2 , . . . , mkp ) aller p-Tupel aus Basisvektoren festgelegt. Da ϕ alternierend ist, kann man sich auf p-Tupel paarweise verschiedener Basisvektoren beschränken, weil andernfalls ϕ den Wert 0 hat. Sei also (mk1 , mk2 , . . . , mkp ) ein p-Tupel, das aus paarweise verschiedenen Basisvektoren besteht. Sei π diejenige Permutation von {k1 , k2 , . . . , kp }, die
295
10.4 Äußere Potenzen und alternierende Abbildungen
diese Indizes der Größe nach ordnet, für die also π(k1 ) < π(k2 ) < · · · < π(kp ) gilt. Wegen Hilfssatz 10.4.3 folgt ϕ(mπ(k1 ) , mπ(k2 ) , . . . , mπ(kp ) ) = ϕ(mk1 , mk2 , . . . , mkp ) · sign π. Deshalb ist ϕ eindeutig bestimmt durch die Werte ϕ(mi1 , mi2 , . . . , mip ) auf allen p-Tupeln (mi1 , mi2 , . . . , mip ) mit i1 < i2 < · · · < ip . 10.4.7 Hilfssatz. Sei M ein endlich erzeugter freier R-Modul über dem kommutativen Ring R mit Basis B = {mi ∈ M | 1 ≤ i ≤ n}. Sei p ≥ 1 eine natürliche Zahl und AltR (p, M, R) der R-Modul aller p-fach linearen alternierenden Abbildungen ϕ von M in R. Dann gibt es zu jeder echt aufsteigenden Folge F : i1 < i2 < · · · < ip von p Zahlen ij ∈ {1, 2, . . . , n} genau eine p-fach lineare alterniernde Abbildung ϕi1 ,i2 ,...,ip ∈ Alt R (p, M, R) derart, daß für alle der Größe nach geordneten Folgen k1 < k2 < · · · < kp von p Zahlen ks ∈ {1, 2, . . . , n} gilt: 1 ∈ R für (k1 , . . . , kp ) = (i1 , . . . , ip ), ϕi1 ,i2 ,...,ip (mk1 , . . . , mkp ) = 0 ∈ R für (k1 , . . . , kp ) = (i1 , . . . , ip ). Beweis: Da M ein freier R-Modul ist, hat M ∗ = HomR (M, R) nach dem Beweis von Satz 3.6.8 die (duale) Basis B ∗ = {αi ∈ M ∗ | 1 ≤ i ≤ n}, wobei 1 ∈ R für i = j, αi (mj ) = 0 ∈ R für i = j für alle 1 ≤ i, j ≤ n. Sei F : i1 < i2 < · · · < ip eine beliebige, echt aufsteigende Folge von p Zahlen ij ∈ {1, 2, . . . , n}. Für alle (x1 , x2 , . . . , xp ) ∈ M p sei die Abbildung ϕi1 ,i2 ,...,ip : M p → R definiert durch ϕi1 ,i2 ,...,ip (x1 , x2 , . . . , xp ) =
(sign π )
π ∈Sp
p
αij (xπ(j ) ).
j =1
Da alle αij R-lineare Abbildungen von M in R sind, ist ϕi1 ,i2 ,...,ip eine p-fach lineare Abbildung von M in R. Sicherlich ist ϕi1 ,i2 ,...,ip (mi1 , mi2 , . . . , mip ) = p j =1 αij (mij ) = 1. Für jede echt aufsteigende Folge k1 < k2 < · · · < kp von p Zahlen kj ∈ {1, 2, . . . , n} mit ϕi1 ,i2 ,...,ip (mk1 , mk2 , . . . , mkp ) = 0 existiert mindestens eine Permutation π ∈ Sp derart, daß p j =1
αij (mkπ(j ) ) = 0.
296
10 Multilineare Algebra
Da {αij | 1 ≤ j ≤ n} die duale Basis zu B für j = 1, 2, . . . , p. Also ist π = id ∈ Sp gilt 1∈R ϕi1 ,i2 ,...,ip (mk1 , . . . , mkp ) = 0∈R
= {mi | 1 ≤ i ≤ n} ist, folgt kπ(j ) = ij und kj = ij für j = 1, 2, . . . , p. Daher für (k1 , . . . , kp ) = (i1 , . . . , ip ), für (k1 , . . . , kp ) = (i1 , . . . , ip ).
Ist nun (x1 , x2 , . . . , xp ) ∈ M p ein p-Tupel derart, daß xi = xj für ein Paar i = j gilt, dann sei σ = (i, j ) ∈ Sp . Da die Transposition σ eine ungerade Permutation ist, hat die symmetrische Gruppe nach Folgerung 5.1.11 die Zerlegung Sp = Ap ∪ Ap σ , wobei Ap die alternierende Untergruppe von Sp ist. Hieraus folgt ϕi1 ,i2 ,...,ip (x1 , x2 , . . . , xp ) =
(sign π )
π∈Ap
+
(sign π σ )
p
αik (xπ σ (k) )
k=1
p π∈Ap
αik (xπ(k) )
k=1
π ∈Ap
=
p
k=1
αik (xπ(k) ) −
p
αik (xπ σ (k) ) = 0,
k=1
weil xπσ (k) = xπ(k) für alle k ∈ / {i, j } und xπ(k) = xπ σ (k) für k ∈ {i, j } wegen xi = xj gilt. Daher ist ϕi1 ,i2 ,...,ip ∈ AltR (p, M, R). 10.4.8 Satz. Sei M ein endlich erzeugter, freier R-Modul über dem kommutativen Ring R mit Basis B = {mi ∈ M | 1 ≤ i ≤ n}. Sei p eine natürliche Zahl. Dann ist die p-te äußere Potenz p M von M ein freier R-Modul mit Basis {mi1 ∧mi2 ∧· · ·∧mip | 1 ≤ i1 < i2 < · · · < ip ≤ n}. Insbesondere gilt p M = 0 für alle p > n und
n rg p M = p für p ≤ n. Beweis: Sicherlich gelten alle Behauptungen für p = 0 und p = 1. Sei also p ≥ 2. Nach den Folgerungen 10.1.12 und 10.1.14 ist die Menge A = {mi1 ⊗mi2 ⊗· )· ·⊗mip | = 1, 2, . . . , p} eine Basis des freien R-Moduls p M. Sei ij ∈ {1, 2, . . . , n} für j ) Up der Untermodul von p M, der von allen Elementen der Form a1 ⊗a2 ⊗· · ·⊗ap erzeugt ) wird, wobei ai = aj für mindestens ein Paar (i, j ) mit 1 ≤ i < j ≤ p gilt. Sei ρp : p M → p M der kanonische R-Modulepimorphismus mit Ker(ρp ) = Up . Wegen Hilfssatz 10.4.3 ist dann die Menge C = {ρp (mi1 ⊗ · · · ⊗ mip ) = mi1 ∧ · · · ∧ mip | 1 ≤ i1 < i2 < · · · < ip ≤ n} ein Erzeugendensystem von p M. Nach Hilfssatz 10.4.7 existiert zu jeder Folge i1 < i2 < · · · < ip von p Zahlen ij ∈ {1, 2, . . . , n} genau ein
10.4 Äußere Potenzen und alternierende Abbildungen
297
ϕi1 ,i2 ,...,ip ∈ AltR (p, M, R) mit ϕi1 ,i2 ,...,ip (mi1 , mi2 , . . . , mip ) = 1 und ϕi1 ,i2 ,...,ip (mk1 , mk2 , . . . , mkp ) = 0 für alle aufsteigenden Folgen k1 < k2 < · · · < kp mit (k1 , k2 , . . . , kp ) = (i1 , i2 , . . . , ip). Daher existiert nach Satz 10.4.5 zu jedem ϕi1 ,i2 ,...,ip ein ϕ ∈ HomR p M, R mit ϕ (mi1 ∧ mi2 ∧ · · · ∧ mip ) = ϕi1 ,i2 ,...,ip (mi1 , mi2 , . . . , mip ) = 0.
Insbesondere sind die pn p-Vektoren mi1 ∧ mi2 ∧ · · · ∧ mip ∈ p M alle von Null verschieden. Durch Auswertung der p-fach linearen, alternierenden Abbildungen ϕi1 ,i2 ,...,ip an den p-Tupeln (mi1 , mi2 , . . . , mip ) zu den Folgen i1 < i2 < · · · < ip sieht man, daß
die pn Abbildungen ϕi1 ,i2 ,...,ip linear unabhängig über R sind. Die pn p-Vektoren mi1 ∧ mi2 ∧ · · · ∧ mip ∈ p M sind daher nach Folgerung 10.4.6 linear unabhängig über R. Also ist C = {mi1 ∧mi2 ∧· · ·∧mip | 1 ≤ i1 < i2 < · · · < ip ≤ n} eine Basis
n von p M. Insbesondere ist dann rg p M = p für p ≤ n und pM = 0 für p > n, weil in jedem p-Vektor a1 ∧ a2 ∧ · · · ∧ ap der n Basisvektoren von B mindestens zwei gleiche Elemente ai auftreten. 10.4.9 Folgerung. Sei V ein n-dimensionaler Vektorraum über dem kommutativen Körper F und sei p eine natürliche Zahl. Dann ist dimF
*
+ V =
0 n p
p
wenn p > n, wenn p ≤ n.
Beweis: Folgt sofort aus Satz 10.4.8.
10.4.10 Folgerung. Sei V ein Vektorraum über dem Körper F mit dimF V = n. Dann sind die n Vektoren v 1 , v 2 , . . . , v n ∈ V genau dann linear abhängig, wenn v 1 ∧ v 2 ∧ · · · ∧ v n = 0 ist. Beweis: Sind die n Vektoren v 1 , v 2 , . . . , v n linear abhängig über F , dann kann nach Umnumerierung angenommen werden, daß v1 = ni=2 vi fi für geeignete fi ∈ F ist. Nach Hilfssatz 10.4.2 folgt v1 ∧ (v2 ∧ v3 ∧ · · · ∧ vn ) =
n
[vi ∧ (v2 ∧ v3 ∧ · · · ∧ vn )]fi = 0.
i=2
Die umgekehrte Richtung folgt unmittelbar aus Folgerung 10.4.9.
298
10.5
10 Multilineare Algebra
Determinante eines Endomorphismus
Sei M ein endlich erzeugter, freier R-Modul über dem kommutativen Ring R mit Einselement. Mit Hilfe von Satz 10.4.8 ist es nun einfach, jedem Endomorphismus α ∈ EndR (M) ein eindeutig bestimmtes Element det(α) ∈ R zuzuordnen, das die Determinante von α genannt wird.Alle Ergebnisse des Kapitels 5 über Determinanten von Endomorphismen eines Vektorraums V über einem Körper F ergeben sich als Spezialfälle der hier entwickelten Theorie. 10.5.1 Satz. Sei p ≥ 2 und M ein R-Modul über dem kommutativen Ring R. Dann existiert zu jedem α ∈ EndR (M) genau ein Endomorphismus
Endomorphismus p α ∈ EndR p M mit der Eigenschaft, daß * α (m1 ∧ m2 ∧ · · · ∧ mp ) = α(m1 ) ∧ α(m2 ) ∧ · · · ∧ α(mp ) p
für alle mi ∈ M, 1 ≤ i ≤ p gilt.
Beweis: Sei α ∈ EndR (M) fest gewählt. Die Abbildung ϕ : M p → gegeben ist durch
p
M, die
ϕ(m1 , m2 , . . . , mp ) = α(m1 ) ∧ α(m2 ) ∧ · · · ∧ α(mp ), ist p-fach linear Also existiert nach Satz 10.4.5 genau ein
und alternierend. ϕ ∈ HomR M, M derart, daß p p ϕ (m1 ∧ m2 ∧ · · · ∧ mp ) = ϕ(m1 , m2 , . . . , mp ) = α(m1 ) ∧ α(m2 ) ∧ · · · ∧ α(mp ) für alle m1 , m2 , . . . , mp ∈ M gilt. Die Behauptung folgt dann mit
EndR pM .
p
α = ϕ ∈
10.5.2 Definition. Sei p ≥ 1 eine natürliche Zahl und α ein Endomorphismus des R-Moduls M. Der nach Satz 10.5.1 durch α eindeutig bestimmte Endomorphismus p α der p-ten äußeren Potenz p M von M heißt die p-te äußere Potenz des Endomorphismus α. 10.5.3 Satz. Sei M ein freier R-Modul mit rg(M) = n > 0. Dann gibt es zu jedem α ∈ EndR (M) genau ein rα ∈ R mit * * α (m1 ∧ · · · ∧ mn ) = (m1 ∧ · · · ∧ mn ) · rα für alle m1 ∧ · · · ∧ mn ∈ M. n
n
299
10.5 Determinante eines Endomorphismus
Beweis: Sei {b1 , . . . , bn } eine Basis von M. Dann ist b1 ∧· · ·∧bn nach Satz 10.4.8 eine Basis des freien R-Moduls n M. Daher existiert zu jedem m1 ∧ · · · ∧ mn ∈ n M genau ein r ∈ R mit m1 ∧ · · · ∧ mn = (b1 ∧ · · · ∧ bn )r. Da
nα
∈ EndR
nM
nach Satz 10.5.1 gilt, ist
* α (b1 ∧ · · · ∧ bn ) = (b1 ∧ · · · ∧ bn )rα
für genau ein rα ∈ R.
n
Hieraus folgt für beliebige m1 , . . . , mn ∈ M * * α (m1 ∧ · · · ∧ mn ) = α [(b1 ∧ · · · ∧ bn )r] n
n
$* % = α (b1 ∧ · · · ∧ bn ) r = (b1 ∧ · · · ∧ bn )rα r n
= [(b1 ∧ · · · ∧ bn )r] rα = (m1 ∧ · · · ∧ mn )rα .
10.5.4 Definition. Sei M ein freier R-Modul mit rg(M) = n > 0. Die Determinante des Endomorphismus α von M ist das nach Satz 10.5.3 durch α eindeutig bestimmte Ringelement rα . Bezeichnung: det(α) = rα . 10.5.5 Bemerkung. Sei M ein freier R-Modul mit rg(M) = n > 0. Dann ist die Identität auf n M, und det(id) = 1.
n id
10.5.6 Satz. Sei M ein freier R-Modul mit rg(M) = n > 0. Seien α, β ∈ EndR (M) Endomorphismen von M. Dann gelten (a) det(αβ) = det(α) · det(β). (b) Ist α invertierbar, so ist det(α −1 ) = (det(α))−1 ∈ R. Beweis: (a) Seien n α, n β und n (αβ) die n-ten äußeren Potenzen von α, β und (αβ). Sei {mi ∈ M | 1 ≤ i ≤ n} eine Basis des freien R-Moduls M. Nach Definition 10.5.4 ist dann * (αβ)(m1 ∧ m2 ∧ · · · ∧ mn ) = (m1 ∧ m2 ∧ · · · ∧ mn ) det(αβ). n
300
10 Multilineare Algebra
Wegen αβ ∈ EndR (M) folgt aus Definition 10.5.2, daß * (αβ)(m1 ∧ m2 ∧ · · · ∧ mn ) = αβ(m1 ) ∧ αβ(m2 ) ∧ · · · ∧ αβ(mn ) n
=
* α (β(m1 ) ∧ β(m2 ) ∧ · · · ∧ β(mn )) n
$* % = α (m1 ∧ m2 ∧ · · · ∧ mn ) det(β) n
= [α(m1 ) ∧ α(m2 ) ∧ · · · ∧ α(mn )] det(β) = (m1 ∧ m2 ∧ · · · ∧ mn ) det(α) · det(β). Nach Satz 10.4.8 ist m1 ∧ m2 ∧ · · · ∧ mn eine Basis des freien R-Moduls n M. Also ist det(αβ) = det(α) · det(β). (b) Ist α invertierbar, so ist α · α −1 = id. Nach Bemerkung 10.5.5 und (a) folgt 1 = det(id) = det(α · α −1 ) = det(α) · det(α −1 ).
10.5.7 Satz. Sei M ein freier R-Modul mit Basis B = {mi | 1 ≤ i ≤ n}. Der Endomorphismus α ∈ EndR (M) habe bezüglich B die Matrix Aα (B, B) = (aij ). Dann hat α die Determinante det α = (sign π )a1,π(1) a2,π(2) . . . an,π(n) . π∈Sn
Beweis: Nach Definition 10.5.2 und den Hilfssätzen 10.4.2 und 10.4.3 gelten die folgenden Gleichungen: * α (m1 ∧ · · · ∧ mn ) = αm1 ∧ · · · ∧ αmn n
=
n
mi ai1 ∧
i=1
=
n n j1 =1 j2 =2
n
mi ai2 ∧ · · · ∧
i=1
···
n
n
mi ain
i=1
mj1 ∧ mj2 ∧ · · · ∧ mjn (aj1 ,1 aj2 ,2 . . . ajn ,n ),
jn =n
wobei (j1 , j2 , . . . , jn ) alle Permutationen der Menge {1, 2, . . . , n} durchläuft. Wegen Hilfssatz 10.4.3 gilt daher, daß * α (m1 ∧ · · · ∧ mn ) = (m1 ∧ · · · ∧ mn ) (sign π )aπ(1),1 aπ(2),2 . . . aπ(n),n n
π ∈Sn
301
10.6 Aufgaben
ist. Da m1 ∧ m2 ∧ · · · ∧ mn eine Basis des freien R-Moduls n M ist, folgt aus Definition 10.5.4, daß det α = (sign π )aπ(1),1 aπ(2),2 . . . aπ(n),n . π∈Sn
Mit π durchläuft auch π −1 alle Elemente der symmetrischen Gruppe, woraus det α = (sign π )a1,π(1) a2,π(2) . . . an,π(n) π∈Sn
folgt.
10.5.8 Definition. Sei A = (aij ) eine n × n-Matrix mit Koeffizienten aij aus dem kommutativen Ring R. Dann ist die Determinante det(A) von A das eindeutig bestimmte Ringelement det(A) = (sign π )a1,π(1) a2,π(2) . . . an,π(n) . π∈Sn
10.5.9 Bemerkung. Wegen Satz 10.5.7 ist die Definition 5.3.4 der Determinante einer n×n-Matrix mit Koeffizienten aij aus einem Körper F ein Spezialfall von 10.5.8.
10.6 Aufgaben 10.1 Sei F ein kommutativer Körper und (M ⊗F N, t) das Tensorprodukt der F -Vektorräume M und N . Seien U ≤ M und V ≤ N F -Unterräume. Zeigen Sie: (a) U ⊗ N ∼ = t (U × N ) = u ⊗ n | u ∈ U, n ∈ N ≤ M ⊗ N . ∼ (M ⊗R N )/[t (U × N ) + t (M × V )]. (b) M/U ⊗ N/V = 10.2 Der Körper Q der rationalen Zahlen sei als Z-Modul aufgefaßt. Zeigen Sie:
2 Q = 0.
10.3 Seien A, A zwei n × n-Matrizen und B, B zwei m × m-Matrizen über dem Körper F . Zeigen Sie: (a) (A ⊗ B) · (A ⊗ B ) = (A · A ) ⊗ (B · B ). (b) Sind jeweils A, A und B, B ähnliche Matrizen, so sind auch die Matrizen A ⊗ B und A ⊗ B ähnlich. (c) Ist c ∈ F ein Eigenwert von A und d ∈ F ein Eigenwert von B, so ist cd ein Eigenwert von A ⊗ B. 10.4 Sei A eine n × n-Matrix und B eine m × m-Matrix. Zeigen Sie: (a) tr(A ⊗ B) = tr(A) · tr(B).
302
10 Multilineare Algebra
(b) det(A ⊗ B) = det(A)m · det(B)n . 10.5 Seien M und N zwei endlich-dimensionale F -Vektorräume. Zeigen Sie, daß durch τ (α ⊗ n) = nα(m) für alle m ∈ M, n ∈ N und α ∈ M ∗ = Hom(M, F ) ein Vektorraumisomorphismus τ : M ∗ ⊗F N → HomF (M, N ) beschrieben ist. 10.6 Es sei W ein Unterraum des F -Vektorraums V . Die p-Vektoren x 1 ∧ · · · ∧ xp , bei denen mindestens einer der Vektoren x 1 , . . . , xp in W liegt, spannen dann einen Unterraum Wp von p V auf. Zeigen Sie, daß p
(V /W ) ∼ V /Wp . = p
10.7 Es gelte Z = V ⊕ Y . Beweisen Sie die Isomorphie p
Z∼ =
p V ⊗ Y . q=0
q
p−q
10.8 Es sei V der dreidimensionale arithmetische Vektorraum über F = Z/2Z. Bestimmen Sie alle zweifach alternierenden Abbildungen von V in F , eine Basis des Vektorraums AltF (2, V , F ), sowie seine Dimension. 10.9 Sei R ein kommutativer Ring mit Einselement und A = (aij ) eine n × n-Matrix mit Koeffizienten aij ∈ R. Zeigen Sie, daß A genau dann invertierbar ist, wenn det(A) eine Einheit in R ist. 10.10 Sei {u1 , u2 , . . . , um } eine Basis des Unterraums U des Vektorraums V über dem beliebigen Körper F . Zeigen Sie: U = {v ∈ V | v ∧ u1 ∧ u2 ∧ · · · ∧ um = 0}.
11 Moduln über Hauptidealringen
So wie sich bekanntlich im Ring Z der ganzen Zahlen jede ganze Zahl z eindeutig in ein Produkt von Primzahlpotenzen pini zerlegen läßt, hat auch jedes Polynom f (X) aus dem Polynomring F [X] eine eindeutige Primfaktorzerlegung in Potenzen qi (X)ni von irreduziblen Polynomen qi (X). Im ersten Abschnitt werden diese gemeinsamen arithmetischen Eigenschaften von Z und F [X] im Rahmen der euklidischen Ringe hergeleitet. Es wird gezeigt, daß jeder euklidische Ring R ein Hauptidealring ist. Für allgemeine Hauptidealringe R wird die Existenz und Eindeutigkeit der Faktorzerlegung eines Elementes a ∈ R, das von Null verschieden und keine Einheit ist, in Primfaktoren nachgewiesen. In Abschnitt 2 wird gezeigt, daß jeder endlich erzeugte R-Modul M über einem Hauptidealring R eine direkte Summe seines Torsionsuntermoduls T (M) und eines freien Untermoduls U ist. Mit den arithmetischen Ergebnissen des Abschnitts 1 wird im dritten und vierten Abschnitt die Struktur des Torsionsmoduls T (M) beschrieben. Insbesondere wird gezeigt, daß T (M) die direkte Summe seiner Primärkomponenten T (M)p ist. Jede Komponente T (M)p ist eine eindeutig bestimmte direkte Summe von zyklischen Moduln. Ihre Ordnungen heißen Elementarteiler. Sie bestimmen den R-Modul T (M) bis auf Isomorphie eindeutig. Aus diesem Struktursatz endlich erzeugter Moduln M über einem Hauptidealring ergibt sich der Basissatz für endlich erzeugte abelsche Gruppen als Spezialfall. Im fünften Abschnitt wird als weitere Folgerung des Struktursatzes der Elementarteilersatz für m × n-Matrizen A = (aij ) mit Koeffizienten aij aus einem Hauptidealring R bewiesen. Dabei werden die Beziehungen zwischen den Elementarteilerbegriffen der Modultheorie und der Matrizentheorie aufgezeigt. Danach wird der Smith-Algorithmus für die Berechnung der Elementarteiler einer m × nMatrix A über einem Hauptidealring R dargestellt. Schließlich wird gezeigt, daß man den Rang und die Elementarteiler eines endlich erzeugten R-Moduls M mittels des Smith-Algorithmus aus der Relationenmatrix R einer freien Auflösung von M berechnen kann. Für euklidische Ringe R ergibt sich, daß man die Elementarteiler von A bzw. R sogar durch endlich viele elementare Spalten- und Zeilenumformungen erhält. Alle in diesem Kapitel betrachteten Ringe R sind kommutativ und haben ein Einselement.
304
11.1
11 Moduln über Hauptidealringen
Eindeutige Faktorzerlegung in Hauptidealringen
In diesem Abschnitt wird die Arithmetik der nullteilerfreien, kommutativen Hauptidealringe R entwickelt. Insbesondere wird gezeigt, daß jedes Element r = 0 von R, das keine Einheit ist, sich eindeutig in Potenzen von Primelementen faktorisieren läßt. Im Spezialfall R = F [X] des Polynomrings in der Unbestimmten X über dem Körper F läßt sich mittels des ebenfalls dargestellten euklidischen Algorithmus der größte gemeinsame Teiler von zwei gegebenen Elementen r, s ∈ R effektiv berechnen. 11.1.1 Definition. Der Ring R heißt nullteilerfrei, wenn ab = 0 stets a = 0 oder b = 0 impliziert. 11.1.2 Bemerkung. In nullteilerfreien Ringen R gilt die Kürzungsregel: ac = bc mit c = 0 impliziert a = b. Dies folgt aus der Gleichung (a − b)c = ac − bc = 0. 11.1.3 Beispiele. (a) Jeder Körper F ist nullteilerfrei. (b) Der Polynomring R = F [X] ist nullteilerfrei. (c) R = ab ∈ Q | a, b ∈ Z, b wird nicht von 2 geteilt ist ein nullteilerfreier Ring. So wie der Ring Z der ganzen Zahlen ein Unterring im Körper Q der rationalen Zahlen ist, so kann auch jeder nullteilerfreie kommutative Ring R in seinen Quotientenkörper Q(R) eingebettet werden, wie nun gezeigt wird. 11.1.4 Satz. Sei R ein nullteilerfreier kommutativer Ring. Auf der Menge M aller Paare (a, b) ∈ R × R mit b = 0 sei die Relation ∼ definiert durch: (a, b) ∼ (a , b ) genau dann, wenn ab = a b in R erfüllt ist. Dann gelten die folgenden Behauptungen: (a) Die Relation ∼ ist eine Äquivalenzrelation. (b) Die Menge Q der Äquivalenzklassen ab = {(a , b ) ∈ M | (a , b ) ∼ (a, b)} der Paare (a, b) ∈ M bilden bezüglich der Addition
a c ad + bc + = b d bd
und Multiplikation für alle ab ,
c d
a c ac · = b d bd
∈ Q einen kommutativen Körper.
305
11.1 Eindeutige Faktorzerlegung in Hauptidealringen
(c) Durch die Einbettung r → 1r ∈ Q für alle r ∈ R wird R ein Unterring von Q mit demselben Einselement 1 = 11 . (d) Q ist ein R-Modul bezüglich der Verknüpfung ar a ·r = b b
für alle
a ∈ Q und r ∈ R. b
Der Körper Q = Q(R) heißt der Quotientenkörper von R. Beweis: (a) Trivialerweise ist ∼ reflexiv und symmetrisch. Da R nullteilerfrei ist, folgt aus ab = a b und a b = a b , daß a(b b ) = a (bb ) = a (b b) und so auch ab = a b gilt. Also ist ∼ transitiv. (b) Die Addition ist wohldefiniert; denn aus ab = ab und dc = dc folgt ab + dc = a d +b c = ad+bc = ab + dc , weil (a d + b c )bd = a bdd + c dbb = ab dd + bd b d cd bb = (ad + bc)b d . Ebenso zeigt man die Wohldefiniertheit der Multiplikation. Da R kommutativ und assoziativ bezüglich + und · ist, folgt dies auch für Q aus den Rechenregeln für die Addition und Multiplikation in Q. Ebenso gelten die Distributivgesetze. In Q ist 1 = 11 = {(a, a) | a ∈ R, a = 0} das Einselement, 0 = 01 = {(0, b) | b ∈ R, b = 0} das Nullelement und beide sind verschieden. Weiter hat jedes ab = 0 aus Q das Inverse ab . Also ist Q ein Körper. Die Behauptungen (c) und (d) sind nun einfach zu verifizieren. 11.1.5 Definition. Ein Ring R heißt euklidischer Ring, wenn er nullteilerfrei ist und eine Norm ρ : R \ {0} → N besitzt, die folgende Bedingungen erfüllt: (a) Aus a = 0, b = 0 folgt ρ(a · b) ≥ ρ(a). (b) Zu je zwei Elementen a, b ∈ R mit b = 0 gibt es Elemente q, r ∈ R mit a = b · q + r und ρ(r) < ρ(b) oder r = 0 (Division mit Rest). 11.1.6 Beispiele. (a) Z ist ein euklidischer Ring, wenn man die Norm durch ρ(n) = |n| definiert. (b) Der Polynomring F [X] über einem Körper F wird durch die Normdefinition ρ(f ) = Grad f zu einem euklidischen Ring. (c) Die Division mit Rest kann im Polynomring F [X] nach dem bekannten Divisionsschema erfolgen, das am Beispiel der Polynome f (X) = 4X 3 + 8X 2 + X − 2, aus Q[X] erläutert sei. Man erhält
g(X) = 2X 2 + X + 2
306
11 Moduln über Hauptidealringen
4X 3 + 8X 2 4X 3 + 2X 2 6X 2 6X 2
+ X + 4X − 3X + 3X − 6X
−2 = (2X 2 + X + 2)(2X + 3), −2 +6 −8
also f = q · g + r mit q(X) = 2X + 3 und r(X) = −6X − 8, wobei auch ρ(r) = 1 < 2 = ρ(g) erfüllt ist. 11.1.7 Bemerkung. Die Ungleichung (b) für die Normen wird beweistechnisch häufig folgendermaßen ausgenutzt: Da die Normwerte ρ(a) nicht-negative ganze Zahlen sind, muß eine echt abnehmende Folge von Normwerten nach endlich vielen Gliedern abbrechen. 11.1.8 Definition. Der kommutative Ring R heißt Hauptidealring (HIR), wenn er nullteilerfrei ist und wenn jedes Ideal Y von R ein Hauptideal ist. 11.1.9 Satz. Jeder euklidische Ring R ist ein Hauptidealring. Beweis: Sei Y = 0 ein Ideal von R. Sei ρ : R → N die Normfunktion des euklidischen Ringes R. Die Menge M = {ρ(y) | y ∈ Y, y = 0} von natürlichen Zahlen besitzt ein kleinstes Element ρ(y0 ). Nach Definition 11.1.5 (b) existieren zu jedem y ∈ Y Elemente q, r ∈ R mit y = y0 q + r derart, daß ρ(r) < ρ(y0 ) oder r = 0 ist. Nun ist r = y − y0 q ∈ Y , weil Y ein Ideal von R ist. Da ρ(y0 ) ein minimales Element von M ist, folgt r = 0. Also ist y = y0 q, woraus Y = y0 R folgt. 11.1.10 Folgerung.
(a) Der Ring Z der ganzen Zahlen ist ein Hauptidealring.
(b) Für jeden Körper F ist der Polynomring R = F [X] ein Hauptidealring. Beweis: Nach Bemerkung 11.1.6 sind Z und R = F [X] euklidische Ringe. Also sind sie beide Hauptidealringe nach Satz 11.1.9. 11.1.11 Beispiel. R = Z[X] ist kein Hauptidealring, weil z. B. das Ideal Y = 2R + XR nicht von einem Element erzeugt wird. Denn wäre Y = pR für ein Polynom p = p(X) = p0 + p1 X + · · · + pn X n mit pi ∈ Z, 1 ≤ i ≤ n, dann wäre auch 2 ∈ Y von der Form 2 = p(X) · r(X) für ein r(X) ∈ R. Da 2 den Grad 0 in der Unbestimmten X hat, folgt p = p0 = 2. Wegen X ∈ Y wäre dann aber X = 2g(X) für ein g(X) ∈ R. Widerspruch! 11.1.12 Definition. Zwei Elemente p, q ∈ R heißen assoziiert, wenn es eine Einheit u ∈ R mit p = qu gibt.
11.1 Eindeutige Faktorzerlegung in Hauptidealringen
307
11.1.13 Definition. Ein Element t ∈ R teilt das Element a ∈ R, wenn a = tr für ein r ∈ R gilt. Bezeichnung: t | a. 11.1.14 Definition. Ein Element c ∈ R heißt ein größter gemeinsamer Teiler (ggT) von a, b ∈ R, wenn die beiden folgenden Bedingungen gelten: (a) c | a und c | b. (b) Für jedes t ∈ R folgt aus t | a und t | b auch t | c. Bezeichnung:
ggT(a, b).
11.1.15 Definition. Ein Element v ∈ R heißt ein kleinstes gemeinsames Vielfaches (kgV) von a, b ∈ R, wenn die beiden folgenden Bedingungen gelten: (a) a | v und b | v. (b) Für jedes y ∈ R folgt aus a | y und b | y auch v | y. Bezeichnung:
kgV(a, b).
11.1.16 Bemerkung. Ist u eine Einheit von R, so teilen u und u−1 jedes Element von R. Zwei Elemente a, b ∈ R sind daher genau dann assoziiert, wenn sie sich wechselseitig teilen. Zwei größte gemeinsame Teiler von a und b müssen sich gegenseitig teilen, sind also assoziiert; und umgekehrt ist jedes zu einem größten gemeinsamen Teiler assozierte Element ebenfalls ein größter gemeinsamer Teiler. Dieser ist also durch a, b bis auf Assoziiertheit eindeutig bestimmt. Man spricht daher in diesem Sinne von dem größten gemeinsamen Teiler. Entsprechendes gilt für das kleinste gemeinsame Vielfache. Zwei Elemente a, b ∈ R heißen teilerfremd, wenn ggT (a, b) = 1 ist. 11.1.17 Satz. Sei R ein Hauptidealring und seien a, b ∈ R. Dann gelten: (a) c ∈ R ist ein ggT von a und b genau dann, wenn cR = aR + bR. (b) v ∈ R ist ein kgV von a und b genau dann, wenn vR = aR ∩ bR. Beweis: (a) Aus c ∈ cR = aR + bR folgt c | a und c | b. Ist t ein gemeinsamer Teiler von a und b, so ist a = ta1 ∈ tR und b = tb1 ∈ tR. Hieraus folgt cR = aR + bR ⊆ tR + tR = tR. Also ist c = tr für ein r ∈ R. Ist umgekehrt c = ggT(a, b), so ist aR ⊆ cR und bR ⊆ cR. Also gilt aR+bR ⊆ cR. Da R ein Hauptidealring ist, existiert ein d ∈ R mit dR = aR + bR. Es folgt d | a und d | b. Deshalb gilt d | c, woraus cR ≤ dR und somit cR = aR + bR folgt.
308
11 Moduln über Hauptidealringen
(b) Ist vR = aR ∩ bR, so ist v = au = br für geeignete u, r ∈ R. Also ist v ein Vielfaches von a und b. Ist w ein weiteres Vielfaches von a und b, so gilt w = ax = by für Elemente x, y ∈ R. Also ist w ∈ aR ∩ bR = vR. Daher ist w = vz. Deshalb ist v ein kleinstes gemeinsames Vielfaches von a und b. Aus v = kgV(a, b) folgt vR ⊆ aR und vR ⊆ bR. Da R ein Hauptidealring ist, ist aR ∩ bR = dR für ein d ∈ R. Also ist d ein Vielfaches von a und b, also auch von v. Hieraus folgt vR ⊆ aR ∩ bR = dR ⊆ vR,
d. h. vR = aR ∩ bR.
11.1.18 Definition. Ein von Null verschiedenes Element p des nullteilerfreien Ringes R heißt Primelement oder prim, wenn es keine Einheit ist und wenn für alle a, b ∈ R aus p | ab stets p | a oder p | b folgt. 11.1.19 Definition. Ein von Null verschiedenes Element p ∈ R heißt unzerlegbar, wenn p keine Einheit in R ist und aus p = xy stets folgt, daß entweder x oder y eine Einheit ist. 11.1.20 Definition. Im Polynomring R = F [X] über dem Körper F wird ein unzerlegbares Polynom p = p(X) ein irreduzibles Polynom genannt. Ist F = R der Körper der reellen Zahlen, so ist z. B. p(X) = X 2 + 1 ein irreduzibles Polynom in R[X]. 11.1.21 Hilfssatz. Sei R ein Hauptidealring. Dann gelten: (a) Das Ideal Y = 0 von R ist maximal genau dann, wenn Y = mR für ein unzerlegbares Element m von R gilt. (b) Die Hauptideale mR und m1 R sind genau dann gleich, wenn ihre Erzeuger m und m1 assoziiert sind. (c) Assoziierte unzerlegbare Elemente erzeugen dasselbe maximale Ideal. Beweis: (a) Sei Y = mR = 0 ein maximales Ideal des Hauptidealringes R. Angenommen, es gelte m = uv für zwei Nichteinheiten u, v ∈ R. Insbesondere ist Y = mR ≤ uR ≤ R. Da u keine Einheit ist, ist uR = R, weil sonst 1 = uz für ein z ∈ R wäre. Da Y ein maximales Ideal von R ist, folgt Y = uR. Also ist u ∈ uR = mR, d. h. u = mq für ein q ∈ R. Hieraus folgt u = mq = uvq
und so
u(1 − vq) = 0.
Da R nullteilerfrei ist, gilt vq = 1, d. h. v ist eine Einheit in R. Aus diesem Widerspruch folgt, daß m unzerlegbar ist.
11.1 Eindeutige Faktorzerlegung in Hauptidealringen
309
Sei umgekehrt Y = mR für ein unzerlegbares m ∈ R. Da m keine Einheit ist, gilt Y = R. Wäre Y kein maximales Ideal von R, dann gäbe es ein Ideal M = R von R mit Y < M. Da R Hauptidealring ist, gilt M = tR für eine Nichteinheit t ∈ R. Wegen m ∈ Y = mR ≤ tR folgt m = tw für ein w ∈ R. Da m unzerlegbar und t keine Einheit in R ist, muß w eine Einheit in R sein. Also gilt wz = 1 für ein z ∈ R. Hieraus ergibt sich t = t · 1 = twz = mz ∈ mR = Y , und so M = tR ⊆ Y , woraus Y = M im Widerspruch zu Y < M folgt. Also ist Y ein maximales Ideal von R. (b) mR = m1 R ist äquivalent dazu, daß sich m und m1 gegenseitig teilen, d. h. assoziiert sind. (c) Folgt unmittelbar aus (a) und (b). 11.1.22 Satz. Sei R ein Hauptidealring. Dann ist das Element p = 0 von R genau dann unzerlegbar, wenn es ein Primelement von R ist. Beweis: Sei p = 0 ein unzerlegbares Element derart, daß p | ab für zwei Elemente a, b ∈ R gilt. Dann ist ab ∈ pR. Nach Hilfssatz 11.1.21 ist Y = pR ein maximales Ideal von R. Daher ist F = R/Y nach Satz 9.1.8 ein Körper. Wegen [a] · [b] = [0] ∈ F folgt [a] = [0] oder [b] = [0]. Also ist a ∈ Y = pR oder b ∈ Y = pR, d. h. p | a oder p | b. Sei umgekehrt p = 0 ein Primelement derart, daß p = xy für zwei Elemente x, y ∈ R gilt. Man erhält p | x oder p | y. Im ersten Fall gilt x = pr für ein r ∈ R. Hieraus folgt p = xy = p(ry) und so p(1 − ry) = 0. Da R nullteilerfrei ist, ist 1 = ry. Deshalb ist y eine Einheit in R. Ebenso folgt im zweiten Fall, daß x eine Einheit in R ist. Daher ist p ein unzerlegbares Element im Sinne der Definition 11.1.19. Der letzte Teil dieses Beweises zeigt, daß Primelemente schon in beliebigen nullteilerfreien Ringen unzerlegbar sind. In Hauptidealringen bevorzugen wir das Wort Primelement. 11.1.23 Beispiele. (a) Jede Primzahl p ∈ Z ist Primelement im Hauptidealring Z. In Z sind 1 und −1 die einzigen Einheiten. Für jede Zahl n ∈ Z sind genau n und −n assoziiert. (b) Ein Polynom f (X) ∈ C[X] ist nach dem Hauptsatz der Algebra (1.4.4) genau dann ein Primelement, wenn f (X) = X − c für eine komplexe Zahl c ∈ C gilt. (c) Die Konstanten f = 0 aus dem Körper F sind die Einheiten im Polynomring R = F [X]. Zwei Primelemente p(X), q(X) ∈ R = F [X] sind genau dann assoziiert, wenn p(X) = f q(X) für ein f = 0 aus F gilt.
310
11 Moduln über Hauptidealringen
(d) Für jede Primzahl p des Ringes Z der ganzen Zahlen ist der Restklassenring Z/pZ ein endlicher Körper mit |p| Elementen. Dies folgt aus Hilfssatz 11.1.21 und Satz 9.1.8(b). 11.1.24 Definition. Ein nullteilerfreier kommutativer Ring R heißt Ring mit eindeutiger Faktorzerlegung (ZPE-Ring), wenn die beiden folgenden Bedingungen erfüllt sind: (a) Jedes Element r ∈ R, das weder 0 noch eine Einheit ist, ist ein Produkt von endlich vielen, nicht notwendig verschiedenen Primelementen pi , i = 1, 2, . . . , n, d. h. r = p1 · p2 . . . pn . (b) Sind r = p1 · p2 . . . pn = q1 · q2 . . . qm zwei Zerlegungen des Elementes r ∈ R in Primfaktoren pi bzw. qj , so gilt: (i) n = m, und (ii) es gibt eine Permutation π der Ziffern {1, 2, . . . , n} derart, daß pi assoziiert ist zu qπ(i) . 11.1.25 Hilfssatz. Mit den Bezeichnungen von Definition 11.1.24 gilt: Die Bedingung (b) ist eine Folge von (a). Beweis: Angenommen, die Nichteinheit 0 = r ∈ R hätte zwei Zerlegungen r = p1 p2 . . . pn = q1 q2 . . . qm in Primfaktoren pi bzw. qj von R, wobei n ≤ m angenommen wird. Dann ist r kein Primelement, weil sonst r = p1 zu q1 nach Hilfssatz 11.1.21 assoziiert wäre. Die Bedingung (b) von Definition 11.1.24 sei für alle Primfaktorzerlegungen mit n − 1 Primelementen pi bewiesen. Da p1 ein Primelement ist, folgt p1 | qj für ein j ∈ {1, 2, . . . m}. Also existiert ein rj ∈ R mit qj = p1 rj . Daher ist rj eine Einheit nach Satz 11.1.22. Nach Umnumerierung kann angenommen werden, daß j = 1 und p1 (p2 p3 . . . pn ) = r = q1 q2 . . . qm = p1 (r1 q2 q3 . . . qm ). Da R nullteilerfrei ist, folgt (r1−1 p2 )p3 . . . pn = q2 q3 . . . qm durch Kürzen. Das Produkt auf der linken Seite hat n − 1 Primfaktoren. Also folgt nach Induktionsannahme, daß n = m, und daß pi zu qπ(i) assoziiert ist, wobei π eine Permutation der Ziffern {1, 2, . . . , n} ist.
311
11.1 Eindeutige Faktorzerlegung in Hauptidealringen
11.1.26 Hilfssatz. Sei R ein Hauptidealring. Dann ist jede echt aufsteigende Kette Y1 < Y2 < · · · < Yk < Yk+1 < · · · von Idealen Yi von R endlich. Beweis: Wenn die Behauptung des Hilfssatzes falsch wäre, dann gäbe es eine abzählbar unendliche, echt aufsteigende Kette Y1 < Y2 < Y3 < · · · < Yk < Yk+1 < · · · von Idealen Yk , k = 1, 2, . . . , von R. Sei Y = ∞ k=1 Yk . Dann ist Y ein Ideal von R: Aus y1 , y2 ∈ Y folgt y1 ∈ Yi und y2 ∈ Yj für geeignete Indizes i, j . Da Yi und Yj zur Kette (∗) gehören, kann Yi < Yj angenommen werden. Also sind y1 , y2 ∈ Yj . Da Yj ein Ideal von R ist, ist y1 + y2 ∈ Yj ≤ Y . Ebenso zeigt man, daß yr ∈ Y für alle y ∈ Y und r ∈ R gilt. Daher gibt es ein y ∈ Y mit Y = yR; denn R ist ein Hauptidealring. Wegen Y = ∞ Y k=1 k gibt es eine kleinste natürliche Zahl k ≥ 1 mit y ∈ Yk . Dann ist Y = yR ≤ Yk < Yk+1 ≤ Y . Aus diesem Widerspruch folgt die Gültigkeit der Behauptung. (∗)
11.1.27 Satz. Jeder Hauptidealring R ist ein ZPE-Ring. Beweis: Wegen Hilfssatz 11.1.25 ist nur die Bedingung (a) der Definition 11.1.24 nachzuweisen. Angenommen, die Nichteinheit 0 = r ∈ R ließe sich nicht in ein Produkt p1 p2 . . . pn von endlich vielen Primelementen pi aus R zerlegen. Dann ist r kein Primelement. Nach Satz 11.1.22 ist r nicht unzerlegbar, d. h. r = r0 = r1 s1 , wobei weder r1 noch s1 Einheiten in R sind; außerdem kann angenommen werden, daß r1 kein Produkt von Primelementen ist. Nach Hilfssatz 11.1.21(b) folgt rR = r0 R < r1 R, weil s1 keine Einheit ist. Wendet man nun dieses Argument auf r1 an, so erhält man schließlich eine unendlich echt aufsteigende Kette r0 R < r1 R < r2 R < · · · . Dies widerspricht Hilfssatz 11.1.26. Der größte gemeinsame Teiler und das kleinste gemeinsame Vielfache existieren allgemeiner auch in ZPE-Ringen und können in bekannter Weise mittels Primfaktorzerlegung bestimmt werden. Speziell in euklidischen Ringen gibt es für ihre Berechnung einen Algorithmus. 11.1.28 Satz (Euklidischer Algorithmus). Sei R ein euklidischer Ring mit Norm ρ. Dann berechnet man den größten gemeinsamen Teiler von zwei Elementen a0 und a1 aus R durch folgende Kette von Divisionen mit Rest: a0 = q1 a1 + a2 mit ρ(a2 ) < ρ(a1 ), a1 = q2 a2 + a3 mit ρ(a3 ) < ρ(a2 ), .. . an−2 = qn−1 an−1 + an mit ρ(an ) < ρ(an−1 ), an−1 = qn an . Dann ist an = ggT(a0 , a1 ). Weiter ist kgV(a0 , a1 ) =
a0 a 1 an .
312
11 Moduln über Hauptidealringen
Beweis: Nach Bemerkung 11.1.7 muß in dieser Kette nach endlich vielen Schritten der Rest Null auftreten. Aus der letzten Gleichung folgt an | an−1 , aus der vorletzten an | an−2 . So fortfahrend ergibt sich schließlich aus der zweiten Gleichung an | a1 und aus der ersten an | a0 . Daher ist an gemeinsamer Teiler von a0 und a1 . Gilt umgekehrt d | a0 und d | a1 , so folgt aus der ersten Gleichung d | a2 und nach Durchlaufung der Kette schließlich d | an . Daher ist an auch größter gemeinsamer Teiler, und kgV(a0 , a1 ) = (a0 a1 )(an )−1 .
11.2 Torsionsmodul eines endlich erzeugten Moduls In diesem Abschnitt ist R stets ein nullteilerfreier kommutativer Ring. Es wird gezeigt, daß die Menge T (M) der Torsionselemente eines R-Moduls M einen Untermodul T (M) bilden. Er heißt Torsionsuntermodul von M und spielt in der Modultheorie eine wichtige Rolle. Ist R ein Hauptidealring und M ein endlich erzeugter R-Modul, dann besagt das Hauptergebnis dieses Abschnitts, daß M eine direkte Zerlegung M = T (M) ⊕ U in den Torsionsuntermodul T (M) von M und einen freien R-Untermodul U besitzt. 11.2.1 Definition. Sei M ein R-Modul über dem nullteilerfreien kommutativen Ring R. Ein Element m ∈ M heißt ein Torsionselement, wenn mr = 0 für ein r = 0 aus R gilt. M heißt torsionsfrei, wenn 0 das einzige Torsionselement von M ist. 11.2.2 Hilfssatz. Sei R ein nullteilerfreier kommutativer Ring. Dann gelten für jeden R-Modul M die folgenden Aussagen: (a) Die Gesamtheit T (M) der Torsionselemente von M ist ein Untermodul von M. (b) M/T (M) ist torsionsfrei. Beweis: (a) Sind m1 , m2 ∈ T (M), dann existieren 0 = ri ∈ R mit mi ri = 0 für i = 1, 2. Da R nullteilerfrei ist, gilt c = r1 r2 = 0. Nun ist (m1 + m2 )c = (m1 r1 )r2 + (m2 r2 )r1 = 0 + 0 = 0. Ebenso folgt m1 (r1 r) = (mr1 )r = 0 für alle r ∈ R. Also ist T (M) ein Untermodul von M. (b) Sei [m] = m + T (M) ein Torsionselement von M/T (M). Dann existiert ein 0 = r ∈ R mit [m] · r = 0. Nach Hilfssatz 9.2.14 ist dann mr ∈ T (M). Also gibt es ein 0 = s ∈ R mit (mr)s = 0. Da R nullteilerfrei ist, gilt rs = 0. Deshalb ist m ∈ T (M) und [m] = 0. 11.2.3 Definition. Sei M ein R-Modul. Der nach Hilfssatz 11.2.2 eindeutig bestimmte Untermodul T (M) aller Torsionselemente von M heißt der Torsionsuntermodul von M.
11.2 Torsionsmodul eines endlich erzeugten Moduls
313
M heißt Torsionsmodul, wenn M = T (M) gilt. 11.2.4 Hilfssatz. Sei R ein nullteilerfreier Ring. Dann gelten: (a) Epimorphe Bilder von Torsionsmoduln sind Torsionsmoduln. (b) Summen von Torsionsmoduln sind Torsionsmoduln. Beweis: (a) Sei ϕ ein R-Modulepimorphismus vom Torsionsmodul M auf N . Ist mr = 0 für m ∈ M und 0 = r ∈ R, so ist ϕ(m) · r = ϕ(mr) = 0. Also ist N = ϕ(M) Torsionsmodul. (b) Zeigt man analog wie die Aussage (a) von Hilfssatz 11.2.2, weil in einer Summe jedes Element eine Darstellung als Summe von endlich vielen Summanden hat, die in diesem Fall alle Torsionselemente sind. Für endlich erzeugte torsionsfreie R-Moduln M über einem Hauptidealring R wird nun der Basissatz bewiesen, der dem für endlich-dimensionale Vektorräume entspricht. 11.2.5 Hilfssatz. Sei M ein endlich erzeugter R-Modul über dem Hauptidealring R mit einem Erzeugendensystem S, das aus k Elementen besteht. Dann wird jeder Untermodul U von M von höchstens k Elementen erzeugt. Beweis: Durch vollständige Induktion nach k. Ist k = 1, so ist M = mR. Die Abbildung ϕ : r → mr, r ∈ R, ist ein R-Modulepimorphismus von R auf M = mR mit Ker(ϕ) = {s ∈ R | ms = 0}. Sei U ein Untermodul von M. Nach Satz 9.2.12 ist Y = {t ∈ R | ϕ(t) = mt ∈ U } ein R-Untermodul von R mit ϕ(Y ) = U und Ker(ϕ) ≤ Y . Da jeder Untermodul des Hauptidealrings R ein Hauptideal ist, gilt Y = yR für ein y ∈ Y . Hieraus folgt, U = ϕ(Y ) = ϕ(y)R. Also wird auch U von einem Element erzeugt. Unter der Voraussetzung, daß die Behauptung des Hilfssatzes für k = n − 1 gilt, wird sie nun für k = n bewiesen. Sei M = m1 R + · · · + mn R von den n Elementen mi ∈ M erzeugt. Ist D = U ∩ mn R, dann ist D nach dem Fall k = 1 ein zyklischer R-Modul, d. h. D = dR für ein d ∈ D. Nun ist U/D ∼ = (U +mn R)/mn R = V nach dem zweiten Isomorphiesatz 9.2.17. Sicherlich ist V = (U + mn R)/mn R ein R-Untermodul des Faktormoduls ¯ i = M¯ = M/mn R, der von den n − 1 Elementen [mi ] = mi + mn R ∈ M, 1, . . . , n−1, erzeugt wird. Also wird auch V nach Induktionsannahme von höchstens n − 1 Elementen erzeugt. Seien [vi ] = ui + mn R ∈ V mit ui ∈ U , i = 1, . . . , s und s ≤ n − 1 Erzeuger des R-Moduls V . Dann wird U nach Hilfssatz 9.4.5 (b) von den Elementen u1 , . . . , us und d erzeugt.
314
11 Moduln über Hauptidealringen
11.2.6 Definition. Ist M ein endlich erzeugter R-Modul, dann ist ein endliches Erzeugendensystem S ein Erzeugendensystem von kleinster Elementzahl, wenn jedes andere Erzeugendensystem T von M mindestens soviele Elemente enthält wie S. Da die Menge der natürlichen Zahlen wohlgeordnet ist, besitzt jeder endlich erzeugte R-Modul M ein Erzeugendensystem von kleinster Elementzahl. 11.2.7 Satz. Jeder endlich erzeugte, torsionsfreie R-Modul M über dem Hauptidealring R ist frei. Insbesondere ist jedes endliche Erzeugendensystem S = {mi ∈ M | 1 ≤ i ≤ k} von kleinster Elementzahl eine Basis von M. Beweis: Nach Definition 9.4.3 genügt es, die zweite Behauptung zu beweisen. Sei S = {mi ∈ M | 1 ≤ i ≤ k} ein Erzeugendensystem von kleinster Elementzahl k von M. Ist k = 1, so ist M = m1 R. Da M torsionsfrei ist, ist S = {m1 } eine Basis von M. Es wird nun angenommen, daß die Behauptung für k − 1 gilt. Sei Q der nach Satz 11.1.4 existierende Quotientenkörper von R. Da M ein torsionsfreier R-Modul ist, ist die Abbildung ϕ : M → M ⊗R Q, die durch ϕ(m) = m ⊗ 1 für alle m ∈ M definiert ist, ein R-Modulmonomorphismus. Daher ist S = {ϕ(mi ) = mi ⊗1 | 1 ≤ i ≤ k} ein Erzeugendensystem des Q-Vektorraums M ⊗R Q; denn M ⊗R Q = ki=1 ϕ(mi )Q, weil M = ki=1 mi R. Wäre S linear abhängig über R, dann wäre m 1 r1 + m 2 r2 + · · · + m k rk = 0
für geeignete ri ∈ R,
die nicht alle gleich Null sind. Hieraus folgt ϕ(m1 )r1 + ϕ(m2 )r2 + · · · + ϕ(mk )rk = 0. Daher enthält das Erzeugendensystem S = {ϕ(mi ) | 1 ≤ i ≤ k} von M ⊗R Q nach Satz 2.2.7 eine echte Teilmenge B, die eine Basis des Q-Vektorraums M ⊗R Q ist. Nach Umnumerierung kann angenommen werden, daß B = {ϕ(mj ) | 1 ≤ j ≤ s}
und
s < k.
Insbesondere hat jedes ϕ(mi ), 1 ≤ i ≤ k, eine eindeutige Darstellung ϕ(mi ) =
s
ϕ(mj )qij
mit geeigneten qij ∈ Q.
j =1 a
Nach Satz 11.1.4 ist qij = bijij mit aij ∈ R und 0 = bij ∈ R. Sei 0 = d ∈ R ein nach Satz 11.1.17 (b) existierender Hauptnenner der qij . Dann ist rij = dqij ∈ R für alle 1 ≤ i ≤ k und 1 ≤ j ≤ s. Weiter gilt, daß ϕ(mi ) =
s j =1
ϕ(mj )qij =
s j =1
[ϕ(mj )d −1 ]rij
für alle 1 ≤ i ≤ k.
315
11.3 Primärzerlegung
Also ist ϕ(M) = ki=1 ϕ(mi )R ≤ js =1 ⊕[ϕ(mj )d −1 ]R = U . Da der R-Untermodul U von M ⊗R Q eine Basis B = {ϕ(mj )d −1 | 1 ≤ j ≤ s} von s Elementen besitzt, wird nach Hilfssatz 11.2.5 auch der R-Untermodul ϕ(M) von U von höchstens s Elementen erzeugt. Sicherlich ist ϕ ein RModulisomorphismus von M auf ϕ(M). Also wird auch der R-Modul M von s < k Elementen erzeugt. Dann ist aber S kein Erzeugendensystem von kleinster Elementzahl k von M. Dieser Widerspruch beendet den Beweis. Nach all diesen Vorbereitungen ist es nun einfach, den Hauptsatz dieses Abschnitts zu beweisen. 11.2.8 Satz. Ist M ein endlich erzeugter R-Modul über dem Hauptidealring R, so gilt M = T (M) ⊕ U, wobei der Untermodul U von M ein endlich erzeugter, freier R-Modul ist. Je zwei Basen von U haben gleich viele Elemente. Beweis: Nach Hilfssatz 11.2.2 ist M/T (M) ein endlich erzeugter, torsionsfreier RModul. Wegen Satz 11.2.7 ist M/T (M) ein freier R-Modul. Nach Satz 9.4.8 gibt es daher einen R-Untermodul U von M mit M = U + T (M), U ∩ T (M) = 0, und U∼ = M/T (M). Daher ist U ein freier R-Modul. Nach Satz 9.4.6 sind je zwei Basen B und B von U gleichmächtig. 11.2.9 Definition. Sei M ein endlich erzeugter R-Modul über dem Hauptidealring R. Der Rang rg(M) von M ist die nach Satz 11.2.8 eindeutig bestimmte Anzahl der Elemente einer Basis des freien R-Moduls M¯ = M/T (M), wobei T (M) der Torsionsmodul von M ist.
11.3
Primärzerlegung
Die Struktur der endlich erzeugten Moduln über einem Hauptidealring R ist vollständig durch Satz 11.2.8 bestimmt, wenn die Struktur der endlich erzeugten Torsionsmoduln bekannt ist. Deshalb werden in diesem Abschnitt die Torsionsmoduln in ihre p-Komponenten zerlegt. Hierzu wird folgende Definition eingeführt. 11.3.1 Definition. Sei p ein Element des Hauptidealrings R. Die p-Komponente Mp des R-Moduls M ist Mp = {m ∈ M | mpk = 0 für eine natürliche Zahl k = k(m)}.
316
11 Moduln über Hauptidealringen
Ist p ein Primelement, so heißt Mp die Primärkomponente zum Primelement p von R, oder auch die p-Primärkomponente. 11.3.2 Hilfssatz. Sind p und q zwei teilerfremde, von Null verschiedene Elemente des Hauptidealrings R, so gilt für jeden R-Modul M stets: Mp ∩ Mq = 0. Beweis: Da die Elemente p und q teilerfremd sind, ist ggT (p u , q v ) = 1 für alle natürlichen Zahlen u und v. Ist m ∈ Mp ∩ Mq , dann ist mp u = 0 = mq v mit natürlichen Zahlen u, v. Nach Satz 11.1.17 existieren Elemente a, b ∈ R derart, daß 1 = pu a + q v b. Also ist m = m · 1 = mp u a + mq v b = 0 + 0 = 0. 11.3.3 Definition. Sei M ein R-Modul über dem Ringe R. Dann heißt Ann(M) = {r ∈ R | mr = 0 für alle m ∈ M} der Annullator des Moduls M. Ist m ein Element des R-Moduls M, so heißt Ann(m) = {r ∈ R | mr = 0} der Annullator von m. 11.3.4 Hilfssatz. Sei M ein R-Modul über dem Ring R. Dann gelten: (a) Der Annullator Ann(M) von M ist ein Ideal des Ringes R. (b) Der Annullator Ann(m) eines Elementes m ∈ M ist ein Ideal von R. (c) Ist M = ki=1 mi R ein endlich erzeugter R-Modul, so ist Ann(M) =
k
Ann(mi ).
i=1
Beweis: (a) Seien r1 , r2 ∈ Ann(M) und r ∈ R. Dann gelten für alle m ∈ M die Gleichungen m(r1 − r2 ) = mr1 − mr2 = 0 − 0 = 0, m(r1 r) = (mr1 )r = 0 · r = 0.
(1) (2)
(b) wird analog gezeigt. r ∈ k (c) Sicherlich ist Ann(M) ≤ Ann(mi ) für i = 1, 2, . . . , k. Sei umgekehrt k Ann(m ) und m ∈ M. Dann existieren Elemente r ∈ R mit m = m i i i=1 i=1 i ri , weil die Elemente m1 , m2 , . . . , mk den R-Modul M erzeugen. Hieraus folgt nun k mi ri r = (m1 r)r1 + (m2 r)r2 + · · · + (mk r)rk = 0. mr = i=1
Daher ist r ∈ Ann(M).
317
11.3 Primärzerlegung
11.3.5 Satz. Sei R ein Hauptidealring und M ein endlich erzeugter Torsionsmodul über R. Dann gelten folgende Aussagen: (a) Der Annullator des R-Moduls M ist ein von Null verschiedenes Hauptideal Ann(M) = rR von R. Das Element r ist durch M bis auf Assoziiertheit eindeutig bestimmt. (b) Ist r = p1k1 . . . ptkt eine Faktorzerlegung von r ∈ R in Potenzen paarweise nicht assoziierter Primelemente, so gilt M = Mp1 ⊕ Mp2 ⊕ · · · ⊕ Mpt . Die Zerlegung von M in seine Primärkomponenten Mpi ist eindeutig. Beweis: (a) Sei S = {mi | 1 ≤ i ≤ n} ein Erzeugendensystem von kleinster Elementzahl von M. Da M ein Torsionsmodul ist, existiert zu jedem mi ein ri = 0 in R derart, daß mi ri = 0. Also sind die Annullatoren Ann(mi ) = 0 für i = 1, 2, . . . , n. Nach Hilfssatz 11.3.4 ist der Annullator von M das Ideal Ann(M) =
n
Ann(mi ).
i=1
Da R ein Hauptidealring ist, existieren nach Hilfssatz 11.1.21 bis auf Assoziiertheit eindeutig bestimmte Elemente si ∈ R derart, daß Ann(mi ) = si R. Nach Satz 11.1.17 ist n n Ann(M) = Ann(mi ) = (si R) = rR, i=1
i=1
wobei r = 0 ein kleinstes gemeinsames Vielfache der Elemente si ist. Daher ist r durch M bis auf Multiplikation mit Einheiten aus R durch M eindeutig bestimmt. (b) Nach Satz 11.1.27 hat r die eindeutige Primfaktorzerlegung r = ti=1 piki , wobei die Primelemente pi und pj paarweise nicht assoziiert sind, wenn t ≥ 2. Ist t = 1, so gilt (b) nach (a). Die Behauptung (b) sei für alle r mit t − 1 verschiedenen Primteilern pi bewiesen. Sei p = p1k1 und q = q2k2 p3k3 . . . ptkt . Die Elemente p, q ∈ R sind teilerfremd. Nach Hilfssatz 11.3.2 sind Mp und Mq zwei R-Untermoduln von M mit Mp ∩ Mq = 0. Für jedes m ∈ M ist mr = (mp)q = (mq)p = 0 nach (a). Also ist mp ∈ Mq und (mq) ∈ Mp . Wegen ggT (p, q) = 1 existieren nach Satz 11.1.17 Elemente a, b ∈ R mit 1 = pa + qb. Also ist m = m1 = (mp)a + (mq)b ∈ Mq + Mp . Daher
t ist M = Mp ⊕ Mq , wobei Mp = Mp1 und nach Induktionsannahme Mq = i=2 Mpi ist. Also gilt (b).
318
11 Moduln über Hauptidealringen
Die pi -Primärkomponenten Mpi sind durch die eindeutige Faktorzerlegung t ki r = i=1 pi von r eindeutig bestimmte Teilmengen von M, und zwar gilt Mpi = {m ∈ M | mpiki = 0} für i = 1, . . . , t. Also ist die direkte Zerlegung
M = ti=1 Mpi eindeutig. 11.3.6 Definition. Sei R ein Hauptidealring und M ein endlich erzeugter Torsionsmodul über R. Das nach Satz 11.3.5 durch Ann(M) = rR bis auf Assoziiertheit eindeutig bestimmte Element r heißt die Ordnung von M. Bezeichnung: o(M) = r. 11.3.7 Definition. Die Ordnung r eines Elementes 0 = m ∈ M ist ein Erzeuger des Hauptideals Ann(m) = {q ∈ R | mq = 0 in M} = rR. Bezeichnung: o(m) = r. Nach Hilfssatz 11.1.21 ist r bis auf assoziierte Elemente durch m eindeutig bestimmt. 11.3.8 Folgerung. (a) Ist M ein endlich erzeugter Torsionsmodul über dem Hauptidealring R, dann sind die Primärkomponenten Mpi von M eindeutig durch die Ordnung r = o(M) ∈ R bestimmt. (b) Ist r = p1k1 p2k2 . . . ptkt eine Primfaktorzerlegung der Ordnung r = o(M) von M in Potenzen paarweise nicht assoziierter Primelemente pi von R, so hat die pi -Primärkomponente Mpi von M für jedes i = 1, 2, . . . , t die Ordnung o(Mpi ) = piki . Beweis: (a) folgt unmittelbar aus Definition 11.3.6 und den Sätzen 11.3.5 und 11.1.27. (b) folgt unmittelbar aus Definition 11.3.1, Hilfssatz 11.3.4 (c) und Satz 11.3.5.
11.4
Struktursatz für endlich erzeugte Moduln
In diesem Abschnitt wird der Beweis des Struktursatzes für endlich erzeugte Moduln M über Hauptidealringen beendet, indem gezeigt wird, daß jede Primärkomponente Mp von M eine bis auf Isomorphie eindeutig bestimmte direkte Summe von zyklischen Moduln ist. 11.4.1 Definition. Sei p ein Primelement des Hauptidealringes R. Ein R-Modul M heißt p-Modul, wenn M = Mp ist. 11.4.2 Hilfssatz. Sei p ein Primelement des Hauptidealringes R. Sei M ein endlich erzeugter p-Modul der Ordnung o(M) = p e . Dann gibt es ein 0 = m ∈ M der Ordnung o(m) = pe und einen R-Untermodul U von M derart, daß gilt:
11.4 Struktursatz für endlich erzeugte Moduln
319
(a) M = mR ⊕ U und mR ∼ = R/pe R. (b) U wird von weniger Elementen als M erzeugt. Beweis: (a) Sei S = {mi ∈ M | 1 ≤ i ≤ n} ein Erzeugendensystem von kleinster Elementzahl n von M. Wegen o(M) = p e gilt o(mi ) ≤ pe für i = 1, 2, . . . , n. Da jedes m ∈ M die Darstellung m = ni=1 mi ri für geeignete ri ∈ R hat, muß mindestens ein mi die Ordnung o(mi ) = pe haben. Nach Umnumerierung kann i = 1 gewählt werden. Im folgenden ist m = m1 dieses Element. Nach dem Lemma 1.1.9 von Zorn gibt es unter den R-Untermoduln S von M mit mR ∩ S = 0 einen maximalen, der mit U bezeichnet sei. Wäre M = mR ⊕ U ein echter Untermodul von M, dann gäbe es ein z ∈ M mit z ∈ M . Wegen zp e = 0 ∈ M existiert ein minimales k derart, daß zp k+1 ∈ M , aber zp k ∈ / M . Sei y = zp k . Dann ist y ∈ M, y ∈ / M und yp ∈ M . Deshalb ist yp = mr1 + s
für ein r1 ∈ R und s ∈ U.
Wegen pe = o(M) folgt nun 0 = (yp)p e−1 = (mr1 )p e−1 + spe−1 und so (mr1 )p e−1 = −sp e−1 ∈ mR ∩ U = 0. Also ist r1 p e−1 ∈ Ann(m) = pe R, woraus r1 = r1 p für ein r1 ∈ R folgt. Sei v = y − mr1 . Dann ist (∗)
vp = (y − mr1 )p = yp − mr1 p = mr1 + s − mr1 = s.
Wegen y ∈ M ist v = y − mr1 ∈ M = mR ⊕ U . Daher ist auch v ∈ U , woraus mR ∩ (U + vR) = 0 folgt. Somit gibt es Elemente s1 ∈ U und t, c ∈ R mit (∗∗) Also gilt
0 = mt = s1 + vc ∈ mR ∩ (U + vR). vc = mt − s1 ∈ mR ⊕ U = M .
Wäre p kein Teiler von c, dann wäre 1 = ca + pb für geeignete a, b ∈ R. Hieraus folgt v = v · 1 = (vc)a + (vp)b = (vc)a + sb ∈ M + U = M im Widerspruch zu v ∈ M . Deshalb existiert ein c ∈ R mit c = c p. Wegen (∗∗) und (∗) ergibt sich daher: 0 = mt = vc + s1 = (vp)c + s1 = sc + s1 ∈ U ∩ mR = 0. Aus diesem Widerspruch folgt, daß M = mR ⊕ U . Der Epimorphismus r → mr von R auf mR hat den Kern Ann(m) = p e R. Nach dem ersten Isomorphiesatz 9.2.16 folgt mR ∼ = R/pe R. (b) Da m = m1 zum Erzeugendensystem von kleinster Elementzahl S gehört, wird M/mR von den n − 1 Restklassen [ui ] = mi + mR, 2 ≤ i ≤ n erzeugt. Wegen U∼ = M/mR hat U daher ein kleineres Erzeugendensystem als M.
320
11 Moduln über Hauptidealringen
11.4.3 Satz. Sei M ein endlich erzeugter p-Modul über einem Hauptidealring R. Dann gelten: (a) M ist eine direkte Summe M = M1 ⊕ M2 ⊕ · · · ⊕ Mk von endlich vielen, zyklischen p-Moduln Mi . (b) Jeder der zyklischen Moduln Mi ist isomorph zu R/(p ei )R, wobei die natürliche Zahl ei > 0 eindeutig durch die Ordnung o(Mi ) von Mi und damit durch M bestimmt ist. Beweis: (a) Durch vollständige Induktion nach der Anzahl k eines Erzeugendensystems S = {mi | 1 ≤ i ≤ k} von M von kleinster Elementzahl. Ist k = 1, so ist (a) trivial. Sei also k > 1. Dann gibt es nach Hilfssatz 11.4.2 ein Element 0 = m ∈ M mit o(m) = p e1 und einen Untermodul U von M mit M = mR ⊕ U und mR ∼ = R/pe1 R. Weiter wird U nach (b) von Hilfssatz 11.4.2 von k − 1 Elementen erzeugt. Sei p e2 = o(U ) = o(M/mR). Da U ein Untermodul von M ist, gilt e1 ≥ e2 . Die Aussagen (a) und (b) folgen nun alle durch vollständige Induktion. Die Exponenten ei sind durch M eindeutig bestimmt, weil p e1 = o(M), pe2 = o(U ) = o(M/mR) und damit auch die Exponenten p ei mit 2 ≤ i ≤ k durch vollständige Induktion eindeutig durch M bestimmt sind. 11.4.4 Definition. Wenn man die direkten Summanden Mi des p-Moduls M = ⊕ki=1 Mi so ordnet, daß e1 ≥ e2 ≥ · · · ≥ ek > 0 gilt, dann sind diese Exponenten ei durch M eindeutig bestimmt und heißen die Elementarteilerexponenten des p-Moduls. 11.4.5 Satz. Sei p ein Primelement des Hauptidealringes R. Sei M ein endlich erzeugter p-Modul. Dann gelten: (a) F = R/pR ist ein Körper. (b) M(p) = {m ∈ M | mp = 0} ist ein endlich-dimensionaler F -Vektorraum mit dimF M(p) = k, wobei k die Anzahl der Elemente eines Erzeugendensystems S kleinster Elementzahl von M ist. Beweis: (a) F = R/pR ist ein Körper nach Satz 9.1.8, weil Y = pR nach Satz 11.1.22 und Hilfssatz 11.1.21 ein maximales Ideal von R ist. (b) Sei o(M) = p e . Sicherlich ist M(p) ein R-Untermodul von M. Wegen mp = 0 für alle m ∈ M(p) wird M(p) ein F -Vektorraum vermöge der Operation m[r] = m · r
für alle [r] = r + pR ∈ F.
321
11.4 Struktursatz für endlich erzeugte Moduln
Diese Multiplikation von F auf M ist wohldefiniert, weil aus [r] = [r ] ∈ F = R/Y stets r − r ∈ Y = pR und so 0 = m(r − r ) = mr − mr , d. h. mr = mr , folgt. Ist M ein zyklischer R-Modul, so ist M ∼ = R/p e R und M(p) ∼ = p e−1 R/p e R ∼ = R/pR = R/Y = F . Also ist dimF M(p) = 1. M besitze nun ein Erzeugendensystem S von kleinster Elementzahl k. Wegen o(M) = p e hat M nach Hilfssatz 11.4.2 ein Element m mit o(m) = p e und einen R-Untermodul U derart, daß M = mR ⊕ U , mR = R/pe R und U ∼ = M/mR von k − 1 Elementen erzeugt wird. Sicherlich ist M(p) = (mR)(p) ⊕ U (p). Nach Induktion ist dann dimF M(p) = dimF (mR)(p) + dimF U (p) = 1 + (k − 1) = k.
11.4.6 Satz. Zwei p-Moduln M und N sind genau dann isomorph, wenn sie dieselben Elementarteilerexponenten e1 ≥ e2 ≥ · · · ≥ ek > 0 haben. Beweis: Besitzen die p-Moduln M und N dieselben Elementarteilerexponenten, dann folgt aus Satz 11.4.3, daß M∼ =
k
R/p ei R ∼ = N.
i=1
Seien umgekehrt die beiden p-Moduln M und N isomorph. Dann ist F = R/pR ein Körper, und die F -Vektorräume M(p) und N (p) sind isomorph. Nach Hilfssatz 11.4.5 folgt dimF M(p) = k = dimF N (p), wobei k die Anzahl der Elementarteiler von M und somit auch von N ist. Wegen M ∼ = N ist o(M) = p e = o(N ). Also stimmen die ersten Elementarteilerexponenten von M und N überein. Nach Hilfssatz 11.4.2 gibt es daher Elemente m ∈ M und n ∈ N mit o(m) = pe = o(n) und R-Untermoduln U von M und V von N derart, daß M = mR ⊕ U
und
N = nR ⊕ V ,
wobei mR ∼ = nR. = R/p e R ∼
Wegen M ∼ = N und M/mR ∼ = N/nR folgt U ∼ = V . Da U und V nach Hilfssatz 11.4.2 von k−1 Elementen erzeugt werden können, folgt jetzt nach vollständiger Induktion, daß U und V dieselben Elementarteilerexponenten haben. Faßt man nun die Sätze 11.2.8, 11.3.5, 11.4.3 und 11.4.6 zusammen, dann erhält man den Struktursatz für endlich erzeugte Moduln über Hauptidealringen. 11.4.7 Satz. Sei M ein endlich erzeugter R-Modul vom Range rg(M) = m über dem Hauptidealring R. Dann gelten folgende Aussagen:
322
11 Moduln über Hauptidealringen
(a) M = T (M) ⊕ U , wobei T (M) der Torsionsmodul von M und U ein freier R-Untermodul von M mit U ∼ = R m ist. (b) Ist r = p1k1 p2k2 . . . ptkt eine Primfaktorzerlegung der Ordnung o(T (M)) des Torsionsmoduls mit paarweise nicht assoziierten Primelementen pi ∈ R, dann besitzt der Torsionsmodul eine direkte Zerlegung T (M) =
t
T (M)pi
i=1
in seine pi -Primärkomponenten T (M)pi mit Ordnung o(T (M)pi ) = piki .
ri (c) Jede pi -Primärkomponente ist eine direkte Summe T (M)pi = ji =1 Miji eiji ∼ von endlich vielen zyklischen Untermoduln Miji = R/pi R, wobei die Elementarteilerexponenten eiji zum Primelement pi so geordnet werden können, daß ki = ei1 ≥ ei2 ≥ · · · ≥ eirj > 0 gilt. (d) Der R-Modul M ist bis auf R-Modulisomorphie eindeutig durch seine folgenden Invarianten bestimmt: rg(M) = m, o(T (M)) = r = p1k1 p2k2 . . . ptkt und alle Elementarteilerexponenten eiji , 1 ≤ ji ≤ ri , eines jeden Primteilers pi von r, 1 ≤ i ≤ t. 11.4.8 Bemerkung. Da jedes Hauptideal Y = 0 des Ringes Z der ganzen Zahlen nach dem Beweis von Satz 11.1.9 von der kleinsten positiven Zahl y ∈ Y erzeugt wird, ist y eine der beiden Ordnungen der zyklischen Gruppe Z/yZ im Sinne der Definition 11.3.6, denn +y und −y sind die einzigen zu y assoziierten ganzen Zahlen. Da y dieAnzahl der Elemente der zyklischen Gruppe Z/yZ ist, ist y auch die Ordnung |Z/yZ| der zyklischen Gruppe Z/yZ im Sinne der Definition 1.3.1. 11.4.9 Folgerung (Basissatz für abelsche Gruppen). Sei A eine endlich erzeugte abelsche Gruppe vom Range rg(A) = m. Sei o((T (A)) = ti=1 piki die Faktorzerlegung der Ordnung o(T (A)) = r ∈ Zki der Torsionsgruppe T (A) von A in Primzahlpotenzen piki verschiedener positiver Primzahlen pi , 1 ≤ i ≤ t. Bei festem Index i seien die Elementarteilerexponenten eij von A zur Primzahl pi so geordnet, daß ki = ei1 ≥ ei2 ≥ · · · ≥ eiri > 0. Dann gelten die folgenden Aussagen: (a) A = T (A) ⊕ P , wobei P eine freie abelsche Untergruppe von A mit P ∼ = Zm ist. (b) Die Torsionsgruppe T (A) ist eine direkte Summe von endlich vielen zyklischen e Gruppen Zij von pi -Potenzordnung |Zij | = pi ij , 1 ≤ j ≤ ri . (c) T (A) ist endlich und hat |T (A)| = ti=1 pihi Elemente, wobei hi = jri=1 eij für i = 1, 2, . . . , t ist.
323
11.4 Struktursatz für endlich erzeugte Moduln
Insbesondere ist jede endlich erzeugte abelsche Gruppe A isomorph zu einer direkten Summe von endlich vielen zyklischen Gruppen. Zwei endlich erzeugte abelsche Gruppen A und B sind genau dann isomorph, wenn gleichzeitig die folgenden drei Bedingungen gelten: (i) A und B haben den gleichen Rang, d. h. rg(A) = rg(B). (ii) Die Torsionsuntergruppen von A und B haben dieselbe Anzahl |T (A)| = |T (B)| von Elementen. (iii) Für jeden Primteiler pi von |T (A)| haben T (A) und T (B) dieselben Elementarteilerexponenten eij , 1, ≤ j ≤ ri . Beweis: Folgt sofort aus Satz 11.4.7, weil Z ein Hauptidealring ist.
Nach dem Basissatz für endlich erzeugte abelsche Gruppen ist die Struktur t hi einer endlichen abelschen Gruppe A durch ihre Ordnung |A| = i=1 pi und die Elementarteilerexponenten eij zu den paarweise verschiedenen Primzahlen pi , 1 ≤ i ≤ t, bekannt. Insbesondere genügt es für jede Primzahl p, die paarweise nicht isomorphen abelschen Gruppen A von p-Potenzordnung |A| = pk zu klassifizieren. Hierzu wird noch der folgende Begriff benötigt. 11.4.10 Definition. Sei k > 0 eine positive ganze Zahl. Eine Partition von k ist eine monoton nicht steigende Folge k1 ≥ k2 ≥ · · · ≥ kr > 0 von positiven ganzen Zahlen ki mit Summe
r
i=1 ki
= k.
11.4.11 Folgerung. Sei p eine Primzahl und A eine endliche abelsche Gruppe der Ordnung |A| = p k . Dann gibt es genau eine Partition k1 ≥ k2 ≥ · · · ≥ kr von k derart, daß r A∼ Z/p ki Z. = i=1
Beweis: Seien e = e1 ≥ e2 ≥ · · · ≥ er die nach dem Basissatz 11.4.9 eindeutig ber stimmten Elementarteilerexponenten der p-Gruppe A. Dann ist A ∼ = i=1 Z/p ei Z. r k e e +···+e r . Also ist k = e + · · · + e , und Hieraus folgt p = |A| = i=1 p i = p 1 1 r e1 ≥ e2 ≥ · · · ≥ er > 0 ist die gesuchte Partition von k. Sie ist nach Satz 11.4.6 durch die Gruppe A eindeutig bestimmt.
324
11.5
11 Moduln über Hauptidealringen
Elementarteiler von Matrizen
In diesem Abschnitt werden einige weitere Anwendungen des Struktursatzes 11.4.7 für endlich erzeugte Moduln M über einem Hauptidealring R gegeben. Hierzu zählt der Elementarteilersatz für m × n-Matrizen A = (aij ) mit Koeffizienten aij aus R.
t 11.5.1 Hilfssatz. Sei R ein Hauptidealring und M = i=1 mi R eine direkte Summe von endlich vielen zyklischen Torsionsmoduln mi R ∼ = R/ Ann(mi ), wobei Ann(mi ) = ai R für i = 1, 2, . . . , t gelte. Dann ist M genau dann ein zyklischer Torsionsmodul, wenn die Ordnungen ai der Erzeuger mi paarweise teilerfremd sind. Beweis: Vollständige Induktion nach t. Für t = 1 ist nichts zu beweisen. Sind a1 und a2 teilerfremd, so ist R = a1 R + a2 R und a1 a2 R = a1 R ∩ a2 R nach Satz 11.1.17. Hieraus folgt: R/a1 a2 R = (a1 R + a2 R)/a1 a2 R = (a1 R + a2 R)/(a1 R ∩ a2 R) = a1 R/(a1 R ∩ a2 R) ⊕ a2 R/(a1 R ∩ a2 R) = a1 R/a1 a2 R ⊕ a2 R/a1 a2 R. Da R nullteilerfrei ist, gelten die R-Modulisomorphismen a1 R/a1 a2 R ∼ = R/a2 R und a2 R/a1 a2 R ∼ R/a R. Also gilt: = 1 (∗)
R/a1 a2 R ∼ = R/a2 R ⊕ R/a1 R.
Sind nun a1 , a2 , . . . , an paarweise teilerfremd, dann sind auch b1 = a1 und b2 = t ∼ R/b1 R ⊕ R/b2 R ∼ = i=2 ai teilerfremd. Wegen (∗) ist daher R/a1 a2 . . . at R = t ∼ Nach Induktionsannahme ist R/b R R/a1 R ⊕ R/b2 R. R/a R, woraus = 2 i i=2
t t R/a1 a2 . . . at R ∼ = i=1 R/ai R ∼ = i=1 mi R folgt. Es genügt, die Umkehrung für die direkte Summe von zwei zyklischen R-Moduln zu beweisen. Seien A = R/aR und B = R/bR zwei zyklische R-Moduln, wobei a = da1 = 0 und b = db1 = 0 für eine von Null verschiedene Nichteinheit d von R ist. Wegen aR ≤ dR und bR ≤ dR gilt nach dem dritten Isomorphiesatz 9.2.18 R/dR ∼ = (R/aR)/(dR/aR) ∼ = (R/bR)/(dR/bR). Wäre nun M = A ⊕ B ∼ = R/cR ein zyklischer R-Modul, dann wäre auch sein epimorphes Bild M¯ = R/dR ⊕ R/dR ∼ = (R/aR)/(dR/aR) ⊕ (R/bR)/(dR/bR) ein zyklischer R-Modul. Sei nun p ein Primteiler der Ordnung des zyklischen RModuls M¯ und F = R/pR der Restklassenkörper von R nach dem maximalen Ideal pR. Dann gelten nach Satz 11.4.5 für die p-Primärkomponente die Gleichungen M¯ p = (R/dR)p ⊕ (R/dR)p , 1 = dimF M¯ p (p) = 2 dimF (R/dR)p (p) = 2.
325
11.5 Elementarteiler von Matrizen
Dieser Widerspruch beendet den Beweis.
11.5.2 Satz. Sei M ein endlich erzeugter Torsionsmodul über dem Hauptidealring R. Sei r = p1k1 p2k2 . . . ptkt eine Primfaktorzerlegung der Ordnung o(M) = r von M in Potenzen paarweise nicht assoziierter Primelemente pi ∈ R. Seien ki = ei1 ≥ ei2 ≥ · · · ≥ eiri > 0 die Elementarteilerexponenten von M zum Primelement pi . Weiter seien die Primelemente pi so indiziert, daß r1 ≤ r2 ≤ · · · ≤ rt gelte. Dann bilden die s = rt Ringelemente aj =
t
e
pi ij
mit 1 ≤ j ≤ rt
und eij = 0 für j > ri
i=1
bis auf Assoziiertheit die einzige Folge a1 , a2 , . . . , as von Nichteinheiten aj = 0 in R derart, daß die beiden folgenden Aussagen gelten:
s R/aj R. (a) M ∼ = j =1
(b) aj +1 teilt aj für j = 1, 2, . . . , s − 1. Die s Ringelemente a1 , a2 , . . . , as heißen Elementarteiler des Torsionsmoduls M. e Beweis: Die s Elemente aj = ti=1 pi ij sind von Null verschiedene Nichteinheiten e in R, für die aj +1 | aj für alle j = 1, 2, . . . , s − 1 gilt. Nach Konstruktion sind pi ij ekj und pk für i = k nicht assoziiert und teilerfremd. Wegen Hilfssatz 11.5.1 folgt daher, daß t e R/pi ij R. R/aj R ∼ = i=1
Nach Satz 11.4.3 ist somit M∼ =
ri t i=1
eij R/pi i R
∼ =
ji =1
s
R/aj R.
j =1
Also gelten die Behauptungen (a) und (b). Die Eindeutigkeitsaussage wird durch vollständige Induktion nach s bewiesen. | Sei b1 , b2 , . . . , bv eine weitere Folge von
vNichteinheiten aus R derart, daß bk+1 bk für k = 1, 2, . . . , v − 1 und M ∼ R/b R gilt. Dann sind a und b = k 1 1 jek=1 weils eine Ordnung von M, d. h. a1 R = Ann(M) = b1 R. Also ist b1 zu a1 nach Hilfssatz 11.1.21 assoziiert und R/a1 R = R/b1 R. Nach dem dritten Isomorphiesatz 9.2.18 folgt v k=2
R/bk R ∼ =
$ v k=1
% $ % s s R/bk R /(R/b1 R) ∼ R/aj R /(R/a1 R) ∼ R/aj R. = = j =1
j =2
326
11 Moduln über Hauptidealringen
Da isomorphe R-Moduln assoziierte Ordnungen haben, folgt a2 R = b2 R, und es gilt v − 1 = s − 1 nach Induktionsannahme. Also ist v = s, und bj ist zu aj für j = 1, 2, . . . , s assoziiert. 11.5.3 Satz. Sei M ein endlich erzeugter, freier R-Modul vom Range n über dem Hauptidealring R. Dann gibt es für jeden Untermodul U = 0 von M mit rg(U ) = r eine Basis B = {qi ∈ M | 1 ≤ i ≤ n} von M und bis auf Assoziiertheit eindeutig bestimmte Nichteinheiten aj = 0, 0 ≤ j ≤ s ≤ r, in R derart, daß folgende Aussagen gelten:
(a) U = js =1 (qj aj )R ⊕ jr =s+1 qj R. (b) aj +1 teilt aj für j = 1, 2, . . . , s − 1.
s (c) Für den Torsionsuntermodul von M/U gilt T (M/U ) ∼ = j =1 R/aj R.
Beweis: Sei B = {mi ∈ M | 1 ≤ i ≤ n} eine fest gewählte Basis des freien RModuls M. Sei B ∗ = {πi ∈ HomR (M, R) | πi (mj ) = δij ∈ R} die duale Basis von B in HomR (M, R). Dann hat jedes γ ∈ HomR (M, R) die eindeutige Darstellung γ = ni=1 πi si mit si ∈ R. Da U ein R-Untermodul von M ist, ist σ (U ) für jedes σ ∈ HomR (M, R) ein Ideal des Ringes R. Nach Hilfssatz 11.1.26 und dem Lemma 1.1.9 von Zorn existiert dann ein τ ∈ HomR (M, R) derart, daß τ (U ) = aR maximal ist unter den Idealen σ (U ). Also existiert ein o = u ∈ U mit τ (u) = a. Weiter gibt es eindeutig bestimmte Elemente ri ∈ R, die nicht alle gleich Null sind, derart, daß n
u = m 1 r1 + m 2 r2 + · · · + m n r n .
Sei τ = i=1 πi si mit si ∈ R die eindeutige Darstellung von τ bezüglich der dualen Basis B ∗ . Dann gilt n n n n πi mj rj si = ri si ∈ a = τ (u) = ri R = I, j =1
i=1
i=1
i=1
weil πi (u) = ri ∈ R für i = 1, 2, . . . , n. Da R ein Hauptidealring ist, ist ni=1 ri R = bR für ein b ∈ I. n n Sei b = i=1 ri ti mit geeigneten ti ∈ R. Dann ist τ = i=1 πi ti ∈ HomR (M, R), und es gilt n n n πi mj rj ti = ri ti = b. τ (u) = i=1
j =1
i=1
Hieraus folgt wegen a ∈ I = bR, daß τ (U ) = aR ≤ bR = τ (u)R = τ (uR) ⊆ τ (U ).
327
11.5 Elementarteiler von Matrizen
Also gilt τ (U ) = aR = bR = τ (U ), weil τ (U ) maximal unter allen Idealen σ (U ) mit σ ∈ HomR (M, R) ist. Insbesondere ist I = ni=1 ri R = aR. Daher existiert zu jedem ri ein vi ∈ R mit ri = avi . Hieraus folgt u = qa
für q =
n
mi vi ∈ M
i=1
und a = τ (u) = τ (qa) = τ (q) · a ∈ R. Also ist τ (q) = 1, weil R nullteilerfrei ist. Daher ist qR ∩ Ker(τ ) = 0. Für jedes x ∈ M ist x − qτ (x) ∈ Ker(τ ), weil τ (x) ∈ R und so τ (x − q(x)) = τ (x) − τ [q(x)] = τ (x) − τ (q)τ (x) = 0. Also ist M = qR ⊕ Ker(τ ). Da M ein freier R-Modul ist, ist auch M1 = Ker(τ ) nach Satz 11.2.7 ein freier R-Modul. Sei U1 = U ∩ Ker(τ ). Dann ist (∗)
U = (qa)R ⊕ U1
und
M = qR ⊕ M1 .
Insbesondere ist rg(U1 ) = rg(U ) − 1 nach Definition 11.2.9 und Satz 9.4.6. Ist rg(U ) = r = 1 so folgt U = (qa)R und M = qR ⊕ M1 . Falls a eine Einheit in R ist, ist U = qR, d. h. s = 0, und es gibt keine Nichteinheiten aj = 0. Insbesondere ist T (M/U ) = 0. Ist a keine Einheit in R, so ist a = a1 , U = (qa1 )R und M = qR ⊕ M1 , d. h. s = 1, und T (M/U ) ∼ = R/a1 R. Es wird nun angenommen, daß die Behauptung für r − 1 bewiesen ist. Sei weiter a keine Einheit in R. Wegen rg(U1 ) = r − 1 und U1 ≤ M1 folgt dann nach Induktionsannahme, daß M1 eine Basis B1 = {qi ∈ M | 2 ≤ i ≤ n} besitzt, zu der es bis auf Assoziiertheit eindeutig bestimmte Nichteinheiten aj = 0, 0 ≤ j ≤ s ≤ r in R gibt derart, daß gilt:
(a) U1 = js =2 (qj aj )R ⊕ jr =s+1 qj R, (b) aj +1 teilt aj für j = 2, 3, . . . , s − 1, ∼ s R/aj R. (c) T (M1 /U1 ) = j =2
Nach (∗) gilt U = (qa)R ⊕ U1 . Hieraus folgt aR = τ (U ) ≥ τ (U1 ) = a2 R. Da a keine Einheit ist, ist a2 ein Teiler von a = a1 , und U=
s j =1
(qj aj )R ⊕
r j =s+1
qj R,
328
11 Moduln über Hauptidealringen s
T (M/U ) ∼ =
R/aj R.
j =1
Also gelten alle Behauptungen in diesem Fall. Ist a eine Einheit, so gilt nach Induktionsannahme, daß s r−1 U1 = (qj aj )R ⊕ qj R. j =1
j =s+1
Setze qr = q. Dann folgt aus (∗), daß U = U1 ⊕ qR =
s
(qj aj )R ⊕
j =1
r
qj R.
j =s+1
11.5.4 Definition. Sei Z der Untermodul des freien R-Moduls R n über dem Hauptidealring R, der von den Zeilen zi = (ai1 , ai2 , . . . , ain ) einer m×n-Matrix A = (aij ) erzeugt wird. Dann ist Z nach Satz 11.2.7 ein freier R-Modul. Der Rang von Z heißt der Zeilenrang z(A) von A. Analog definiert man den Spaltenrang s(A). Mit Hilfe der Sätze 10.3.1 und 3.4.4 zeigt man, daß z(A) = s(A) = r der Rang von A über dem Quotientenkörper Q von R ist. Deshalb heißt r = rg(Z) der Rang r(A) der Matrix A. 11.5.5 Definition. Die m × n-Matrix A = (aij ) mit Koeffizienten aij aus dem kommutativen Ring R ist in Diagonalform, falls aij = 0 für alle Paare (i, j ) mit i = j oder i = j > r und aii = ai = 0 für i = 1, 2, . . . , r gilt. Bezeichnung: A = diag(a1 , . . . , ar , 0, . . . , 0). 11.5.6 Definition. Sei R ein Hauptidealring. Die m × n-Matrix D = (dij ) mit dij ∈ R ist in Smith-Normalform, falls D = diag(d1 , d2 , . . . , dr , 0, . . . , 0)
und
di | di+1 für 1 ≤ i ≤ r − 1
gilt. Ist A zu D äquivalent, so heißen d1 , d2 , . . . , dr Elementarteiler und D SmithNormalform von A. 11.5.7 Satz (Elementarteilersatz). Sei A = (aij ) eine m × n-Matrix mit Koeffizienten aij aus dem Hauptidealring R mit Rang rg(A) = r. Dann gibt es invertierbare n × n- und m × m-Matrizen P und Q mit Koeffizienten aus R und r bis auf Assoziiertheit eindeutig bestimmte Elemente 0 = di ∈ R derart, daß Q−1 AP = D = diag(d1 , . . . , dr , 0, . . . , 0) die Smith-Normalform von A ist.
329
11.5 Elementarteiler von Matrizen
Beweis: Seien A = {ej | 1 ≤ j ≤ n} und B = {fi | i ≤ i ≤ m} die kanonischen Basen der freien R-Moduln M = R n und N = R m . Die zu A = (aij ) gehörige, R-lineare Abbildung α : M → N ist nach Definition 9.5.4 definiert durch die Gleichungen m α(ej ) = fi aij für j = 1, 2, . . . , n. i=1
Wegen rg(A) = r ist U = α(M) ein Untermodul vom Range r im freien R-Modul N = R m . Daher gibt es nach Satz 11.5.3 eine Basis B = {qi | 1 ≤ i ≤ m} von N und s ≤ r (bis auf Assoziiertheit) eindeutig bestimmte Nichteinheiten ai ∈ R, für die ai+1 | ai für i = 1, 2, . . . , s − 1 gilt derart, daß {q1 a1 , . . . , qs as , qs+1 , . . . , qr } eine Basis von U ist. Sei ai = 1 für s + 1 ≤ i ≤ r. Durch die Umnumerierung qi = qr−i für 1 ≤ i ≤ r und qi = qi für r + 1 ≤ i ≤ m der Elemente qi der Basis B = {qi | 1 ≤ i ≤ m} von N, erhält man eine Basis B = {qh | 1 ≤ h ≤ m} von N = R m derart, daß die folgenden Bedingungen gelten: (∗)
ah | ah+1
und (∗∗)
U=
r
für h = 1, 2, . . . , r − 1
(qh ah )R.
h=1
Sei Q die m × m-Matrix des Basiswechsels B → B . Da α(M) ein freier RUntermodul von R m ist, existiert nach Satz 9.4.8 ein freier R-Untermodul P von M = R n derart, daß M = P ⊕ Ker(α) ist. Daher besitzt P eine Basis {ph | 1 ≤ h ≤ r}, für die α(ph ) = qh ah für 1 ≤ h ≤ r gilt. Nach den Sätzen 11.2.7, 11.2.8 und Hilfssatz 11.2.5 hat Ker(α) eine Basis {ph | r + 1 ≤ h ≤ n} derart, daß A = {pj | 1 ≤ j ≤ n} eine Basis des freien R-Moduls M ist. Sei P die n × n-Matrix des Basiswechsels A → A von M. Dann gilt nach Satz 9.5.7, daß Q−1 Aα (A, B)P = Q−1 AP = Aα (A , B ) = D = diag(a1 , a2 , . . . , ar , 0, 0, . . . , 0) ist. 11.5.8 Bemerkung. In der Literatur werden die in Definition 11.5.6 eingeführten Elementarteiler” einer m × n-Matrix A = (aij ) mit aij ∈ R auch invariante ” Faktoren genannt. Die Elementarteiler einer m × n-Matrix A = (aij ) mit Koeffizienten aus einem Hauptidealring kann man mit Hilfe des Smith-Algorithmus durch geeignete Matrizenumformungen bestimmen. Zu seiner Formulierung werden die folgenden Hilfssätze und Begriffe benötigt. 11.5.9 Hilfssatz. Seien a, b zwei Nichteinheiten des Hauptidealrings R derart, daß a kein Teiler von b ist. Sei d = ggT(a, b). Dann existieren Elemente u, v, s, t ∈ R derart, daß
330
11 Moduln über Hauptidealringen
(a) au + bv = d, a = dt und b = ds, t s u s 1 0 (b) = , v −u v −t 0 1 u s (c) (a, b) = (d, 0). v −t Beweis: (a) Nach Satz 11.1.17 ist dR = aR + bR, woraus d = au + bv, a = dt und b = ds für geeignete u, v, s, t ∈ R folgt. (b) d = au + bv = dtu + dsv impliziert 1 = tu + sv. Hieraus folgt t s u s ut + sv st − st 1 0 = = . v −u v −t uv − uv sv + ut 0 1 (c) (a, b)
u v
s −t
= (au + bv, as − bt) = (d, 0).
11.5.10 Definition. Sei R ein Hauptidealring. Die Länge l(a) eines Elements a = 0 von R ist definiert durch 0 falls a eine Einheit ist, falls a ein Primelement, 1 k l(a) = falls a = ki=1 piei eine Primfaktorzerlegung, e i i=1 von a ist, wobei die Primelemente pi paarweise nicht assoziiert sind. 11.5.11 Algorithmus. Sei A = (aij ) eine m × n-Matrix mit rg(A) = r und mit Koeffizienten aij aus dem Hauptidealring R. Seien z1 , z2 , . . . , zm die Zeilen und s 1 , s 2 , . . . , s n die Spalten von A. Durch folgenden Algorithmus werden zwei invertierbare m × m- bzw. n × n-Matrizen Q und P konstruiert derart, daß QAP = diag(a1 , a2 , . . . , ar , 0, 0, . . . , 0) in Diagonalform aber noch nicht notwendig die Smith-Normalform ist. Wenn A die Nullmatrix ist, bricht der Algorithmus ab. Sonst wendet man die folgenden Schritte an. 1. Schritt: Sei aij = 0 ein Koeffizient von A mit minimaler Länge l(aij ). Durch Vertauschung der 1. und der i-ten Zeile von A und anschließender Vertauschung der = a ist. Nach 1. und j -ten Spalte erhält man eine Matrix A = (aij ), bei der a11 ij Bemerkung 9.5.3 und Satz 4.1.13 gehören zu diesen elementaren Umformungen invertierbare m × m- bzw. n × n-Elementarmatrizen Q1,i und P1,j derart, daß A = Q1,i AP1,j .
331
11.5 Elementarteiler von Matrizen
Nach Durchführung des 1. Schrittes kann also bei den weiteren Schritten angenommen werden, daß die Koeffizienten der Matrix A = (aij ) die Längenbedingungen l(a11 ) ≤ l(aij ) für 1 ≤ i ≤ m und 1 ≤ j ≤ n erfüllen. 2. Schritt: Ist a11 kein Teiler von einem a1k = 0 mit k ∈ {2, 3, . . . , n}, dann ist a11 keine Einheit und l(a11 ) > 0. Durch Vertauschen der k-ten und der 2-ten Spalte kein Teiler von a ist. Nach von A erhält man die Matrix A = (aij ), bei der a11 12 Bemerkung 9.5.3 und Satz 4.1.13 existiert eine invertierbare n × n-Elementarmatrix , a ). Dann ist l(d) < l(a ). Nach P2,k derart, daß A = AP2,k . Sei d = ggT(a11 12 11 Hilfssatz 11.5.9 existieren Elemente u, v, s, t ∈ R derart, daß u s v −t T2 = En−2 eine invertierbare n × n-Matrix ist mit d 0 a 21 AP2,k T2 = .. . am
a13
B2
···
a1n
.
Nach höchstens n−2 weiteren Multiplikationen mit solchen invertierbaren Matrizen Pj,kj Tj geht A über in eine Matrix der Form b11 0 · · · 0 n b21 A Pj,kj Tj = = B = (bij ). .. . B n j =2 bm1 Ist nun b11 kein Teiler von einem der Koeffizienten bk1 für ein k ∈ {2, 3, . . . , m} in der ersten Spalte von A, dann ist b11 keine Einheit und l(b11 ) > 0. Durch Vertauschen ), bei der b kein der k-ten und der 2-ten Zeile geht B über in eine Matrix B = (bij 11 ist. Nach Bemerkung 9.5.3 und Satz 4.1.13 existiert eine invertierbare Teiler von b12 m×m-Elementarmatrix Q2,k derart, daß B = Q2,k B. Nach Hilfssatz 11.5.9 existiert dann wiederum eine invertierbare m × m-Matrix u v s −t V2 = Em−2
332
11 Moduln über Hauptidealringen
mit
V2 Q2,k A =
b 0
b12
b13
b31 .. .
···
b1n
C2
,
bm1 , b ) eine Länge l(b) < l(b ) hat. Obwohl nun b wieder unwobei b = ggT(b11 11 21 1j gleich Null sein kann, endet dieses Verfahren nach endlich vielen weiteren Schritten ∗ | a ∗ für 2 ≤ j ≤ n und a ∗ | a ∗ für mit einer Matrix A∗ = (aij∗ ) derart, daß a11 11 1j i1 ∗ ) echt 2 ≤ i ≤ m gilt, weil bei jeder Anwendung von Schritt 2 die Länge von l(a11 abnimmt. Indem man all die auftretenden Permutationsmatrizen Pj,kj bzw. Qi,ki und die invertierbaren Matrizen der Typen Tj bzw. Vi in der oben angegebenen Reihenfolge von rechts bzw. links multipliziert, erhält man eine invertierbare m × m-Matrix X bzw. eine invertierbare n × n-Matrix Y derart, daß XAY = A∗ gilt. a i1 3. Schritt: Ist ri = aa11 ∈ R für i = 2, . . . , m und tj = a1j ∈ R für j = 11 2, . . . , n, dann ersetzt man zunächst zi durch zi − z1 ri für i = 2, 3, . . . , m. Nach Bemerkung 9.5.3 und Satz 4.1.13 gehört zu jeder dieser m − 1 Zeilenumformungen eine invertierbare m × m-Elementarmatrix Z1,i,−ri derart, daß
m
Z1,i,−ri A = A
i=2
die hierdurch entstandene Matrix ist. Die erste Spalte von A ist s 1 = (a11 , 0, . . . , 0) ∈ R m . Weiter haben A und A die gleiche erste Zeile z1 . In A ersetzt man nun die j -te Spalte sj durch sj − s 1 tj für j = 2, 3, . . . , n. Sei A die dadurch entstandene m × n-Matrix. Wiederum nach Bemerkung 9.5.3 und Satz 4.1.13 gehört zu jeder dieser n − 1 Spaltenumformungen eine invertierbare n × n-Elementarmatrix S1,j,−tj derart, daß a11 , A = ZAS A1 wobei Z=
m i=2
Z1,i,−ri
und
S=
z j =2
S1,j,−tj .
11.5 Elementarteiler von Matrizen
333
4. Schritt: Ist A1 die Nullmatrix, so endet der Algorithmus. Andernfalls wendet man die Schritte 1 bis 3 auf die Matrix A1 an und fahre danach entsprechend fort. Hierdurch erhält man schließlich eine invertierbare (m − 1) × (m − 1)-Matrix Q1 und eine invertierbare (n − 1) × (n − 1)-Matrix P1 derart, daß Q1 A1 P1 = diag(d2 , d3 , . . . , dr , 0, . . . , 0) in Diagonalform ist. Dann sind 1 1 und P = Q = Q1 P1 invertierbare m × m bzw. n × n-Matrizen derart, daß die m × n-Matrix
Q A P = diag(d1 , d2 , . . . , dr , 0, . . . , 0) = D eine Diagonalform von A ist. Indem man die bei allen Schritten entstandenen m × m-Transformationsmatrizen der zugehörigen Zeilenumformungen von A miteinander multipliziert, erhält man die invertierbare m × m-Transformationsmatrix Q. Ebenso erhält man die den Spaltenumformungen entsprechende invertierbare n × n-Transformationsmatrix P und QAP = D. 11.5.12 Bemerkung. Bei der praktischen Durchführung von Algorithmus 11.5.11 kann man folgendes Rechenschema anwenden: In die Mitte wird die m×n-Matrix A geschrieben, links von ihr die Einheitsmatrix Em und rechts von ihr En . Sind Linksmultiplikationen mit invertierbaren m × m-Matrizen des Typs V von Schritt 2 erforderlich, so werden diese Matrizen V an der entsprechenden Stelle in der ersten Spalte eingetragen. Ihre Produkte mit den beiden Vorgängern in den Spalten von Em und A werden dann in der 2. bis 3. Spalte aufgeschrieben. Sonst werden die elementaren Zeilenumformungen der Schritte 1 und 3 zugleich auf die Matrizen in den Spalten von Em und A angewendet. Ebenso verfährt man mit den Matrizen A und En bei Spaltenumformungen bzw. Rechtsmultiplikationen mit n × n-Matrizen des Typs T von Schritt 2, die in die 5. Spalte geschrieben werden. Am Ende des Algorithmus steht dann die Diagonalmatrix D in der Mitte, und die Transformationsmatrizen Q und P links bzw. rechts daneben. 11.5.13 Beispiel. Dieses Schema wird nun an einem Beispiel erläutert. Dabei treten Rechtsmultiplikationen mit Matrizen des Typs T nicht auf. Freie Matrix-Plätze bedeuten, daß an der betreffenden Matrix keine Änderungen vorgenommen werden.
334
11 Moduln über Hauptidealringen Typ V
1 0 0 0
0 −8 17 0
0 1 −2 0
0 0 0 1
1 0 0 0
E4 0 1 0 0
0 0 1 0
0 0 0 1
2 6 4 8
0 0 1 0
0 1 0 0
1 0 0 0
0 0 0 1
4 6 2 8 1 −14 0 −4
0 0 1 0
0 1 0 0
1 14 0 4
0 0 0 1
1 0 0 0 1 0 0 0
0 1 0 0 0 0 1 14 0 0 4 1 0 1 0 0 0 0 0 4 1 1 14 0 0 1 0 0 4 1 0 −8 −2 1 14 0 0 1 0 0 4 1 0 −8 −2 1 −170 −46
1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0 0 −8 17 0 0 −8 17 368
1 0 0 0
E5 4 0 1 0 0 0 0 10 −14 0 1 0 0 0 7 1 0 0 1 0 0 13 −4 0 0 0 1 0 0 0 0 0 1 3 11 7 1 4 16 10 −14 2 6 4 0 5 21 13 −4 3 11 7 4 0 0 0 0 1 4 16 10 6 0 1 0 0 0 2 6 4 2 0 0 1 0 0 5 21 13 8 0 0 0 1 0 1 0 0 0 0 3 11 7 4 46 170 108 62 2 6 4 2 17 65 41 24 0 0 0 0 0 0 0 0 1 46 170 108 62 0 1 0 0 0 2 6 4 2 0 0 1 0 0 17 65 41 24 0 0 0 1 0 1 −3 −11 −7 −4 0 0 0 0 2 6 4 2 46 170 108 62 17 65 41 24 0 0 0 0 2 6 4 2 17 65 41 24 46 170 108 62 0 0 0 0 1 17 9 8 0 −28 −14 −14 46 170 108 62 0 0 0 0 1 17 9 8 0 −28 −14 −14 0 −612 −306 −306 0 0 0 0 0 0 0 0 1 1 0 0 0 0 1 −17 −9 −8 0 −28 −14 −14 0 0 1 0 0 0 −612 −306 −306 0 0 0 1 0 1 −3 40 20 20 0 0 0 0 0 0 0 0 1 1 0 0 0 0 1 −9 −17 −8 0 −14 −28 −14 0 0 0 1 0 0 −306 −612 −306 0 0 1 0 0 1 −3 20 40 20 2 4 3 5
A 6 16 11 21
335
11.5 Elementarteiler von Matrizen V
1 0 0 0
0 0 1 0 0 −22 0 −153
E4
0 0 0 −8 1 −6 7 −25
0 0 1 7
1 0 4 1 6 −2 34 −16
Q
1 0 0 0
A 0 0 1 0 0 −14 0 −306
0 0 0 0
0 0 0 0
1 0 0 0
0 1 0 0
0 0 0 0
0 0 0 0
0 0 2 0
E5 0 0 0 0 1 0 1 −9 1 1 0 0 0 1 0 0 0 1 −2 −1 1 −3 20 0 0
D
P
Die Diagonalmatrix D = diag(1, 1, 2, 0) ist schon die Smith-Normalform von A. 11.5.14 Hilfssatz. Seien a, b von Null verschiedene Elemente des Hauptidealrings R. Sei d = ggT(a, b) und k = kgV(a, b). Dann existieren Elemente u, v, r, s ∈ R derart, daß die folgenden Aussagen gelten: (a) d = au + bv. (b) a = dr, b = ds und k = drs. (c) Für die 2 × 2-Matrizen u A= −s
v r
und B =
1 1
−vs ur
gilt det A = 1 = det B. a 0 d 0 (d) A B= . 0 b 0 k Beweis: Die Existenz der Elemente u, v, r, s ∈ R, für die (a) und (b) gelten, ergibt sich unmittelbar aus Satz 11.1.17. (c) det A = ur + vs = 1, weil d = au + bv = d(ur + vs). Ebenso folgt det B = ur + vs = 1. (d) u v a 0 1 −vs au vb 1 −vs = −s r 0 b 1 ur −as rb 1 ur au + vb −auvs + vbur = −as + rb avs 2 + br 2 u d 0 = , 0 k weil d = au + bv, as = br = drs, auvs = druvs = bruv und avs 2 + br 2 u = drvs 2 + dsr 2 u = drs(vs + ur) = drs = k.
336
11 Moduln über Hauptidealringen
11.5.15 Algorithmus. Sei A = diag(a1 , a2 , . . . , ar , 0, . . . , 0) eine m × n-Matrix in Diagonalform mit Koeffizienten aus dem Hauptidealring R. Ist A in Smith-Normalform, dann bricht der Algorithmus ab. Andernfalls werden durch endlich viele Anwendungen der folgenden Schritte zwei invertierbare m × m- bzw. n × n-Matrizen Q und P konstruiert derart, daß QAP = D = diag(d1 , d2 , . . . , dr , 0, . . . , 0) in Smith-Normalform ist. 1. Schritt: Sei ak das erste Diagonalelement von A = diag(a1 , a2 , . . . , ar , 0, . . . , 0) derart, daß l(ak ) = min{l(ai ) | 1 ≤ i ≤ r}. Durch Vertauschung der 1. und der k-ten Spalte und anschließender Vertauschung der 1. und der k-ten Zeile erhält man eine Matrix A = diag(ak , a2 , . . . , a1 , ak+1 , . . . , ar , 0, . . . , 0) in Diagonalform, bei der das erste Diagonalelement ak von minimaler Länge l(ak ) ist. Nach Bemerkung 9.5.3 und Satz 4.1.13 gehören zu diesen elementaren Umformungen invertierbare m × m- bzw. n × n-Elementarmatrizen Q1,k und P1,k derart, daß Q1,k AP1,k = A . 2. Schritt: Sei A = diag(a1 , a2 , . . . , ar , 0, . . . , 0) in Diagonalform und a1 von minimaler Länge. Gibt es ein Diagonalelement aj von A, das von a1 nicht geteilt wird, dann ist l(a1 ) > 0, und a1 ist keine Einheit in R. Weiter sei j minimal gewählt. Durch Vertauschen der 2. und der j -ten Spalte und anschließender Vertauschung der 2. und der j -ten Zeile geht A in eine Matrix A = diag(a1 , a2 , . . . , ar , 0, . . . , 0) in Diagonalform über, bei der a1 kein Teiler von a2 ist. Nach Bemerkung 9.5.3 und Satz 4.1.13 gehören zu diesen elementaren Umformungen invertierbare m × mbzw. n × n-Elementarmatrizen Q1,j und P1,j derart, daß Q1,j AP1,j = A . Nach Hilfssatz 11.5.14 existieren dann Elemente u, v, r, s ∈ R derart daß u v −s r eine invertierbare m × m Matrix und R= Em−2
1 1 S=
−vs ur En−2
eine invertierbare n × n Matrix
ist mit RAS = diag(d, w, a3 , a4 , . . . , ar , 0, . . . , 0), wobei d = ggT(a1 , a2 ) und w = kgV(a1 , a2 ). Wegen d | a1 gilt nun d | ai für 3 ≤ i ≤ j und d | a2 . 3. Schritt: Man wendet den 2. Schritt solange auf A = diag(a1 , a2 , . . . , ar , 0, . . . , 0) an, bis a1 | aj für j = 1, 2, . . . , r gilt. Ist diese Matrix in SmithNormalform, dann endet der Algorithmus. Sonst ist die entstandene Matrix A∗ von
337
11.5 Elementarteiler von Matrizen
der Form
A∗ =
d1 A1
,
wobei A1 = diag(a2∗ , . . . , ar∗ , 0, . . . , 0) nicht in Smith-Normalform ist. Nach Induktion existieren invertierbare (m − 1) × (m − 1)- bzw. (n − 1) × (n − 1)-Matrizen Q1 und P1 mit QA1 P1 = diag(d2 , . . . , dr , 0, . . . , 0). Wegen d1 | ai∗ für 2 ≤ i ≤ r ist d1 | di für 2 ≤ i ≤ r. Sei 1 1 und P = . Q = Q1 P1 Dann erhält man Q und P als geeignete Produkte der in den vorigen Schritten berechneten Transformationsmatrizen mit Q bzw. P . Es folgt QAP = diag(d1 , d2 , . . . , dr , 0, . . . , 0) die (bis auf Einheiten eindeutig bestimmte) Smith-Normalform von A. 11.5.16 Definition. Die Hintereinanderausführung der Algorithmen 11.5.11 und 11.5.15 ist ein Algorithmus mit dem man eine m × n-Matrix A = (aij ) in ihre Smith-Normalform QAP = D = diag(d1 , d2 , . . . , dr , 0, 0, . . . , 0) überführt. Er heißt Smith-Algorithmus. 11.5.17 Beispiel. Mit Hilfe desAlgorithmus 11.5.15 soll nun die Smith-Normalform D der 3 × 3-Matrix A = diag(X + 1, X − 1, (X − 1)2 ) = diag(a1 , a2 , a3 ) mit Koeffizienten aus dem Polynomring R = Q[X] bestimmt werden. 1. Schritt: a1 = X + 1 hat minimale Länge l(a1 ) = 1. 2. Schritt: ggT(a1 , a2 ) = 1, also 1 = a1 21 + a2 − 21 = 21 (X + 1) − 21 (X − 1). Nach Hilfssatz 11.5.14 haben daher die Transformationsmatrizen R und S des 2. Schrittes von Algorithmus 11.5.15 die Form:
1 2
R = −X + 1 0
− 21 X+1 0
0 0 , 1
1 S= 1 0
− 1) 0 + 1) 0 . 0 1
1 2 (X 1 2 (X
338
11 Moduln über Hauptidealringen
Hieraus folgt durch Matrizenmultiplikation, daß RAS = diag(1, X 2 − 1, (X − 1)2 =
1 B
Anwendung des Algorithmus 11.5.15 auf B = diag(X2 − 1), (X − 1)2 ): 1. Schritt: l(b1 ) = l(X2 − 1) = 2 = l(b2 ). 2. Schritt: ggT(b1 , b2 ) = X − 1 = (X 2 − 1) 21 − (X − 1)2 21 . Nach Hilfssatz 11.5.14 haben daher die Transformationsmatrizen R1 und S1 des 2. Schrittes von Algorithmus 11.5.15 die Form , 1 1 1 (X − 1) 1 − 2 2 2 R1 = . , S1 = −X + 1 X + 1 1 21 (X + 1) Hieraus folgt:
R1 BS1 =
X−1 0
0 (X − 1)2 (X + 1)
.
Nach dem 3. Schritt des Algorithmus 11.5.15 hat A daher die Smith-Normalform D = diag(1, X − 1, (X − 1)2 (X + 1)). Die zugehörigen Transformationsmatrizen Q und P sind gegeben durch: 1 1 1 1 0 0 − 0 2 2 1 R = 0 Q= − 21 −X + 1 X + 1 0 , 2 R1 0 0 1 0 −X + 1 X + 1 1 1 0 0 1 21 (X − 1) 0 = 1 1 (X + 1) 0 0 1 21 (X − 1) . P =S 2 S1 0 1 21 (X + 1) 0 0 1 Also gilt:
1 P = 1 0 und
1 2
1 2 (X 1 2 (X
Q = − 21 (X − 1) (X − 1)2
− 1) + 1) 1
1 2 4 (X − 1) 1 2 4 (X − 1) 1 2 (X + 1)
− 21 0 1 − 21 . 2 (X + 1) 2 −(X − 1) X + 1
339
11.5 Elementarteiler von Matrizen
11.5.18 Satz. Sei A = (aij ) eine m × n-Matrix mit Koeffizienten aus dem Hauptidealring R mit rg A = r. Dann gilt: (a) Durch Anwendung des Algorithmus 11.5.11 erhält man eine invertierbare n × n-Matrix Q1 und eine invertierbare n × n-Matrix P1 derart, daß Q1 AP1 = diag(a1 , a2 , . . . , ar , 0, . . . , 0) in Diagonalform ist. (b) Durch anschließende Anwendung des Algorithmus 11.5.15 erhält man eine invertierbare m×m-Matrix Q2 und eine invertierbare n×n-Matrix P2 derart, daß QAP = diag(d1 , d2 , . . . , dr , 0, . . . , 0) in Smith-Normalform ist, wobei Q = Q2 Q1 und P = P1 P2 . (c) Sind d1 , d2 , . . . , dr−s Einheiten in R, dann sind die s Nichteinheiten dj mit r−s+1 ≤ j ≤ r die Elementarteiler des Torsionsmoduls T (R n /Z) von R n /Z, wobei Z der von den Zeilen z1 , z2 , . . . , zm von A erzeugte Untermodul des freien R-Moduls R n ist, d. h. R n /Z ∼ = R m−r ⊕
r
R/dj R.
j =r−s+1
Insbesondere sind die Diagonalelemente d1 , d2 , . . . , dr durch A bis auf Assoziiertheit eindeutig bestimmt; sie sind die Elementarteiler von A. Beweis: Die Aussagen (a) und (b) ergeben sich unmittelbar aus den Algorithmen 11.5.11 und 11.5.15. (c) folgt sofort aus Satz 11.5.7 und seinem Beweis. Für euklidische Ringe ergibt sich beim Smith-Algorithmus die Besonderheit, daß jeweils der zweite Schritt der Algorithmen 11.5.11 und 11.5.15 allein durch elementare Umformungen durchgeführt werden kann, wie nun gezeigt wird. 11.5.19 Satz. Sei R ein euklidischer Ring mit der Norm ρ. Dann gelten: (a) Jede invertierbare n × n-Matrix A = (aij ) mit Koeffizienten aij aus R ist ein Produkt von elementaren Matrizen. (b) Für jede m × n-Matrix B mit Koeffizienten aus R und rg(B) = r können die Smith-Normalform D = diag(d1 , d2 , . . . , dr , 0, . . . , 0) = QBP und die Transformationsmatrizen P und Q mittels der Algorithmen 11.5.11 und 11.5.15 durch endlich viele elementare Zeilen- und Spaltenumformungen der Matrix B berechnet werden.
340
11 Moduln über Hauptidealringen
Beweis: Der Beweis von (a) erfolgt durch vollständige Induktion nach n. Für n = 1 ist die invertierbare Matrix A = (a11 ) eine elementare Matrix des Typs ZMi;a von Bemerkung 9.5.3. Angenommen, die Behauptung (a) ist für invertierbare (n − 1) × (n − 1)-Matrizen bewiesen. Durch Zeilen- und Spaltenvertauschungen geht A in eine invertierbare n × n-Matrix A = (aij ) = KAL über derart, daß (∗)
) < ρ(ai1 ) ρ(a11
für 2 ≤ i ≤ n
und (∗∗)
) < ρ(a1j ) für 2 ≤ j ≤ n ρ(a11
gilt, wobei K und L Produkte von elementaren Matrizen sind. Weiter kann nun nach Bemerkung 11.1.7 vorausgesetzt werden, daß die Behauptung (a) für alle in ) < ρ(a ) vertierbaren n × n-Matrizen A = (aij ) schon bewiesen ist, für die ρ(a11 11 gilt. ist kein Teiler von a . Dann existieren nach dem euklidischen Angenommen, a11 i1 Algorithmus 11.1.28 Elemente 0 = si , qi ∈ R derart, daß = a11 qi + s i ai1
mit ρ(si ) < ρ(a11 ).
Indem man die i-te Zeile zi von A durch zi − z1 qi ersetzt, und anschließend in der neu entstandenen Matrix die i-te Zeile mit der ersten Zeile vertauscht, erhält man eine = s . Dabei ist K das Produkt der zu diesen Matrix A = K A = (aij ) mit a11 i elementaren Zeilenumformungen gehörigen elementaren Matrizen. Insbesondere ist ) = ρ(si ) < ρ(a11 ). ρ(a11
Nach Induktionsvoraussetzung ist daher A = K A ein Produkt von elementaren Matrizen. Hieraus folgt, daß A = K −1 (K )−1 A L−1 ein Produkt von elementaren Matrizen ist. Also kann angenommen werden, daß a11 | ai1 für i = 2, . . . , n gilt. Der Algorithmus 11.5.11 wird nun mit der Modifikation angewendet, daß man die Länge l(aij ) eines Koeffizienten aij von A durch die Norm ρ(aij ) ersetzt. Nach dem 3. Schritt des Algorithmus 11.5.11 existiert dann ein Produkt H von elementaren Matrizen derart, daß a11 a12 · · · a1n 0 HA = .. . A 1
0 ∈ R ist. mit einer Einheit a11 Anschließend wendet man dieses Verfahren mit den entsprechenden Spaltenumformungen anstelle der Zeilenumformungen auf die erste Zeile von H A an. Dann
341
11.5 Elementarteiler von Matrizen
erhält man eine invertierbare Matrix J, die ebenfalls ein Produkt von elementaren Matrizen ist derart, daß a11 0 ··· 0 0 H AJ = .. . A2 0 gilt. Sicherlich ist U = Dabei sinda11 ∈ R und A2 ∈ GL(n −1, R) invertierbar. a11 1 eine elementare und V = eine invertierbare Matrix A2 En−1 mit H AJ = UV. Daher folgt die Behauptung (a) durch vollständige Induktion. (b) Nach dem Smith-Algorithmus 11.5.16 gibt es zwei invertierbare m × mbzw. n × n-Matrizen Q und P mit
QBP = diag(a1 , . . . , ar , 0, . . . , 0) = D. Wegen (a) sind sowohl Q als auch P Produkte von elementaren m × m- bzw. n × nMatrizen. Nach Bemerkung 9.5.3 und Satz 4.1.13 erhält man daher D durch endlich viele Zeilen- und Spaltenumformungen von A. 11.5.20 Bemerkung. Die Behauptung von Satz 11.5.19 gilt nicht für beliebige Hauptidealringe. In [4], p. 23 hat P. M. Cohn ein Beispiel für eine invertierbare 2 × 2-Matrix A = (aij ) mit Koeffizienten aij aus dem Ring R der ganzen Zahlen √ des algebraischen Zahlkörpers Q −19 angegeben, die nicht in der Untergruppe U von GL(2, R) liegt, die von den invertierbaren Diagonal- und den Elementarmatrizen erzeugt wird. Dieser Ring R ist ein Hauptidealring, der nicht euklidisch ist. Es ist im Rahmen dieses Buches nicht möglich, diese Begriffe und das Beispiel ausführlicher zu erläutern; dazu wird auf die Arbeit [4] von P. M. Cohn verwiesen. 11.5.21 Definition. Sei M ein endlich erzeugter R-Modul über einem Hauptidealring R. Ist M = ni=1 mi R und S = {mi ∈ M | 1 ≤ i ≤ n} ein Erzeugendensystem von M von
kleinster Elementzahl, dann gibt es nach Satz 9.4.15 einen freien R-Modul P = ni=1 fi R mit Basis A = {fi ∈ P | 1 ≤ i ≤ n} und einen Epimorphismus α : P → M, der durch α(fi ) = mi für i = 1, 2, . . . , n definiert ist. Sei U = Ker(α) = {f ∈ P | α(f ) = 0}. Nach Hilfssatz 11.2.5 hat der Untermodul U von P ein Erzeugendensystem B = {uj ∈ U | 1 ≤ j ≤ r} mit r ≤ n Elementen. Jedes uj hat die eindeutige Darstellung uj =
n i=1
fi rij ,
1 ≤ j ≤ r, für geeignete rij ∈ R.
342
11 Moduln über Hauptidealringen
Die r × n-Matrix R = (rij ) heißt die Relationen-Matrix des endlich erzeugten R-Moduls M bezüglich der Basis A des R-Moduls P der freien Auflösung α
0→U →P →M→0 von M. Die r Gleichungen n
mi rij = 0,
1≤j ≤r
i=1
heißen die Relationen vom M bezüglich des Erzeugendensystems {m1 , . . . , mn }. 11.5.22 Bemerkung. Die r Elementarteiler aj , 1 ≤ j ≤ r, des R-Moduls M können nach Satz 11.5.18 mittels der Algorithmen 11.5.11 und 11.5.15 durch endlich viele Umformungen der Relationen-Matrix R des R-Moduls M bezüglich der Basis B = {uj ∈ U | 1 ≤ j ≤ r} des Kerns U = Ker(α) des Epimorphismus α : P → M berechnet werden. 11.5.23 Folgerung. Sei A eine endlich erzeugte abelsche Gruppe mit einer freien Auflösung (∗)
0 → U → P → A → 0,
wobei P ein freier Z-Modul mit rg(P ) = n ist. Sei R = (rij ), 1 ≤ i, j ≤ n, die Relationen-Matrix von A bezüglich einer Basis von P . Dann gelten: (a) A ist genau dann endlich, wenn für den freien Untermodul U ebenfalls rg(U ) = n gilt. (b) Ist die Gruppe A endlich, so hat sie die Ordnung |A| = | det(R)|. Beweis: (a) folgt unmittelbar aus Satz 11.5.18 und Satz 11.4.3, weil jede abelsche Gruppe ein Z-Modul ist. (b) Da Z ein euklidischer Ring ist, existieren nach Satz 11.5.19 zwei Elementarmatrizen P und Q derart, daß QRP = diag(d1 , d2 , . . . , dn ) = D die Smith-Normalform der Relationen-Matrix R ist, und die beiden Matrizen P und Q Produkte von ganzzahligen Permutationsmatrizen oder Elementarmatrizen T mit det(T ) = 1 sind. Insbesondere gilt det(Q), det(P ) ∈ {1, −1}.
343
11.5 Elementarteiler von Matrizen
Nach Satz 11.5.18 und Definition 11.5.21 ist A∼ = P /U ∼ =
n
Z/di Z.
i=1
Daher gilt |A| =
n
di = | det(D)| = | det(QRP )| = | det(R)|
i=1
nach Satz 10.5.6.
11.5.24 Beispiel. Es soll nun die Struktur der endlich erzeugten abelschen Gruppe A mit der Relationen-Matrix 2 2 6 4 0 6 4 16 10 −14 R= 4 3 11 7 1 8 5 21 13 −4 bestimmt werden. Die Smith-Normalform D dieser Matrix wurde in Beispiel 11.5.13 bestimmt. Danach gilt: D = diag(1, 1, 2, 0). Zur Relationen-Matrix R gehört nach Definition 11.5.21 eine freie Auflösung 0 → U → Z5 → A → 0 von A mit einem freien Z-Untermodul U vom Rang 3. Nach Satz 11.5.18 gilt daher A∼ = Z5 /U ∼ = Z2 ⊕ Z/2Z. Mittels der Smith-Normalform erhält man die folgende Faktorisierung des charakteristischen Polynoms. 11.5.25 Folgerung. Sei A = (aij ) eine n × n-Matrix mit Koeffizienten aus dem Körper F . Dann ist das charakteristische Polynom char PolA (X) von A das Produkt der normierten Elementarteiler positiven Grades der Matrix (En X − A). Beweis: Die Koeffizienten der Matrix L = (En X − A) gehören zum euklidischen Ring R = F [X]. Nach Satz 11.5.18 existieren invertierbare Matrizen Q, P ∈ GL(n, R) derart, daß QLP = diag(d1 , d2 , . . . , dn )
344
11 Moduln über Hauptidealringen
in Smith-Normalform ist. Da nur die Konstanten Einheiten in R = F [X] sind, gilt det(Q), det(P ) ∈ F . Das Produkt der Elementarteiler di ist bis auf einen konstanten Faktor f ∈ F gleich dem Produkt der s ≤ n normierten Elementarteiler dj positiven Grades. Hieraus folgt det(Q) det(L) det(P ) = f
s
dj
und so
char PolA (X) =
j =1
s
dj ,
j =1
weil det(L) = char PolA (X) ein normiertes Polynom und R ein ZPE-Ring ist.
11.6 Aufgaben 11.1 Zeigen Sie: Die Teilmenge Z[i] = {c = a + bi ∈ C | a, b ∈ Z} des Körpers C der komplexen Zahlen bildet bezüglich dessen Addition + und Multiplikation · einen nullteilerfreien kommutativen Ring mit Eins. Z[i] ist bezüglich der Norm ρ(a + bi) = a 2 + b2 für alle c = a + bi ∈ Z[i] ein euklidischer Ring im Sinne der Definition 10.1.3. Dieser Ring Z[i] heißt der Ring der ganzen Gauß’schen Zahlen . 11.2 Bestimmen Sie die Einheiten im Ring R = Z[i] der ganzen Gauß’schen Zahlen von Aufgabe 11.1. 11.3 Berechnen Sie mit Hilfe des euklidischen Algorithmus den größten gemeinsamen Teiler der folgenden Paare von Polynomen f1 (X), f2 (X) ∈ Q[X] sowie eine Darstellung ggT(f1 (X), f2 (X)) = p1 (X)f1 (X) + p2 (X)f2 (X) mit pi (X) ∈ Q[X]. (a) f1 (X) = X15 + X 12 + X 10 + X 9 + X 6 + X 5 + X 4 + X 2 + 1, f2 (X) = X12 + X 9 + X 7 + X 6 + X 5 + X 3 + X 2 + X + 1. (b) f1 (X) = X 11 + 3X 10 + 6X 9 + 11X 8 + 18X 7 + 28X 6 + 39X 5 + 53X 4 + 48X 3 + 41X 2 + 30X + 17, f2 (X) = X9 + X 8 + 2X 7 + 4X 6 + 5X 5 + 9X 4 + 9X 3 + 15X 2 − 4X + 17. 11.4 (a) Sei f (X) = an X n + an−1 Xn−1 + · · · + a1 X + a0 ∈ Z[X] und p/q ∈ Q ein (gekürzter) Bruch, d. h. p, q sind teilerfremde ganze Zahlen. Zeigen Sie: Aus f (p/q) = 0 folgt q | an und p | a0 . (b) Zeigen Sie: 4X 3 + 3X 2 + 2X + 1 ist irreduzibel in Q[X]. 11.5 Zeigen Sie, daß das charakteristische Polynom der Matrix 0 ··· 0 −f0 1 0 −f1 .. 0 1 . −f2 C= . .. . .. .. . 1 0 −f 0
···
n−2
0
1
−fn−1
345
11.6 Aufgaben gleich dem Polynom f0 + f1 X + · · · + fn−1 X n−1 + X n ist.
11.6 Sei R := Z/2Z, f (X) = X3 + X + 1 ∈ R[X]. Zeigen Sie: K = R[X]/(R[X] · f (X)) ist ein Körper mit endlich vielen Elementen. Bestimmen Sie die Anzahl der Elemente in K. 11.7 (a) Man gebe eine notwendige und hinreichende Bedingung dafür an, daß für die natürlichen Zahlen m ≥ 2 und n ≥ 2 die beiden Z-Moduln Z/mZ ⊕ Z/nZ und Z/mnZ isomorph sind. (b) Zeigen Sie die Äquivalenz folgender Aussagen für 2 ≤ n, m ∈ N: (i) m + Z ist Einheit in Z/nZ; (ii) m + Z ist kein Nullteiler in Z/nZ; (iii) ggT(n, m) = 1. 11.8 Berechnen Sie das charakteristische Polynom, die rationalen Eigenwerte und die zugehörigen Eigenvektoren über dem Körper Q der rationalen Zahlen von der Matrix 5 −4 1 −1 1 0 0 −1 A= 1 −2 0 −1 . 1 −2 1 1 11.9 Im freien Z-Modul P = aZ ⊕ bZ ⊕ cZ ⊕ dZ sei der Untermodul U von den Elementen w = −a + 3b + 2c + 8d, x = 3b + 2c + 8d, y = 5a + b − 4c + 8d, z = 7a + 4b − 2c + 16d erzeugt. Bestimmen Sie die Elementarteiler der abelschen Gruppe A = P /U . 11.10 Zeigen Sie, daß der Quotientenkörper Q des nullteilerfreien Ringes R kein endlich erzeugter R-Modul ist, wenn R kein Körper ist. 11.11 Berechnen Sie zu der Matrix X2 + 2 A= 3X3 2X2 + 1
X2 3 X +X+1 X2
X2 + 1 3X 3 − X 2X2
mit Elementen aus Q[X] die Elementarteiler und die zugehörige Transformationsmatrizen. 11.12 Bestimmen Sie alle abelschen Gruppen G der Ordnung |G| = 2401, die genau 48 Elemente g der Ordnung 7 haben. 11.13 Bestimmen Sie den größten gemeinsamen Teiler und das kleinste gemeinsame Vielfache der Polynome p(X) = X3 + X 2 + X − 3 und q(X) = X 4 − X 3 + 3X 2 − X + 4 in F [X] in jedem der Fälle F = Q, Z/3Z, und Z/11Z.
12 Normalformen einer Matrix
In Kapitel 6 wurde die spezielle Frage untersucht, welche quadratischen Matrizen zu Diagonalmatrizen ähnlich sind. Mit Hilfe des im vorigen Kapitel bewiesenen Struktursatzes 11.4.7 für endlich erzeugte Moduln über Hauptidealringen ist es nun möglich, die Ähnlichkeitsklassen aller n × n-Matrizen über einem kommutativen Körper F zu klassifizieren. Hierzu wird gezeigt, daß zwei n × n-Matrizen A und B genau dann ähnlich sind, wenn sie dieselbe rationale Form besitzen. Aus ihr ergibt sich für algebraisch abgeschlossene Körper F auch die Jordansche Normalform einer n × n-Matrix, die schon in Kapitel 6 behandelt worden war. Außerdem folgt der Satz von Cayley-Hamilton, der besagt, daß jede n × n-Matrix A Nullstelle ihres charakteristischen Polynoms char PolA (X) ist. Um den Struktursatz für endlich erzeugte Moduln über Hauptidealringen anwenden zu können, wird im ersten Abschnitt für jeden Endomorphismus α ∈ EndF (V ) des n-dimensionalen Vektorraums V über dem Körper F eine R-Linksmodulstruktur auf V erklärt, wobei R = F [X] der Polynomring in einer Unbestimmten X über F ist. Wegen der endlichen Dimension von V ist V ein Torsionsmodul. Die Ordnung o(V ) dieses Torsionsmoduls V ist das Minimalpolynom m(X) von α. Im ersten Abschnitt werden auch die Beziehungen zwischen den Matrizendarstellungen von α bezüglich geeigneter Basen von V und der Zerlegung von V in zyklische R-Linksuntermoduln analysiert. Hiermit ist es dann einfach, im zweiten Abschnitt die rationale kanonische Form einer n × n-Matrix A = (aij ) mit Koeffizienten aij aus einem Körper F aus dem Struktursatz für endlich erzeugte Moduln über Hauptidealringen abzuleiten. Hieraus ergibt sich der Satz von Cayley-Hamilton. Im letzten Abschnitt werden die Berechnungsverfahren für die Normalformen einer n × n-Matrix beschrieben und anhand von Beispielen erläutert.
12.1 Vektorräume als Moduln über einem Polynomring In diesem Abschnitt ist F stets ein kommutativer Körper, V ein n-dimensionaler F Vektorraum und R = F [X] der Ring aller Polynome über F in der Unbestimmten X. Nach Folgerung 11.1.10 ist R ein Hauptidealring. 12.1.1 Definition. Für jeden Endomorphismus α ∈ EndF (V ) ist V ein endlich erzeugter R-Linksmodul vermöge der folgenden Multiplikation: Für alle v ∈ V und
347
12.1 Vektorräume als Moduln über einem Polynomring
alle r = f (X) = f0 + f1 X + · · · + fk X k ∈ R = F [X] sei r · v = f (α) · v = f0 v + f1 α(v) + · · · + fk α k (v) ∈ V . In diesem Kapitel wird V stets als R-Linksmodul bezüglich eines fest gewählten Endomorphismus α von V mit der in Definition 12.1.1 angegebenen Modulstruktur betrachtet. Man beachte, daß diese R-Modulstruktur von V vom Endomorphismus α ∈ EndF (V ) abhängt. 12.1.2 Bemerkungen. (a) Wegen dimF V = n und F ≤ R wird V als R-Linksmodul von n Elementen erzeugt. (b) Ist B = {v 1 , v 2 , . . . , v n } eine Basis des Vektorraums V und A = (aij ) = Aα (B, B) die n × n-Matrix des Endomorphismus α ∈ EndF (V ), dann ist die charakteristische Matrix charA (X) = A − XEn die Relationenmatrix des R-Linksmoduls V , weil Xvj = α(vj ) =
n
v i aij
für 1 ≤ j ≤ n
i=1
gilt. Also sind die Zeilenvektoren von charA (X) die Relationen des R-Linksmoduls V . 12.1.3 Hilfssatz. V ist ein endlich erzeugter R-Torsionsmodul. Beweis: Für jedes o = v ∈ V ist Ann(v) = {r ∈ R | rv = o} ein Ideal in R = F [X] derart, daß Rv ∼ = R/Ann(v). Da R = F [X] ein unendlich-dimensionaler F -Vektorraum ist und Rv als Unterraum von V endlich-dimensional ist, folgt Ann(v) = 0. Also ist V ein R-Torsionsmodul. 12.1.4 Definition. Das normierte Polynom m(X) ∈ R = F [X] heißt Minimalpolynom des Endomorphismus 0 = α ∈ EndF (V ) von V , wenn m(X) ein Polynom kleinsten Grades mit m(α) = 0 ist. Analog erklärt man das Minimalpolynom einer n × n-Matrix A = (aij ) mit Koeffizienten aij aus dem Körper F . 12.1.5 Satz. Das Minimalpolynom m(X) ∈ R = F [X] des Endomorphismus α ∈ EndF (V ) ist durch α eindeutig bestimmt. Es ist die normierte Ordnung o(V ) des Torsionsmoduls V über dem Hauptidealring R. Beweis: Sei k der Grad eines Polynoms m(X) = g0 + g1 X + · · · + gk−1 X k−1 + X k kleinsten Grades mit m(α) = 0. Nach Hilfssatz 12.1.3 ist der endlich erzeugte
348
12 Normalformen einer Matrix
R-Linksmodul V ein Torsionsmodul. Gemäß Definition 11.3.6 ist seine Ordnung r(X) = o(V ) ein Erzeuger des Hauptideals Ann(V ) = {q ∈ R | q · v = o für alle v ∈ V }. Da assoziierte Elemente im Hauptidealring R = F [X] sich nur um konstante Faktoren 0 = f ∈ F unterscheiden, kann r(X) als normiertes Polynom gewählt werden. Sei o(V ) = r(X) = r0 + r1 X + · · · + rt−1 X t−1 + X t mit ri ∈ F. Dann gilt für alle v ∈ V , daß o = r(X) · v = r0 v + r1 α(v) + · · · + rt−1 α t−1 (v) + α t (v) = r(α) · v. Also ist r(α) = 0 in EndF (V ). Daher ist t ≥ k. Das Polynom r(X) ist als Erzeuger des Hauptideals Ann(V ) ein Annullator minimalen Grades, d. h. es gilt auch t ≤ k. Daher ist t = k und die normierten Polynome r(X) und m(X) stimmen überein. 12.1.6 Satz. Sei α ∈ EndF (V ) und V der R-Linksmodul bezüglich der Wirkung von α auf V . Der Unterraum U des n-dimensionalen F -Vektorraums V ist genau dann α-invariant, wenn U ein R-Untermodul des R-Moduls V ist. Beweis: Sei r(X) = r0 + r1 X + · · · + rk X k ∈ R = F [X] und U ein α-invarianter Unterraum des F -Vektorraums V . Sei u ∈ U . Wegen Definition 3.7.1 ist α i (u) ∈ U für i = 1, 2, . . . , k. Nach Definition 12.1.1 gilt dann r(X)u = r0 u + r1 α(u) + r2 α 2 (u) + · · · + rk α k (u) ∈ U. Also ist U ein R-Untermodul von V . Ist umgekehrt U ein R-Untermodul von V , dann ist α(u) = Xu ∈ U für alle u ∈ U . Also ist U ein α-invarianter Unterraum von V . 12.1.7 Definition. Der Endomorphismus α ∈ EndF (V ) von V heißt zyklisch, wenn ein 0 = v ∈ V existiert, derart, daß {v, αv, α 2 v, . . . , α n−1 v} eine Basis von V ist. 12.1.8 Definition. Ist f (X) = f0 + f1 X + · · · + fn−1 X n−1 + Xn ein normiertes Polynom aus R = F [X], so heißt die n × n-Matrix 0 0 0 0 · · · 0 −f0 1 0 0 0 · · · 0 −f1 0 1 0 0 · · · 0 −f 2 .. 0 0 1 0 · · · 0 . C(f (X)) = . . . . . . . . .. .. 0 0 −fn−2 0 0 0 0 · · · 1 −fn−1
12.1 Vektorräume als Moduln über einem Polynomring
349
die Begleitmatrix von f (X). 12.1.9 Hilfssatz. Es sei α ein zyklischer Endomorphismus des Vektorraums V mit Basis B = {v, αv, . . . α n−1 v} und Minimalpolynom m(X) ∈ F [X]. Dann gelten: (a) m(X) hat den Grad n. (b) Aα (B, B) = C(m(X)), wobei C(m(X)) die Begleitmatrix von m(X) ist. Beweis: Da B = {v, αv, α 2 v, . . . , α n−1 v} eine Basis von V ist, hat der Vektor α n v von V die eindeutige Darstellung (∗)
αnv =
n
(α i−1 v)gi−1
mit gi−1 ∈ F.
i=1
Also ist (α n − gn−1 α n−1 − · · · − g1 α − g0 )v = g(α) · v = 0 für g(X) = Xn − gn−1 X n−1 − · · · − g1 X − g0 ∈ F [X]. Da B eine Basis von V ist, folgt, daß g(X) das Minimalpolynom von α ist. Also ist g(X) = m(X), weil g(X) normiert ist. Setze fi = −gi für i = 0, 1, . . . , n − 1, dann folgt aus Behauptung (∗) nach Definition 3.3.1. 12.1.10 Folgerung. Sei α ein Endomorphismus des n-dimensionalen F -Vektorraums V und R = F [X]. V ist genau dann ein zyklischer R-Linksmodul bezüglich α, wenn α ein zyklischer Endomorphismus von V ist. Insbesondere besitzt V dann eine Basis B derart, daß die Matrix Aα (B, B) des Endomorphismus α bezüglich B die Begleitmatrix C(m(X)) des Minimalpolynoms m(X) von α ist. Beweis: Die R-Modulstruktur auf V ist in Definition 12.1.1 erklärt. Nach Satz 12.1.5 ist das Minimalpolynom m(X) von α die Ordnung o(V ) = Ann(V ) des RLinksmoduls V . Ist V ein zyklischer R-Linksmodul, dann gibt es ein Element 0 = v ∈ V derart, daß o(V ) = Ann(V ) = m(X)R = Ann(v) = {r(X) ∈ R | r(X) · v = o}. ∼ R/m(X)R, und B = {v, αv, . . . , α n−1 v} ist eine Basis von V , weil Also ist V = m(X) ein normiertes Polynom vom Grade n = dimF V ist. Daher ist α ein zyklischer Endomorphismus von V . Ist umgekehrt α ein zyklischer Endomorphismus von V , dann hat das Minimalpolynom m(X) von α nach Hilfssatz 12.1.9 den Grad n.Also ist R/m(X)R ∼ = R·v = V , weil B = {v, αv, . . . , α n−1 v} für ein 0 = v ∈ V eine Basis von V ist. Daher ist V ein zyklischer R-Linksmodul. Gilt eine dieser beiden äquivalenten Bedingungen für den Endomorphismus α, dann ist B = {v, αv, . . . , α n−1 v} für ein 0 = v ∈ V eine Basis von V . Nach Hilfssatz 12.1.9 und Definition 12.1.8 folgt, daß α bezüglich B die Matrix Aα (B, B) = C(m(X)) hat, wobei C(m(X)) die Begleitmatrix des Minimalpolynoms m(X) von α ist.
350
12.2
12 Normalformen einer Matrix
Rationale kanonische Form
Mit den Ergebnissen des vorangehenden Abschnitts ist es nun einfach, mit dem Struktursatz für endlich erzeugte Moduln über Hauptidealringen den folgenden Hauptsatz dieses Kapitels zu beweisen. 12.2.1 Satz (Rationale kanonische Form). Sei α = 0 ein Endomorphismus des n-dimensionalen F -Vektorraums V . Das Minimalpolynom m(X) von α habe in R = F [X] die eindeutige Primfaktorzerlegung m(X) = q1 (X)e1 q2 (X)e2 · · · qk (X)ek , wobei qi (X) normiert und irreduzibel in F [X] und qi (X) = qj (X) für i = j ist. Dann existiert eine Basis B von V , bezüglich derer die Matrix Aα (B, B) von α die folgende Gestalt hat: R1 0 · · · 0 0 R2 .. . .. Aα (B, B) = . , 0 0 · · · 0 Rk wobei jede Matrix Ri von der Form 0 C (qi (X)ei1 ) 0 C (qi (X)ei2 ) . .. Ri = .. . 0 ···
0 .. . .. 0
.
0 C qi (X)eiri
ist, ei = ei1 ≥ ei2 ≥ · · · ≥ eiri > 0 für i = 1, 2, . . . , k gilt und die Zahlen eiji für 1 ≤ ji ≤ ri die Elementarteiler der qi (X)-Primärkomponente des Torsionsmoduls V mit Ordnung o(V ) = m(X) in R sind. Insbesondere ist Vqi (X) = {v ∈ V | qi (X)ei · v = o} für i = 1, 2, . . . , k. Beweis: Nach Definition 12.1.1 und Hilfssatz 12.1.3 ist der n-dimensionale F -Vektorraum ein Torsionsmodul über dem Hauptidealring R = F [X]. Wegen Satz 12.1.5 ist das Minimalpolynom m(X) von α die Ordnung o(V ) des endlich erzeugten R-Linksmoduls V . Da R ein Hauptidealring ist, läßt sich m(X) nach Satz 11.1.27 eindeutig in Primelemente qi (X) ∈ R faktorisieren, d. h. m(X) = q1 (X)e1 q2 (X)e2 · · · qk (X)ek ,
351
12.2 Rationale kanonische Form
wobei die irreduziblen Polynome qi (X) ∈ F [X] normiert und paarweise verschieden sind. Sei Vi = Vqi (X) die qi (X)-Primärkomponente des Torsionsmoduls V . Nach Satz 11.3.5 und Folgerung 11.3.8 ist dann V = V1 ⊕ V 2 ⊕ · · · ⊕ V k
und Vi = {v ∈ V | qi (X)ei v = 0}
für i = 1, 2, . . . , k.
Wegen Satz 12.1.6 ist jeder dieser direkten Summanden Vi von V ein α-invarianter Unterraum. Sei αi = α|Vi die Einschränkung von α auf den Unterraum Vi für i = 1, 2, . . . , k. Nach Satz 3.7.3 gibt es dann in den Unterräumen Vi Basen Bi derart, daß B = ki=1 Bi eine Basis von V ist. Sei Ri = Aαi (Bi , Bi ) für i = 1, 2, . . . , k. Dann hat α bezüglich B die diagonale Blockmatrix 0 R1 0 · · · .. 0 R2 . . . . . .. Aα (B, B) = .. . . Rk−1 0 0 ··· 0 Rk Nach Satz 11.4.3 ist jede Primärkomponente Vi von V eine direkte Summe Vi = Mi1 ⊕ Mi2 ⊕ · · · ⊕ Miri von zyklischen R-Linksmoduln Miji mit Ordnungen o(Miji ) = qi (X)eiji für 1 ≤ ji ≤ ri , wobei die Indizes ji so geordnet werden können, daß für die Elementarteilerexponenten eiji von Vi zum irreduziblen Polynom qi (X) gilt: ei = ei1 ≥ ei2 ≥ · · · ≥ eiri > 0. Nach Satz 12.1.6 ist jeder direkte Summand Miji von Vi ein α-invarianter Unterraum. Sei αiji = α|Miji die Einschränkung von α auf den direkten Summanden Miji von Vi . Dann ist die Ordnung o(Miji ) = qi (X)eiji von Miji nach Satz 12.1.5 das Minimalpolynom des Endomorphismus αiji von Miji . Da Miji ein zyklischer RLinksmodul ist, besitzt der Unterraum Miji von Vi nach Folgerung 12.1.10 eine Basis Biji derart, daß die Matrix Aαiji (Biji , Biji ) der Einschränkung αiji von α auf eiji eiji Miji die Begleitmatrix C(q von αiji ist. iri(X) ) des Minimalpolynoms qi (X) Nach Satz 3.7.3 ist Bi = ji =1 Biji , und αi = α|Vi hat bezüglich Bi die diagonale Blockmatrix 0 ··· 0 C(qi (X)ei1 ) .. 0 C(qi (X)ei2 ) . . Ri = Aαi (Bi , Bi ) = .. . . . . . . . 0 eiri 0 ··· 0 C(qi (X) ) Hiermit ist Satz 12.2.1 bewiesen.
352
12 Normalformen einer Matrix
12.2.2 Folgerung. Zwei n × n-Matrizen A = (aij ) und B = (bij ) mit Koeffizienten aij , bij aus dem Körper F sind genau dann ähnlich, wenn sie dieselbe rationale kanonische Form R haben. Insbesondere haben zwei ähnliche Matrizen dasselbe Minimalpolynom. Beweis: Besitzen A und B dieselbe rationale kanonische Form R, dann existieren nach Satz 12.2.1 und Satz 3.3.9 invertierbare n × n-Matrizen P1 und P2 derart, daß R = P1−1 AP1 = P2−1 BP2 . Also ist (P2 P1−1 )A(P1 P1−1 ) = (P2 P1−1 )A(P2 P1−1 )−1 = B. Daher sind A und B ähnlich. Umgekehrt sei A = P −1 BP für eine invertierbare n × n-Matrix P . Dann beschreiben A und B nach Bemerkung 3.5.5 denselben Endomorphismus α von V = F n . Deshalb haben A und B dieselbe rationale kanonische Normalform R nach Satz 12.2.1. 12.2.3 Hilfssatz. Sei α ein zyklischer Endomorphismus des n-dimensionalen Vektorraums V über dem Körper F . Dann ist sein Minimalpolynom m(X) = f0 + f1 X + f2 X 2 + · · · + fn−1 X n−1 + X n ∈ F [X] gleich dem charakteristischen Polynom char Polα (X). Beweis: Da ein zyklischer Endomorphismus nach Hilfssatz 12.1.9 das Minimalpolynom m(X) als einzigen Elementarteiler hat, gilt charPolα = m(X) nach Folgerung 11.5.25. 12.2.4 Satz. Sei V ein endlich-dimensionaler Vektorraum über dem Körper F . Dann ist das charakteristische Polynom char Polα (X) eines Endomorphismus α ∈ EndF (V ) das Produkt der Elementarteiler des F [X]-Moduls V . Beweis: Folgt unmittelbar aus Folgerung 11.5.25.
12.2.5 Satz (Cayley-Hamilton). Sei V ein n-dimensionaler F -Vektorraum. Das Minimalpolynom m(X) eines Endomorphismus α ∈ EndF (V ) teilt sein charakteristisches Polynom char Polα (X). Ein irreduzibles Polynom q(X) ∈ F [X] teilt char Polα (X) genau dann, wenn q(X) ein Teiler von m(X) ist. k ri eiji Beweis: Nach Satz 12.2.4 gilt char Polα (X) = i=1 j =1 qi (X) , wobei e e e 1 2 k m(X) = q1 (X) q2 (X) · · · qk (X) die Primfaktorzerlegung des Minimalpolynoms m(X) von α in normierte irreduzible Polynome qi (X) mit qi (X) = qj (X) für i = j ist, und die eij die Elementarteilerexponenten zum Polynom qi (X) sind. Wegen ei1 = ei ist daher ri k qi (X)eiji . char Polα (X) = m(X) k=1
ji =2
353
12.3 Berechnungsverfahren für die Normalformen
Also ist das Minimalpolynom m(X) von α ein Teiler des charakteristischen Polynoms char Polα (X) von α, und beide Polynome haben dieselben irreduziblen Faktoren qi (X), i = 1, 2, . . . , k. 12.2.6 Folgerung. Es gibt eine Bijektion zwischen den Äquivalenzklassen der nilpotenten n × n-Matrizen A = (aij ) mit Koeffizienten aij aus dem Körper F und r den Partitionen e1 ≥ e2 ≥ · · · ≥ er > 0 von n = i=1 ei . Sie ist gegeben durch die Elementarteiler e1 ≥ e2 ≥ · · · ≥ er > 0 der nilpotenten Matrix A. Zu jedem Elementarteiler ei hat die Jordansche Normalform J von A genau ein ei × ei -Jordankästchen Li =
···
0
0
1
0
0 .. .
1 .. .
0 .. .
..
0
···
0
1
.
.. .
0
mit ei − 1 Einsen in der unteren Nebendiagonalen. Beweis: Nach Folgerung 12.2.2 ist die Äquivalenzklasse einer Matrix A durch ihre rationale kanonische Form R eindeutig bestimmt. Im Falle der nilpotenten Matrizen A stimmen nach Satz 6.3.10 und Definition 12.1.8 die rationale Form R und die Jordansche Normalform J überein. Da 0 ∈ F der einzige Eigenwert einer nilpotenten Matrix A ist, ist die Jordansche Normalform J von A nach Satz 6.3.10 eindeutig durch die Elementarteiler e1 ≥ e2 ≥ · · · ≥ er > 0 von A bestimmt. Nach Satz 6.3.10 ist diese Folge von natürlichen Zahlen ei eine Partition von n = ri=1 ei und jedes Jordankästchen Li hat (ei − 1) Einsen in der unteren Nebendiagonalen.
12.3
Berechnungsverfahren für die Normalformen
In diesem Abschnitt wird zunächst die Berechnung der Smith-Normalform der charakteristischen Matrix einer n-reihigen quadratischen Matrix A mit Elementen aus einem kommutativen Körper F auf den Fall von (n − 1)-reihigen Matrizen reduziert. Hierdurch ergibt sich ein effizienter Algorithmus zur Berechnung der rationalen kanonischen Normalform R und der zugehörigen Transformationsmatrix Q mit R = Q−1 AQ. Sofern die Voraussetzungen von Satz 6.3.11 an A im Körper F erfüllt sind, erhält man daraus dann sehr einfach auch die Jordan-Normalform J von A.
354
12 Normalformen einer Matrix
12.3.1 Hilfssatz. Sei F ein kommutativer Körper und X eine Unbestimmte. Sei p1 a12 a13 a14 ··· a1n p2 a22 − X a23 a24 ··· a2n p3 a32 a33 − X a34 ··· a3n A = p4 a42 a43 a44 − X · · · a4n .. .. .. .. .. . . . . . pn
an2
an3
···
an4
ann − X
eine n × n-Matrix mit Koeffizienten aij ∈ F für 1 ≤ i ≤ n und 2 ≤ j ≤ n, pi = pi (X) ∈ F [X] für 1 ≤ i ≤ n, wobei p1 (X) = (−1)t X t + · · · + p1,1 X + p1,0 und Grad pk (X) < t für 2 ≤ k ≤ n gilt. Sei a12 = 0. Dann gibt es zwei unimodulare Matrizen Q und P derart, daß 1 0 0 0 ··· 0 0 q2 b23 b24 ··· b2n 0 q3 b33 − X b · · · b 34 3n Q A P = 0 q4 , b b − X · · · b 43 44 4n .. .. .. .. .. . . . . . 0
qn
bn3
···
bn4
bnn − X
wobei −1 bij = aij − a12 a1j ai2 für 3 ≤ i, j ≤ n, n −1 −1 b2j = a2j − a12 für 3 ≤ j ≤ n, a1j a22 + a12 a1i bij i=3
qi = −a12 pi + ai2 p1 für 3 ≤ i ≤ n, q2 = a12 p2 + (a22 − X)p1 +
n
−1 a12 a1i qi .
i=3
Insbesondere gilt q2 = q2 (X) = (−1)t+1 X t+1 + · · · + q2,1 X + q2,0 und Grad qi (X) ≤ t < t + 1 für alle 3 ≤ i ≤ n. Beweis: Die unimodularen Matrizen P und Q sind die Produktmatrizen P =
0 1 a12
0 0 .. . 0
−a12 p1 0 0 .. . 0
0 0 1 0 .. . 0
0 0 0 1 .. . 0
··· ··· ··· ··· ···
0 0 0 0 .. . 1
1 0 0 0 . . . 0
0 1 0 0 .. . 0
−a13 0 1 0 .. . 0
−a14 0 0 1 .. . 0
··· ··· ··· ··· ···
−a1n 0 0 0 .. . 1
,
355
12.3 Berechnungsverfahren für die Normalformen 1 0 0 Q=0 . . . 0
0 1 0 0 .. . 0
0
a13 a12
1 0 .. . 0
0
a14 a12
0 1 .. . 0
··· ··· ··· ··· ···
0
a1n a12
0 0 .. . 1
1
a22 −X − a12 a − a32 12 − a42 a12
.. .
a
− an2 12
0 1 0 0 .. . 0
0 0 1 0 .. . 0
0 0 0 1 .. . 0
··· ··· ··· ··· ···
0 0 0 0 .. . 1
.
12.3.2 Definition. Eine n × n Dreiecksmatrix U = (uij ) heißt unipotent, wenn alle ihre Diagonalelemente uii = 1, 1 ≤ i ≤ n, sind. 12.3.3 Algorithmus. Sei F ein kommutativer Körper und X eine Unbestimmte. Sei p1 = p1 (X) ein Polynom vom Grade t > 0 mit Leitkoeffizient (−1)t . Sei p1 a12 a13 a14 ··· a1n a21 a22 − X a23 a24 ··· a2n a31 a32 a33 − X a34 ··· a3n A = a41 a a a − X · · · a 42 43 44 4n .. .. .. .. .. . . . . . an1 an2 an3 an4 · · · ann − X eine n × n-Matrix mit Koeffizienten aij ∈ F für 1 ≤ i, j ≤ n und (i, j ) = (1, 1). Dann können durch das folgende Verfahren zwei unimodulare n × n-Matrizen P und Q so konstruiert werden, daß die n × n-Matrix QAP = diag(a1 (X), a2 (X), . . . , an (X)) in Diagonalform ist, wobei alle ai (X) ∈ F [X], und n
Grad[ai (X)] = t + n − 1.
i=1
Diese Behauptung ist für n = 1 trivial. Es wird nun angenommen, daß sie für alle (n − 1) × (n − 1)-Matrizen gilt. (1) Falls a1j = 0 für alle j ∈ {2, 3, . . . , n} und ai1 = 0 für alle i ∈ {2, 3, . . . , n}, dann ist p1 0 · · · 0 0 A= , .. . A 0
356
12 Normalformen einer Matrix
wobei A eine (n − 1) × (n − 1)-Matrix vom gleichen Typ ist wie A mit t = 1. Nach Induktion gibt es zwei unimodulare (n − 1) × (n − 1)-Matrizen Q und P , so daß Q A P = diag(a2 (X), . . . , an (X)) für geeignete ai (X) ∈ F [X] mit n i=2 Grad[ai (X)] = n − 1. Dann sind Q=
1 0 .. .
···
0
0
Q
und
1 0 .. .
P =
0
···
0
0
P
0
unimodulare n × n-Matrizen derart, daß QAP = diag(a1 (X) = p1 (X), a2 (X), . . . , an (X)). (2) Falls nicht alle a1j mit 2 ≤ j ≤ n gleich Null sind, dann kann man nach Permutation der Spalten und Zeilen von A annehmen, daß a12 = 0 ist. Sei a22 − X a1k ak2 − . a12 (a12 )2 n
q21 = −
k=3
Dann sind nach Hilfssatz 12.3.1 1 0 q21 1 − a32 0 a12 a Q1 = 0 − a42 . 12 .. . . . − aan2 0 12 und
P1 =
0 1 a12
0 0 .. .
−a12 p1 (X) 0 0 .. .
0 0 unimodulare Matrizen, so daß 1 0 0 q2 0 q3 B = Q1 A P1 = 0 q4 . .. .. . 0 qn
0
a13 a12
1 0 .. . 0
··· ··· ··· ··· .. . ···
0
a14 a12
0 1 .. . 0
0
a1n a12
0 0 .. . 1
0 13 − aa12 1 0 .. .
0 14 − aa12 0 1 .. .
··· ··· ··· ··· .. .
− aa1n 12 0 0 .. .
0
0
···
1
0 b23 b33 − X b43 .. .
0 b24 b34 b44 − X .. .
bn3
bn4
0
··· ··· ··· ··· ···
0 b2n b3n b4n .. .
bnn − X
,
357
12.3 Berechnungsverfahren für die Normalformen
wobei q2 = q2 (X) ein normiertes Polynom vom Grad t + 1, Grad[qi (X)] ≤ t für 3 ≤ i ≤ n, und alle bij ∈ F . (3) a) Sei s = max{Grad[qi (X)] | 3 ≤ i ≤ n}. Dann hat jedes Polynom qi (X) = ais X s + ai,s−1 X s−1 + · · · + ai,0 ∈ F [X] höchstens den Grad s ≤ t für i = 3, . . . , n. Also ist ais = 0, falls Grad[qi (X)] < s. Die Matrix 1 0 0 0 ··· 0 0 1 0 0 ··· 0 0 a3s X s−1 1 0 · · · 0 s−1 U1 = 0 a4s X 0 1 ··· 0 . .. .. .. .. .. . . . . 0
ans X s−1
ist eine unipotente n × n-Matrix, und 1 0 0 0 q b 2 23 0 q (1) b33 − X 3 B U1 = 0 q (1) b32 4 .. .. .. . . . 0
(1)
qn
0
···
0
1
0 b24 b34 b44 − X .. .
··· ··· ··· ···
0 b2n b3n b4n .. .
bn3
···
bnn − X
bn2
,
wobei jedes Polynom (1)
qi (X) = qi (X) + (bii − X)ais X s−1 +
n
bik aks X s−1
k=3 k =i
= (bii ais + ai,s−1 )X s−1 +
s−2
aik X k +
k=0
n
bik aks X s−1
k=3 k =i
mit Index 3 ≤ i ≤ n den Grad (1)
Grad[qi (X)] ≤ max {Grad[qi (X)] − 1 | 2 ≤ i ≤ n} ≤ s − 1 hat.
(1)
(1)
b) Falls Grad[qi (X)] = 0 für ein qi (X) von B U1 ist, dann ist Schritt a) nochmals anzuwenden. Daher gibt es höchstens t unipotente Matrizen Ui mit Produkt U = U1 U2 · · · Ut , so daß 1 0 0 0 ··· 0 0 q2 e23 e24 ··· e2n 0 e32 e33 − X e · · · e 34 3n BU = 0 e42 , e e − X · · · e 43 44 4n .. .. .. .. . . . . . . . . . . 0
en2
en3
en4
···
enn − X
358
12 Normalformen einer Matrix
wobei alle eij ∈ F . c) Nach Induktionsvoraussetzung existieren für die (n − 1) × (n − 1)-Matrix e23 e24 ··· e2n q2 e32 e33 − X e34 ··· e3n e42 e43 e44 − X · · · e4n A = , .. .. .. . .. .. . . . . en2
en3
en4
···
enn − X
zwei unimodulare (n − 1) × (n − 1)-Matrizen Q2 und P2 und n − 1 Polynome a2 (X), a3 (X), . . . , an (X), für die n
Grad[ak (X)] = n + t − 1
k=2
gilt, so daß
Q2 A P2 = diag(a2 (X), a3 (X), . . . , an (X))
eine Diagonalform von A ist. Also sind 1 0 ··· 0 0 Q2 = . und . . Q2 0
P2 =
1 0 .. . 0
0
··· P2
0
zwei unimodulare n × n-Matrizen, so daß (Q2 Q1 )A(U1 U2 · · · Ut )(P1 P2 ) = diag(a1 (X) = 1, a2 (X), . . . , an (X)) eine Diagonalform der n × n-Matrix A mit ni=1 Grad[ai (X)] = t + n − 1 ist. (4) Falls alle a1j = 0 für 2 ≤ j ≤ n, sind die Schritte (2) und (3) auf die Transponierte AT von A anzuwenden. Da A und AT äquivalente Diagonalformen haben, ist die Behauptung allgemein gültig. 12.3.4 Folgerung. Ist das Minimalpolynom m(X) der n × n-Matrix M = (mij ) mit Koeffizienten im Körper F die Potenz eines irreduziblen Polynoms p(X) ∈ R = F [X], dann existieren nach Algorithmus 12.3.3 zwei unimodulare n × n-Matrizen P und Q derart, daß QCP = diag(p(X)e1 , p(X)e2 , . . . , p(X)er , 1, . . . , 1) mit e1 ≥ e2 ≥ · · · ≥ er > 0 die Smith-Normalform der charakteristischen Matrix C von M ist.
359
12.3 Berechnungsverfahren für die Normalformen
Beweis: Da Permutationsmatrizen unimodular sind, existieren nach Algorithmus 12.3.3 zwei unimodulare n × n-Matrizen P und Q derart, daß QCP = diag (a1 (X), a2 (X), . . . , an (X)) eine Diagonalmatrix ist mit Grad[ai (X)] ≥ Grad[ai+1 (X)] für 1 ≤ i ≤ n, und Grad[ai (X)] = 0 genau dann, wenn i ∈ {1, 2, . . . , r}. Nach Voraussetzung ist dann r
ai (X) = p(X)k
mit
k Grad[p(X)] = n
i=1
das charakteristische Polynom von M. Da p(X) irreduzibel ist, ist ai (X) = p(X)ei , und e1 ≥ e2 ≥ · · · ≥ er > 0 nach Umnumerierung. 12.3.5 Bemerkung. Ist die Zerlegung des Minimalpolynoms m(X) =
s
pi (X)ki
i=1
einer n × n-Matrix M = (mij ), mij ∈ F , in irreduzible Faktoren pi (X) bekannt, dann ist die Voraussetzung von Folgerung 12.3.4 einfach zu erfüllen, indem man den n-dimensionalen Vektorraum V = F n in seine Primärkomponenten Vi = {w ∈ F n | pi (M)ki w = o ∈ F n } direkt zerlegt. Zunächst berechnet man für jedes i ∈ 1, 2, . . . , s eine Basis Bi des s M-invarianten Unterraums V . Da V = i i=1 Vi nach Satz 12.2.1 ist, erhält man eine s neue Basis B = i=1 Bi von V . Sei S die Matrix des Basiswechsels B → B , wobei B = {e1 , e2 , . . . , en } die kanonische Basis von V ist. Dann ist M = S −1 MS eine Blockdiagonalmatrix, wobei der i-te Block Mi auf Vi wirkt und das Minimalpolynom pi (X)ki hat. Daher erfüllt jedes Mi die Voraussetzung von Folgerung 12.3.4. Damit erhält man dann alle Elementarteilerexponenten eij von M zu jedem irreduziblen Polynom pi (X). 12.3.6 Bemerkung. Im allgemeinen ist die Berechnung der Elementarteiler der charakteristischen Matrix C = M − XE einer n × n-Matrix M = (mij ) mit Koeffizienten in einem kommutativen Körper F in zwei Schritte aufgeteilt. Mittels Algorithmus 12.3.3, erhält man zwei unimodulare Matrizen P und Q, so daß QCP = B = diag (b1 (X), b2 (X), . . . , bn (X)) eine Diagonalmatrix mit ni=1 Grad[bi (X)] = n ist. Dann wird die Smith-Normalform von B mit Hilfe des Algorithmus 11.5.15 für Diagonalmatrizen berechnet.
360
12 Normalformen einer Matrix
12.3.7 Berechnungsverfahren für die rationale kanonische Normalform und die zugehörige Transformationsmatrix. Sei V = F n der n-dimensionale, arithmetische Vektorraum über dem Körper F . Sei B = {f 1 , f 2 , . . . , f n } die kanonische Basis von V . Sei R = F [X] der Polynomring in der Unbestimmten X über F . Sei A = (aij ) eine n × n-Matrix, aij ∈ F , mit charakteristischer Matrix C = charA (X). Sei α der zu A gehörige Endomorphismus von V . Es wird vorausgesetzt, daß man das Minimalpolynom m(X) von A schon eindeutig in Potenzen von irreduziblen Polynomen zerlegt hat. Dann lassen sich nach den Ergebnissen der Kapitel 11 und 12 die folgenden Schritte durchführen. (a) Man berechne mittels der Algorithmen 12.3.3 und 11.5.15 die SmithNormalform D = diag(d1 (X), d2 (X), . . . , dn (X)) von C, wobei die n Polynome di (X) die Elementarteiler von C sind. (b) Wegen di (X)|di+1 (X) für i = 1, 2, . . . , n − 1 ist m(X) = dn (X) das Minimalpolynom von A. Sei m(X) =
t
[qk (X)]ek
k=1
eine eindeutige Zerlegung von m(X) in Potenzen irreduzibler Polynome qk (X) ∈ R, die paarweise nicht assoziiert sind. Sei Vk = {v ∈ V | [qk (A)]ek v = o} (X)-Primärkomponente von V . Sei Bk eine Basis von Vk . Dann ist die qk B = Bk eine Basis von V . Sei S die Matrix des Basiswechsels B → B . Dann ist R1 0 · · · 0 .. 0 R2 . −1 , S AS = . . . . . . 0 0 · · · 0 Rt wobei Rk die Matrix der Einschränkung des zu A gehörigen Endomorphismus α von V auf den α-invarianten Unterraum Vk bzgl. der Basis Bk ist. Insbesondere ist mk (X) = [qk (X)]ek ∈ R das Minimalpolynom von Rk für k = 1, 2, . . . , t. (c) Sei Fk = R/qk (X)R der Restklassenkörper von R bezüglich des maximalen Ideals qk (X)R von R für k = 1, 2, . . . , t. Dann ist V¯k = Vk /qk (Rk )Vk ein Fk -Linksvektorraum für k = 1, 2, . . . , t.
12.3 Berechnungsverfahren für die Normalformen
361
¯ k1 , . . . , w ¯ krk } eine Fk -Basis von V¯k , wobei w ¯ kh = wkh Sei B¯ k = {w +qk (Rk )Vk k für ein fest gewähltes w kh ∈ Vk für 1 ≤ h ≤ rk . Dann ist Vk = rh=1 Rw kh eine direkte Zerlegung von Vk in zyklische R-Moduln Rw kh . Für jedes h sei (Rk )ekh die kleinste Potenz von Rk mit (Rk )ekh wkh = o. Nach Umnumerierung der wkh erhält man, daß ekh ≤ ek,h+1 für h = 1, 2, . . . , rk − 1 gilt. Dann sind die rk Polynome dkh (X) = qk (X)ekh die Elementarteiler von α|Vk . Sei gkh der Grad des Elementarteilers dkh (X) für 1 ≤ h ≤ rk , 1 ≤ k ≤ t. Dann ist Bkh = {Ag w kh ∈ Rw kh |0 ≤ g ≤ gkh − 1} eine Basis des α-invarianten Unterraums Rw kh von Vk , bezüglich der die Einschränkung αkh von α auf Rw kh die Begleitmatrix C(dkh (X)) von dkh (X) als Matrix hat. k . Dann ist B eine Basis von V , bezüglich derer die (d) Sei Bk = rh=1 Bkh k k Einschränkung αk von α auf Vk die Matrix 0 ··· 0 C(dk1 (X)) .. 0 C(dk2 (X)) . Aαk (Bk , Bk ) = .. . . . . . . . 0 0 ··· 0 C(dkrk (X)) hat. Diese Matrix ist die rationale kanonische Normalform von Rk . (e) Sei B = tk=1 Bk . Dann ist B eine Basis von V . Sei T die Matrix des Basiswechsels B → B . Dann ist 0 ··· 0 Aα1 (B1 , B1 ) .. 0 Aα2 (B2 , B2 ) . −1 T AT = .. . . . . . . . 0 0 ··· 0 Aαt (Bt , Bt ) die rationale kanonische Form von A. 12.3.8 Berechnungsverfahren für die Jordansche Normalform. Sei F ein Zerfällungskörper der (n × n)-Matrix A = (aij ) mit Koeffizienten aij ∈ F . Nach Satz 6.3.11 existiert dann die Jordansche Normalform J von A. Nach Berechnung der rationalen kanonischen Form R von A mit dem Berechnungsverfahren 12.3.7 kann angenommen werden, daß A eine Begleitmatrix zum Minimalpolynom m(X) von A ist. Dann hat V = F n eine zyklische Basis B = {v, αv, . . . , α n−1 v} für einen Vektor 0 = v ∈ V , wobei α der zu A gehörige Endomorphismus von V ist. Da F Zerfällungskörper von A ist, ist m(X) = (X − c)n nach Satz 12.2.5, wobei c ein
362
12 Normalformen einer Matrix
Eigenwert von α ist. Weiter ist (X − c)n der einzige Elementarteiler von α. Daher ist B = {v, (α − c)v, . . . , (α − c)n−1 v} ebenfalls eine Basis von V . Nach dem Beweis von Satz 6.3.11 ist die (n × n)-Matrix c 1 c 1 c Aα (B , B ) = .. .. . . 1
c
die Jordansche Normalform der Matrix A. 12.3.9 Beispiel. Sei V = Q5 der fünfdimensionale Vektorraum über dem Körper Q der rationalen Zahlen. Gesucht ist das charakteristische Polynom, das Minimalpolynom, die Elementarteiler, die rationale kanonische Normalform, die Jordansche Normalform (falls sie existiert) und die zugehörigen Transformationsmatrizen für die Matrix −3 −1 4 −3 −1 1 1 −1 1 0 −1 0 2 0 0 A= . 4 1 −4 5 1 −2 0 2 −2 1 Lösung: Mittels der Schritte (2), (3), und (4) des Algorithmus 12.3.3 werden zunächst die Elementarteiler der charakteristischen Matrix C = A − XE berechnet. In der folgenden Rechnung wird die Ausgangsmatrix C und alle aus ihr bei den jeweiligen Schritten (2) bis (4) des Algorithmus 12.3.3 hervorgehenden Matrizen fett gedruckt, während die jeweiligen Transformationsmatrizen der Formen P , Q und U in Normaldruck gesetzt sind. Schritt (2) für 5 × 5-Matrix:
− (3 + X) −1 4 −3 −1 0 1 1 1 − X −1 1 0 −1 −(3 + X) −1 0 2−X 0 0 0 0 4 1 −4 5 − X 1 0 0 −2 0 2 −2 1 − X 0 0
1 4−X 0 1 0
0 1 0 0 0
0 −4 1 0 0
0 3 0 1 0
0 4 1 0 0
0 −3 0 1 0
0 −1 0 0 1
1 0 0 0 0 0 2 1 (X − 1) X + 2X − 2 −4X + 3 3X − 2 −(1 − X) 0 0 −1 2−X 0 0 0 −1 1−X 0 2−X 0 1 0 −2 2 −2 1−X
363
12.3 Berechnungsverfahren für die Normalformen
Schritt (3) für 5 × 5-Matrix: 1 0 0 0 0 1 0 0 X2 − X + 3 −3 2 0 0 0 −1 2−X 0 0 0 1−X 0 2−X 0 0 0 0 −2 2 −2 1 − X
0 1 0 −1 0
0 0 1 0 0
0 0 0 0 1
0 0 0 1 0
Schritt (2) für 4 × 4-Matrix: 1 0 0 1 0 0 0 0 0 X2 − X + 1 −3 3 2 0 0 01 0 − X2 − X + 1 0 −1 2 − X 0 0 3 0 −1 0 2 − X 0 0 0 0 0 0 2 −2 1 − X 0 0 0
1 0 0 1 1 0 (2 − X) 3 0 0 2 0 3
0 0 0 0 2 0 3 1 0 0 1
1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 (X − 2) (1 − X)3 − 2 2 (2 − X) 0 1 − 23 0 3 3 0 −3 2−X 0 0 1 0 0 0 0 1 0 − 23 2(X2 − X + 1) − 23 1−X
Schritt (3) für 3 × 3-Matrix:
1 0 0 0 0
0 0 0 0 1 1 0 0 0 0 0 0 0 −(X − 1)3 0 0 −3 2 − X 0 0 0 0 2(X2 − X + 1) − 23 1 − X
0 1 0 0 0
0 0 1 0 2X
0 0 0 1 0
0 0 0 0 1
Schritt (4) für 3 × 3-Matrix:
1 0 0 0 0
1 0 0 0 0
0 1 0 0 0
0 1 0 0 0
0 0 0 0 0 − 13 3 (1 − X)3 2 0 3
0 1 0 0 0 0 0 0 0 1
0 0 0 0 1 0 0 0 0 0 0 (1 − X)3 0 −3 2−X 0 0 2 − 23 1 − X
0 0 0 1 0 0 0 0 1 − 13 (2 − X) 0 0 3 0 (1 − X) (2 − X) 0 0 2 (1 − X) 0 0 1−X 3
0 1 0 0 0
0 0 0 0 1 13 (2 − X) 0 1 0 0
0 0 0 0 1
Schritt (3) für 2 × 2-Matrix:
1 0 0 0 0
0 1 0 0 0
0 0 0 1 0 0 0 0 1 0 0 0 3 0 (1 − X) (X − 2) 0 0 2 (1 − X) 0 0 1−X 3
0 1 0 0 0
0 0 0 0 1 0 0 1 0 − 23
0 0 0 0 1
364
12 Normalformen einer Matrix
Also hat die charakteristische Matrix charA (X) von A die Smith-Normalform diag(1, 1, 1, X − 1, (X − 1)3 (X − 2)). Daher sind m(X) = (X − 1)3 (X − 2) das Minimalpolynom und charPolA (X) = (X − 1)4 (X − 2) das charakteristische Polynom von A. Nach Satz 6.3.11 existiert daher die Jordansche Normalform von A. Da (X − 1) und (X − 2) teilerfremd sind, hat charA (X) die Elementarteiler (X − 1), (X − 1)3 und (X − 2). Nach Verfahren 12.3.7 (b) hat V die Primärkomponenten V1 = {v ∈ V | (A − E5 )3 v = 0}
und
V2 = {v ∈ V | (A − 2E5 )v = 0}.
Die Matrix A − 2E5 hat den Rang 4. Daher ist dimQ V2 = 1 nach Satz 3.2.13. Insbesondere ist der Eigenvektor w21 = (0, 1, 2, 3, −2) von A zum Eigenwert c2 = 2 eine Basis B2 von V2 . Aus Satz 11.3.5 folgt V = V1 ⊕ V2 und so dimQ V1 = 4. Nun ist 1 1 −1 1 1 1 0 −1 1 0 2 (A − E5 ) = 3 1 −3 3 1 , 3 0 −3 3 0 −2 0 2 −2 0 0 0 0 0 0 1 0 −1 1 0 3 (A − E5 ) = 2 0 −2 2 0 . 3 0 −3 3 0 −2 0 2 −2 0 Also bilden die Vektoren w11 = (0, 1, 0, 0, 0), (A − E5 )w 11 = (−1, 0, 0, 1, 0), (A − E5 )2 w 11 = (1, 0, 1, 0, 0) und der Eigenvektor w12 = (0, 1, 0, 0, −1) von A zum Eigenwert c1 = 1 eine Basis B1 von V1 derart, daß w 1i ∈ (A − E5 )V1 für i = 1, 2 gilt. Daher sind w11 und w12 nach 12.3.7 (d) zyklische Vektoren von A, d. h. V1 = Rw 11 ⊕ Rw 12 . Insbesondere ist B1 = {w11 , Aw11 , A2 w11 , w12 } eine Basis von V1 und B = B1 ∪ B2 eine Basis von V . Sei B = {f 1 , f 2 , . . . , f 5 } die kanonische Basis und B = B1 ∪ B2 , die nach 12.3.8 existierende Basis von V , die zur Jordanschen Normalform gehört. Es sind 0 −1 −1 0 0 0 −1 1 0 0 1 1 1 0 0 1 1 1 1 1 1 0 2 und Q = 0 0 1 0 2 T = 0 0 0 1 0 1 0 0 2 0 3 3 0 0 0 −1 −2 0 0 0 −1 −2
365
12.4 Aufgaben
die Matrizen der Basiswechsel B → B bzw. B → B . Dann hat Berechnungsverfahren 12.3.7 und 12.3.8 0 0 1 1 0 −3 die rationale kanonische Normalform T −1 AT = 0 1 3 1
A nach den 2
1 1 und die Jordansche Normalform Q−1 AQ = 0
0 1 1
0 0 1
.
1 2
Ein weiteres, größeres Beispiel wird im Anhang A dargestellt. Dort wird gezeigt, wie man das Computeralgebrasystem MAPLE für die Berechnung der rationalen kanonischen Form und der Jordanschen Normalform verwenden kann.
12.4 Aufgaben 12.1 Sei F ein Körper und A eine invertierbare n × n-Matrix über F . Zeigen Sie: Es gibt ein Polynom f (X) = f0 + f1 X + · · · + fm Xm ∈ F [X] mit A−1 = f (A), d. h. A−1 = f0 · En + f1 · A + · · · fm · Am . 12.2 Bestimmen Sie die rationale kanonische Form R und die Transformationsmatrix Q mit Q−1 AQ = R der reellen Matrix 0 2 1 −1 −3 1 0 1 . A= −2 4 1 2 1 2 −1 2 12.3 Man berechne mittels Algorithmus 12.3.3 die Smith-Normalform und die Transformationsmatrizen P und Q der charakteristischen Matrix C = charA (X) der rationalen Matrix 1 0 8 −12 0 1 6 −9 A= 9 . 0 0 −2 2 0 0 −2 4 12.4 Zeigen Sie, daß jede n × n-Matrix A = (aij ) mit Koeffizienten aij aus dem Körper F zu ihrer transponierten Matrix AT ähnlich ist.
366
12 Normalformen einer Matrix
12.5 Sei A = (aij ) eine n × n-Matrix mit Koeffizienten aus dem Körper F . Seien d1 (X), d2 (X), . . . , dr (X) ∈ F [X] die Elementarteiler positiven Grades. ni = Grad(di (X)) > 0 für 1 ≤ i ≤ r. Sei E = {B ∈ Mat(n, F ) | AB = BA}. Zeigen Sie: (a) E ist ein Unterring von Mat(n, F ). (b) dimF E = jr =1 (2r − 2j + 1)nj . 12.6 Sei n ≥ 2 und
··· b ··· b . .. . .. b a .. .. . b . b ··· ··· b a eine n × n-Matrix über dem Körper F derart, daß nb = 0. (a) Bestimmen Sie auf möglichst einfache Weise alle Eigenwerte von A und die Dimensionen der zugehörigen Eigenräume. (b) Begründen Sie mit Ihren Ergebnissen zu (a), daß A über dem Körper F eine Jordansche Normalform J besitzt. (c) Berechnen Sie das Minimalpolynom m(X) von A. (d) Geben Sie die Jordansche Normalform J an.
a b A= b . ..
12.7 Sei n ≥ 3 und
A=
0 0 .. . 0 a1
b a
0 0 .. . 0 a2
b b
··· ··· ···
0 0 .. . 0 an−1
b1 b2 bn−1 0
eine reelle n × n-Matrix derart, daß nicht alle aj und nicht alle bj gleich Null sind. Sei c = jn−1 =1 aj bj . Zeigen Sie: (a) Ist c = 0, so ist 0 der einzige Eigenwert von A, und A hat Minimalpolynom m(X) = X 3 und Jordansche Normalform 0 J1 J= , wobei J1 = 1 0 J2 0 1 0 und J2 die (n − 3) × (n − 3)-Nullmatrix ist. √ √ (b) Ist c = 0, so sind alle Eigenwerte von A reell. Sie sind c, − c und 0, wobei 0 die Vielfachheit n − 2 hat. Außerdem hat A das Minimalpolynom m(X) = X(X2 −c) und die Jordansche Normal√ √ form J von A ist eine Diagonalmatrix diag(d1 , d2 , . . . , dn ) mit d1 = c, d2 = − c und di = 0 für 3 ≤ i ≤ n.
A Hinweise zur Benutzung von Computeralgebrasystemen
An den mathematischen Instituten der deutschen Hochschulen sind die Computeralgebrasysteme Maple und Mathematica weit verbreitet. Die in ihnen enthaltenen Algorithmen aus dem Gebiet der Linearen Algebra sind in den Handbüchern [3] und [32] ausführlich beschrieben. Eine noch eingehendere Beschreibung über die Anwendungsmöglichkeiten von Maple im Übungsbetrieb einer Anfängervorlesung Lineare Algebra“ befindet sich im Buch [16] von E. Johnson. ” Diese Computeralgebrasysteme sind einfach zu bedienen. Sie verfügen über äußerst leistungsfähige Zahlarithmetiken für das Rechnen mit ganzen, rationalen, reellen oder komplexen Zahlen. Mit ihnen kann man interaktiv und symbolisch rechnen. Insbesondere haben Mathematica und Maple schnelle Algorithmen zum Faktorisieren von ganzen Zahlen und Polynomen sowie zum Addieren, Multiplizieren und Transponieren von Matrizen. Es folgt ein Überblick über die in Maple und Mathematica implementierten Algorithmen.
Algorithmus und Rechenverfahren
Maple
Mathematica
Gauß, Treppenform
+
+
Gauß-Jordan, Treppennormalform
+
+
Lösungsgesamtheit linearer Gleichungssysteme
+
+
Inverse einer Matrix
+
+
Adjunkte einer Matrix
+
Determinante einer Matrix
+
Laplace-Entwicklung
+
Charakteristisches Polynom
+
+
Minimalpolynom
+
+
+
368
Anhang A. Computeralgebrasysteme Algorithmus und Rechenverfahren
Maple
Mathematica
Eigenwerte
+
+
Eigenvektoren
+
+
Gram-Schmidt-Verfahren, Orthogonalisierung, -normierung
+
Euklidischer Algorithmus
+
ggT. von Polynomen oder ganzen Zahlen
+
Smith Normalform von Matrizen über euklid. Ringen
+
rationale Normalform
+
Jordansche Normalform
+
+
Um dem Leser die Einfachheit der Benutzung von Maple zu demonstrieren, werden im folgenden Beispiel anhand einer rationalen 11 × 11-Matrix jeweils die Maple-Befehle zuvor geschilderter Rechenschritte angegeben. Allerdings ist es bei Maple-Sitzungen üblich, kleine römische Buchstaben für Matrizen zu benutzen, weshalb A = a gesetzt wird. Auch die Unbestimmte X über F = Q wird mit kleinem Buchstaben x bezeichnet. Bei der Jordanschen Normalform benutzt Maple obere statt untere Dreiecksmatrizen.
Berechnung der Normalformen und Transformationsmatrizen der Matrix a
a=
2 0 0 0 1 0 0 0 0 0 0
0 1 1 0 1 0 1 0 0 0 0
0 0 1 0 1 0 0 0 0 0 0
−1 −1 0 1 3 −1 −1 0 0 0 1 0 0 1 1 −2 −1 0 −1 0 1 0 −1 0 1 0 0 0 0 0 0 0 2 0 −2 0 1 0 −4 1 0 0 2 0 0 0 1 −1 −1 0 0 1 1 0 0 −1 0 0 0 0 1 0 0 0 −1 0 1 0 1 1 1 −1 −1 0 0 0 1 0 1 0 −1 0 1 0 1 0 1 0
Anhang A. Computeralgebrasysteme Charakteristische Matrix xE11 − a Befehl: c:=charmat(a,x); x−2 0 0 1 0 x − 1 0 0 0 −1 x − 1 1 0 0 0 x − 1 −1 −1 −1 −2 0 0 0 0 c= 0 −1 0 1 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1
369
1 0 −1 −3 1 1 0 0 −1 0 0 −1 −1 2 0 1 0 −1 0 1 0 0 0 0 0 0 0 0 x 2 0 −1 0 4 −1 0 x−2 0 0 0 −1 1 0 0 x − 1 −1 0 0 1 0 0 0 x−1 0 0 0 0 −1 0 −1 x − 1 −1 1 0 0 0 −1 0 x−1 0 0 −1 0 −1 0 −1 x
Charakteristisches Polynom der Matrix a Befehl: cpa:=det(c); cpa = −1 + 11x − 55x 2 + 165x 3 − 330x 4 + 462x 5 − 462x 6 + 330x 7 − 165x 8 + 55x 9 − 11x 10 + x 11 Faktorisierung des charakteristischen Polynoms Befehl: factor(cpa); (x − 1)11 Smith-Normalform Befehl: SNFC := smith (c, x) (1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0) (0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0) (0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0) 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0) (0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0) (0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0) (0, 0, 0, 0, 0, 0, x − 1, 0, 0, 0, 0) (0, 0, 0, 0, 0, 0, 0, x 2 − 2x + 1, 0, 0, 0) (0, 0, 0, 0, 0, 0, 0, 0, x 2 − 2x + 1, 0, 0) (0, 0, 0, 0, 0, 0, 0, 0, 0, x 3 − 3x 2 + 3x − 1, 0) (0, 0, 0, 0, 0, 0, 0, 0, 0, 0, x 3 − 3x 2 + 3x − 1)
370
Anhang A. Computeralgebrasysteme
Also lautet die Smith-Normalform der charakteristischen Matrix c in der Notation von Definition 11.5.6 diag(1, 1, 1, 1, 1, 1, x − 1, (x − 1)2 , (x − 1)2 , (x − 1)3 , (x − 1)3 ) Minimalpolynom der Matrix a Befehl: MPA := minpoly(A,x) MP A := x 3 − 3x 2 + 3x − 1 der Matrix a. Rationale kanonische Form der Matrix a Befehl: ratform(a) ergibt 0 0 1 1 0 −3 3 0 1 0 0 1 1 0 −3 0 1 3 r= 0 −1 1 2 0 −1 0 1 2 0 0 0 1
.
Man beachte, daß Maple die Anordnung der Elementarteiler der Smith-Normalform von a bei der rationalen kanonischen Form nicht berücksichtigt. Jordansche Normalform der Matrix a Befehl: jordan(a) ergibt 1 1 0 0 1 1 0 0 1 1 1 0 0 1 1 . 0 0 1 j = 1 1 0 1 1 0 0 0 1 1 0 0 1 der Matrix a.
Anhang A. Computeralgebrasysteme
371
Berechnung der Transformationsmatrix zur Jordanschen Normalform Befehl: evalm(t) ergibt die zu j gehörige Transformationsmatrix
0
1 −3 0 0 1 − 3 q= 0 1 0 0 0 0 mit q −1 aq = j .
1 3 − 23
− 13 − 13
0 0 1 0 3 0 2 2 −3 3 0 1 1 − 3 3 0 1 0 3 1 0 1 0 0 −1 0 −1 0 0 0 0 0 0 0 0
− 13 1 3
0 0
0 0
0 −1
1 − 13 − 13 3 − 13 0 0 0 1 0 0 −1 3 0 − 13 − 13 − 23 −1 0 0 0 0 0 1 −1 0 0 0 0 0 1 0 0 0 0 0 1
0
− 43
1 3 − 13 2 3 − 23 2 3
0 −1 2 −1 0
1
0
2 3 − 23
1 3
−2
2 3 − 23
−3 1 −2 1 0
1 0 1 3
0 −1 0 0 0 0
.
B Lösungen der Aufgaben
B.1
Lösungen zu Kapitel 1
B.1.1 Die Behauptung ist für n = 1 trivial. Die Menge der k-elementigen Teilmengen von {1, 2, . . . , n, n + 1} zerfällt in 2 Klassen. Zur ersten gehören die k-elementigen Teilmengen, die n + 1 enthalten; zur zweiten gehören die k-elementigen Teilmengen, die n + 1 nicht enthaln ten. Nach Induktionsvoraussetzung haben diese beide Klassen k−1 bzw. nk Teilmengen. n n+1 n! n! Insgesamt gibt es k−1 + nk = (k−1)!(n−k+1)! + k!(n−k)! = n![k+n−k+1] = k k!(n−k+1)! k-elementige Teilmengen. B.1.2 Die Behauptung Der Induktionsschluß ergibt sich aus der Glei n ist für n = 1 trivial. 1 n(n + 1) + (n + 1) = 1 (n + 1)(n + 2). chung n+1 k = k + (n + 1) = k=1 2 2 k=1 B.1.3 Die Behauptung ist für n = 1 trivial. Der Induktionsschluß ergibt sich aus der n+1 2 n Gleichung: k = k 2 + (n + 1)2 = 16 n(n + 1)(2n + 1) + (n + 1)2 = k=1 . /k=1 1 (n + 1) 2n2 + n + 6n + 6 = 1 (n + 1)(n + 2)(2n + 3). 6 6 B.1.4 (a) x = 1, y = −1, z = −1. (b) Keine Lösung. (c) x = 1, y = z, z beliebig. B.1.5 Nach Subtraktion der ersten Gleichung von der zweiten gilt 2y + 2z = d. Indem man nun das Zweifache der dritten Gleichung hiervon abzieht, erhält man 0 = d − 2. Falls d = 2, ist dies ein Widerspruch! B.1.6 Im ersten Fall liegt wegen 1(1+1) = 12 = 2 und (11)⊕(11) = 1⊕1 = kein Vektorraum vor. Im zweiten Fall handelt es sich um einen reellen Vektorraum. B.1.7 Die Multiplikationstafel der Gruppe G ist: · 1 −1 i −i
1 1 −1 i −i
−1 −1 1 −i i
i i −i −1 1
−i −i i 1 −1
√ 3
2
373
B.2 Lösungen zu Kapitel 2 B.1.8 Seien a, b und c, d zwei Paare reeller Zahlen mit a = 0 und c = 0. Dann ist fa,b · fc,d (x) = a(cx + d) + b = acx + (ad + b)
für alle x ∈ R.
Da ac = 0, ist fa,b · fc,d = fac,ad+b ∈ G, und f1,0 ist das Einselement in G. Weiter ist (fa,b )−1 = fa −1 ,−ba −1 ∈ G. Also ist G eine Gruppe. B.1.9 R ist ein Ring, weil das Produkt zweier ungerader Zahlen wieder ungerade ist, woraus folgt: ab · dc , ab + dc = ad+bc ∈ R für alle ab , dc ∈ R. Das Element 2 ∈ R hat kein Inverses bc 1 in R, da 2 ∈ R.
B.2
Lösungen zu Kapitel 2
B.2.1 Gilt vx + wy = (0, 0) für x, y ∈ F mit (x, y) = (0, 0), so ist ax + cy = 0 = bx + dy. Hieraus folgt (ad − bc)x = 0 = (ad − bc)y. Wegen (x, y) = (0, 0) ist ad − bc = 0. Sei umgekehrt ad − bc = 0. Falls d = b = 0, so sind v und w linear abhängig. Ist d = 0, dann ist vd − wb = (ad − bc, bd − db) = (ad − bc, 0) = (0, 0). Daher sind v, w linear abhängig. B.2.2 (a) Angenommen, es gilt (u+v −w2)a +(u−v −w)b +(u+w)c = 0 für a, b, c ∈ Q. Dann ist u(a + b + c) + v(a − b) + w(−2a − b + c) = 0. Da u, v, w linear unabhängig sind, gelten die Gleichungen: a + b + c = 0, a − b = 0 und 2a + b − c = 0, woraus (a, b, c) = (0, 0, 0) folgt. (b) (u + v − w3) − (u + v3 − w) + (v + w)2 = 0. B.2.3 v = −3e1 + 2e2 + 4e3 ist eine gesuchte Linearkombination. B.2.4 Aus u =
m
i=1 v i fi und v i =
u=
m n i=1 j =1
n
j =1 wj gij für fi , gij ∈ F folgt
n m wj gij fi = wj gij fi . j =1
i=1
B.2.5 (a) S ist linear abhängig. S hat als Basis {(1, 1, 1, 1), (0, 2, −3, 0)}. (b) {(1, 1, 1, 1), (0, 2, −3, 0), (1, 0, 0, 0), (0, 1, 0, 0)} ist eine Basis von V . B.2.6 Wegen p(0) = p(1) = 0 und q(0) = q(1) = 0 ist (p + q)(0) = 0 und (pa)(0) = (pa)(1) = 0 für alle a ∈ F . Also ist W ein Unterraum. Eine Basis von W ist gegeben durch {X2 − X, X3 − X2 , . . . , Xn − Xn−1 }. Um diese zu einer Basis von Fn [X] zu erweitern, kann man z. B. die Polynome 1 und X hinzufügen. B.2.7 Eine Basis ist {(1, 2, −2, 2, −1), (0, 0, 1, 1, −1)}.
374
B Lösungen der Aufgaben n
X−aj ai −aj . Dann ist Gi (X) ein Polynom vom Grad ≤ n − 1. Außerdem gilt Gi (ak ) = 0 falls i = k und Gi (ai ) = 1. Damit gilt p(ai ) = jn=1 p(aj ) · n Gj (ai ) für jedes Polynom p(X) vom Grad ≤ n − 1. Setzt man g(X) := j =1 p(aj ) · Gj (X), so ist p(X) = g(X) für X = a1 , . . . , an . Die Koeffizienten eines Polynoms g(x) vom Grad
B.2.8 (a) Sei Gi (X) :=
j =1 j =i
≤ n−1 sind durch seineAuswertungen an n Stellen (xi , g(xi )) eindeutig bestimmt. Damit folgt p(X) = g(X) = jn=0 p(aj ) · Gj (X). Insbesondere erzeugen die Gi (X) den Vektorraum Fn−1 [X]. Da dim(Fn−1 [X]) = n, ist {G1 (X), . . . , Gn (X)} eine Basis von Fn−1 [X]. Daher hat jedes p(X) die in (b) angegebene eindeutige Darstellung. (c) Die n − 1 Polynome Hi (X) = (X − a)i und Ho (X) = 1 sind wegen Grad Hi (X) = i für 0 ≤ i ≤ n − 1 linear unabhängig. Daher bilden sie eine Basis von Fn−1 [X]. (d) Wegen (c) hat jedes p(X) ∈ Fn−1 [X] die Darstellung p(X) = n−1 i=0 pi Hi (X) mit eindeutig bestimmten pi ∈ F . Setzt man X = a, so folgt p = p(a). Die k-fache Ableitung o i−k . Hieraus folgt p(k) (X) von p(X) ist p (k) (X) = n−1 i(i − 1) · · · (i − k + 1)p (X − a) i i=k p(k) (a) = pk k! für k = 1, 2, . . . , n − 1. Daher gilt (d).
B.2.9 Die Annahme, daß f (x)a + g(x)b + h(x)c = 0 für geeignete a, b, c ∈ R und alle x ∈ R gilt, führt durch Auswertung an drei geeigneten Stellen x in jeder der drei Teilaufgaben auf ein homogenes Gleichungssystem, das nur die Lösung (a, b, c) = (0, 0, 0) hat. Bei (a) wähle man die Stellen x = 0 und ± π2 ; bei (b) die Stellen x = 0, 1 und 2; bei (c) die Stellen x = 0, π2 und π . B.2.10 (a) Für r = 2 gilt nach dem Dimensionssatz 2.2.16 2 = 0, daß wegen U1 ∩ U
r−1 r dim U1 + dim U2 = dim(U1 ⊕ U2 ) ist. Wegen Ur ∩ = 0 folgt dim U i i=1 Ui = i=1
r−1
r−1 r U ⊕ U U = dim U . Hieraus ergibt sich der = dim + dim U dim r r i i=1 i=1 i i=1 i Induktionsschluß. folgt nach (a) und (b) Nach Voraussetzung ist dim Ui ≥ 1 für r i = 1, 2, . .r . , r. Also r Folgerung 2.2.14, daß r ≤ dim V = dim U ≤ dim V = n; denn i i i=1 i=1 i=1
r i=1 Ui ist nach Satz 2.3.3 ein Unterraum von V .
B.3
Lösungen zu Kapitel 3
B.3.1 Ist a = (a1 , . . . , an ) mit a · b = 0 für alle b ∈ F n , so gilt insbesondere a · ei = ai = 0 für i = 1, . . . , n, also a = o. Umgekehrt ist nach Definition des Skalarproduktes klar, daß o · b = 0 für alle b ∈ F n gilt. 2 4 2 2 8 4 2 B.3.2 (a) 20 = 24 + 22 . Also benötigt man die 5 Produkte
1 40 A , A = (A ) , A = (A ) , 16 8 2 20 16 4 20 A = (A ) und A = A · A . Es folgt A = . 0 1
1 2n n (b) Man beweist A = durch vollständige Induktion nach n. Ist n = 1, so ist 0 1
An = A und die Behauptung ist trivialerweise erfüllt. Wegen An+1 = An · A folgt der
Induktionsbeweis aus der Induktionsvoraussetzung An = 1 2n durch einfaches Ausmulti0 1 plizieren.
375
B.3 Lösungen zu Kapitel 3
B.3.3 (a) (AB−ABA)2 = ABAB−ABABA−ABAAB+ABAABA = ABAB− ABABA − ABAB
+ ABABA
= 0. (b) Sei A = 01 00 und B = 00 01 . Dann ist AB = 0 und BA = A = 0. B.3.4 Da A und B zwei 3 × 5-Matrizen vom Rang 2 sind, ist dim Ker A = dim Ker B = 5 − 2 = 3 nach Satz 3.2.13. Nach dem Dimensionssatz folgt: 5 ≥ dim Ker A + dim Ker B − dim(Ker A ∩ Ker B) = 6 − dim(Ker A ∩ Ker B). Also ist Ker A ∩ Ker B = {o}. B.3.5 (a) und (b) folgen 3.1.3. unmittelbar aus Definition (c) Seien cjj = ni=1 aj i bij und dii = jn=1 bij aj i . Dann folgt aus Definition 3.1.17, daß n n n n n n tr(AB) = cjj = aj i bij = bij aj i = dii = tr(BA). j =1
j =1 i=1
i=1 j =1
i=1
(d) Für a = n1 tr(A) gilt die Behauptung wegen (a) und (b). B.3.6 (a) A und B sind Basen, weil die jeweiligen homogenen Gleichungssysteme nur die triviale Lösung besitzen. −1 −5 −10 2 5 . (b) 13 1 0 0 −1 −11 −20 70 3 0 0 8 17 −25 13 , Aα (B, B) = 0 −1 0 . (c) Aα (A, A) = 0 0 6 0 0 2 B.3.7 Auf V wird durch p(X) → X · p (X) eine lineare Abbildung α : V → V definiert, weil die Ableitung mit Summen und konstanten Faktoren vertauscht. Wegen α(Xi ) = X · i · Xi−1 = i · Xi ist Aα (B, B) eine Diagonalmatrix (dii ) mit dii = i − 1 für i = 1, 2, . . . , n, n + 1. B.3.8 Die Matrixelemente pij sind so zu bestimmen, daß ni=1 pij · Gi (X) = (X − a)j −1 für j = 1, . . . , n gilt. Aus Aufgabe 2.8 (b) folgt, daß pij = (ai − a)j −1 , d. h. P =
1 1 .. . 1
a1 − a a2 − a .. . an − a
(a1 − a)2 (a2 − a)2 .. . (an − a)2
··· ··· ···
(a1 − a)n−1 (a2 − a)n−1 .. . (an − a)n−1
.
B.3.9 (a) Wegen α(U ) ≤ V ist Im βα ⊆ Im β. (b) Sei W0 Komplement von Im βα in Im β, d. h. Im β = Im βα + W0 und Im βα ∩ W0 = {o}. Sei γβ(v) ∈ Im γβ. Wegen β(v) ∈ Im β gibt es ein u ∈ U und ein w0 ∈ W0 mit β(v) = βα(u) + w0 . Hieraus folgt γβ(v) = γ (βα(u) + w0 ) = γβα(u) + γ (w0 ) ∈ Im γβα + γ W0 . Daher ist Im γβ ≤ Im γβα + γ (W0 ). Die andere Inklusion ist trivial. (c) dim Im βα + dim Im γβ = dim Im βα + dim Im γβα + dim γ W0 ≤ dim Im βα + dim Im γβα + dim W0 = dim Im β + dim Im γβα.
376
B Lösungen der Aufgaben
B.3.10 (a) Sei A eine nilpotente n × n-Matrix, d. h. Ak = 0 für ein k ∈ N. Multiplikation mit A ist eine lineare Abbildung α : F n → F n , v → Av. Wie A ist auch α nilpotent. Insbesondere ist α kein Isomorphismus, weil sonst auch α k = 0 ein Isomorphismus wäre. Daraus folgt dim Im α ≤ n − 1 und dim Im α i+1 = dim α(Im α i ) < dim Im α i , für alle i mit Im α i = {o}. In der Kette (∗)
F n ≥ Im α ≥ Im α 2 ≥ · · · ≥ Im α k−1 ≥ Im α k = {o}
tritt die erste Gleichheit gerade dort auf, wo die {o} erscheint; vorher sind alle Ungleichungen echt. Insbesondere wird die Dimension in jedem Schritt kleiner. Dies kann im n-dimensionalen Vektorraum F n aber höchstens n mal passieren. Daraus folgt dim Im α n = 0, d. h. An = 0. Also ist der Nilpotenzindex von A kleiner oder gleich n. (b) Sei Bm = (aij ) ∈ Matn (F ), 1 ≤ m ≤ n mit aij =
1 0
für j = i + m, sonst.
Behauptung: B1 Bm = Bm+1 . ), B = (b ) und B B = (d ). Dann ist Beweis: Sei B1 = (bij m 1 m ij ij dij =
n k=1
b = bik kj
n−1
1 0
δi,i+1 δi+1,j =
i=01
j = i + m + 1, sonst.
Wendet man die Behauptung auf A = B1 an, dann ist Ai = B1i = Bi =
i = n, i < n.
0 = 0
Also ist n der Nilpotenzindex von A. (c) Sei 1 ≤ k ≤ n. Wir betrachten die n × n-Matrix C :=
Ak 0
0 0
,
wobei Ak = (aij ) die obere k × k-Dreiecksmatrix mit ai,i+1 = 1 und aij = 0 für j = i + 1. Wegen (b) hat Ak den Nilpotenzindex k. Daher ist , C k−1 = Ck =
Ak−1 k 0 Akk 0
d. h. C ∈ Matn (F ) hat Nilpotenzindex k.
0 0
0 0
= 0 und = 0,
377
B.3 Lösungen zu Kapitel 3
B.3.11 (a) Nach Voraussetzung existieren natürliche Zahlen n, m mit An = B m = 0. Sei k = max(n, m). Da A und B kommutieren, gilt nach dem Binomischen Lehrsatz: (A + B)2k =
2k 2k i=0
i
A2k−i B i .
Für alle 0 ≤ i ≤ 2k ist entweder 2k − i ≥ k oder i > k. Also ist entweder A2k−i = 0 oder B i = 0 für alle i, woraus (A + B)2k = 0 folgt.
(b) A = 00 01 und B = 01 00 sind nilpotent, aber A + B = 01 01 hat das Quadrat 10 0 1 und ist somit nicht nilpotent.
(c) Angenommen, a0 = 0, also B = Aa1 + · · · + Am am . Nach (b) ist B nilpotent und daher nicht invertierbar. Widerspruch! Sei nun ai0 = 0. Um die Inverse von B zu konstruieren, betrachtet man die Matrix C= m A bi mit bi ∈ F , wobei die Koeffizienten bi so zu wählen sind, daß En = BC =
2m i=0 −1 k A i+j =k ai bj gilt. Man konstruiert die bi induktiv: Für i = 0 sei b0 = a0 . k=0 Für i ≥ 1 seien b0 , . . . , bi−1 bereits definiert. Dann sei a0 bi + a1 bi−1 + · · · + ai b0 = 0. Da nach Voraussetzung a0 = 0, läßt sich diese Gleichung eindeutig nach bi auflösen, womit das gewünschte bi gefunden ist. Auf diese Weise erhält man b0 , . . . , bm mit der Eigenschaft i+j =k ai bj = 0 für alle k = 1, . . . , m. Für die dazugehörige Matrix C gilt BC = En . Daher ist B invertierbar.
1
1 +a . B.3.12 (a) Sei f (X) = an X n +· · ·+a0 . Dann ist X n f X = Xn an X1n +· · ·+a1 X 0 d X n f 1 = a n−1 ∈ F [X]. Also dX + · · · + n · a X n n−1 0 X d X n · f 1 + g 1 = d X n f 1 + d X n g 1 = (b) α(f (X) + g(X)) = dX X X dX
X dX X d X n · k · f 1 = k · d X n · α(f (X)) + α(g(X)). Sei k ∈ F . Dann ist α(k · f (X)) = dX X dX
1 f X = k · α(f (X)). Aα (A, A) = (aij ) mit aij = (n − i) · δn, i+j +1 für i, j ∈ {0, 1, . . . , n}, wobei δij das Kronecker-Symbol ist. B.3.13 Es gilt rg α = 2. Eine Basis von Ker α ist z. B. {(−2, −1, 1, 0), (−3, −2, 0, 1)}. Die Koordinaten von αv 1 , αv 2 , αv 3 lauten (11, 22, −20), (−16, −36, 36), (6, 52, −80). Es gilt dim U = 3 und dim(αU ) = 2. Diese ergänzen wir zu einer Basis {v 1 , . . . , v n } B.3.14 Sei {v 1 , . . . , v k } eine Basis von U . n n . Für einen beliebigen Vektor v = n von F i=1 v i · bi von F definieren wir αU (v) = n i=k+1 v i · bi (Im Fall n = k heißt das einfach αU (v) = o). Man zeigt leicht, daß αU eine lineare Abbildung von F n nach F n ist. Weiterhin ist klar, daß Ker(αU ) = U . Sei nun A die Matrix AαU (B, B) bezüglich der Basis B = {v 1 , . . . , v n }. Dann gilt A · x = o genau dann, wenn x ∈ Ker(αU ) = U . B.3.15 Es gelte ϕ : V → W , ψ : V → W . Man erhält (ϕ + ψ)V ⊆ ϕV + ψV und daher rg(ϕ + ψ) = dim((ϕ + ψ)V ) dim(ϕV + ψV ) dim(ϕV ) + dim(ψV ) = m + n. Weiter kann m n angenommen werden. Nach dem bisher Bewiesenen ergibt sich m =
378
B Lösungen der Aufgaben
rg ϕ = rg((ϕ + ψ) − ψ) rg(ϕ + ψ) + rg(−ψ) = rg(ϕ + ψ) + n, und hieraus folgt |m − n| = m − n rg(ϕ + ψ). B.3.16 Wenn es zu ϕ ∈ GL(V ) ein x ∈ V gibt, für das x und y = ϕx linear unabhängig sind, existiert ein ψ ∈ GL(V ) mit ψx = x und ψy = x + y. Es gilt dann ψϕ = ϕψ. Wenn also ϕ zum Zentrum gehört, muß ϕx = xcx für alle x ∈ V mit einem cx ∈ F gelten. Für linear unabhängige Vektoren x, y folgt (x + y)cy = (ψϕ)y = (ϕψ)y = xcx + ycy , also cx = cy . Hieraus ergibt sich ϕ = idV c, wobei idV die Identität auf V ist. Umgekehrt gehören alle Automorphismen idV c zum Zentrum. Die zu idV c gehörige n × n-Matrix ist En · c. B.3.17 (a) Da {1} eine Basis des Skalarenkörpers ist, beweist man die lineare Unabhängigkeit von = {ϕα | α ∈ A} wie im Beweis von Satz 3.6.8. (b) Wäre ϕ eine Linearkombination endlich vieler ϕα , so könnte ϕa α = 0 nur für höchstens endlich viele Indizes α gelten. Daher ist keine Basis von V ∗ . (c) Für einen Vektor x = xα1 a α1 + · · · + xαr a αr aus V gilt ( x)ϕαρ = ϕαρ x = xαρ . Aus ( x)ϕα = 0 für alle α folgt daher x = o und weiter ( x)ϕ = 0. Es gibt aber wegen (b) mindestens ein ψ ∗ ∈ V ∗∗ mit ψ ∗ (ϕα ) = 0 für alle α und mit ψ ∗ (ϕ) = 0. B.3.18 Nach Definition 2.3.16 gilt V = U ⊕ C. Daher ist C ∗ = Hom(C, K) ∼ = U ⊥ , weil ⊥ ∗ U aus denjenigen ψ ∈ V besteht, bei denen ψu = 0 für alle u ∈ U erfüllt ist. B.3.19 a) Im(α) ist ein Unterraum von V nach Satz 3.2.7 (c). Wegen α[Im(α)] ≤ α(V ) = Im(α) ist Im(α) invariant. b) Wegen dimF [Im(α)] = 1 existiert ein w ∈ V mit α(w) = 0 und B = {α(w)} ist eine Basis von Im(α). Nach Satz 3.2.13 ist n = dimF (V ) = dimF Im(α) + dimF Ker(α). Wegen Im(α) ∩ Ker(α) = 0 hat daher jedes v ∈ V eine eindeutige Darstellung v = a + b mit a ∈ Im(α) und b ∈ Ker(α). Also ist w = gα(w) + b1 für ein 0 = g ∈ F und b1 ∈ Ker(α). Daher ist α(w) = gα 2 (w), und zu jedem v ∈ V existieren r ∈ F und t ∈ Ker(α), die von v abhängen, mit v = rα(w)+t. Also gelten α(v) = rα 2 (w) = rg −1 α(w) und α 2 (v) = rg −1 α 2 (w) = g −1 rg −1 α(w) = g −1 α(v). Hieraus folgt [α 2 − g −1 α](v) = 0 für alle v ∈ V , d. h. α 2 = f α für f = g −1 ∈ F .
B.4
Lösungen zu Kapitel 4
B.4.1 rg(A) = 3. B.4.2 Der Zeilenrang von AB ist 2. B.4.3 Die Vektoren a 1 = (1, 3, 5, −4), a 2 = (0, 0, 1, −1), a 3 = (0, 0, 0, 1) bilden eine Basis von U , die Vektoren b1 = (1, 0, 2, −2), b2 = (0, 3, 3, −5), b3 = (0, 0, −1, 2) eine Basis von V . Zusammen mit (0, −3, −3, 2) bilden a 1 , a 2 , a 3 eine Basis von U +V . Schließlich besteht eine Basis von U ∩ V aus (1, 3, 5, −7) und b3 .
379
B.4 Lösungen zu Kapitel 4 B.4.4
T (A) =
B.4.5
1 0 0 0 0
3 −1 0 0 0
4 −1 −4 0 0
0 1 5 3 0
−2 + 4i 1 − 2i 0 L= 0 4 − 7i
B.4.6
L=
1 2 0 3 4 0 5 0 6 7
+
−1 −1 −1 0 0 0 0 0 0 0
T =
,
+
2 −4 −18 −2 0
2 −1 1 0 0
f1 +
1 0 0 0 0
f1 +
0 2 0 2 2 −1 0 0 0 0
0 1 0 0 0
1 1 0 1 0
f2 +
0 0 1 0 0
− 35 3 − 13 11 . 3 2 −3 0
0 0 0 1 0
f2
0 0 0 −3 −3 0 0 −1 0 0
f1 , f2 ∈ C .
f3
f1 , f2 , f3 ∈ Q .
B.4.7 (a) Nach Folgerung 3.4.8 gilt stets rg(A) = rg(AT ). Wegen Satz 3.4.9 ist die n × nMatrix A genau dann invertierbar, wenn rg(A) = n. Also gilt die Behauptung. (b) Sei E die n × n-Einsmatrix und A invertierbar. Dann ist E = A−1 A = A · A−1 . Aus Satz 3.1.28 folgt E = E T = (A−1 A)T = (A · A−1 )T = AT (A−1 )T = (A−1 )T AT . Daher ist (AT )−1 = (A−1 )T nach Definition 3.1.29. B.4.8 Nach Aufgabe 4.7 ist (AT )−1 = (A−1 )T . Das Berechnungsverfahren 4.2.11 ergibt
0 0
−1 A−1 = 30 0 0
1 4 1 2 1 4
0 0 0
1/8 − 41 5 − 24 0 0 0
3 −6 −5 −3 6 −1
−3 6 5 1 −1 1
0 0 0 1 −2 0
.
B.4.9 Sei A = (aij ) = 0 aus J . Dann ist mindestens ein aij = 0. Diese Indizes i, j seien fest gewählt. Für alle 1 ≤ u,v ≤ n sei Euv = (euv ) mit euv = 1 für u = v und euv = 0 für −1 u = v. Nach (c) ist E1i AEj 1 = E11 aij ∈ J . Wegen 0 = aij ∈ F folgt wiederum aus (c),
380
B Lösungen der Aufgaben
−1 daß E11 = (E11 aij )aij ∈ J . Daher ist Euu = Eu1 E11 E1u ∈ J für u = 1, 2, . . . , n. Wegen (b) ist deshalb En = E11 + E22 + · · · + Enn ∈ J .
B.4.10 A hat den Rang n. Beweis durch vollständige Induktion. Ist n = 1, so ist die Summe n |a ij | = 0, da die Indexmenge leer ist. Also |a11 | > 0 und rg(A) = 1. j =1 j =i Induktionsschluß: n → n+1. Wegen nj =1 |a1j | < |a11 | ist a11 = 0. Durch Subtraktion j =1
geeigneter Vielfacher der ersten Spalte von der j -ten Spalte, j = 2, . . . , n + 1, erhält man ) mit a = 0 für j = 2, . . . , n + 1. Sei nun A = (a ) die Matrix eine Matrix A = (aij 1j ij die aus A durch Selektion der Spalten 2, . . . , n + 1 und Zeilen 2, . . . , n + 1 entsteht. Dann a1,j +1 = a gilt aij i+1,j +1 − a11 · ai+1,1 . Also n
| = |aij
j =1 j =i
n
|ai+1,j +1 −
j =1 j =i+1
=
n+1
j =i+1
|ai+1,j | +
n+1
n+1 j =1
j =2 j =i+1
<
n+1 a1,j +1 a1j · ai+1,1 | ≤ (|ai+1,j | + | · ai+1,1 |) a11 a11 j =2
|
a1j a1,i+1 · ai+1,1 | − | · ai+1,1 | a11 a11
|ai+1,j | + |ai+1,1 | − |
j =2 j =i+1
< |ai+1,i+1 | − | ≤ |ai+1,i+1 −
a1,i+1 · ai+1,1 | a11
a1,i+1 · ai+1,1 | a11
a1,i+1 |. · ai+1,1 | = |aii a11
Die n × n-Matrix A erfüllt die Induktionsvoraussetzung. Daher hat A den Rang n, und rg(A) = n + 1.
B.5
Lösungen zu Kapitel 5
B.5.1 (a) det A = 120. (b) det A = (a − b)[(a + b)(ty − ux) + (r + s)(dx − cy) + (v + w)(cu − dt)]. B.5.2 Falls ci = cj für ein i = j , ist die Determinante 0 und die Behauptung offensichtlich. Sonst subtrahiert man für n − 1 ≥ i ≥ 1 das c1 -Fache der i-ten Zeile von der (i + 1)-ten Zeile und teilt jede Spalte j > 1 durch (cj − c1 ). So erhält man 1 1 ··· 1 1 ··· 1 c1 c2 c2 · · · cn · · · cn det .. (cj − c1 ) · det .. .. .. .. = . . . . . . j >1 n−1 n−1 n−1 n−2 n−2 c2 · · · cn · · · cr c2 c1 Die Behauptung ergibt sich durch vollständige Induktion.
381
B.5 Lösungen zu Kapitel 5 B.5.3 det A = (−1)n−1 · (n − 1)!, det B = (−1)
(n−1)n 2 .
−1 Q 0 . Dann ist AB = P0 S−RP B.5.4 (a) Sei B = E0r −P −1 Q = C. Nach Satz 5.4.12 En−r ist det B = 1. Also ist En die Treppennormalform von B. Wegen Satz 4.1.13 existieren k < ∞ Elementarmatrizen Ui , die zu Spaltenumformungen von B gehören, mit −2 −1 BUk Uk−1 . . . U2 U1 = En . Also ist B = U−1 und C = AB = 1 U 2 . . . Uk
−1 −1 AU−1 1 U2 . . . Uk , d. h. C geht aus A durch Spaltenoperationen hervor. (b) Nach dem Produktsatz für Determinanten gilt det(AB) = (det A) · (det B) = det A. Wegen (a) und Satz 5.4.12 ist daher det A = det C = (det P ) det(S − RP −1 Q).
B.5.5 (a) Ist det A = 0, so ist rg P < 2n, und alle Behauptungen gelten für diesen Fall. 0 B Sei det A = 0. Durch Zeilenaddition geht die Matrix P in die Matrix P = −A 0 über. Da keine Zeilenvertauschungen vorgenommen werden, gilt det P = det P . Für i = 1, 2, . .. , n vertausche man nun die i-te mit der (n + i)-ten Zeile und erhält die Ma 0 trix P = −A . Für ihre Determinante gilt det P = (−1)n det P . Nach Satz 5.4.1 0 B
ist det(−A) = (−1)n det A. Daher gilt nun wegen Satz 5.4.12, daß det P = det P = (−1)n det P = (−1)n det(−A) det(B) = (−1)n (−1)n (det A)(det B) = (det A)(det B) ist. (b) folgt durch Addition von (AE n , AB) zu (−A, 0). Das sind Zeilenoperationen ohne Zeilenvertauschungen. B (c) Wegen (b), Satz 5.4.1 (c) und Satz 5.4.12 ist det P = det E0n AB = det En · det(AB) = det(AB). Nach (a) gilt det P = (det A)(det B). Hieraus folgt der Produktsatz. B.5.6 (1, 2, 3, −1). B.5.7 Die Matrix A sei n-reihig, und die Matrix A1 sei k-reihig. Durch k(n − k) ZeilenverB tauschungen geht die Matrix A über in A = A02 A . Nach Satz 5.4.12 und Satz 5.4.1 (b) 1 folgt det A = (−1)k(n−k) (det A1 )(det A2 ). B.5.8
4 1 1 3 A−1 = (adj A) = det −1 5
−2 −1 −2
1 0 . 1
B.5.9 Die Voraussetzung ist gleichwertig mit AAT = En und daher mit A−1 = AT . Ist von A−1 D = det A, so folgt D −1 = D, also D = ±1. Für den Matrizenkoeffizienten ak,i
= D(adj a ) wegen Satz 5.5.2 und D −1 = D. Andererseits folgt aus A−1 = AT gilt ak,i i,k = a . Es ergibt sich: a auch ak,i i,k i,k = det A(adj ai,k ).
B.5.10 Multiplikation der i-ten Zeile mit −a und Addition zur j -ten Zeile führt En + aCi,j (i = j ) in die Einheitsmatrix über. Daher folgt Behauptung (a). Wegen (En +aCi,j )−1 = En − aCi,j enthält M mit jeder Matrix auch deren Inverse. Links- bzw. rechtsseitige Multiplikation
382
B Lösungen der Aufgaben
einer Matrix A mit Matrizen aus M bewirkt elementare Zeilen- bzw. Spaltenumformungen. Man zeigt, daß man durch solche Umformungen in A rechts unten eine Eins, sonst aber in der letzten Zeile und Spalte lauter Nullen erzeugen kann. Durch Induktion folgt, daß A durch Multiplikation mit Matrizen aus M in die Einheitsmatrix überführt werden kann.
B.6
Lösungen zu Kapitel 6
B.6.1 (a)
1 1 1
2 1
2 1
1
√ 3
2
2
mit = − + i
.
(b) char PolB (X) = (1 − X)3 hat 1 als einzige Nullstelle. Der Eigenwert 1 von B hat also Vielfachheit c1 = 3. B−E3 hat aber Rang 2. Daher ist B nicht diagonalisierbar nach Satz 6.2.6. B.6.2 char Pol(X) = X5 − 15X 4 − 25X3 + 375X 2 + 125X − 1875 = (X − 15)(X4 − 25X2 + 125). Die Eigenwerte sind x1 = 15. 3 3 √ √ 25 25 + 5 5, x4,5 = ± − 5 5. x2,3 = ± 2 2 B.6.3 (a) AB = BA folgt durch Nachrechnen. (c) A und B haben die gemeinsamen Eigenvektoren v 1 = (−3, 2, 4), v 2 = (1, −1, −2) und v 3 = (1, −1, −1) zu den Eigenwerten a1 = 1, a2 = 1 und a3 = 2 bzw. b1 = −1, b2 = −1 und b3 = 3. (b) Wegen (c) sind A und B nach Satz 6.2.6 diagonalisierbar. (d) folgt unmittelbar aus (c). B.6.4 char √ PolA (X) = X5 − 5X 4 + 6X 3 + 2X 2 − 4X. Eigenwerte x1 = 0, x2 = 1, x3 = 2, x4,5 = 1 ± 3. B.6.5
−2 0 1
1 0 2
3 0 1 2 0 −1
2 6 0
−1 −2 1 −2 · 1 5 2 0
1 2 5
2 1 2 = 0 0 0
0 2 0
0 0 . 7
B.6.6 Es gelte rg(A − E c) = n − r. Zu dem Eigenwert c gibt es dann r linear unabhängige Eigenvektoren, die zu einer Basis des Raumes ergänzt werden können. Der dem Endomorphismus hinsichtlich dieser Basis entsprechenden, zu A ähnlichen Matrix entnimmt man, daß das charakteristische Polynom die Form f (t) = (c − t)r g(t) besitzen muß. Es folgt r k, also rg(A − E c) = n − r n − k. B.6.7 Es entspreche A der Endomorphismus α. Genau dann ist A singulär, wenn es ein x = o mit αx = o = x0 gibt, wenn also 0 Eigenwert ist.
383
B.6 Lösungen zu Kapitel 6
B.6.8 (a) Nach Satz 3.5.7 haben ähnliche Matrizen dieselbe Spur. Da C algebraisch abgeschlossen ist, existiert nach Satz 6.3.11 eine Basis B von V derart, daß Aα (B, B) = (bij ) eine untere Dreiecksmatrix ist. Also sind bii = ci , i = 1, 2, . . . , n, die n Eigenwerte von α. Also ist trAkα (B, B) = tr α k = ni=1 cik für alle k = 1, 2, . . . Behauptung (b) folgtaus der 0 Zerlegung det(E t r − α r ) = det(E t − α) · det(α r−1 + · · · + E t r−1 ). Die Matrix A = 01 −1 hat 1 als einfachen, A2 = E hat 1 als zweifachen Eigenwert. B.6.9 Sei charPolA (X) = X 3 + q2 X 2 + q1 X + q0 . Nach Satz 6.1.10 ist q2 = −a1 . Seien c1 , c2 , c3 die 3 Eigenwerte von A. Dann ist char PolA (X) = j3=1 (X − cj ) nach Satz 6.1.12. Also ist q1 = c1 c2 + c1 c3 + c2 c3 und q0 = −c1 c2 c3 . Nach Aufgabe 6.8(a) ist ai = j3=1 cji für i = 1, 2, 3. Hieraus folgt q1 = 21 (a12 − a2 ) und q0 = − 16 (a13 + 2a3 − 3a2 a1 ). B.6.10 char PolA (X) = (X − 1)(X + 1)(X + 2). P −1 AP = diag(1, −1, 2)
−2 mit P = −3 −1
A1000 = P diag(1, 1, 21000 )P −1 4 − 21000 −2 + 21001 1 0 3 = 3 −1 + 21000 2 − 21001
2 −1 −1
1 0 . −1
4 − 21002 . 0 −1 + 21002
B.6.11 Sei U ein Eigenraum von A zum Eigenwert f und u ∈ U . Dann gilt (∗)
ABu = BAu = Bf u = (Bu)f,
also Bu ∈ U . Sei U1 ⊕ U2 ⊕ · · · ⊕ Un eine Zerlegung von F n in eindimensionale Eigenräume von A. Solch eine Zerlegung existiert nach Satz 6.2.6. Nach (∗) ist nun Bv i ∈ Ui = v i F für i = 1, . . . , n. Also ist v i ∈ Ui ein Eigenvektor von B. Daher ist {v 1 , . . . , v n } eine Basis von V , die aus gemeinsamen Eigenvektoren von A und B besteht. B.6.12 Wegen
X+2 char PolA (X) = (X − 1)2
−4, 5
+2 X−4
ist 1 ∈ Q der einzige Eigenwert von A. Aus A − E4 = 0 und (A − E4 )2 = 0, folgt, daß e1 = 2 der größte Elementarteiler von A ist. Durch Lösen des zugehörigen homogenen linearen Gleichungssystems (A − E4 )x = o folgt, daß (6, −8, 0, 0),
(3, 0, 8, 0),
(1, 0, 0, 4)
eine Basis von Ker(A − E4 ) ist. Nach Satz 6.3.11 hat der zweite Elementarteiler e2 = 1 von A die Vielfachheit w2 = 2.
384
B Lösungen der Aufgaben Mit dem Verfahren 6.3.13 erhält man wegen (1, 0, 0, 0) ∈ / Ker(E − A) die Basis 3 6 0 1 1 0 0 , −8 , 0 , , (E − A) 0 = B= 0 0 8 0 8 0 0 −12 0 0
weil die letzten drei Vektoren von B eine Basis von Ker(E − A) sind. Die Jordansche Normalform von A ist nach Satz 6.3.11 die Matrix 1 0 0 0 1 1 0 0 −1 Aα (B, B) = 0 0 1 0 = Q AQ, 0 0 0 1 wobei die Spaltenvektoren der Transformationsmatrix Q gerade die Vektoren von B in der angegebenen Reihenfolge sind. B.6.13 Mit dem Satz 5.4.9 berechnet man das charakteristische Polynom von A: char PolA (X) = (X + 2)2 · (X − 1 − i)2 · (X − 1 + i)2 . Der verallgemeinerte Eigenraum zum Eigenwert f1 = −2 ist V1 = Ker(A + 2E6 )2 . V1 hat die Basis v 1 = (0, 0, 0, 0, 1, 0), v 2 = (0, 0, 0, 0, 2, −4) = (A+2E6 )v1 . Der verallgemeinerte Eigenraum zum Eigenwert f2 = 1+i 1 (8i −19), 1 (23−11i)) ist V2 = Ker(A−(1+i)E6 )2 . V2 hat die Basis v 3 = (−i, −1, 0, 1, 25 25 und v 4 = [A − (1 + i)E6 ]v3 = (0, 1, i, 0, 0, 0), wie sich durch Lösung des homogenen Gleichungssystems mit Koeffizientenmatrix −2 0 0 −2i 0 0 −2 − 2i −2 −2i −2i 0 0 2i 2i −2 −2 + 2i 0 0 2 (A − (1 − i)E6 ) = 2i 0 0 −2 0 0 2 0 0 4 + 4i −4 + 2i −6 − 2i −2 0 0 −2 − 4i 24 + 8i 20 + 10i ergibt. Da 1 − i die konjugiert komplexe Zahl von 1 + i ist, folgt, daß der verallgemeinerte 1 (19+8i), 1 (23+11i)) Eigenraum V3 = Ker(A−(1−i)E6 )2 die Basis v 5 = (i, −1, 0, 1, − 25 25 und v 6 = [A − (1 − i)E6 ]v 5 = (0, 1, −i, 0, 0, 0) hat. Nach Verfahren 6.3.13 hat A die Jordanform J und Transformationsmatrix Q, wobei J=
−2 0 1 −2 0 0 0 0 0 0 0 0
0 0 1+i 1 0 0
0 0 0 1+i 0 0
0 0 0 0 1−i 1
0 0 0 0 0 1−i
,
1 (19 − 8i) und b = 1 (23 − 11i) ist. mit a = − 25 25
0 0 0 Q= 0 1 0
0 0 0 0 2 −4
−i 0 −1 1 0 i 1 0 a 0 b 0
i −1 0 1 a¯ b¯
0 1 −i 0 0 0
385
B.6 Lösungen zu Kapitel 6
B.6.14 Ist B = P −1 AP eine Dreiecksmatrix, dann sind die Diagonalelemente bii von B = (bij ) nach Satz 6.1.9 und Satz 6.1.12 gerade die Eigenwerte von A. Wegen Satz 5.4.5 hat char PolA (X) dann die behauptete Faktorisierung. Insbesondere folgt (b) aus (a). Sei umgekehrt char PolA (X) = kr=1 (X − fr )cr mit fi = fj für i = j und fr ∈ F für 1 ≤ r ≤ k. Dann ist A nach Satz 6.3.11 zu seiner Jordanschen Normalform J ähnlich. Da J eine Dreiecksmtrix ist, gilt die Behauptung (a). B.6.15 Das charakteristische Polynom der Koeffizientenmatrix von (∗) x = Ax hat die Faktorisierung char PolA (X) = X3 − 7X2 + 16X − 12 = (X − 2)2 (X − 3). Der verallgemeinerte Eigenraum Ker[(A − 2E 2 )] zum Eigenwert f1 = 2 hat die Basis B = {a = (0, 0, 1), (A − 2E )a = (−1, −1, 1)}. Weiter ist b = (2, 1, −1) eine Basis des Eigenraums Ker(A − 3E ) von A. Also ist die Transformationsmatrix
0 P = 0 1
−1 −1 1
2 1 , −1
0
P −1 = 1 1
1 −2 −1
1 0 0
2 und J = 1
2 3
die Jordansche Normalform von A. Nach Hilfssatz 6.4.3 ist b = P −1 x(0) = P −1 (2, 1, 4)T = (5, 0, 1) der Anfangsvektor des Systems (∗∗) y = Jy. Wegen Satz 6.4.4 gilt y = (y1 (t) = 5e2t , y2 (t) = 5te2t , y3 (t) = e3t ) ist eine Lösung von (∗∗). Deshalb ist x = P y = (x1 (t) = −5te2t + 2e2t , x2 (t) = −5te2t , +e3t , x3 (t) = 5e2t + 5t 2t − e3t nach Hilfssatz 6.4.3 eine Lösung von (∗). B.6.16 Die Spur tr(A) = 12 und die Determinante det(A) = 64. Deshalb gilt für jede Zahl z ∈ Q nach Satz 6.1.10 det(E6 z − A) = z6 − 12z5 + q4 z4 + q3 z3 + q2 z2 + q1 z + 64. Um die fehlenden Koeffizienten q4 , q3 , q2 , q1 des charakteristischen Polynoms zu berechnen, genügt es, 4 Stützstellen zu wählen und jeweils die linksseitige Determinante zu berechnen. Dazu wählt man z. B. z1 = 1, z2 = −1, z3 = 2, z4 = −2. Man erhält det(E6 zi − A) = 1, 729, 0, 4096 für i = 1, 2, 3 und 4. Hieraus ergibt sich das inhomogene Gleichungssystem q4 + q3 + q2 + q1 = −52 q4 − q3 + q2 − q1 = 652 16q4 + 8q3 + 4q2 + 2q1 = 256 16q4 + 8q3 + 4q2 − 2q1 = 3584 Nach dem Lösungsverfahren 4.2.7 hat es die einzige Lösung (q4 , q3 , q2 , q1 ) = (60, −160, 240, −192). Also ist char PolA (X) = X 6 − 12X 5 + 60X 4 − 160X 3 + 240X2 − 192X + 64 = (X − 2)6 . B.6.17 Nach B.6.16 ist char PolA (X) = (X − 2)6 . Also ist 2 der einzige Eigenwert von A und V = Ker(A − 2E )e = Q6 ist der einzige verallgemeinerte Unterraum, wobei e nach
386
B Lösungen der Aufgaben
Satz 6.3.6 der Nilpotenzindex von B = (A − 2E ) ist. Man berechnet −1 3 4 −8 0 5 1 −3 −4 8 0 −5 −1 3 4 −8 0 5 und B 3 = 0. B2 = 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Also ist e1 = 3 der größte Elementarteiler von A. Eine Basis von Ker(B) ist daher B = {a 1 = (−1, 1, −1, 0, 0, 0), a 2 = (2, −2, 0, −1, −1, 0), a 3 = (2, −3, 0, −2, 0, −1)}. Mittels des Lösungsverfahrens 4.2.7 erhält man die Treppennormalform von B: 1 0 −1 0 2 2 1 0 −2 −3 . T = 0 1 0 0 0 1 −1 −2 Wegen rg(B 2 ) = 1 ist dimF [Ker(B 2 )] nach Folgerung 3.4.8. Daher gelten: dimF [Ker(B 3 )/ Ker(B 2 )] = 6 − 5 = 1 = 2 = 5 − 3 = dimF [Ker(B 2 )/ Ker(B)] dimF [Ker(B 2 )/ Ker(B)] = 2 = dim[Ker(B)/ Ker(B 0 )] = dimF Ker(B) = 3 Nach Definition 6.3.9 hat A drei verschiedene Elementarteiler e1 > e2 > e3 > 0 mit Vielfachheiten: w1 = 1, w2 = 1, w3 = 1. Insbesondere ist e1 = 3, e2 = 2 und e3 = 1. Die ersten 3 Spaltenvektoren der Transformationsmatrix Q sind nach Satz 6.3.10 die Basisvektoren des A-invarianten Unterraums W1 = m11 , Bm11 , B 2 m11 wobei m11 = (1, 0, 0, 0, 0, 0) ∈ Ker(B 2 ). Da m21 = (0, 0, 0, 0, 1, 0) ∈ Ker(B2 ), aber m21 ∈ Ker(B)+BW1 , sind die beiden nächsten Spalten von Q die Basisvektoren des A-invarianten Unterraums W2 = m21 , Bm21 . Schließlich ist m31 = a 3 ∈ Ker(B), aber m31 ∈ B 2 W1 ⊕ BW2 . Also ist 1 −1 −1 0 −1 2 0 −2 1 0 1 −3 0 2 −1 0 1 0 , Q= 0 1 0 0 1 −2 0 0 0 1 1 0 0 1 0 0 0 −1 und J = Q−1 AQ =
2 1 0
0 2 1
0 0 2 2 1
.
0 2 2
B.6.18 Wegen Satz 6.4.4 berechnet man zunächst die Jordansche Normalform J von A mit dem Berechnungsverfahren 6.3.3. A hat das charakteristische Polynom char.PolA (X) =
387
B.6 Lösungen zu Kapitel 6
−X3 + 3X3 − 3X + 27 = −(X − 3)3 , und den einzigen Eigenwert f1 = 3. Der Eigenraum Ker(A − 3E ) hat die Dimension 2. V = Ker(B2 ) istder verallgemeinerte Eigenraum von A −1 zum Eigenwert f1 = 3. Sicherlich ist v 2 = Bv 1 = −1 = 0 für v 1 = (1, 0, 0), also ist −1 v 1 ∈ Ker(B 2 )\ Ker(B). Da B 2 v 1 = B(Bv 1 ) = 0, ist v 2 = Bv 1 ∈ Ker(B). Wegen dimF Ker(B) = 2 läßt sich Bv 1 zu einer Basis von Ker B ergänzen, und zwar z. B. durch v 3 = (1, −1, 0). Der verallgemeinerte Eigenraum Ker B 2 = V hat die Basis B = {v 1 = (1, 0, 0),
v 2 = (−1, −1, −1),
v 3 = (1, −1, 0)}.
Für die Jordan-Form J und Transformationsmatrix P gelten: 3 0 0 1 −1 1 1 P = 0 −1 −1 , J = 1 3 0 und P −1 = 0 0 0 3 0 −1 0 0
1 0 −1
−2 −1 1
Nach Hilfssatz 6.4.3 ist
1
b = P −1 a = 0 0
1 0 −1
2 4 −2 −1 0 = −1 1 1 1
Anfangsvektor des Differentialgleichungssystems (∗∗) y = Jy. mit Koeffizientenmatrix J. Nach Satz 6.4.4 hat (∗∗) die Lösung y = (y1 (t)2e3t , y2 (t) = 2te3t − e3t , y3 (t) = e3t ). Wegen Hilfssatz 6.4.3 ist
1 x = Py = 0 0
2e3t 4e3t − 2te3t 1 3t 3t 3t −1 2te − e = −2te 0 e3t −2te3t + e3t
−1 −1 −1
eine Lösung des Differentialgleichungssystems (∗) x = Ax zum Anfangsvektor x(0). B.6.19 Nach Satz 6.3.10 genügt es die Partitionen von n = 5 zu bestimmen. Sie sind: z1 = 5, z2 = 4 + 1, z3 = 3 + 2, z4 = 3 + 1 + 1, z5 = 2 + 2 + 1, z6 = 2 + 1 + 1 + 1 und z7 = 1 + 1 + 1 + 1 + 1. Sei Ji die Jordansche Normalform von zi für i = 1, 2, . . . , 6. Dann ist J7 eine Diagonalmatrix mit einzigem Eigenwert c, und J1 ist ein einziges Jordankästchen mit Eigenwert c und 4 Einsen in der unteren Nebendiagonalen. J2 hat 2 Jordankästchen, von denen eines eine 4 × 4 Matrix ist mit 3 Einsen in der unteren Nebendiagonalen.
c 1 J3 =
c 1
,
c c 1
c
c 1 J4 =
c 1
,
c c c
388
B Lösungen der Aufgaben
c 1 J5 =
,
c c 1
c
c 1 J6 =
c
c
B.7
.
c c c
Lösungen zu Kapitel 7
B.7.1 Es sind genau alle Werte a 1 ·a 2 = c mit |c| < 2 möglich: Man setze x = −a 1 c+a ¯ 2 ·4; aus x · x > 0 folgt dann |c| < 2. Gilt umgekehrt |c| < 2, so wird durch x · y = 4x1 y¯1 + cx1 y¯2 + cx ¯ 2 y¯1 + x2 y¯2 (x = a 1 x1 + a 2 x2 , y = a 1 y1 + a 2 y2 ) ein skalares Produkt mit a 1 · a 2 = c definiert; es gilt dann nämlich x · x = (cx1 + x2 )(c¯x¯1 + x¯2 ) + (4 − cc)x ¯ 1 x¯1 > 0 für x = o. B.7.2 (a) Es folgt zunächst β1 (x + y, x + y) = β2 (x + y, x + y) für beliebige Vektoren x, y. Nach Ausrechnung dieser Ausdrücke ergibt sich Re(β1 (x, y)) = Re(β2 (x, y)) und (x durch xi ersetzt) Im(β1 (x, y)) = Im(β2 (x, y)). Damit folgt β1 = β2 . In (b) muß β(y, x) = β(x, y) ausgenutzt werden. Gilt β1 (x, x) = β2 (x, x)c (c > 0) für alle x, so erhält man mit Hilfe von (a) als notwendige und hinreichende Bedingung, daß ac + b eine positive reelle Zahl sein muß, wobei a und b selbst noch komplexe Zahlen sein können. Gilt β1 (x, x) = β2 (x, x)c, β1 (y, y) = β2 (y, y)c und c = c für mindestens zwei Vektoren x, y, so ist notwendig und hinreichend, daß a und b reelle Zahlen sind, und daß ace + b > 0 für alle normierten Vektoren e (und damit für alle Vektoren = o) erfüllt ist. B.7.3 Die aufgestellte Behauptung (∗)
|x + y|2 + |x − y|2 = 2(|x|2 + |y|2 ).
ergibt sich durch einfache Rechnung. Gilt umgekehrt (∗) für die Betragsfunktion | · | auf V , dann wird durch x · y = 41 (|x + y|2 − |x − y|2 ) ein Skalarprodukt mit x · x = |x|2 für alle x, y ∈ V definiert: Sicherlich ist es kommutativ, und x · x = 0 genau dann, wenn x = o. Es genügt zu zeigen, daß (x 1 + x 2 ) · y = x 1 · y + x 2 · y für alle x 1 , x 2 , y ∈ V gilt. (x 1 + x 2 ) · y = 41 (|x 1 + x 2 + y|2 − |x 1 + x 2 − y|2 ). Aus (∗) folgt: |(x 1 + y) + x 2 |2 + |x 1 + y − x 2 |2 = 2(|x 1 + y|2 + |x 2 |2 ), |(x 2 + y) + x 1 |2 + |x 2 + y − x 1 |2 = 2(|x 2 + y|2 + |x 1 |2 ). Nun ist 4(x 1 · y + x 2 · y) = (|x 1 + y|2 − |x 1 − y|2 ) + (|x 2 + y|2 − |x 2 − y|2 ) = 1 2 2 2 1 2 2 2 2 (|x 1 + y + x 2 | + (|x 1 + y − x 2 | ) − |x 2 | − 2 (|x 1 − y + x 2 | + |x 1 − y − x 2 | ) + |x 2 | + 1 (|x + y + x |2 + |x + y − x |2 ) − |x |2 − 1 (|x − y + x |2 + |x − y − x |2 ) + |x |2 = 2 1 2 1 1 2 1 2 1 1 2 2 |x 1 + x 2 − y|2 − |x 1 + x 2 − y|2 = 4(x 1 + x 2 ) · y, weil 21 |x 2 − x 1 + y|2 = 21 |x 1 − x 2 − y|2 und 21 |x 1 − x 2 + y|2 = 21 |x 2 − x 1 − y|2 .
389
B.7 Lösungen zu Kapitel 7
B.7.4 Die Stammfunktionen der als Skalarprodukt im folgenden auftauchenden Integrale findet man mit partieller Integration. Dann gilt für alle n ∈ N: & π 1 1 1 1 = dt = 1, √ ,√ 2
2
π
−π 2
$ %π 1 1 − cos(nt) = 0, √ sin(nt) dt = √ π −π 2 π 2 n −π $ %π & π 1 1 1 cos(nt) sin(nt) dt = sin(nt)2 = 0, (cos(nt), sin(nt)) = π −π π 2n −π $ %π & π 1 1 1 1 (cos(nt), cos(nt)) = cos2 (nt) dt = sin(nt) cos(nt) + t = 1, π −π π 2n 2 −π $ %π & π 1 1 1 1 (sin(nt), sin(nt)) = − sin(nt) cos(nt) + t sin2 (nt) dt = = 1. π −π π 2n 2 −π
1 √ , cos(nt) 2
=
1
& π 1
√ √ B.7.5 b1 = (−2i, 1, 1, −i) 17 7, b2 = (0, i, 0, −1) 21 2 ist Orthonormalbasis in U ⊥ . B.7.6 Sei A = (aij )1≤i,j ≤n die Matrix von α bezüglich einer Orthonormalbasis. Dann gilt n 2 j =1 aij = 1. Also |aij | ≤ 1. Für die Spur gilt dann n n | tr α| = | tr A| = ajj ≤ |ajj | ≤ n. j =1
j =1
Offensichtlich tritt die Gleichheit nur ein bei ajj = 1 oder ajj = −1 für 1 ≤ j ≤ n, wenn also α = id oder α = − id gilt. B.7.7 (a) Mit as,t = v s · et und bi,s = v · v s gilt bi,s = kt=1 ai,t as,t . Für A = (as,t ), B = (bi,s ) folgt hieraus B = AAT , also det B = (det A)2 . (b) folgt aus (a), weil B nicht von der Wahl der Orthonormalbasis abhängt. B.7.8 Das Volumen des Parallelotops hat den Wert 6. B.7.9 Folgt aus ((ϕ ∗ ψ ∗ )x, y) = (ψ ∗ x, ϕy) = (x, (ψϕ)y) und Bemerkung 7.4.2 (b). B.7.10 Wegen det(A∗ − E t) = det(A¯ − E t¯)T = det(A¯ − E t¯) = det(A − E t¯) besitzen die charakteristischen Polynome zueinander konjugiert-komplexe Koeffizienten. B.7.11 Es sei x die orthogonale Projektion von x in ϕV . Für x = x − x gilt dann x ∈ (ϕV )⊥ , also x ⊥ x . Außerdem (ϕV )⊥ = Ker ϕ ∗ = Ker ϕ, also x ∈ Ker ϕ. Umgekehrt muß wegen (ϕV )⊥ = Ker ϕ bei einer solchen Darstellung x die orthogonale Projektion von x in ϕV sein (Eindeutigkeit der Darstellung). Aus (ϕ 2 )x = o folgt ϕx ∈ Ker ϕ ∩ ϕV = (ϕV )⊥ ∩ ϕV = o, also Ker(ϕ 2 ) Ker ϕ. Es gilt aber auch Ker ϕ Ker(ϕ 2 ). Aus Ker(ϕ 2 ) = Ker ϕ folgt nun rg(ϕ 2 ) = rg ϕ.
390
B Lösungen der Aufgaben
B.7.12 Da ϕ selbstadjungiert und unitär ist, gilt ϕ = ϕ ∗ = ϕ −1 nach Satz 7.5.8. Also ist ϕ 2 = id. Umgekehrt folgt aus ϕ 2 = id, daß ϕ = ϕ −1 = ϕ ∗ gilt. B.7.13 Aus ϕa = ac (a = o) folgt ϕ 2 a = (ϕa)c = ac2 ; d. h. a ist auch Eigenvektor von ϕ 2 zum Eigenwert c2 . Umgekehrt gelte ϕ 2 a = ac (a = o), und e1 , . . . , en sei eine aus Eigenvektoren von ϕ bestehende Basis des Vektorraumes mit den zugehörigen Eigenwerten c1 , . . . , cn . Es kann a = e1 a1 + · · · + ek ak mit k n und a1 = 0, . . . , ak = 0 angenommen werden. Dann folgt (e1 a1 + · · · + ek ak )c = ϕ 2 a = e1 c12 a1 + · · · + ek ck2 ak und durch KoeffizientenWegen der vorausgesetzten Positivität der Eigenwerte ergibt vergleich c = c12 = · · · = ck2 .√ √ sich weiter c1 = · · · = ck = + c; d. h. a ist auch Eigenvektor von ϕ mit dem Eigenwert c. B.7.14 Für jedes ∈ {1, −1} ist die Transformationsmatrix P gegeben durch: 1 √ 0 0 − √1 − √ 2 6 3 0 √1 − √ 0 0 2 2 √ 2 . √ √ P = 0 0 0 3 3 1 1 0 √ √ 0 0 2 2 √1 √1 0 0 − √ 3
2
6
B.7.15 (a) Man erhält das Ergebnis durch Anwendung des Laplace’schen Entwicklungssatzes. 1 1 1 1 0 2 2 2 2 √ −1 1 1 0 0 2 2 2 √2 1 1 1 (b) P = 2 −2 . 0 0 2 2 1 1 1 1 −2 −2 0 2 2√ √ 0 0 21 2 − 21 2 0 ¯ T gilt aii = a¯ ii für i = 1, 2, . . . , n. B.7.16 (a) Wegen A = A∗ = (A) (b) Nach Aufgabe 7.10 besitzen die charakteristischen Polynome von A und A∗ zueinander konjugiert-komplexe Koeffizienten. Wegen A = A∗ sind alle Koeffizienten von charPolA (X) reell. (c) folgt sofort aus (b) und Satz 6.1.10. Nach Satz 7.4.13 besitzt V eine Orthonormalbasis B = {v 1 , v 2 , . . . , v n } mit vj cj für 1 ≤ j ≤ n. Sei v ∈ V beliebig der Länge |v| = 1 und Basisdar n n 2 v = =1 vj xj für xj ∈ C. Dann gelten: 1 = v · v = j =1 |xj | = 1
j n n n 2 vj cj xj · und αv · v = j =1 vj xj = j =1 cj |xj | . Hieraus folgt: cn = n jn=1 n 2 2 cn j =1 |xj | ≤ j =1 cj |xj | = αv · v ≤ c1 j =1 |xj |2 = c1 . Wegen cn = αvn · vn , c1 = αv1 · v1 und |v1 | = 1 = |vn | folgt hieraus die Behauptung.
B.7.17 αvj = stellung
B.7.18 Nach Hilfssatz 7.4.3 existiert der adjungierte Endomorphismus α ∗ von α. Sei α1 = 1 1 ∗ ∗ 2 (α + α ) und α2 = 2 (α − α ). Dann ist α1 selbstadjungiert und α2 anti-selbstadjungiert. Weiter gilt α = α1 + α2 .
391
B.8 Lösungen zu Kapitel 8
Ist α = β1 +β2 eine weitere Darstellung mit βi ∈ End(V ), β1∗ = β1 und β2∗ = −β2 , dann ist α ∗ = β1∗ + (β2 )∗ = β1 − β2 . Daher ist β1 = 21 (α + α ∗ ) = α1 und β2 = 21 (α − α ∗ ) = α2 . B.7.19 (a) Sei V = Rn und B die kanonische Basis von V . Nach Folgerung 3.6.6 existiert ein Gruppenisomorphismus ρ : GL(n, R) → Aut(V ) = GL(V ), der jeder invertierbaren n × nMatrix A einen Automorphismus ρ(A) = α ∈ Aut(V ) so zuordnet, daß A = Aα (B, B) gilt. Wegen Satz 7.6.3 hat α die eindeutige Darstellung α = χ ψ, wobei χ ein orthogonaler und ψ ein selbstadjungierter Automorphismus von V ist derart, daß alle Eigenwerte von ψ positive reelle Zahlen sind. Nach Satz 7.5.9 ist O = ρ −1 (χ ) eine orthogonale Matrix. Wegen Satz 7.5.9 und Bemerkung 6.1.3 ist S = ρ −1 (ψ) = Aψ (B, B) eine symmetrische Matrix mit lauter positiven reellen Eigenwerten. Da ρ −1 ein Gruppenisomorphismus ist, folgt A = ρ −1 (α) = ρ −1 (χ ψ) = ρ −1 (χ )ρ −1 (ψ) = OS. Außerdem ist diese Produktdarstellung von A wegen derjenigen von α eindeutig. (b) beweist man analog für V = Cn . B.7.20 A = O · S mit √ √ √ 10 6 5 6 5 6 1 √ √ √ O= −4 6−6 10 6 −2 6+12 √ √ √ 30 −2 6+12 5 6 − 6−24
B.8
√
und
√ 4 6+1 0 2 6−2 1 √ S = 0 5 6 0 . √ √ 5 2 6−2 0 6+4
Lösungen zu Kapitel 8
→ −−→ B.8.1 VU wird erzeugt von den Vektoren q−− 0 q1 = (0, 2, −11, −6), q0 q2 = (−1, 4, −4, −4), − − → q0 q3 = (−2, 6, 3, −2). Mit elementaren Umformungen ergibt sich dim VU = 2. Also ist dim U = 2. Die Koordinaten eines beliebigen Punktes x ∈ U haben die Darstellung (x1 , x2 , x3 , x4 ) = (3, −4, 1, 6) + (0, 2, −11, −6)u + (−1, 4, −4, −4)v für geeignete u, v ∈ R. Einsetzen in die Hyperebenengleichung von H ergibt die Gleichung 3 + 3u + 4v = 0. Setze v = 3t für t ∈ R beliebig. Dann ist u = −1 − 4t. Also besteht U ∩ H aus allen Punkten x mit Koordinaten (x1 , x2 , x3 , x4 ) = (3, −6, 12, 12) + (−3, 4, 32, 12)t, t ∈ R. Deshalb ist U ∩ H eine Gerade. → −−→ B.8.2 Die zu α gehörende 2 × 2-Matrix A muß die Vektoren − p− 1 p2 = (1, −3) und p1 p3 = −− → − − → (0, −3) auf p1 p2 = (6, −11) bzw. p1 p3 = (3, −15) abbilden. Dies führt auf ein lineares Gleichungssystem für die Koeffizienten von A. Man erhält x1 3 −1 3 mit x = (x1 , x2 ). α(x) = − 4 5 5 x2
392
B Lösungen der Aufgaben
B.8.3 Durch den Ansatz G : y = (2, 1, 1) + (a, b, c) · s ist p ∈ G gesichert. G H ist gleichwertig mit 2a − b + 5c = 0, woraus b = 2a + 5c folgt. G ∩ G besteht aus den Lösungen des Gleichungssystems (2, 1, 1) + (a, 2a + 5c, c) · s = (11, −1, 2) + (1, 2, 1) · t. Es ist für t = −5 lösbar und ergibt mit s = 4 die Werte a = 1, c = −1 und somit b = −3. Hierbei ist die Wahl von s = 0 willkürlich, da es auf einen von Null verschiedenen Faktor nicht ankommt. B.8.4 Der Richtungsvektor eines gemeinsamen Lots muß auf (3, 1, 1) und (1, 2, −3) senkrecht stehen. Ein solcher Vektor ist z. B. (−5, 10, 5). Auflösung des linearen Gleichungssystems (1, 2, −1) + (3, 1, 1)s + (−5, 10, 5)u = (0, 2, 16) + (1, 2, −3)t und ergibt s = 2, t = 4, u = 3 und damit als Fußpunkte (1, 2, −1) + (3, 1, 1) · 2 = (7, 4, 1) auf G, (0, 2, 16) + (1, 2, −3) · 4 = (4, 10, 4) auf G . B.8.5 (a) Wenn G existiert, liegt diese Gerade wegen p ∈ G und G ∩ G2 = ∅ jedenfalls in der von p und G2 erzeugten Ebene H = p ∨ G2 . Wegen der Voraussetzung kann G3 nicht in H enthalten sein. Daher gilt entweder G3 H und G3 ∩ H = ∅, oder G3 hat mit H genau einen Schnittpunkt g. Im ersten Fall existiert G nicht, und p ist somit ein Ausnahmepunkt. Im zweiten Fall muß G = p ∨ g gelten. Wenn G G2 ist (G = G2 wegen p ∈ G), hat man es wieder mit einem Ausnahmepunkt zu tun. Sonst aber folgt auch G ∩ G2 = ∅. G erfüllt dann also die Forderungen und ist eindeutig bestimmt. (b) Die von p = (1, 0, 0) und G2 erzeugte durch die Gleichung x1 +x2 = 1 be Ebene wird schrieben. Ihr Schnittpunkt mit G3 ist g = 21 , 21 , − 21 . G = p ∨g schneidet G2 in (0, 1, −1).
Eine Parameterdarstellung von G ist g = (1, 0, 0) + − 21 , 21 , − 21 t. Ausnahmepunkte auf G1 sind (−1, 0, 0) und (0, 0, 0). B.8.6 Durch Rechnung zeigt man AAT = E3 und det(A) = 1. Die Drehachse wird vom Vektor (1, −1, 0) erzeugt. Der Betrag des Drehwinkels ist π6 . Die Eulerschen Winkel sind α1 = − π4 , α2 = − π6 und α3 = π4 . B.8.7 (a) Nach der Definition ist (∗)
x × y = e1 (x2 y3 − x3 y2 ) − e2 (x1 y3 − x3 y1 ) + e3 (x1 y2 − x2 y1 ).
Daher ist x × y = 0 gleichwertig damit, daß die aus den Koordinaten von x und y gebildete 2 × 3-Matrix den Rang 1 hat. (b) Berechnung von (x × y) · z mit Hilfe von (∗) ergibt die Entwicklung der Determinante aus (b) nach der dritten Zeile. Da diese Determinante bei zyklischer Vertauschung der Zeilen nicht geändert wird, gelten die Gleichungen in (b). (c) Setzt man z = x oder x = y, so sind in der Determinante zwei Zeilen gleich. Es folgt (x × y) · x = (x × y) · y = 0. Man zeigt |x × y|2 = |x|2 |y|2 − (x × y)2 durch Nachrechnen, woraus die zweite Behauptung von (c) wegen sin2 (x, y) = 1 − cos2 (x, y) folgt. B.8.8 Die Bijektion ϕ von G lasse das Teilverhältnis fest. Die Gerade G ist durch 2 Punkte −−→ = − → x = y eindeutig bestimmt. Wegen ϕx, ϕy ∈ G existiert ein Skalar a ∈ F mit − ϕxϕy xy · a.
393
B.8 Lösungen zu Kapitel 8
→ → Für ein beliebiges z ∈ G gilt − xz = − xy · c nach Definition 8.1.24 wobei c = TV(x, y, z) ist. − − − → −−→ · c = − → → → Nach Voraussetzung gilt dann ϕxϕz = − ϕxϕy xy · ac = (− xyc)a = − xz · a. Also ist ϕ eine Affinität. Die Umkehrung gilt nach Satz 8.2.4. B.8.9 Die Lösungen von (a) und (b) ergeben sich aus der Tabelle: c 1, 2, 3, 4
2, 1, 4, 3
3, 4, 1, 2
4, 3, 2, 1
1 c
1−c 1, 4, 3, 2
4, 1, 2, 3
3, 2, 1, 4
2, 3, 4, 1
1, 2, 4, 3
2, 1, 3, 4
4, 3, 1, 2
3, 4, 2, 1
1 1−c
1, 4, 2, 3
4, 1, 3, 2
2, 3, 1, 4
3, 2, 4, 1
c c−1
1, 3, 2, 4
3, 1, 4, 2
2, 4, 1, 3
4, 2, 3, 1
c−1 c
1, 3, 4, 2
3, 1, 2, 4
4, 2, 1, 3
2, 4, 3, 1
B.8.10 Es sei (p0 , p1 , p2 ) ein Koordinatensystem, und ϕ lasse das Doppelverhältnis ungeändert. Wegen Satz 8.5.5 gibt es genau eine Projektivität ψ mit ψpi = ϕpi (i = 0, 1, 2). Für jeden Punkt x gilt DV(ϕp0 , ϕp1 , ϕp2 , ϕx) = DV(ϕp0 , ϕp1 , ϕp2 , ψx), also ϕx = ψx und somit ϕ = ψ. Umkehrung gilt nach Satz 8.5.4. B.8.11
0
0 1 −2 1 2
1 √ 2 3 1 √ 2 2
0 0
0 0 1 2 1 2
1 √ 2 3 −1 √ 2 2
0 0
0 0 −2 0
0 5 0 1
−2 0 0 0
0 0 √ 1 1 2 3 0 0 1 5 √ 2 3
0 1 √ 2 2
0
−1 √ 2 2
− 21 0 1 2
0
1 2
0 1 2 0
ist die 4 × 4-Diagonalmatrix diag(1, 1, 1, −1). Die Quadrik ist eine Ovalfläche. B.8.12 Die Quadrik Q hat die Koeffizientenmatrix 1 1 1 A = 1 1 1 , 1 1 1 die Transformationsmatrix √ 2 1 √ P = √ √2 6 2 und es gilt
√ −√3 3 0
−1 −1 , 2
P −1 AP = diag(3, 0, 0) = D.
√ Setze z = (z1 , z2 , z3 ) = xP und c = bP = (2, 2, 2)P . Dann ist c = (2 3, 0, 0). Es folgt √ 3z12 + 2 3z1 − 3 = 0. (∗)
394
B Lösungen der Aufgaben
Nach Kürzen und quadratischer Ergänzung ergibt sich die Gleichung
1 2 4 z1 + √ = . 3 3
(∗∗)
Setze y1 = 21 z1 + √1 . Dann lautet die Normalgleichung: 3y12 = 4. Die Quadrik ist also 3 nach Folgerung 8.7.12 ein Paar paralleler Ebenen. B.8.13 Die Quadrik Q mit Bestimmungsgleichung x T Ax + bx − 1 = 0, wobei
1 A = −0.5 0.5
0.5 0.5 , 0
−0.5 −5 0.5
b = (0, 4, 0)
und x = (x1 , x2 , x3 ),
hat charPolA (X) = X3 + 4X 2 − 5.75X − 0.75. Ihre Diagonalmatrix ist angenähert (∼): D = PT A · P 1.219474925 ∼ 3.452153285 · 10−10 9.601347495 · 10−14
3.452153702 · 10−10 −5.098855947 4.051274073 · 10−11
9.603429163 · 10−14 4.051292635 · 10−11 . −0.1206189785
Transformationsmatrix
0.9307140549 P = −0.04564905578 0.3628877399
0.08987161446 0.9903046637 −0.1059233963
−0.3545341182 0.1311977007 , 0.9257930235
b · P = (0.1825962231, −3.961218655, −0.5247908028). Nach quadratischer Ergänzung von ˜ 1 , y2 , y3 ) = 1.219474925y 2 − 5.098855947y 2 − 0.1206189785y 2 Q(y 1 2 3 + 0.1825962231y1 − 3.961218655y2 − 0.5247908028y3 − 1, ergibt sich die angenäherte Normalgleichung: z12 − z22 − z32 + 0.3333333332 = 0. Daher ist Q ein einschaliges Hyperboloid. B.8.14 Die Gleichung von Q lautet in Matrizenform (∗)
3
x T −1 0
−1 3 0
0 0 x − 2(1, 2, 1) · x = c. −6
395
B.9 Lösungen zu Kapitel 9
Die Eigenwerte der symmetrischen Matrix A sind 2, 4 und −6. Die orthogonale Matrix normierter Eigenvektoren ist
√1 12 P = √ 2
− √1
2 √1 2
0
0
0
0 . 1
Mit x = P x und (1, 2, 1)P = √3 , √1 , 1 geht die Gleichung (∗) über in 2x1 2 + 4x2 2 − 2 2 2 √6 √2 3 2+ 6x3 − x1 − x2 −2x3 = c. Durch quadratische Ergänzung ergibt sich 2 x1 − √ 2 2 2 2 2 2 1 1 9 1 1 53 3 , ∗ 4 x2 − √ − 6 x3 + 6 = c + 4 + 8 − 6 = c + 24 = 2c . Mit x1 = x1 − √ 4 2
2 2
1 , x = x + 1 erhält man nach Division durch 2, daß x 2 + 2x 2 − x2 = x2 − √ 3 3 1 2 6 4 2 2 ∗ 3x3 = c die Normalgleichung einer zu Q kongruenten Quadrik ist. Diese geht durch die √ √ affine Koordinatentransformation y1 = x1 , y2 = 2x2 , y3 = 3x3 schließlich in die Normalgleichung y12 + y22 − y32 = c∗ einer zu Q affin äquivalenten Quadrik Q∗ über. Daher ist Q nach Folgerung 8.7.12 im Fall c∗ > 0 ein einschaliges Hyperboloid, im Fall c∗ = 0 ein Kegel und im Fall c∗ < 0 ein zweischaliges Hyperboloid. Die Ausgangsgleichung definiert 53 einen Kegel. Die Kegelspitze ist bei Q∗ der Nullpunkt y = (0, 0, 0). daher für c = − 24 3 , √ 1 , − 1 und schließlich x = √ Rücktransformation liefert x = (0, 0, 0), x = 6 2 2 4 2
5 7 1 als Spitze des Kegels Q. , , − 8 8 6 ∗ Im Fall c = 6, also c∗ = 197 48 > 0, ist Q ein einschaliges Hyperboloid. Der Punkt q mit ∗ ∗ dem Koordinatenvektor q = (−1, −1, −1) erfüllt die Gleichung von Q. Durch q müssen also zwei in Q enthaltene Geraden gehen. Schrittweise Koordinatentransformationen führen √ 7 , − 1 , − 5 3 und weiter die kartesische Transformation y˜ = √ 14 y + auf y ∗ = − √ 1 4 6 2 2 3√22 1 √
14 y , y˜ = y schließlich auf y˜ ∗ = − 3 11, 0, − 5 3 . Mit √1 y , y˜ = √1 y1 − √ 3 4 6 3 11 2 2 3 11 3 22 2 3 √ √ diesen Werten ergibt die Bemerkung 8.7.15 als Geradengleichungen y˜1 = − 43 11 − t 56 3, √ √ 5 3 y˜2 = ± 197 48 t, y˜3 = − 6 3 − t 4 11. Rücktransformation liefert schließlich die beiden Geraden durch q ∗ : , √ , √ 3 3 t t 197 197 65 3 75 3 x1 = −1 − √ ∓8 , x2 = −1 − √ ±6 , 6 24 6 24 6 11 6 11
√ x3 = −1 − t
B.9
33 . 4
Lösungen zu Kapitel 9
B.9.1 Ist S(X − a) + Sf (X) = S, dann ist 1 = (X − a)h1 (X) + f (X)h2 (X) für geeignete hi (X) ∈ S = R[X], i = 1, 2. Daher ist 1 = f (a)h2 (a) ∈ R. Sei umgekehrt f (a) eine Einheit in R. Dann ist f (a) auch eine Einheit in S, d. h. S = f (a)S. Sei f (X) = an X n + an Xn−1 +
396
B Lösungen der Aufgaben
· · · + a1 X + a0 . Dann ist f (X) − f (a) = an (X n − a n ) + an−1 (Xn−1 − a n−1 ) + · · · + a1 (X − a) = (X − a)g(X) für ein g(X) ∈ S. Hieraus folgt: S = f (a)S = [f (X) − (X − a)g(X)]S ⊆ f (X)S + (X − a)S ⊆ S, d. h. S = f (X)S + (X − a)S. ∼ 4Z/12Z = U/(U ∩ V ). Die Abbildung 2a + 6Z → ∼ Z/3Z = B.9.2 (U + V )/V = 2Z/6Z = 4a + 12Z ist ein expliziter Isomorphismus zwischen 2Z/6Z und 4Z/12Z. B.9.3 Trivialerweise ist B1 eine Basis. Da das Gleichungssystem 2c1 +3c2 = 0, 3c1 +2c2 = 0 in R = Z/6Z nur die triviale Lösung c1 = c2 = 0 besitzt, ist B2 linear unabhängig. Wegen (1, 0) = (2, 3) · 2 + (3, 2) · 3 und (0, 1) = (2, 3) · 3 + (3, 2) · 2 gilt aber auch B2 = R 2 . Wegen (2, 3) · 3 + (0, 1) · 3 = (1, 0) · (−2) + (2, 3) · 2 = (0, 0) führt der Austausch immer auf linear abhängige Mengen. B.9.4 (a) y ∈ {ϕU | U ∈ S} ist gleichwertig mit y = ϕu1 +· · ·+ϕun = ϕ(u1 +· · ·+un ) und ui ∈ Ui , Ui ∈ S für i = 1, . . . , n, also auch gleichwertig mit y ∈ ϕ {U | U ∈ S} . (b) Aus y ∈ {ϕ − (T ) | T ∈ S } folgt y = u1 + · · · + un mit ϕu ∈ T und Ti ∈ S für i i
− i = 1, . . . , n. Man erhält {T | T ∈ S } .
ϕy ∈ T1 + · ·· + Tn und damit y ∈ ϕ (c) Aus y ∈ ϕ − {T | T ∈ S } folgt ϕy = v1 + · · · + vn mit vi ∈ Ti und Ti ∈ S . Gilt nun T1 , . . . , Tn ⊂ Im ϕ, so folgt weiter vi = ϕui , also ui ∈ ϕ − (Ti ) für i = 1, . . . , n. Man erhält y − u1 − · · · − un = u∗1 ∈ Ker ϕ und folglich y = (u1 + u∗1 ) + u2 + · · · + un , wobei auch u1 + u∗1 ∈ ϕ − (T1 ) gilt, also y ∈ {ϕ − (T ) | T ∈ S }.
(d) Aus y ∈ ϕ {U | U ∈ S} | U ∈ S}. folgt y ∈ ϕU für alle U ∈ S, also y ∈ {ϕU − , also weiter (e) x ∈ ϕ {T | T ∈ S } ist gleichwertig mit ϕx ∈ T für jedes T ∈ S − mit x ∈ ϕ − (T ) für alle T ∈ S und daher mit x ∈ {ϕ (T ) | T ∈ S }. (f) Aus y ∈ {ϕU | U ∈ S} folgt y = ϕaU mit aU ∈ U für alle U ∈ S. Bei fester Wahl von U ∗ ∈ S folgt jetzt wegen ϕ(aU ∗ − aU ) = y − y= 0 zunächst aU ∗ − aU ∈ Ker ϕ ⊂ U und daher aU ∗ ∈ U für alle U , also y = ϕaU ∗ ∈ ϕ {U | U ∈ S} . B.9.5 (a) Wenn α injektiv ist, folgt aus αγ = αδ zunächst α(γ z) = α(δz) und dann γ z = δz für alle z ∈ Z, also γ = δ. Erfüllt α umgekehrt die Bedingung aus (a) und gilt αx = αx , so werden mit Z = x durch γ x = x und δx = x Abbildungen γ , δ mit αγ = αδ definiert. Es folgt γ = δ und weiter x = x ; d. h. α ist injektiv. (b) Ist α surjektiv und gilt γ α = δα, so gibt es zu y ∈ W ein x ∈ V mit αx = y, woraus γ y = δy für alle y ∈ W , also γ = δ folgt. Umgekehrt erfülle α die Bedingung aus (b); jedoch sei α nicht surjektiv. Dann gibt es ein y ∈ W mit y ∈ αV und R-lineare Abbildungen γ , δ : W → W mit γ y = δy und γ y = δy für y ∈ αV . Es folgt γ α = δα, also γ = δ im Widerspruch zu γ y = δy. (c) ist trivial. B.9.6 Man kann jedes M = a b ∈ GL(2, R) in GL(n, R) mit n ≥ 2 einbetten, indem man cd auf der Hauptdiagonalen n − 2 Einsen an die Matrix M anfügt und alle anderen Koeffizienten Null setzt. Die Matrizen A = 11 01 und B = 01 11 ∈ Mat 2 (R) sind über jedem Ring R 1 0 −1 = 1 −1 . Wegen AB = 1 1 = 2 1 = invertierbar; denn A−1 = −1 und B 1 12 11 0 1 BA folgt, daß GL(n, R) für alle n ≥ 2 und alle kommutativen Ringe R nicht kommutativ ist.
B.10 Lösungen zu Kapitel 10
397
B.9.7 (a) Aus y ∈ ϕα Mα folgt y = ϕα1 xα1 +· · ·+ϕαr xαr = ϕ(βα1 xα1 +· · ·+βαr xαr ) ∈ ϕ(⊕Mα ). Gilt umgekehrt y = ϕ(σ ) mit σ ∈ ⊕Mα , so folgt σ = βα 1 xα1 + · · · + βαr xαr , also y = ϕα1 xα1 + · · · + ϕαr xαr ∈ ϕα Mα . Man erhält ϕ(⊕Mα ) = ϕMα und damit die erste Behauptung. (b) Für σ, σ ∈ Mα ist σ = σ gleichwertig mit πα (σ ) = πα (σ ) für alle α ∈ A. Wegen ϕα = πα ϕ ist daher ϕy = ϕy gleichwertig mit ϕα y = ϕα y für alle α ∈ A, woraus die zweite Behauptung folgt. B.9.8 (a) Es ist y ∈ Ker ϕ gleichwertig mit ϕα y = πα (ϕy) = 0 für alle α ∈ A, also mit y ∈ {Ker ϕα | α ∈ A}. (b) Aus σ ∈ ⊕ Ker ϕα folgt σ = βα1 xα1 + · · · + βαr xαr mit xαρ ∈ Ker ϕαρ , also ϕ(σ ) = ϕα1 xα1 + · · · + ϕαr xαr = 0 und daher σ ∈ Ker ϕ. Gilt M1 = M2 = W = R1 und sind ϕ1 , ϕ2 die Identität von R1 , so gilt Ker ϕ1 = Ker ϕ2 = 0. Für die durch ϕ1 und ϕ2 nach Satz 9.6.8 bestimmte Abbildung ϕ : R1 ⊕ R1 → R1 ist jedoch Ker ϕ = 0, weil Ker ϕ z. B. das Element (1, −1) enthält. B.9.9 Für ein beliebiges Element z ∈ W gilt (α β )z = 0 und daher (ατβ )z = (σ α β )z = 0, also (τβ )z ∈ Ker α = Im β. Da β injektiv ist, wird durch ω = β −1 τβ eine Abbildung der verlangten Art definiert. Wegen der Injektivität von β ist ω genau dann injektiv, wenn τβ injektiv ist, insbesondere also, wenn τ und β einzeln injektiv sind. Weiter ist ω surjektiv genau dann, wenn Im(τβ ) = Im(βω) = Im β = Ker α gilt. Wegen Im(τβ ) ⊂ Ker α ist diese Bedingung gleichwertig mit Im(τβ ) ⊃ Ker α. B.9.10 Es gilt X = Im χ + U und Im χ ∩ U = 0 mit einem Unterraum U von X. Da χ Surjektion auf Im χ ist, gibt es wegen Satz 9.3.4 eine F -lineareAbbildung η1 : Im χ → X , die die linke Hälfte des Diagramms kommutativ ergänzt. Wegen Ker ψ = Im χ ist die Restriktion von ψ auf U injektiv. Nach Aufgabe 9.7.10 existiert daher eine F -lineare Abbildung η2 : U → X , die die rechte Hälfte des Diagramms kommutativ ergänzt. Durch η1 und η2 wird dann gemäß Satz 9.6.8 eine F -lineare Abbildung η : X → X der verlangten Art bestimmt. B.9.11 Wegen Satz 9.6.12 gilt (⊕Vα )∗ = Hom(⊕Vα , F ) ∼ = Hom(Vα , F ) = Vα∗ .
B.10
Lösungen zu Kapitel 10
B.10.1 (a) Nach Satz 2.3.18 besitzen die Unterräume U und V von M bzw. N Komplemente K und L, d. h. M = U ⊕ K und N = V ⊕ L. Daher gelten: U ⊗ N ∼ = t (U × N ) = u ⊗ n | u ∈ U, n ∈ N ≤ M ⊗ N und M ⊗ V ∼ = t (M × V ) = m ⊗ v | m ∈ M, v ∈ V ≤ M ⊗ N . (b) Sei S := t (U × N ) + t (M × V ) ≤ M ⊗ N. Dann ist S nach Satz 2.1.13 ein Unterraum von M ⊗ N . Nach Satz 10.1.13 gilt außerdem: M ⊗ N = (U ⊕ K) ⊗ (V ⊕ L) ∼ = U ⊗ V ⊕ U ⊗ L ⊕ K ⊗ V ⊕ K ⊗ L,
U ⊗N ∼ = U ⊗V ⊕K ⊗V. = U ⊗ V ⊕ U ⊗ L und M ⊗ V ∼ Daher hat der Unterraum S ∼ = U ⊗ N + M ⊗ V ein Komplement T in M ⊗ N , das zu K ⊗ L isomorph ist. Nach Satz 9.2.17 (2. Isomorphisatz) folgt: M/U ∼ = L und = K, N/V ∼ M ⊗ N/S ∼ = M ⊗ N/S. = K ⊗ L. Daher gilt: M/U ⊗ N/V ∼ =K ⊗L∼
398
B Lösungen der Aufgaben
B.10.2 Für jedes Paar q1 , q2 ∈ Q existiert ein Hauptnenner 0 = c und Elemente ai ∈ Z mit qi = ai c−1 . Daher ist q1 ∧ q2 = a1 c−1 ∧ a2 c−1 = (c−1 ∧ c−1 )a1 a2 = 0, woraus Q ∧ Q = 0 folgt. B.10.3 (a) folgt unmittelbar aus Satz 10.2.4 und Definition 10.2.2. (b) Sind C und D invertierbare Matrizen passender Grösse mit A = C −1 AC und B = −1 D BD, dann ist C ⊗ D nach (a) eine invertierbare Matrix mit [C ⊗ D]−1 (A ⊗ B)[C ⊗ D] = (C −1 AC) ⊗ (D −1 BD) = A ⊗ B . (c) Sei v ein Eigenvektor von A zum Eigenwert c und w ein Eigenvektor von B zum Eigenwert d. Dann gilt (A ⊗ B)(v ⊗ w) = Av ⊗ Bw = vc ⊗ wd = (v ⊗ w)cd. Hieraus folgt die Behauptung. B.10.4 (a) Man betrachtet die Koeffizienten cii der Hauptdiagonale der Matrix C := A ⊗ B. Gemäß Definition 10.2.2 gilt für 1 ≤ i ≤ m gerade c · bii . Für m + 1 ≤ i ≤ 2m gilt ii = a11
m n cii = a22 · bi−m,i−m . Also ergibt sich tr(A ⊗ B) = ni=1 j =1 (aii · bjj ) = i=1 (aii · m n m j =1 bjj ) = i=1 aii · j =1 bjj = tr(A) · tr(B). (b) wird für Endomorphismen α ∈ EndR (M),
β ∈ EndR(N ) bewiesen, wobei M = R s , N = R t . Nun ist (α ⊗ 1)(1 ⊗ β) = α ⊗ β. ⊗ 1) [m1 ∧ · · · ∧ ms ⊗ n1 ∧ · · · s+t
(α ∧nt ] = α [m ∧· · ·∧m ]⊗[n ∧· · ·∧n ] = s s t 1 s+t t s α [m1 ∧· · ·∧ms ]⊗[n1 ∧· · ·∧ nt ] = (m1 ∧ · · · ∧ ms )[det(α)]t ⊗ n1 ∧ · · · ∧ nt = [m1 ∧ · · · ∧ ms ⊗ n1 ∧ · · · ∧ nt ][det(α)]t . Also ist det(α ⊗ 1) = [det(α)]t und analog det(1 ⊗ β) = [det(β)]s . Nach dem Produktsatz folgt det(α ⊗ β) = [det(α)]t [det(β)]s . B.10.5 τ (α ⊗ b) = 0 genau dann, wenn für alle m ∈ M und b ∈ N gilt: 0 = (α ⊗ b)(m) = bα(m). Also ist b = 0 oder α(m) = 0 für alle m ∈ M, also α = 0. In beiden Fällen folgt Ker τ = 0. Nach den Sätzen 3.6.4 und Folgerung 10.1.16 gilt dimF HomF (M, N ) = mn = dimF (M ∗ ⊗F N ). Daher ist τ ein Isomorphismus.
B.10.6 Es seien ω :V → V /W p V /Wp die natürlichen Abbildun und ω : p V → gen. Dann ist ωˆ p : p V → p (V /W ) eine lineare Abbildung mit Wp ≤ Kern(ωˆ p ), die
nach Hilfssatz 9.2.14 und Satz 9.2.18 eine lineare Abbildung ϕˆ : p V /Wp → p (V /W ) induziert. Wie im Beweis von Satz 10.1.6 zeigt man, daß für x¯1 , . . . , x¯p ∈ V /W die Klasse ω (x¯1 ∧ · · · ∧ x¯p ) von der Repräsentantenwahl unabhängig ist. Die durch ψ(x¯1 , . . . , x¯p ) = ω (x¯1 ∧ · · · ∧ x¯p ) definierte p-fach alternierende Abbildung bestimmt nach Satz 10.4.5 eine
ˆ ˆ lineare Abbildung ψˆ : p (V /W ) → p V /Wp . Es ist ψ ϕˆ und ϕˆ ψ die Identität, also ϕˆ ein Isomorphismus. B.10.7 Da V und Y endlich erzeugte freie R-Moduln sind, ist auch Z ein endlich erzeugter freier R-Modul. Durch ϕq (x1 ∧ · · · ∧ xq , yq+1 ∧ · · · ∧ y p ) = x 1 ∧ · · · ∧xq ∧ y q−1 ∧ · · · ∧ yp wird nach Satz 10.4.8 eine bilineare Abbildung ϕq : , p−q Y → p Z definiert. q V
Nach Satz 10.1.6 bestimmt sie eine lineare Abbildung ϕq : ( q V ) ⊗ p−q Y → p Z, die nach Satz 10.4.8 sogar injektiv ist. Die Abbildungen ϕq bestimmen weiter nach Satz 9.6.8 p
→ p Z, die ebenfalls injektiv eine lineare Abbildung ϕ : ⊕q=0 qV ⊕ p−q Y
399
B.11 Lösungen zu Kapitel 11
ist. Man zeigt mit Satz 10.4.8, daß sich jeder Vektor aus p Z als R-Linearkombination von Vektoren der Form x1 ∧ · · · ∧ xq ∧ yq+1 ∧ · · · ∧ yp darstellen läßt, und folgert, daß ϕ auch surjektiv und somit ein Isomorphismus ist. B.10.8 Es sei {a1 , a2 , a3 } eine Basis von V , und für 1 ≤ i ≤ k ≤ 3 sei i,k die durch i,k (aµ , aν ) = i,k (aν , aµ ) = δi,µ · δk,ν (1 ≤ µ ≤ ν ≤ 3) eindeutig bestimmte Biline arform. Nach Folgerung 10.4.9 gilt dim AltF (2, V , F ) = 23 = 3, es ist {1,2 , 1,3 , 2,3 } eine Basis von AltF (2, V , F ), und AltF (2, V , F ) besteht aus genau 8 Abbildungen. B.10.9 Wenn A invertierbar ist, dann gilt AA−1 = En . Nach dem Produktsatz folgt det A det A−1 = 1. Also ist det A eine Einheit in R. Wenn det A eine Einheit von R ist, gilt auch (det A)−1 ∈ R. Die inverse Matrix A−1 läßt sich daher nach Satz 5.5.2 jetzt auch im Fall eines Ringes berechnen. B.10.10 Da {u1 , u2 , . . . , um } eine Basis des Unterraums U ist, gilt für ein beliebiges v ∈ V sogar v ∈ U genau dann, wenn {v, u1 , u2 , . . . , um } linear abhängig ist. Dies ist nach Folgerung 10.4.10 äquivalent zu U = {v ∈ V }|v1 ∧ u1 ∧ u2 ∧ · · · ∧ um = 0}.
B.11
Lösungen zu Kapitel 11
B.11.1 Da Z[i] ≤ C, ist Z[i] ein nullteilerfreier kommutativer Ring mit 1. Für alle x = a+bi, y = c + di = 0, x, y ∈ Z[i] gilt: x a + bi (a + bi)(c − di) ac + bd bc − ad = = = 2 + 2 · i. y c + di c2 + d 2 c + d2 c + d2 Es existieren f, g ∈ Z und k, l ∈ R mit |k|, |l| ≤ 21 so, daß ac+bd = f +k und bc−ad = g+l. c2 +d 2 c2 +d 2 Setze u = f + gi ∈ Z[i], r = y · (k + li) ∈ C. Es folgt x = f + gi + k + li y
und somit
x = y · (f + gi) + y(k + li) = yu + r.
Also ist r = x − y · u ∈ Z[i]. Ferner gilt: ρ(r) = ρ(y)(k 2 + l 2 ) ≤ ρ(y)
1 1 + 4 4
< ρ(y),
und ρ(x) ≥ 1 für alle 0 = x ∈ Z[i]. Aus der Definition von ρ folgt durch Nachrechnen, daß ρ(xy) = ρ(x)ρ(y) ≥ ρ(y) für alle x = 0, y ∈ Z[i] gilt. Nach Definition 9.1.3 ist daher Z[i] ein euklidischer Ring. B.11.2 Sei ρ die in Aufgabe 11.1 definierte Norm des euklidischen Ringes Z[i]. Das Element x = a + bi ist eine Einheit in Z[i], wenn ein y = c + di mit 1 = xy existiert. Dann ist 1 = ρ(1) = ρ(x)ρ(y) = (a 2 + b2 )(c2 + d 2 ) = a 2 c2 + a 2 d 2 + b2 c2 + b2 d 2 . In dieser Summe von vier Quadraten ganzer Zahlen ist genau ein Summand ungleich Null und somit gleich 1. Wegen adi = 1 und bci = 1 gilt entweder a, c ∈ {1, −1} oder b, d ∈ {1, −1}. Also ist U = {1, −1, i, −i} die Menge der Einheiten von Z[i].
400
B Lösungen der Aufgaben
B.11.3 (a) ggT(f1 , f2 ) = X5 + X 2 + 1. (b) ggT(f1 , f2 ) = X7 + 2X 6 + 3X 5 + 5X 4 + 7X 3 + 11X 2 + 13X + 17. B.11.4 (a) Ist der gekürzte Bruch pq ∈ Q in Q eine Nullstelle von f (X) = an Xn +
an−1 Xn−1 +· · ·+a1 X +a0 aus Z[X], so ist f (X) = X − pq (h0 +h1 X +· · ·+hn−1 Xn−1 ) für geeignete hi ∈ Q. Also ist −a0 = pq h0 und an−1 = − pq hn−1 = − pq an , woraus wegen ggT (p, q) = 1 folgt, daß p | an .
(b) Angenommen, der gekürzte Bruch pq ∈ Q erfüllt f pq = 0. Wegen (a) ist dann p p p 1 1 1 1 q ∈ − 4 , − 2 , −1, 1 2 , 4 =: M. Aber f ( q ) = 0 für alle q ∈ M, ein Widerspruch.
B.11.5 Die Behauptung wird mit vollständiger Induktion von n − 1 auf n bewiesen. Für f0 X n = 2 ist char PolC (X) = det −1 (X+f ) = X(X + f1 ) + f0 = m(X). 1 Nach dem Entwicklungssatz 5.4.9 von Laplace folgt durch Entwicklung nach der ersten Spalte, daß X f1 −1 X f2 −1 X f3 char PolC (X) = X · det .. .. .. . . . −1 X fn−2 −1 X + fn−1 0 ··· 0 f0 −1 X f2 −1 X f 3 + det . . . .. .. .. −1 X fn−2 −1 X + fn−1 = X(f1 + f2 X + · · · + fn−1 Xn−2 + X n−1 ) + (−1)n f0 (−1)n−2 = f0 + f1 X + f2 X2 + · · · + fn−1 Xn−1 + X n . B.11.6 Wegen Grad f (X) = 3 ist K = R[X]/f (X)R[X] ein 3-dimensionaler RVektorraum. Also hat K genau |F |3 = 23 = 8 Elemente. Sei x = [X] die Restklasse von X in K. Dann sind die sieben Potenzen x, x 2 , x 3 = x + 1, x 4 = x 2 + x, x 5 = x 2 + x + 1, x 6 = x 2 + 1 und x 7 = 1 die sämtlichen von Null verschiedenen Elemente von K. Also ist K ein endlicher Körper mit acht Elementen. B.11.7 (a) Nach Satz 11.1.17 ist ggT (m, n) = 1 äquivalent zu Z = mZ + nZ. Wegen des zweiten Isomorphiesatzes ist diese Gleichung zu Z/mZ ⊕ Z/uZ ∼ = Z/mnZ äquivalent. Die gesuchte Bedingung ist (m, n) = 1. (b) ggT (m, n) = 1 impliziert nach Satz 11.1.17, daß R = mZ + nZ. Also ist [m] = m + nZ ∈ Z/nZ eine Einheit in Z/nZ. Ist [m] eine Einheit in Z/nZ, dann ist [m] kein
401
B.11 Lösungen zu Kapitel 11
Nullteiler. Gilt diese Bedingung (ii), aber ggT (m, n) = 1, dann gibt es eine Primzahl p mit m = pm1 und n = pn1 für geeignete m1 , n1 ∈ Z. Hieraus folgt der Widerspruch: [m][n1 ] = [pm1 n1 ] = [nm1 ] = 0 ∈ Z/nZ, aber [m] = 0 und [n1 ] = 0. B.11.8 char PolA (X) = X 4 − 6X 3 + 8X2 − 2X + 4. Der einzige rationale Eigenwert ist x1 = 2. Eigenvektor zu x1 ist (1, 1, 0, −1). Der Faktor X3 − 4X2 − 2 von char PolA (X) besitzt keine rationale Nullstelle. Wäre m eine rationale Nullstelle mit m ∈ Z, n ∈ N, und n 2 m m−4n m, n teilerfremd, dann wäre 2 = 2. Somit ist m durch n teilbar. Also ist n = 1. n n
Für m gerade ist m2 · (m − 4) durch 8 teilbar und somit von 2 verschieden. Ist m ungerade, so auch m2 · (m − 4), aber dieses Produkt ist 2. Widerspruch! B.11.9 Die Smith-Normalform der Relationenmatrix −1 0 5 7 3 3 1 4 R= 2 2 −4 −2 ist 8 8 8 16
1 0 0 0
0 1 0 0
0 0 2 0
0 0 . 0 0
Die Elimination der ersten Zeile und Spalte von R mit Hilfe des Schritts 3 des Algorithmus 11.5.11 ergibt die Matrix 1 0 0 0 1 0 0 0 0 3 16 25 0 0 , die in 0 1 0 0 −14 −14 0 2 6 12 0 0 −32 −32 0 8 48 72 mit Hilfe der Schritte 2 und 3 des Algorithmus 11.5.11 übergeht. Hieraus ergibt sich die Smith-Normalform. Somit ist A isomorph zu Z ⊕ Z/2Z. B.11.10 Da R kein Körper ist, gilt R = Q. Wäre Q ein endlich erzeugter R-Modul, dann gäbe es endlich viele qi = abi ∈ Q, ai , bi ∈ R, bi = 0 für 1 ≤ i ≤ n, mit Q = ni=1 qi R. i Sei b = ni=1 bni . Dann ist b = 0nund bqi = ri ∈ R für 1 ≤ i ≤ n. Da Q ein Körper ist, folgt Q = bQ = i=1 (bqi )R) = i=1 ri R = R, was R = Q widerspricht. B.11.11 ,
−2 0 −2X 3 1 − 23 X 2 − 13 0
−3 0 0 1 1 −X 2 X 4 −X 3 − 23 0 = 0 X+1 . X3 · A · 0 1 −X 2 +X 1 (X 2 −1) 1 3 2 0 0 X + 3 3 3 0 X 2 −X 4 +X 3 +1
B.11.12 Das neutrale Element der additiv geschriebenen, abelschen Gruppe G sei 0. Wegen |G| = 2401 = 74 ist G ein p-Torsionsmodul über dem Hauptidealring Z für das Primelement p = 7. Nach Satz 11.4.2 ist die Anzahl k der Elementarteiler e1 ≥ e2 ≥ · · · ≥ ek > 0 von G gleich der Dimension des F -Vektorraums M(7) = {g ∈ G | g7 = 0}
über dem Körper F = Z/7Z.
402
B Lösungen der Aufgaben
Also ist |M(7)| = 7k . Alle Elemente g = 0 von G mit Ordnung o(g) = 7 liegen in M(7). Nach Voraussetzung ist |M(7)| − |{0}| = 48 = 7k − 1. Hieraus folgt k = 2. Nun sind 3 > 1 > 0 und 2 ≥ 2 > 0 die einzigen Partitionen von 4 mit 2 Teilen e1 ≥ e2 . Also ist G nach Satz 9.4.3 entweder isomorph zu Z/73 Z ⊕ Z/7Z oder Z/72 Z ⊕ Z/72 Z. B.11.13 Es gilt kgV(p(X), q(X)) = p(X)q(X)/ ggT(p(X), q(X)), und zwar über jedem Körper F. Also genügt es mit Satz 11.1.28 den größten gemeinsamen Teiler zu berechnen. Im Fall F = Q ist ggT(p(X), q(X)) = 1. Im Fall F = Z/3Z ist ggT(p(X), q(X)) = (X2 + X + 1) = (X − 1)2 . Im Fall F = Z/11Z ist ggT(p(X), q(X)) = X − 2, weil X − 2 zu 7X − 3 assoziiert ist.
B.12
Lösungen zu Kapitel 12
B.12.1 Sei m(X) = a0 + a1 X + · · · + ar−1 Xr−1 + Xr das Minimalpolynom von A. Da A invertierbar ist, ist a0 = 0. Sei En die n × n-Einsmatrix und fi−1 = −a0−1 ai für −1 = f (A) mit f (X) = s i 1 ≤ i ≤ r − 1 = s und fs = −m−1 i=0 fi X , weil 0 . Dann ist A s En = A(f0 En + f1 A + · · · + fs A ) ist. B.12.2 Die Smith-Normalform der charakteristischen Matrix C von A ist nach Algorithmus 12.3.3 diag(1, 1, 1, x 4 − 4x 3 + 14x 2 − 20x + 25). Also hat A die rationale kanonische Form
0 1 −1 Q AQ = R = 0 0
0 0 1 0
0 0 0 1
−25 20 , −14 4
1 0 mit Q = 0 0
−9 −2 −12 −2
0 −3 −2 1
−12 23 . 2 −5
B.12.3 Mittels Algorithmus 12.3.3 werden die Elementarteiler und die Transformationsmatrizen P und Q der charakteristischen Matrix C = A − XEn nach folgendem Schema berechnet 1 0 0 0 1 0 0 0
E4 0 0 1 0 0 1 0 0 0 0 0 1 1 0 0 0
0 0 0 1 0 0 0 1
C 1−X 0 0 1−X 0 0 0 0 1−X 8 0 −2 − X 0 6 0 −2 1 0 − 18 (X + 2) X 2 + X − 2 3 6(1 − X) 4 − 41 −2(1 − X)
8 6 −2 − X −2 0 0 1−X 0 0 0 1−X 0
−12 −9 9 2
4−X −12 9 2
−9 4−X 0 3 (1 − X) 2 0 1−X
1 0 0 0 1 0 0 0 0 0 1 8
0
E4 0 1 0 0 0 0 1 0 −8 0 1−X 0
0 0 1 0 0 1 0 0 0 1 0 0
0 0 0 1 0 0 0 1 0 0 3 2
1
403
B.12 Lösungen zu Kapitel 12
1 0 0 1 0
1 (X − 1) 8 − 43 1 4
1 0 1 0 4 − 43 1 1 (X − 1) 0 8
0 0 1 − 23 0 0 0 1
0 0 0 1
1 0 0 0 0 (X − 1)2 0 0 0 6(1 − X) 1 − X 0 0 −2(1 − X) 0 1−X 1 0 0 0 0 (X − 1)2 0 0 0 0 X−1 0 0 0 0 X−1 0 1 0 0 0 1 0 X−1 0 0 0 0 0 X−1 0 − 23 0 0 0 (X − 1)2
Q
0 0 1 8
0 0 0
1 8
0
−8 0 0 −6 −1 0 4−X 0 − 23 2 0 −1 0 0 −8 0 −1 −6 − 23 0 4−X −1 0 2
QCP
P
B.12.4 Sei R die rationale kanonische Form von A. Dann existiert ein P mit R = P −1 AP . T Dann ist RT = (P −1 AP )T = P T AT P −1 . Nach Satz 12.2.1 genügt es, die Behauptung für die Begleitmatrix der Form R = C(m(X)) eines Minimalpolynoms m(X) zu beweisen. Da R und RT dasselbe charakteristische Polynom und somit nach Hilfssatz 12.2.3 dasselbe Minimalpolynom haben, sind die F [X]-Modulstrukturen von V bzgl. R und RT isomorph. Also sind R und RT nach Folgerung 12.2.2 ähnlich. B.12.5 (a) ist trivial. (b) Nach 12.1.1 definiert die Matrix A auf V = F n eine F [X]-Modulstruktur. Sei Fn ∼ = V := F [X]v1 ⊕ F [X]v2 ⊕ · · · ⊕ F [X]vr die direkte Zerlegung von V in zyklische F [X]-Moduln, wobei für Erzeuger vi ∈ V Ann(vi ) = (di ) und d1 | d2 | . . . | dr gilt. Jedes Element aus dem Zentralisator E ist in seiner Wirkung auf F n mit A vertauschbar, demnach auch mit allen Operatoren f (A), f ∈ F [X]. Die Linksmultiplikation von Elementen aus E auf Vektoren in F n liefert somit F [X]-Modulendomorphismen. Also sind E und S := HomF [X] (V , V ) isomorphe Ringe und F -Vektorräume, d. h. dimF E = dimF S. Für jedes s ∈ S gilt: s(vi ) = jr =1 sij vj mit sij ∈ F [X]. Es gilt di · s(vi ) = s(di · vi ) = r 0 = j =1 sij dj vj und daher (∗)
sij di ≡ 0 mod dj ,
für alle i, j = 1, . . . , r.
Sei umgekehrt eine Matrix (sij ) ∈ Mat(r, F [X]) gegeben, so daß die Relationen (∗) erfüllt sind. Durch die Zuordnung (∗∗)
r i=1
fi vi →
r i,j =1
fi sij vj ,
fi ∈ F [X]
404
B Lösungen der Aufgaben
ist ein Element aus S definiert. Hierfür ist nur die Wohldefiniertheit der Vorschrift (∗∗) zu zeigen. Sind ri=1 fi vi und ri=1 hi vi zwei Darstellungen von v ∈ V mit fi , hi ∈ F [X], so rgilt fi ≡ hi mod r di , und daher (fi − hi )sij ≡ 0 mod dj für alle i, j . Es folgt i,j =1 fi sij vj = i,j =1 hi sij vj . Ist j ≤ i, so gilt stets sij di ≡ 0 mod dj , da dj |di . Ist j > i, so ist (∗) äquivalent zu sij = bij dj /di mit bij ∈ F [X]. ) mit s ≡ s mod d im Fall j ≤ i und s = b d /d Ersetzt man (sij ) durch (sij ij j ij ij ij j i mit bij ≡ bij mod di im Fall j > i, so beschreiben beide Matrizen das gleiche Element in S. Die Zuordnung s → (sij ) mit Grad(sij ) < Grad(dj ) für j ≤ i und sij = bij dj /di mit Grad(bij ) < Grad(di ) ist bijektiv. Die Menge der so definierten Matrizen bildet einen F -Vektorraum S˜ und die angegebene ˜ Die Teilmenge Bijektion einen F -Vektorraumisomorphismus zwischen S und S. S˜ij := {s ∈ S˜ | sk = 0 für alle (k, ) = (i, j )} ist ein F -Unterraum der Dimension nj für j ≤ i und ni für j > i. Nun folgt die Formel in (b) leicht durch Aufsummieren dieser Dimensionen. B.12.6 (a) Sei f = a − b. Dann ist En f − A die n × n-Matrix, deren n Zeilenvektoren zi = (b, b, . . . , b) ∈ F n für i = 1, 2, . . . , n sind. Also hat der Eigenraum Ker(En f −A) von A zum Eigenwert f die Dimension n − 1. Nach Satz 11.4.5 und dem Berechnungsverfahren 6.3.13 für die Jordansche Normalform J von A besitzt A genau n − 1 Elementarteilerexponenten e1 ≥ e2 ≥ · · · ≥ en−1 > 0 zum Eigenwert f . Da alle ei ≥ 1 sind, und das charakteristische Polynom charPolA (X) von A nach Satz 6.1.10 den Grad n hat, folgt aus Satz 12.2.4, daß entweder e1 = 2 und alle ei = 1 für 2 ≤ i ≤ n − 1 oder ein zweiter Eigenwert g = f mit der Vielfachheit 1 in F existiert und alle ei = 1 für 1 ≤ i ≤ n − 1 sind. Ähnliche Matrizen haben nach Satz 3.5.7 die gleiche Spur. Daher folgt im ersten Fall, daß na = tr(A) = nf = n(a − b) ist, was nb = 0 widerspricht. Also hat A einen von f verschiedenen Eigenwert g, für den na = tr(A) = (n − 1)f + g = (n − 1)(a − b) + g gilt. Daher ist g = a + (n − 1)b. Wegen ei = 1 für alle i = 1, 2, . . . , n − 1 ist dimF Ker(En f − A) = n − 1. Daher ist dimF Ker(En g − A) = n − (n − 1) = 1. (b) Da f, g ∈ F sind, hat A eine Jordansche Normalform nach Satz 6.3.11. (c) Da e1 = 1 und g nur dieVielfachheit 1 im charPolA (X) hat, ist m(X) = (X−f )(X−g) nach Satz 6.3.11 das Minimalpolynom von A. (d) Wegen (c) ist A nach Folgerung 6.3.12 diagonalisierbar, d. h. die Jordansche Normalform J ist eine Diagonalmatrix (dii ) mit dii = f für i = 1, 2, . . . , n − 1 und dnn = g. B.12.7 Durch Zeilenumformung von A folgt wegen der Voraussetzung an die Koeffizienten aj und bj , daß rg(A) = rg(En · 0 − A) = 2 ist. Also hat der Eigenraum Ker(En · 0 − A) die Dimension n − 2. Nach Satz 11.4.5 und dem Berechnungsverfahren 6.3.13 für die Jordansche Normalform J besitzt A genau n − 2 Elementarteilerexponenten e1 ≥ e2 ≥ · · · ≥ en−2 > 0
405
B.12 Lösungen zu Kapitel 12 zum Eigenwert 0. Wegen
A2 =
b1 a1 b2 a1 .. . bn−1 a1 0
b1 a2 b2 a2
··· ···
b1 an−1 b2 an−1
bn−1 a2 0
···
bn−1 an−1 0
0 0 .. . 0 c
3 ist A2 = 0 und c = jn−1 =1 aj bj . Es folgt A = 0 genau dann, wenn c = 0 ist. (a) Ist c = 0, dann ist e1 = 3. Nach Satz 6.1.10 hat das charakteristische Polynom charPolA (X) den Grad n. Wegen n−2 ei ≥ 1 für i = 2, . . . , n − 2 folgt daher aus Satz 12.2.4, daß n ≥ n−2 e = 3 + i=1 i i=2 ei ≥ 3 + (n − 3) · 1 = n ist. Hieraus folgt ei = 1 für i = 2, . . . , n − 2. Also ist 0 der einzige Eigenwert von A. Daher existiert die Jordansche Normalform J nach Satz 6.3.11. Wegen A3 = 0 = A2 hat A das Minimalpolynom m(X) = X 3 . Weiter hat die Jordansche Normalform J = (jik ) die Koeffizienten j21 = 1 = j23 und jik = 0 für (i, k) = (2, 1) und (i, k) = (2, 3). (b) Ist c = 0, dann ist Xn−2 ein Teiler von charPolA (X) nach Satz 12.2.4. Wegen Grad(charPolA (X)) = n gibt es zwei von Null verschiedene f1 , f2 von A. Sie
n−1Eigenwerte 2 = f2 +f2 = sind beide reell, weil 0 = tr(A) = f1 + f2 und 2c = 2 a b = trA 1 j =1 j j √ 2 √ 2f12 > 0 nach den Sätzen 6.1.9, 6.1.10 und 6.3.11 gilt. Also ist f1 = c und f2 = − c ∈ R und A besitzt eine Jordansche Normalform über R. Das Minimalpolynom ist in diesem Falle √ √ m(X) = X(X − c)(X + c) = X(X2 − c). √ √ Wegen c = 0 ist J nach 6.3.12 eine Diagonalmatrix mit n − 2 Nullen und c und − c auf der Diagonalen.
Literatur
[1] N. Bourbaki, Algèbre, Ch. I – III. Herman, Paris 1998. [2] E. Brieskorn, Lineare Algebra und Analytische Geometrie I, II. Vieweg, Wiesbaden 1983/1985. [3] B. W. Char, K. O. Geddes, G. H. Gonnet, M. B. Monagan, S. M. Watt, Maple, Reference Manual. 5th edition. Watcom Publications Ltd., Waterloo, Canada 1988. [4] P. M. Cohn, On the structure of the GL2 of a ring. Publications Mathématiques, Institut des Hautes Etudes Scientifiques 30 (1966), 365 – 413. [5] G. Eisenreich, Lineare Algebra und analytische Geometrie. 3. Aufl., AkademieVerlag, Berlin 1991. [6] G. Fischer, Lineare Algebra. 12. Aufl., Vieweg, Wiesbaden 2000. [7] S. H. Friedberg, A. J. Insel, L. E. Spence, Lineare Algebra. 3. Aufl., PrenticeHall 1996. [8] W. H. Greub, Linear Algebra. 4. Aufl., Springer-Verlag, Heidelberg 1975. [9] W. H. Greub, Multilinear Algebra. 2. Aufl., Springer-Verlag, Heidelberg 1978. [10] K. W. Gruenberg, A. J. Weir, Linear Geometry. Springer-Verlag, Heidelberg 1977. [11] P. Halmos, Finite-dimensional vector spaces. 5th printing, Undergraduate Texts in Mathematics, Springer-Verlag, Heidelberg 1993. [12] B. Hartley, T. O. Hawkes, Rings, Modules and Linear Algebra. Chapman & Hall, London, Reprint 1991. [13] I. N. Herstein, D. J. Winter, Matrix Theory and Linear Algebra. Macmillan, New York 1988. [14] A. S. Householder, The Theory of Matrices in Numerical Analysis. Dover, New York 1975. [15] B. Huppert, Angewandte Lineare Algebra. W. de Gruyter, Berlin 1990.
408
Literatur
[16] E. Johnson, Linear Algebra with Maple V. Smbolic Computation Series, Brooks/Cole Publ. Co, Pacific Grove, Kalifornien 1993. [17] W. Klingenberg, Lineare Algebra und Geometrie. 3. Aufl., Springer-Verlag, Heidelberg 1992. [18] M. Koecher, Lineare Algebra und analytische Geometrie. Springer-Verlag, Heidelberg 1997. [19] E. Lamprecht, Einführung in die Algebra. 2. Aufl., UTB 739, Birkhäuser, Basel 1991. [20] E. Lamprecht, Lineare Algebra 1 (2. Aufl.), 2. UTB 1021, 1224, Birkhäuser, Basel 1992. [21] S. Lipschutz, M. Lipson, Lineare Algebra. 3. Aufl., Schaum’s Outline Series, McGraw-Hill, New York 2000. [22] F. Lorenz, Lineare Algebra I, II. B.I. Wissenschaftsverlag, Mannheim 1992. [23] H. Lüneburg, Vorlesungen über Lineare Algebra. B.I. Wissenschaftsverlag, Mannheim 1993. [24] L. E. Mansfield, Linear Algebra with Geometric Applications. Marcel Dekker, New York 1976. [25] K. Nomizu, Fundamentals of Linear Algebra. 2. Aufl., Chelsea Publishing Company 1979. [26] A. Ostrowski, Vorlesungen über Differential- und Integralrechnung II. 2. Aufl., Birkhäuser-Verlag, Basel 1967. [27] G. Pickert, Analytische Geometrie – Eine Einführung in Geometrie und Lineare Algebra. Akademische Verlagsgesellschaft, Leipzig 1976. [28] G. Scheja, U. Storch, Lehrbuch der Algebra (unter Einschluß der linearen Algebra). Teil 1 bis 3., 2. Aufl., Teubner, Stuttgart 1994. [29] G. Schmeißer, H. Schirmeier, Praktische Mathematik. W. de Gruyter, Berlin, New York 1976. [30] H. R. Schwarz, H. Rutishauser, E. Stiefel, Numerik symmetrischer Matrizen. Teubner, Stuttgart 1972. [31] U. Stammbach, Lineare Algebra. 4. Aufl., Teubner Studienskripten, Stuttgart 1994. [32] S. Wolfram, Mathematica, a system for doing mathematics by computer. Addison-Wesley, Redwood City, USA, deutsche Fassung (2. Aufl.) 1996; englische Fassung (2. Aufl.) 1993.
Index
Abbildung, 4 adjungierte, 169 affine, 200 alternierende, 293 anti-selbstadjungierte, 169 bilineare, 279 identische, 5 injektive, 5 inverse, 5 lineare, 53 n-fach lineare, 279 n-lineare, 102 orthogonale, 178 projektive, 222 R-lineare, 251 selbstadjungierte, 169 surjektive, 5 unitäre, 178 abelsch, 8 abhängig, 28, 38, 257, 260 absolutes Glied, 20 Abstand, 200 additive Gruppe, 9 adjungierte Abbildung, 169 adjungierte Matrix, 170 Adjunkte, 114, 117 ähnlich, 206 ähnliche Matrizen, 69 Ähnlichkeit, 205 Ähnlichkeitsfaktor, 205 äquivalent bzgl. Ideal, 245 bzgl. Untermodul, 251 projektiv, 227 äquivalente Matrizen, 68, 264
Äquivalenzklasse, 7 Äquivalenzrelation, 6 äußere Potenz, 298 eines R-Moduls, 292 äußeres Produkt, 292 affin-äquivalent, 232 affine Abbildung, 200 affine Gruppe, 203 affine Projektivität, 225 affine Quadrik, 232 affiner Raum, 194 affiner Unterraum, 195 affines Koordinatensystem, 198 Affinität, 203 Algorithmen-Konvention, 86 Algorithmus von Gauß, 86 von Gauß-Jordan, 89 alternierende Abbildung, 293 alternierende Gruppe, 102 alternierende Linearform, 103 Anfangsbedingung, 145 Anfangspunkt, 198 Anfangsvektor, 145 Annullator, 316 anti-selbstadjungiert, 169 arithmetischer Vektorraum, 19 assoziativ, 8, 12, 17, 49 assoziiert, 306 aufgespannter Unterraum, 196 ausgeartete Quadrik, 228 Austauschsatz, 33 Automorphismengruppe, 71 Automorphismus, 71
410 Basis, 29, 38, 258, 260 duale, 74 geordnete, 34 kanonische, 29 orientierte, 210 Basissatz für abelsche Gruppen, 322 Basiswechsel, 62, 264 Begleitmatrix, 349 Betrag einer komplexen Zahl, 14 Betrag eines Vektors, 159 Bijektion, 5 Bild, 4, 55, 251 bilineare Abbildung, 279 Bilinearform, 103 Blockmatrix, 116 Cayley-Hamilton, 352 charakteristisches Polynom, 123 Cramersche Regel, 118 Darstellung, triviale, 27 Definitionsbereich, 4 Descartes, Zeichenregel, 189 Determinante, 106, 109, 299, 301 Vandermondesche, 119 Diagonale, 6 Diagonalform, 328 diagonalisierbar, 129 Diagonalmatrix, 129, 328 Diagramm, kommutatives, 255 Differenz, 13 Differenzmenge, 3 Differenzvektor, 18 Dimension, 31, 195, 215 Dimensionssatz, 33, 197 direkte Summe, 37, 250 externe, 266 direktes Produkt, 266 Distributivität, 12, 17 Division mit Rest, 305 Doppelebene, 228 Doppelgerade, 228 Doppelpunkt, 228 Doppelverhältnis, 221 Drehachse, -ebene, 211 Drehung, 207
Index Drehwinkel, orientierter, 211 Dreiecksmatrix, 81 Dreiecksungleichung, 159 duale Basis, 74 dualer Vektorraum, 73 Durchschnitt, 2 Ebene, 196, 215 Ebenenpaar, 231 Eigenraum, 122 eigentlich orthogonal, 207 eigentlicher Punkt, 217 Eigenvektor, 121 Eigenwert, 121 eindeutige Darstellung, 37 Einheit, 247 Einheitsmatrix, 45 Einheitspunkt, 198, 219 Einheitsvektor, 28 Einschränkung, 75 Einselement, 11–13 Element, 1 elementare Umformung, 82 Elementarmatrix, 82 Elementarteiler, 136, 325, 328 Elementarteiler des nilpotenten Endomorphismus, 136 Elementarteiler des Torsionsmoduls, 325 Elementarteilerexponent, 320 Elementarteilersatz, 328 Elimination, 95 Ellipse, 237 Ellipsoid, 238 endlich erzeugt, 28, 257 endlich-dimensional, 31 Endomorphismenring, 71 Endomorphismus, 53, 71, 106 anti-selbstadjungierter, 169 diagonalisierbarer, 129 nilpotenter, 78, 135, 136 normaler, 172 selbstadjungierter, 169 zyklischer, 348 entgegengesetzt orientiert, 210 Entwicklungssatz von Laplace, 114
411
Index Epimorphismus, 53, 251, 253 erweiterte Matrix, 91 Erzeugendensystem, 28, 260, 314 Erzeuger, 245 Erzeugnis, 26 erzeugter Unterraum, 26, 196 euklidisch-affiner Raum, 200 Euklidischer Algorithmus, 311 euklidischer Ring, 305 euklidischer Vektorraum, 154 Eulersche Winkel, 214 exakte Folge, 256 Exponent des Eigenwerts, 134 externe direkte Summe, 266 Faktormodul, 253 Faktorraum, 255 Faserprodukt, 273 Fasersumme, 275 fast alle, 36 fast überall, 260 Fitting, 133 Fixpunkt, 204 Folge, exakte, 256 Fortsetzung, Skalarprodukt, 158 freier Modul, 260 Frobenius-Ungleichung, 78 Funktionenraum, 19, 24 ganze Zahlen, 2 Gauß-Algorithmus, 86 Gauß-Jordan-Algorithmus, 89 Gauß’sche ganze Zahlen, 344 generelle lineare Gruppe, 52, 71, 263 geordnete Basis, 34 Gerade, 196, 215 gerade Permutation, 101 Geradenpaar, 231, 237 gleich orientiert, 210 Gleichungssystem homogenes, 21 inhomogenes, 21 lineares, 20, 21 Grad, 14 Gram-Schmidt’sches Orthonormalisierungsverfahren, 164
größter gemeinsamer Teiler, 307 Grundpunkt, 219 Gruppe, 8 abelsche, 8 additive, 9 affine, 203 alternierende, 102 generelle lineare, 52, 71 multiplikative, 9 orthogonale, 182 symmetrische, 10, 99 unitäre, 182 Gruppenmultiplikation, 9 Gruppenverknüpfung, 9 Hamilton, 352 harmonisch trennen, 222 Hauptachsentheorem, 183 Hauptideal, 245 Hauptidealring, 306 Hauptsatz der Algebra, 15 Hermitesche Form, 155 Hermitesche Matrix, 182 homogene Koordinaten, 219 homogenes lineares Gleichungssystem, 21 homogenes System von linearen Differentialgleichungen erster Ordnung mit konstanten Koeffizienten, 144 Hyperbel, 237 Hyperboloid, 238, 240 Hyperebene, 196, 215 uneigentliche, 217 zugeh. affiner Raum, 217 Ideal, 245, 247 maximales, 246 identische Abbildung, 5 Identität, 5 imaginäre Einheit, 13 Imaginärteil, 13 Induktion, 3 inhomogenes lineares Gleichungssystem, 21 Injektion, 5
412 natürliche, 74, 266 injektiv, 5 invariante Faktoren, 329 invarianter Unterraum, 75 inverse Abbildung, 5 inverse Matrix, 51, 263 inverses Element, 11 invertierbare Matrix, 51, 263 irreduzibel, 308 isomorph, 53, 72 Isomorphiesätze, 253 Isomorphismus, 53, 251 Jordan, 89 Jordankästchen, 140 Jordansche Normalform, 139, 361 kanonische Basis, 29 kanonischer Epimorphismus, 253 kartesische Potenz, 6 Kartesische Zeichenregel, 189 Kartesisches Koordinatensystem, 200 kartesisches Produkt, 6 Kegel, 231, 237 Kern, 55, 251 Kette, 4 kleinstes gemeinsames Vielfaches, 307 Koeffizient, 14, 20 Koeffizientenmatrix, 144 affine Quadrik, 232 projektive Quadrik, 226 Körper, 12 kollinear, 199 kommutativ, 8, 12, 13 kommutatives Diagramm, 255 Komplement, 40 orthogonales, 74, 167 Komplementierungssatz, 41 komplexe Erweiterung, 157 komplexe Fortsetzung, 158 komplexe Zahlen, 2, 13 Komponente, 315 kongruent, 187, 206 Kongruenz, 204 Kongruenzsätze, 206 konjugiert komplexe Matrix, 170
Index konjugierte komplexe Zahl, 13 Koordinaten, 34, 198 homogene, 219 Koordinatensystem affines, 198 kartesisches, 200 projektives, 219 Koordinatenvektor, 34, 198 homogener, 219 Kosinus, 161, 200 Kosinussatz, 161 Kronecker-Produkt, 288 Kronecker-Symbol, 162 Kürzungsregel, 304 kurze exakte Folge, 256 Länge eines Elements, 330 Länge eines Vektors, 159 Laplace, Entwicklungssatz, 114 leere Menge, 1 Lemma von Zorn, 4 lineare Abbildung, 53 n-fache, 279 lineare Differentialgleichung, 145 lineare Differentialgleichungssysteme, 144 lineare Operation, 18 lineares Gleichungssystem, 20, 21 Linearform, 73 alternierende, 103 n-fache, 103 nicht ausgeartet, 103 Linearkombination, 25, 257 linear (un-)abhängig, 28, 38, 257, 260 linear (un-)abhängige Teilmenge, 257, 260 Linksmodul, 346 Lösungsmenge, 20 Mächtigkeit, 3 Maple, 367 Mathematica, 367 Matrix, 44 adjungierte, 170 ähnliche, 69, 121 diagonalisierbare, 129 einer affinen Quadrik, 232
413
Index einer projektiven Quadrik, 226 erweiterte, 91 Hermitesche, 182 inverse, 51 invertierbare, 51, 263 konjugiert komplexe, 170 orthogonale, 179 quadratische, 44 reguläre, 51 schief-Hermitesche, 182 schiefsymmetrische, 182 symmetrische, 51, 182 transponierte, 51 unitäre, 179 Matrix einer linearen Abbildung, 60, 264 Matrix eines Basiswechsels, 62, 264 Matrizenähnlichkeit, 69 Matrizenäquivalenz, 68, 264 Matrizenprodukt, 48 maximales Ideal, 246 Menge, 1 leere, 1 linear abhängige, 28 Mengensystem, 2 Minimalpolynom, 347 Modul, 18, 248 endlich erzeugter, 257 freier, 258, 260 torsionsfreier, 312 zyklischer, 257 Modulhomomorphismus, 251 Monomorphismus, 53, 251 multiplikative Gruppe, 9 natürliche Injektion, 74, 266 natürliche Projektion, 266 natürliche Zahlen, 1 negativ orientiert, 210 negatives Element, 13 neutrales Element, 8 nicht ausgeartete Linearform, 103 nilpotent, 78, 135 Nilpotenzindex, 78, 135 Norm, 305 normaler Endomorphismus, 172
normierter Vektor, 160 normiertes Polynom, 14 Nullelement, 11–13 Nullideal, 245 Nullmatrix, 45 Nullraum, 24 Nullstelle, 125 Nullstellenmenge, 225 nullteilerfrei, 304 Nullvektor, 16, 18 Operation, lineare, 18 Ordnung einer Gruppe, 9 eines Elements, 318 eines Moduls, 318 orientiert, 210 orientierter Drehwinkel, 211 orthogonal, 161, 167 orthogonale Abbildung, 178 orthogonale Gruppe, 182 orthogonale Matrix, 179 orthogonales Komplement, 74, 167 Orthogonalsystem, 161 Orthonormalbasis, 161 Orthonormalisierung, 164 Orthonormalsystem, 161 Ortsvektor, 16 Ovalfläche, 231 Parabel, 237 Paraboloid, 238 parallel, 197 Parallelogrammgleichung, 190 Parallelotop, 191 Partition, 323 Permutation, 10, 99 Pivotierung, 88 p-Modul, 318 Polarzerlegung, 189 Polynom, 14 charakteristisches, 123 normiertes, 14 Polynomring, 14, 15 positiv definit, 153, 156 positiv orientiert, 210
414 Potenz äußere, 298 kartesische, 6 Potenzmenge, 4 Primärkomponente, 316 Primelement, 308 Produkt äußeres, 292 direktes, 266 kartesisches, 6 skalares, 46, 153, 156 vektorielles, 242 Produkt von Matrix mit Vektor, 46 Produktabbildung, 5 Produktmatrix, 48 Projektion, natürliche, 266 projektiv äquivalent, 227 projektive Dimension, 215 projektive Quadrik, 225 projektiver Raum, 215 projektives Koordinatensystem, 219 Projektivität, 222 affine, 225 Pullback, 273 Punkt, 194, 215 kollinearer, 199 unabhängiger, 198, 218 (un-)eigentlicher, 217 Pushout, 275 Pythagoras, 161 quadratische Form, 225 quadratische Matrix, 44 Quadrik affine, 232 ausgeartete, 228 projektiv äquivalent, 227 projektive, 225 Quotientenkörper, 305 Rang einer linearen Abbildung, 59 Rang einer Matrix, 66 Rang eines Moduls, 259, 315, 328 rationale kanonische Form, 350, 360 rationale Zahlen, 2 Raum
Index affiner, 194, 217 euklidisch-affiner, 200 euklidischer, 154 projektiver, 215 unitär-affiner, 200 unitärer, 156 Realteil, 13 reelle Zahlen, 2 reflexiv, 6 Regel von Sarrus, 112 reguläre Matrix, 51 Relation, 6, 342 Relationen-Matrix, 342 Repräsentant, 7 Restklassenring, 246 Ring, 12 euklidischer, 305 mit eindeutiger Faktorzerlegung, 310 nullteilerfreier, 304 Ringfläche, 231 Sarrus, Regel von, 112 schief-Hermitesche Matrix, 182 schiefsymmetrische Matrix, 182 Schmidt, E., 164 Schwarzsche Ungleichung, 158 selbstadjungiert, 169 Signum, 101 Skalar, 17 Skalarprodukt, 46, 153, 156 Smith-Algorithmus, 337 Smith-Normalform, 328 Spalte, 44 Spaltenlänge, 44 Spaltenrang, 44, 328 Spaltenraum, 44 Spaltenvektor, X, 44 Spiegelung, 208 Spur, 69 Steinitz, 33 Struktursatz für endlich erzeugte Moduln, 321 Struktursatz für Vektorräume, 40 Summe direkte, 37, 250
415
Index externe direkte, 266 von Untermoduln, 250 von Unterräumen, 27, 36, 37 Summenmatrix, 45 Surjektion, 5 surjektiv, 5 Sylvester Trägheitssatz, 187 symmetrisch, 6, 153 symmetrische Gruppe, 10, 99 symmetrische Matrix, 51, 182 Teiler, 307 größter gemeinsamer, 307 teilerfremd, 307 Teilmenge, 2 Teilverhältnis, 200 Tensorabbildung, 280 Tensorprodukt, 280 Torsionselement, 312 torsionsfrei, 312 Torsionsmodul, 313 Trägheitsindex, 187 Trägheitssatz, 187 transitiv, 6 Translation, 203 Translationsvektor, 203 transponierte Matrix, 51 Transposition, 100 trennen, 221 harmonisch, 222 Treppenform, 80 Treppennormalform, 88 triviale Darstellung, 27 Tupel, 19 Umformung elementare, 82 Umkehrabbildung, 5 unabhängig, 28, 38, 257, 260 unabhängige Punkte, 198, 218 Unbekannte, 20 uneigentlich orthogonal, 207 uneigentliche Hyperebene, 217 uneigentlicher Punkt, 217 uneigentlicher Teil(Quadrik), 232
unendlich-dimensional, 31 ungerade Permutation, 101 unimodular, 263 unipotent, 355 unitär-affiner Raum, 200 unitäre Abbildung, 178 unitäre Gruppe, 182 unitäre Matrix, 179 unitärer Raum, 156 Unterdeterminante, 114 Untergruppe, 11 Untermatrix, 114 Untermodul, 249 Unterraum, 24 affiner, 195 aufgespannter, 196 erzeugter, 26 invarianter, 75 projektiver, 215 Unterring, 247 unzerlegbar, 308 Urbild, 5 Vandermondesche Determinante, 119 Vektor, 17 normierter, 160 Vektorprodukt, 242 Vektorraum, 1, 17 arithmetischer, 19 dualer, 73 endlich erzeugter, 28 endlich-dimensionaler, 31 euklidischer, 154 orientierter, 210 unendlich-dimensionaler, 31 unitärer, 156 verallgemeinerter Eigenraum, 134 Verbindungsgerade, 196 Verbindungsraum, 196, 216 Vereinigung, 2 Vielfaches kleinstes gemeinsames, 307 Vielfachheit, 136 Vielfachheit eines Eigenwerts, 127 vollständige Induktion, 3
416 Volumen eines Parallelotops, 191 windschief, 242 Winkel, 161, 200 Eulersche, 214 Zeichenregel von Descartes, 189 Zeile, 44 Zeilenlänge, 44 Zeilenrang, 44, 328
Index Zeilenraum, 44 Zeilenvektor, 44 Zentrum, 79 Zerfällungskörper, 132 Zerlegung, 7 Zielbereich, 4 Zornsches Lemma, 4 ZPE-Ring, 310 zyklischer Endomorphismus, 348 zyklischer Modul, 257 Zylinder, 238