Klassiker der Technik Die „Klassiker der Techn ik“ sind unveränderte Neuauflagen traditionsreicher ingenieurwissenschaftlicher Werke. Wegen ihrer didaktischen Einzigartigkeit und der Zeitlosigkeit ihrer Inhalte gehören sie zur Standardliteratur des Ingenieurs, wenn sie auch die Darstellung modernster Methoden neueren Büchern überlassen. So erschließen sich die Hintergründe vieler computergestützter Verfahren dem Verständnis nur durch das Studium des klassischen fundamentaleren Wissens. Oft bietet ein „Klassiker“ einen Fundus an wichtigen Berechnungs- oder Konstruktionsbeispielen, die auch für viele moderne Problemstellungen als Musterlösungen dienen können.
Rudolf Zurmühl • Sigurd Falk
Matrizen und ihre Anwendungen 1 Grundlagen. Für Ingenieure, Physiker und Angewandte Mathematiker 7. Auflage 1997 Nachdruck 2011 in veränderter Ausstattung
1C
Dr.-Ing. Rudolf Zurmühl † o. Professor an der Technischen Universität Braunschweig Dr.-Ing. Sigurd Falk o. Professor an der Technischen Universität Braunschweig
7. Auflage 1997; Nachdruck in veränderter Ausstattung 2011 ISBN 978-3-642-17542-8 e-ISBN 978-3-642-17543-5 DOI 10.1007/978-3-642-17543-5 Springer Heidelberg Dordrecht London New York Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag Berlin Heidelberg 1950, 1958, 1961, 1964, 1984, 1992, 1997, 2011 Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandentwurf: eStudio Calamar S.L. Gedruckt auf säurefreiem Papier Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)
Vorwort zur siebenten Auflage Die Konzeption dieses klassischen Mathematikbuches wurde auch bei der 7. Auflage beibehalten. Die neue Einbandgestaltung soll verdeutlichen, daß das vorliegende Werk Lehrbuch und Nachschlagewerk zugleich ist, und den Ingenieur über das Studium hinaus durch sein ganzes Berufsleben begleitet. Braunschweig, im November 1996
Sigurd Falk
Vorwort zur sechsten Auflage Seit nach dem Erscheinen der fünften Auflage acht Jahre vergangen sind, erschien eine grundlegende Umgestaltung und Erweiterung unerläßlich. Es wurden daher die früheren Paragraphen 10, 18 und 19 fast vollständig gestrichen und Begriffe wie Elementarteiler und Elementarpolynome als nicht computergerecht ebenso wie die schwerfällige und aufwendige Numerik der Hauptvektorkettengestrichen und durch moderne Verfahren ersetzt, wodurch Platz für eine Reihe von Neuerungen geschaffen wurde. Völlig umgestaltet wurde das 11. Kapitel, das eine umfassende Transformationstheorie vorstellt, getrennt nach freien und gebundenen Transformationen, wobei das durch den Gaußsehen Algorithmus erzeugte Pivotkreuz als die Grundkonfiguration der gesamten numerischen linearen Algebra herausgestellt wird. Das Rechnen mit beweglichem Pivot und im Zusammenhang damit die (seit Jahrzehnten vergessene) Pivotregulierung erspart nicht nur jegliches Vertauschen von Zeilen und Spalten, sondern ermöglicht darüber hinaus mittels des (ebenfalls lange verdrängten) Euklidischen Algorithmus eine ganzzahlige und damit fehlerfreie Numerik ganzzahliger Matrizen. Bei den gebundenen (simultanen) Transformationen eines Matrizenpaares A; B wurde die Elementartransformation QUANT in den Vordergrund gerückt, die mittels einer unitären Ergänzung zwanglos zu den unitären (im Reellen orthogonalen) Transformationen führt und unter anderem die sogenannte schnelle Givens-Transformation ohne Zuhilfenahme von Winkelfunktionen auch im Komplexen ermöglicht. Ferner wurde die Ähnlichkeitstransformation einer quadratischen Matrix auf die Begleitmatrix (bzw. Kodiagonalmatrix) von Danilewski durch eine numerisch stabile Transformation ersetzt sowie die ganzzahlige Ähnlichkeitstransformation einer ganzzahligen quadratischen Matrix A auf eine ganzzahlige Hessenbergmatrix (Fastdreiecksmatrix) H erstmalig angegeben. Dem für die Anwendungen so wichtigen wie für die Theorie grundlegenden Eigenwertproblem habe ich eine vollständige Numerik der Eigenzeilen und Eigen-
VI
Vorwort zur sechsten Auflage
spalten einer singulären (auch rechteckigen) Matrix A vorangestellt, wodurch der Übergang auf das einparametrige Eigenwertproblem F()')x = 0 (speziell mit F()') = A -). B) auch in didaktischer Hinsicht wesentlich erleichtert wird. In diesem Zusammenhang wird die Theorie der Flächenpaare zweiter Ordnung und analog dazu die Theorie der linearisierten freien ungedämpften Schwingungen mit n Freiheitsgraden besonders ausführlich dargestellt. Der Abschnitt 16 ist vorwiegend theoretischer Natur. Hier wird die JordanForm J;In eines Paares A;B einschließlich der Jordan-Spektralzerlegung ohne Zuhilfenahme von Hauptvektoren konstruiert, ein Vorgehen, das sich gegenüber den herkömmlichen Methoden auch als numerisch vorteilhaft erweist. Relativ umfassend abgehandelt werden die Matrizengleichungen (Abschnitt 19) mit zum Teil unveröffentlichten Algorithmen und die Matrizenfunktionen (Abschnitt 20), wobei die Heranziehung der bekannten Quasipolynome von Arnold zu überraschend einfachen Sätzen und Algorithmen führt. Das in der Neuauflage innerhalb der Reihe "Springer-Lehrbuch" erscheinende Buch enthält mehr als 170 vollständig durchgerechnete und zum Teil mit Computerausdrucken versehene Zahlenbeispiele an Matrizen der Ordnung n = 2 bis n = 500. Wieder habe ich einigen Mitarbeitern und Helfern für Rat und Tat zu danken. Es sind dies Frau Dr. Anna Lee und Prof. Dr. Paul Rozsa (beide Budapest), Herr Prof. Dr. Gerhard Zielke (Halle), Herr DrAng. Jörg Schneider (Volkswagenwerk Wolfsburg) und Herr math.-techn. Assistent Horst Budich (Braunschweig). Letzterer verdient ein besonderes Lob für die Erstellung und Kontrolle sämtlicher Zahlenbeispiele. Schließlich gebührt mein Dank den Damen und Herren des Springer-Verlages für die kollegiale und reibungslose Zusammenarbeit sowie der Setzerei K + V Fotosatz GmbH (Beerfelden-Airlenbach) für die vorbildliche Gestaltung des nicht immer einfachen Satzbildes. Dem Leser schließlich wünsche ich viel Freude und Gewinn beim Studium eines Kalküls, der durch das Aufkommen der digitalen Rechenautomaten in der Numerischen Mathematik eine zentrale Stellung einnimmt. Braunschweig, im Sommer 1992 Wendentorwall 15 A
Sigurd Falk
Inhaltsverzeichnis 1
• • • •
I.
Kapitel
1
Grundbegriffe und einfache Rechenregeln . Lineare Transformation, Matrix und Vektor . Zeilen- und Spaltenvektoren . Einfache Rechenregeln . Transponierte Matrix, symmetrische und schiefsymmetrische Matrix . Diagonalmatrix, Skalarmatrix und Einheitsmatrix . Lineare Abhängigkeit, Rang, singuläre Matrix, Determinante ..
1.1 1.2 1.3 1.4
• 1.5 • 1.6
• • • • • • • •
Der Matrizenkalkül
.
2 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8
Das Matrizenprodukt Einführung des Matrizenproduktes Sätze über Matrizenmultiplikation Diagonal- und Dreiecksmatrix Skalares Produkt, Betrag und Winkel reeller Vektoren Dyadisches Produkt Potenzen und Polynome Die Gaußsche Transformation Orthogonale Matrizen
3
Die Kehrmatrix (Inverse) Begriff und Herleitung der Kehrmatrix Adjungierte Matrix. Formelmäßiger Ausdruck der Matrizendivision
• 3.1 • 3.2 • 3.3 4
• 4.1 • 4.2 4.3 • 4.4
Komplexe Matrizen Komplexe Matrizen und Vektoren Sonderformen komplexer Matrizen Reelle Darstellung komplexer Matrizen Inverse, Adjungierte und Determinante einer hermiteschen Matrix
~
. . . . . . . . . . .
aik
1 1
5 7 9 11
12 15 15
20 24 26 28 30 31 33 35 35
.
39
.
42
. . . .
43 43 45
.
49
48
I Die mit dem Zeichen • versehenen Abschnitte bilden in sich ein geschlossenes Ganzes und sollten als erstes studiert werden.
VIII
Inhaltsverzeichnis
11.
Kapitel
5
Freie Transformationen Ein- und beidseitige Transformationen Reguläre Transformationen Die drei Grundoperationen Das Generalschema einer Äquivalenztransformation Das Pivotkreuz Die Normalform einer Matrix Das vollständige System von Elevatoren Potenzen und Polynome Der Vertauschungssatz Lineare Abbildungen
. . . . . . . . . . .
Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan Zielsetzung Das Nullenkreuz Der Gaußsche Algorithmus in expliziter Durchführung • 6.3 Der Gaußsche Algorithmus in impliziter Durchführung • 6.4 Der Algorithmus von Banachiewicz • 6.5 Der Algorithmus von Gauß-Jordan • 6.6 Hermitesche (reellsymmetrische) Matrix • 6.7 Rechenaufwand • 6.8 Pivotregulierung • 6.9 • 6.10 Pivotregulierung bei hermitescher Matrix • 6.11 Bewegliches Pivot • 6.12 Reelle ganzzahlige Äquivalenztransformationen • 6.13 Der verkürzte Euklidische Algorithmus • 6.14 Reelle ganzzahlige Kongruenztransformationen 6.15 Komplexe ganzzahlige Transformationen 6.16 Die Normalform 6.17 Dreieckszerlegung einer quadratischen Matrix • 6.18 Eigenzeilen und Eigenspalten einer singulären Matrix 6.19 Die normierte Eigendyade als Projektor • 6.20 Schlußbemerkung
. . . . . . . . . . . . . . . . . . . . .
• 5.1 • 5.2
• 5.3 • • • •
5.4 5.5 5.6 5.7
• 5.8
5.9
• 5.10
Transformationen und
Iinea~e
Gleichungen
6
• 6.1 • 6.2
7
• 7.1
• 7.2 • • • •
7.3 7.4 7.5 7.6 7.7
• 7.8
Auflösung linearer Gleichungssysteme AufgabensteIlung Drei Kardinalforderungen Der Algorithmus von Gauß Der Algorithmus von Banachiewicz Der Algorithmus von Gauß-Jordan Reguläre quadratische Matrix. Determinante, Inverse und Adjungierte Pivotregulierung. Wiederholung der Rechnung Homogene Gleichungssysteme
52 52 52
56 56 63
65 66
66 71 73
74 75 75 76 76
78 79 82 84 85 86 87 91 93 98
101 102 104 105 107
111 114
. . . . . .
118 122 123
. . .
124 126 128
115
115 116
Inhaltsverzeichnis
IX
Hermitesche (reellsymmetrische) Matrix Allgemeine inhomogene Gleichungssysteme Ganzzahlige Gleichungssysteme Zusammenfassung
. . . .
130 132 140 142
Orthogonalsysteme Die Normalform eines Matrizenproduktes Biorthonormalsysteme Das vervollständigte Matrizenprodukt Kongruenztransformation. Orthogonalsysteme Eine Variante Überbestimmte Gleichungssysteme. Kondensation. Die Pseudoinverse
. . . . . .
144 144 146 148 151 155
.
156
9 • 9.1 • 9.2 9.3 9.4 9.5 9.6
Lineare Abhängigkeit und Rang Die Pivotmatrix Die Basis Dyadische Zerlegung Der dominierende Minor Lineare Abhängigkeit von Vektoren und Matrizen Der Rang eines Matrizenproduktes
. . . . . . .
159 159 160 161 162 163 164
10 10.1 10.2 10.3 10.4 10.5 10.6 • 10.7 • 10.8
Gebundene Transformationen Die simultane Äquivalenztransformation Die dyadische Zerlegung eines Matrizenpaares " Die Spektralzerlegung eines Matrizenpaares Normale Matrizenpaare Potenzen und Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Die Produktzerlegung einer diagonalähnlichen Matrix Normalformen von Matrizenpaaren Die strikte Ähnlichkeitstransformation. Die drei Grundoperationen Die gequantelte Ähnlichkeitstransformation Die Ähnlichkeitstransformation auf die Begleitmatrix Normiert-unitäre Transformationen. Unitäre Ergänzung Nicht-normiert unitäre Transformationen Unitäre Transformation auf obere Hessenberg-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Ganzzahlige Ähnlichkeitstransformation auf obere HessenbergMatrix Lineare Abbildungen. . . .. . .. Zusammenfassung. Ausblick
167 167 170 173 175 177 181 182
• 7.9 7.10 7.11 • 7.12 8 8.1 8.2 8.3 8.4 8.5 8.6
• • • • •
• 10.9 10.10 • 10.11 10.12 10.13 10.14 10.15 • 10.16
184 188 192 196 201 204 208 212 215
x
Inhaltsverzeichnis III.
Kapitel
Quadratische Formen nebst Anwendungen
.
218
11
Quadratische Formen Darstellung quadratischer und bilinearer Formen Definite quadratische Formen Indefinite quadratische Formen Transformation quadratischer Formen. Invarianten Hermitesche Formen Flächen zweiten Grades
. . . . . . .
219 219 222 224 227 230 231
12 12.1 12.2 12.3 12.4 12.5
Einige Anwendungen quadratischer Formen Anwendung in der Ausgleichsrechnung Vektorielles Produkt und Abstandsquadrat Massen- und Flächenmoment zweiten Grades Die kinetische Energie eines starren Körpers Die potentielle Energie einer elastischen Feder
. . . . . .
234 234 238 239 242 243
IV.
Kapitel
13 13.1 13.2 13.3 13.4 13.5 13.6 13.7 13.8 13.9 13.10 13.11
Eigenwerte und Eigenvektoren Das allgemeine einparametrige Eigenwertproblem Reguläre Äquivalenztransformation. Invarianten Polynommatrizen Das lineare Eigenwertproblem (Matrizenpaare) Orthogonalität der Links- und Rechtseigenvektoren Das spezielle Eigenwertproblem Die charakteristische Gleichung Kondensation. Der Formenquotient Die Eigenwerte eines Matrizenproduktes Reelle Paare mit konjugiert-komplexen Eigenwerten Der Satz von Cayleigh-Hamilton
• 11.1
• 11.2
11.3
11.4 • 11.5 • 11.6
• • • • • • • •
Die Eigenwertaufgabe
14 • 14.1 • 14.2 • 14.3
Diagonalähnliche Matrizenpaare Die Diagonalmatrix für s = n Die Block-Diagonalmatrix für s
Diagonalkongruente (normale) Matrizenpaare Die Normalitätseigenschaft Hermitesche (reellsymmetrische) Paare Schiefhermitesche (schiefsymmetrische) Matrix B-unitäres Matrizenpaar Reelle Flächenpaare zweiten Grades. Das Hauptachsenproblem
245 246 246 249 250 251 253 255 257 260 261 264 267 .
269
.
273
. .
276 279
. . . . . .
282 282 284 286 286 287
. 269 . 270
Inhaltsverzeichnis
XI
• 15.6 15.7 15.8 15.9 • 15.10
Lineare Schwingungssysteme Die hermiteschen Komponenten eines normalen Paares Fragen der Normierung Die singulären Werte eines allgemeinen Matrizenpaares Die Struktur eines Matrizenpaares
292 299 301 303 306
16 • 16.1 • 16.2 • 16.3 16.4 16.5 16.6 16.7 16.8 16.9 16.10 16.11
Die Block-Diagonalmatrix. Strukturfragen Zielsetzung Die Transformation auf obere Dreiecksmatrix Die Transformation auf Block-Diagonalmatrix Die Struktur der Eigenmatrix. Natürliche Charakteristik Die Normierung der Kodiagonale Die Transformation auf die Strukturmatrix Die Jordan-Matrix. . . . . . . . . . . . . . . . .. .. . .. . .. . . . . . . . . . . . Die Jordan-Spektralzerlegung Ein Rückblick von höherer Warte Eigen- und Hauptvektoren Zusammenfassung. Historisches
307 307 311 318 324 327 330 333 335 339 340 346
• • • •
17 17.1 17.2 17.3 17.4 17.5
Eigenwerte spezieller Matrizen Spaltensummenkonstante und stochastische Matrizen Schachbrettmatrizen Zyklische Matrizen Spezielle dreireihige Bandmatrizen Die Matrix von Boothroyd/Dekker
. . . . . .
347 347 350 354 356 361
18 18.1 18.2 18.3 18.4 18.5 18.6 18.7
Parametermatrizen Problemstellung Spektralzerlegung einer diagonalähnlichen Parametermatrix Diagonalähnliche Matrizentupel Selbstnormierende Tupel Über die Eigenwerte von Matrizenprodukten Parameternormale Matrizen Lineare Abhängigkeit von einem Leitpaar
. . . . . . . .
362 362 362 368 370 371
V.
Kapitel
.
379
19 19.1 19.2 19.3 19.4 19.5 19.6 19.7 19.8
Matrizengleichungen Problemstellung Die Matrizengleichung A X B = C Die mehrgliedrige lineare Matrizengleichung Die zweigliedrige lineare Matrizengleichung Elimination Dekomposition (Entflechtung) Rekursion Entkopplung
. . . . . . . . .
379 379 380 384 385 390 393 396 397
Matrizengleichungen und Matrizenfunktionen
372 376
Inhaltsverzeichnis
XII
• • • • •
19.9 Algebraisch nichtlineare Matrizengleichungen 19.10 Zusammenfassung. Ausblick
398 400
Matrizenfunktionen . 20 . 20.1 Der Austausch von Eigenwerten. Deflation . 20.2 Was ist eine Matrizenfunktion? . 20.3 Die skalare Taylor-Entwicklung . 20.4 Die Taylor-Entwicklung im Gesamtraum 20.5 Die Taylor-Entwicklung im Eigenraum (Hauptunterraum). Quasipolynome . 20.6 Lineare Differentialgleichungen mit konstanten Koeffizienten .. . 20.7 Mehrdeutige Funktionen
401 401 404 405 407
VI.
.
422
. .
423 423
. . . .
423 427 429 434
. . . . . . . .
438 438 439 444 445 450 454 457
. . . . . . . .
462 462 463 464 474 476 481 482
Kapitel
Ergänzungen
21
Kondensation. Der Rayleigh-Quotient und sein Wertebereich • 21.1 Was ist ein Kondensat? • 21.2 Der Rayleigh-Quotient eines normalen Paares. Der Wertebereich 21.3 Der Einfluß einer Störung 21.4 Der Wertebereich eines nichtnormalen Paares 21.5 Kondensation höherer Ordnung
• • • • •
22 22.1 22.2 22.3 22.4 22.5 22.6 22.7
Blockmatrizen Die Matrizenmultiplikation in Blöcken Die reduzierte Blockmatrix Blockdreiecksmatrizen Inverse und Adjungierte einer vierteiligen Hypermatrix Die Identität von Frobenius/SchurIWoodbury Abgeänderte (gestörte, benachbarte) Gleichungssysteme Singuläre Matrizenpaare
Expansion von Polynomen und Polynommatrizen 23 • 23.1 Zielsetzung • 23.2 Expansion von Günther 23.3 Diagonalexpansion 23.4 Wiederholte Diagonalexpansion 23.5 Diagonalexpansion mit konstanten Defekten 23.6 Diagonalexpansion mit variablen Defekten • 23.7 Zusammenfassung
409 414 419
Schlußbemerkung
483
Weiterführende Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
485
Lehr- und Fachbücher Einzelveröffentlichungen
485 487
Namen- und Sachverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
489
Inhalt des 2. Teils Numerische Methoden und technische Anwendungen
VII. Kapitel. Grundzüge der Matrizennumerik 24. Grundbegriffe und einfache Rechenregeln 25. Norm, Kondition, Korrektur und Defekt 26. Kondensation und Ritzsches Verfahren VIII. Kapitel. Theorie und Praxis der Transformationen 27. Ein Exkurs über Transformationsmatrizen 28. Freie Transformationen 29. Gebundene Transformationen IX. Kapitel. Lineare Gleichungen und Kehrmatrix (Inverse) 30. Endliche Algorithmen zur Auflösung linearer Gleichungssysteme 31. Iterative Methoden zur Auflösung linearer Gleichungssysteme 32. Einschließung und Fehlerabschätzung 33. Kehrmatrix (Inverse). Endliche und iterative Methoden 34. Lineare Matrizengleichungen X. Kapitel. Die einparametrige Eigenwertaufgabe 35. Vorbereitende Studien 36. Die charakteristische Gleichung XI. Kapitel. Die lineare Eigenwertaufgabe 37. Selektionsalgorithmen 38. Globalalgorithmen 39. Einschließung von Eigenwerten und Eigenvektoren 40. Die Expansion des charakteristischen Polynoms XII. Kapitel. Nichtlineare und mehrparametrige Eigenwertaufgaben 41. Eigenwerte und Eigenvektoren von Polynommatrizen 42. Skalare Polynome 43. Die nichtpolynomische Eigenwertaufgabe 44. Die mehrparametrige Eigenwertaufgabe XIII. Kapitel. Lineare Vektordifferentialgleichungen mit konstanten Koeffizienten 45. Die homogene Differentialgleichung erster Ordnung 46. Die homogene Differentialgleichung höherer Ordnung 47. Die inhomogene Differentialgleichung erster und höherer Ordnung
XIV
Inhaltsverzeichnis
XIV. Kapitel. Lineare Quadratmittelprobleme und Pseudoinverse
48. Lineare Quadratmittelprobleme 49. Die Pseudoinverse 50. Singulärwertzerlegung XV. Kapitel. Ergänzungen
I. Kapitel
Der Matrizenkalkül
1 Grundbegriffe und einfache Rechenregeln • 1.1 Lineare Transformation, Matrix und Vektor
Gegenstand der Matrizenrechnung sind lineare Beziehungen zwischen Größensysternen. Eine solche Beziehung homogener Art zwischen einem ersten System von n Größen Xt>X2, ... ,xn und einem zweiten von m Größen Yt>Y2, ... ,Ym der Form
al1 x I +a12 x 2 + ... +alnxn
=
YI}
~~I.~I. ~ ~~2.~2..~ : : : .~ ~~~~~ .:.~2.
(1)
amixi +am2x 2+'" +amnxn -Ym ist festgelegt durch das Schema ihrer m mal n Koeffizienten aiko die als gegebene reelle oder auch komplexe Zahlen anzusehen sind. Dieses - nach Zeilen i und Spalten k - geordnete Schema der Koeffizienten aik wird eine Matrix, die Matrix der linearen Beziehung (1) genannt, was soviel wie Ordnung, Anordnung bedeutet und woran etwa das Wort Matrikel erinnert. In dieser Bedeutung eines rechteckig angeordneten Koeffizientenschemas wurde das Wort Matrix zuerst von dem englischen Mathematiker Sylvester [101] benutzt. Es erweist sich nun als sinnvoll und zweckmäßig, das Koeffizientenschema, die Matrix als eine selbständige mathematische Größe zusammengesetzter Art aufzufassen und durch ein einziges Symbol, einen Buchstaben zu bezeichnen. Um sie gegenüber einfachen Zahlengrößen (Skalaren) hervorzuheben, verwendet man Fettdruck (halbfett kursiv) und schreibt
all al2 ... alnJ [
~2~ ..~2~. : : : ~~~
(2)
ami am2'" am
Auch andere Schreibweisen sind gebräuchlich, z. B.
all ... a ln ] [
.........
=
[aik] .
(2a)
ami'" amn
Außer dem Zahlenwert des Koeffizienten aik ist seine durch den Doppelindex i, k festgelegte Stellung im Schema wesentlich, wobei der erste Index stets die Zeile, R. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5_1, © Springer-Verlag Berlin Heidelberg 2011
2
1 Grundbegriffe und einfache Rechenregeln
der zweite die Spalte kennzeichnet. Die Größen aik heißen die Elemente der Matrix. Ist die Anzahl m ihrer Zeilen gleich der Zahl n ihrer Spalten, so heißt die Matrix quadratisch, und zwar von der Ordnung n. Eine Rechteckmatrix der Höhe m und der Breite n mit m Zeilen und n Spalten wird auch eine mn-Matrix genannt. Auch die der linearen Verknüpfung (1) unterworfenen Größen Xi'Yi' faßt man zu je einem Größensystem, einem sogenannten Vektor x bzw. y zusammen, die sich als einreihige Matrizen auffassen lassen. Dabei hat es sich als zweckmäßig erwiesen, die Komponenten xi,Yi dieser Vektoren in Form von Spalten anzuordnen:
(3)
Man spricht dann bei (1) von einer linearen Transformation des Vektors x in den Vektor y und schreibt das ganze kurz und sinnfällig
I Ax=y
I·
(4)
Gleichungen (1) und (4) bedeuten genau das gleiche. Um nun dabei das Zeichen Ax wie üblich als ein Produkt verstehen zu können, definiert man Definition 1: Unter dem Produkt Ax einer mn-Matrix A = (aik) mit einer n-reihigen Spalte x = (xk) (einem Vektor mit n Komponenten) versteht man den m-reihigen Spaltenvektor y = (Yi), wobei die i-te Komponente Yi als das skalare Produkt (5)
der i-ten Zeile von A mit der Spalte x entsteht. In diesem Sinne übersetzt sich die "Matrizengleichung" (4) in das System (1). Sie ist Abkürzung und Rechenvorschrift zugleich. Das hier definierte Produkt aus Matrix und Vektor ist wesentlicher Bestandteil eines allgemeinen, von Cayley [102] eingeführten Matrizenkalküls, also einer rechnerischen Verknüpfung von Matrizen. Hier wird das Rechnen mit linearen Transformationen auf einige wenige Grundoperationen mit den Koeffizientenschemata, den Matrizen der Transformationen zurückgeführt, die sich in naheliegender Weise als Addition, Multiplikation und Division von Matrizen definieren lassen, indem sie mit den entsprechenden Zahlenoperationen bestimmte Grundregeln gemeinsam haben. Hierdurch aber erfährt das Operieren mit den auch für Anwendungen der verschiedensten Art so überaus bedeutsamen linearen Beziehungen eine solche Erleichterung, daß die Matrizenrechnung heute zu einem festen Bestandteil der Mathematik geworden ist. Erst in der Sprache des Matrizenkalküls lassen sich sonst verwickelte und langwierige Operationen einfach und übersichtlich wiedergeben und herleiten. Auch die Ingenieurmathematik, soweit
t.l Lineare Transformation, Matrix und Vektor
3
sie mit linearen Beziehungen zu tun hat, bedient sich daher in zunehmendem Maße dieses modernen und der Sache angemessenen Hilfsmittels, das wie kaum ein anderes geeignet ist, umfangreiche Rechnungen zu schematisieren und oft weit auseinander liegende Sachgebiete auf den gemeinsamen formalen Kern zurückzuführen. Zur mathematischen Kurzform des Matrizenkalküls tritt eine willkommene anschauliche Interpretierbarkeit der Operationen. Diese ergibt sich unmittelbar aus der dreidimensionalen Geometrie und Vektorrechnung, wo einem Vektor x bzw. seinen drei Komponenten x"x2,x3 die anschauliche Bedeutung von Punktkoordinaten oder Vektorkomponenten zukommt. Fast alle mit geometrischen Vorgängen verknüpften algebraischen Operationen - Vektoraddition, Vektorvervielfachung, Koordinatentransformation und dergleichen - aber sind nicht an die Dimensionszahl 3 des anschaulichen Raumes gebunden, sondern von dieser Dimensionszahl unabhängig, die man daher zur beliebigen Zahl n verallgemeinern kann. Dies führt dann auch für beliebiges n zu einer geometrischen Sprechweise, die sich in mancher Hinsicht als nützlich und förderlich erweist, indem sie auf entsprechende anschaulich verfolgbare Vorgänge des dreidimensionalen Raumes hindeutet. Man definiert in diesem Sinne ein System geordneter Zahlen, ein Zahlenn-Tupel {Xl,x2' ... ,xnl = x als einen Punkt oder Vektor in einem n-dimensionalen Raume Rn' und man definiert dabei diesen Raum Rn als die Gesamtheit der n-dimensionalen Zahlensysteme x, wenn jede der Komponenten xi des Systems x die Gesamtheit aller reellen - oder auch der komplexen - Zahlen durchläuft. Nur im Falle n = 3 oder 2 oder 1 und reellen Xi entspricht dem so algebraisch definierten "Raume" Rn auch ein geometrischer, also anschaulich faßbarer Raum von n Dimensionen: im Falle n = 3 der Gesamtraum, im Falle n = 2 eine Ebene, für n = 1 eine Gerade. In diesem Sinne sprechen wir dann bei der linearen Transformation (1) bzw. (4) von einer linearen Abbildung 1, einer Abbildung eines Vektors x in einen Vektor y. Diese Abbildung, obgleich bei beliebig angenommenen Koeffizienten aik sehr allgemein, hat doch im dreidimensionalen Falle die charakteristische Eigenschaft, lineare Gebilde wiederum in ebensolche zu überführen, d. h. Geraden in Geraden, Ebenen in Ebenen, weshalb die Abbildung linear genannt wird. Ungeachtet einer solchen geometrischen Interpretierbarkeit eines Vektors, also eines Systems geordneter Zahlen xi, stellt der Vektor selbst meistens kein geometrisches Gebilde dar. Die reale Bedeutung der "Vektorkomponenten" Xi kann in den Anwendungen von der verschiedensten Art sein, und, was besonders zu beachten ist, ein und derselbe Vektor kann Komponenten (besser Koordinaten) von unterschiedlicher Dimension haben, etwa Längen, Winkel, Kräfte, Momente usw., woraus schon erhellt, daß es sich bei diesen "Vektoren" (man sagt oft auch Vektor im algebraischen Sinn) im allgemeinen keineswegs um geometrische Vektoren (Ortsvektor) oder physikalische Vektoren (Geschwindigkeit, Kraft, Impuls, Drall usw.) handeln kann. Dessenungeachtet ist die Bezeichnung Vektor weiterhin mit Vorteil in Gebrauch.
I
Dabei denken wir vorwiegend an den Fall m
=
n.
1 Grundbegriffe und einfache Rechenregeln
4
Es gibt kaum ein der Mathematik zugängliches Anwendungsgebiet, auf welchem der Matrizenkalkül nicht eine Rolle spielt, so etwa in der Mechanik (Kinematik, Statik, Kinetik), der Elektrodynamik, der Chemie, der Physik, der Volkswirtschaft u. a. Unabhängig von Herkunft und Bedeutung sind zwei Problemklassen zu unterscheiden: 1. Das inhomogene Gleichungssystem mit regulärer Matrix A
A x = y,
det A
*0 .
(A)
2. Das homogene Gleichungssystem mit singulärer Matrix F(A) F(A)X=O,
detF(A) =0 .
(B)
Hier enthält die Matrix F einen Parameter A (oft auch mehrere Parameter Nichttriviale - und das heißt für den Anwender, allein interessante - Lösungen x 0 existieren nur dann, wenn die Determinante von F(A) gleich Null ist, wodurch im allgemeinen gewisse als Eigenwerte (eigenvalues, latent roots, valeurs propres) bezeichnete diskrete Werte Aj ausgezeichnet sind. Deren Bedeutung ist zum Beispiel: in der Statik kritische Knick- oder Beulwerte, in der Kinetik kritische Drehzahlen von Rotoren, Eigenschwingungszahlen von mehrläufigen Schwingern, in der Geometrie die Längen der Halbachsen eines Ellipsoides usw. 0"1> 0"2' .•• ).
*
Die Abb. 1.1 zeigt ein typisches Beispiel aus der Statik. Im Fall 1 liegt das Gleichungssystem (A) vor. Hier sind die Unbekannten XI> .•. 'Xn die Auflagerkräfte, die rechte Seite wird durch die Belastung bestimmt, und es gibt eine eindeutige Lösung. Im Fall 2 dagegen führt die Gleichgewichtsbedingung auf die Gleichung (B); jetzt sind die Unbekannten X1> .•. 'Xn die Verschiebungen der Gelenkpunkte in vertikaler Richtung. Diese sind im allgemeinen gleich Null, d. h. der Balken wird in gerader Lage gedrückt. Nur für ganz bestimmte Eigenkräfte AjK (kritische Knicklasten) kann der Balken die horizontale Lage aufgeben, und das heißt eben in der oben gebrauchten Ausdrucksweise eine nichttriviale Lösung ermöglichen,
{Al
~;J;:.====~===j'===:;~=!O::)==A=1;K {Bl
,
J:
~
~'l
:
Abb. 1.1. Beispiel aus der Statik für die Problemklassen (A) und (B)
5
1.2 Zeilen- und Spaltenvektoren
ein Effekt, der jedem bekannt ist, der ein biegsames Kunststofflineal mit allmählich größer werdender Kraft drückt, bis es schlagartig ausknickt. • 1.2 Zeilen- und Spaltenvektoren
Ein System von n geordneten Zahlen XI,x2' ... ,xn (ein Zahlen-n-Tupel) haben wir einen (n-dimensionalen) Vektor genannt und dies oben durch eine Reihe von Beispielen erläutert. Für die Darstellung eines solchen Vektors als Matrix ist es nun an sich belanglos, ob wir die n Komponenten Xi in Form einer Zeile oder einer Spalte anordnen. Beide Formen sind gleichwertige Darstellungen des Vektors, d. h. des geordneten Zahlensystems der xi> wenn wir auch bisher ausschließlich die Darstellungsform der Spaltenmatrix verwendet haben. Auch die Form der Zeilenmatrix wird bei Gelegenheit angewandt werden. Wollen wir die Darstellungsform des Vektors - ob Zeile oder Spalte - offenlassen, so werden wir das Zahlensystem auch wohl durch x = {X/>X2, ... ,xnl, also in geschweiften Klammern, bezeichnen. Sowohl die Zeilen als auch die Spalten einer mn-Matrix A = (aik) können wir gleichfalls als Vektoren auffassen (d. h. wieder als geordnete Zahlensysteme), und wir wollen sie durch hoch- bzw. tiefgestellte Indizes bezeichnen: Zeilenvektoren
ai=(ait ai2 ... ain) '
Spaltenvektoren ak =
alk] [ amk afk
,
i=1,2, ... ,m,
(6a)
1,2, ... ,n .
(6b)
k
=
Damit läßt sich die Matrix A in einer der beiden folgenden Formen schreiben:
(7)
also als eine Spalten- oder Zeilenmatrix, deren Elemente selbst wieder Spalten bzw. Zeilen sind. Beide Darstellungen werden sich als nützlich erweisen. Den Spaltenvektoren ak der Matrix kommt nun eine unmittelbar auf die Abbildung bezogene Bedeutung zu. Setzen wir nämlich in GI. (1) alle Xi = 0 bis auf eine einzige Komponente xk = 1, d. h. wählen wir x als den sogenannten koten Einheitsvektor
ek~ [I]
(8)
1 Grundbegriffe und einfache Rechenregeln
6
"----=-'---.JCt
(k-te Komponente
Abb. 1.2. Ebene Drehung: Abbildung der Einheitsvektoren
= 1, alle übrigen = 0), so erhalten wir für die Abbildung (9)
Der k-te Spaltenvektor ak einer Matrix A ist somit das Bild, in das der k-te Einheitsvektor ek bei der linearen Abbildung Ax = y übergeht. Ist die Abbildung anschaulich interpretierbar, so läßt sich die zugehörige Matrix - bei vorgegebeneiriKoordinatensystem - sogleich angeben. Stellt beispielsweise unsere Abbildung eine ebene Drehung um einen Winkel ({J dar, Abb. 1.2, so gehen die beiden Einheitsvektoren et Winkel
({J
=
GJ ' = eJ e2
über in die beiden um den
gedrehten Einheitsvektoren
- [- sin ({JJ at -- [cos ({JJ , a2sin ({J cos ({J Die die Drehung vermittelnde Matrix lautet somit A =
[c~s ({J Slll({J
-sin({J] . cos ({J
Die Komponenten Yi des durch Drehung eines beliebigen Vektors x hervorgegangenen Bildvektors Y sind
Yt
=Xt cos({J-x2sin({J ,
Y2 = Xt
sin ({J+x2 cos ({J
,
wie aus Abb. 1.3 auch unmittelbar zu ersehen.
y, Xt
Abb. 1.3. Originalvektor x und Bildvektor y bei ebener Drehung
7
1.3 Einfache Rechenregeln
Allgemein läßt sich die Abbildung A x = y mit Hilfe der Spaltenvektoren folgendermaßen schreiben: (10)
was als Zusammenfassung der Gleichung (5) aufzufassen ist und mit Hilfe der Produktdefinition 1 formal aus
Ax~(a,a2a,) [tJ folgt, wenn wir A als einzeilige Matrix mit den Elementen ak auffassen. Wir können somit sagen:
Der Bildvektor y der linearen Abbildung A x = Y ist eine Linearkombination der Spaltenvektoren ak der Abbildungsmatrix A. Die Vektoren akxk sind dabei die Vektoren der Komponenten aikxh gehen also aus ak hervor durch Multiplikation ihrer Komponenten aik mit den Zahlen xk.
• 1.3 Einfache Rechenregeln Für das allgemeine Rechnen mit Matrizen werden zunächst die folgenden einfachen und einleuchtenden Regeln festgesetzt:
Definition 2: Sind A = (aik) und B = (b ik ) zwei Matrizen von je m Zeilen und n Spalten (zwei mn-Matrizen), so wird als Summe (Differenz) von A, B die mn-Matrix C = A ±B = (Cik)
mit Cik
=
aik±bik
(11)
erklärt. Matrizen gleicher Reihenzahl m, n werden auch vom gleichen Format genannt. Nur Matrizen vom gleichen Format können addiert oder subtrahiert werden. Beispiel
~J -I~J
(a)
.
(b)
Offenbar gilt A + B = B + A; die Addition ist wie bei gewöhnlichen Zahlen kommutativ. Ferner gilt A + (B + C) = (A + B) + C; die Addition ist auch assoziativ.
8
1 Grundbegriffe und einfache Rechenregeln
Definition 3: Zwei mn-Matrizen A = (aik) und B = (b ik ) werden dann und nur dann einander gleich genannt, A = B, wenn
aik = bik für alle i, k .
(12)
Definition 4: Eine Matrix A wird dann und nur dann Null genannt, wenn alle ihre Elemente verschwinden:
A
= 0, wenn aik =
°
für alle i und k .
(13)
Man spricht dann von der Nullmatrix, im Falle einreihiger Matrix auch vom Nullvektor. So ist beispielsweise die aus 3 Zeilen und 2 Spalten bestehende Nullmatrix
ferner ist
B= [~ ~J=o die zweireihige quadratische Nullmatrix. Setzt man in der Summendefinition B = A und schreibt, wie naheliegend A + A = 2A, so kommt man verallgemeinernd zur Definition 5: Das Produkt kA oder A k einer mn-Matrix A mit einer Zahl k (einem
Skalar) ist die mn-Matrix, bei der jedes Element das k-fache des entsprechenden von A ist: kA
= Ak =
[~.~t~
~~~~J
kamt
(14)
kamn
Ein allen Elementen einer Matrix gemeinsamer Faktor k läßt sich also vor die Matrix ziehen, beispielsweise:
[2,1,87 -0,91 5,4j
= 0,9
[3 -lJ 2
6
Man beachte hier den Unterschied gegenüber einer entsprechenden, dem Leser wohl erinnerlichen Regel bei Determinanten, wo bekanntlich ein gemeinsamer Faktor einer einzigen Zeile oder Spalte vorgezogen werden darf. - Offenbar gilt für das Zahlenprodukt einer Matrix
1.4 Transponierte Matrix, symmetrische und schiefsymmetrische Matrix
9
kA +kB = k(A +B) kA + IA = (k + I)A . Zu diesen fast selbstverständlichen Rechenregeln mit Matrizen tritt als Hauptbestandteil des Matrizenkalküls die Festsetzung einer Multiplikation von Matrizen untereinander, des eigentlichen Matrizenproduktes, das wir bis zum nächsten Paragraphen zurückstellen. Die Umkehrung der Multiplikation führt schließlich zur Kehrmatrix, worauf wir im darauf folgenden Abschnitt 3 zurückkommen werden. • 1.4 Transponierte Matrix, symmetrische und schiefsymmetrische Matrix
Eine besonders häufig angewandte Matrizenoperation ist der Übergang zur sogenannten transponierten oder gespiegelten Matrix A T, die aus der gegebenen Matrix A = (aik) durch Vertauschen von Zeilen und Spalten hervorgeht, z. B.
Bei quadratischer Matrix entspricht dies einem Spiegeln an der Hauptdiagonalen, wobei man unter "Hauptdiagonale" stets die von links oben nach rechts unten verlaufende Diagonale der Matrix mit den Elementen gleicher Indizes a11' a22' ... , ann versteht, die hierbei unverändert bleiben:
A=[;-~-~J -2 3-4 Bezeichnen wir die Elemente der transponierten Matrix A
T
mit a
r, so gilt (15)
Offenbar ist (16)
Aus einem Spaltenvektor a wird durch Transponieren ein Zeilenvektor a T und umgekehrt:
(16a)
Kleine Fettbuchstaben a, b,x,Y, ... ohne Kennzeichen sollen stets Spaltenmatrizen (Vektoren in Form einer Spaltenmatrix) bezeichnen. Zeilenmatrizen (Vekto-
1 Grundbegriffe und einfache Rechenregeln
10
ren in Form einer Zeilenmatrix) kennzeichnen wir durch Transponieren: a T, b T, mit Ausnahme der Zeilenvektoren ai,b i , . .. von Matrizen A,B, . .. , bei denen hochgestellte Indizes den Zeilencharakter anzeigen. Aus Platzgründen schreiben wir Spalten auch in der Form
xT,yT, . ..
(16b)
Eine quadratische Matrix heißt symmetrisch, wenn sie ihrer Transponierten gleich ist:
A = A T oder
(17)
aik = aki .
Die zur Hauptdiagonale spiegelbildlich liegenden Elemente sind einander gleich, während die Diagonalelemente aii selbst beliebig sind. Beispiel
A=
[-2 3-IJ 3 4 -1 5
5 0
Symmetrische Matrizen, und zwar insbesondere reelle symmetrische spielen in den Anwendungen eine herausragende Rolle. Viele technisch-physikalische Probleme zeichnen sich durch gewisse Symmetrieeigenschaften aus, die in symmetrischen Koeffizientenschemata zum Ausdruck kommen. Andererseits besitzen reelle symmetrische Matrizen eine Reihe bemerkenswerter mathematischer Eigenschaften, insbesondere hinsichtlich des im IV. Kapitel zu behandelnden Eigenwertproblems, wo wir darauf eingehend zurückkommen werden. Eine quadratische Matrix heißt schiejsymmetrisch oder antimetrisch, wenn sie ihrer Transponierten entgegengesetzt gleich ist: A = - A T oder
aik = - aki -+ aii =
(18)
0 .
Zur Hauptdiagonale gespiegelte Elemente sind entgegengesetzt gleich, die Diagonalelemente selbst aber sind Null. Beispiel:
A=
[-~ ~ -~J -4
1
0
[0-2 -4J 201
4 -1
= -A .
0
Jede quadratische Matrix A ist zerlegbar in die Summe eines symmetrischen und eines antimetrischen Anteiles: (19)
11
1.5 Diagonalmatrix, Skalarmatrix und Einheitsmatrix
mit (20)
Beispiel
[j ;-~J L1r~ -~ -~J . +
4
3
-4
0
• 1.5 Diagonalmatrix, Skalarmatrix und Einheitsmatrix Eine quadratische Matrix, deren sämtliche Elemente außerhalb der Hauptdiagonalen Null sind bei beliebigen Diagonalelementen d;, wird Diagonalmatrix genannt:
D
=
[? .~2 o
0
~] =
Diag (d;> .
(21)
dn
Auch hier handelt es sich offenbar um ein System geordneter Zahlen d;, die auch als die Komponenten eines Vektors aufgefaßt werden könnten. Daß man dies indessen hier nicht tut, hat seinen Grund darin, daß das System der d; nicht einer linearen Transformation unterworfen wird, sondern in anderer Weise in die Betrachtung eingeht; vgl. Abschnitt 2.3. Eine lineare Transformation mit einer Diagonalmatrix ist von besonders einfacher Form, nämlich 1X
d =YJ dnxn=Y d2 X 2t =
Y2
(22)
Die Multiplikation Dx der Diagonalmatrix D mit einem Vektor x bewirkt also komponentenweise Multiplikation mit den d;. Dies kennzeichnet im wesentlichen die Rolle, die die Diagonalmatrix im Rahmen des Matrizenkalküls spielt. - Eine Diagonalmatrix ist offenbar immer symmetrisch, D = D T. Hat die Diagonalmatrix lauter gleiche Elemente d; = k, so spricht man von einer Skalarmatrix, da sie sich, wie wir noch sehen werden, hinsichtlich der Multiplikation mit einer anderen Matrix wie ein skalarer Faktor k verhält. Für die Multiplikation mit einem Vektor x nach Gleichung (22) trifft das ja offenbar zu. Sind schließlich alle Diagonalelemente gleich 1, so hat man die sogenannte Einheitsmatrix I, genauer die n-reihige Einheitsmatrix:
12
1==
[~.~
•.
° ° ...
~J 1
1 Grundbegriffe und einfache Rechenregeln
:
(23)
t
Die Transformation mit der Einheitsmatrix läßt den Vektor x offenbar unverändert: (24)
man spricht daher von der identischen Transformation. Auch sonst spielt die Einheitsmatrix, wie sich zeigen wird, hinsichtlich der Matrizenmultiplikation die Rolle der Eins. Die Skalarmatrix aber schreibt sich mit I zufolge Gleichung (14) als kI==Ik. • 1.6 Lineare Abhängigkeit, Rang, singuläre Matrix, Determinante
ar
Gegeben sei ein System vonp Vektoren ak zu je n Komponenten Diese Vektoren werden nun linear abhängig genannt, wenn es p Konstanten ck gibt, derart daß eine lineare Beziehung der Form (25) besteht, wo die p Konstanten nicht sämtlich verschwinden. Folgt aber aus Gleichung (25) notwendig Cl == C2 == .•. == Cp == 0, so heißen die Vektoren linear unabhängig. Hier bedeutet in Gleichung (25) die rechts stehende 0 den Nullvektor. Lineare Abhängigkeit von Vektoren besagt also, daß sich aus ihnen durch eine geeignete Linearkombination der Nullvektor erzeugen läßt. Beispiel:
(a)
Es ist a 1 + 2a2 - a3 = 0, wie leicht nachzuprüfen. Die Vektoren sind also linear abhängig.
Im Falle linearer Abhängigkeit ist wenigstens eine der Konstanten ck von Null verschieden, sagen wir cq 0. Dann läßt sich offenbar der zugehörige Vektor aq linear durch die übrigen ausdrücken, indem wir Gleichung (25) nach aq auflösen. In unserem Beispiel ist etwa a3 = al + 2a2 oder al == - 2a2 + a3 oder a2 == - tal + ta3' wie jedesmal leicht nachprüfbar. - Ein Vektorsystem wird auch dann linear abhängig genannt, wenn unter ihnen der Nullvektor vorkommt, da in dem gesetzt werden kann und die übrigen == 0, um Falle die zugehörige Konstante Gleichung (25) zu erfüllen.
*
*°
13
1.6 Lineare Abhängigkeit, Rang, singuläre Matrix, Determinante
Im allgemeinen wird man einem Vektorsystem nicht ohne weiteres ansehen können, ob es linear abhängig ist oder nicht. In gewissen Sonderfällen aber ist das leicht möglich. So sind insbesondere die drei Einheitsvektoren
(allgemein die n Spaltenvektoren der Einheitsmatrix) sicher linear unabhängig. Denn aus
c,',+c,.,+<,.,=
mmmG:] +
+
m
folgt notwendig Cl = c2 = c3 = O. Aus den Einheitsvektoren läßt sich unmöglich durch Linearkombination der Nullvektor erzeugen. In einem Vektorsystem von p Vektoren ak gibt es nun eine ganz bestimmte maximale Anzahl linear unabhängiger Vektoren, und diese Anzahl wird der Rang r des Vektorsystems genannt, wobei offenbar gilt
IO;;ir;;ip I·
(26)
Dabei ist r = 0 genau dann, wenn alle Vektoren Null sind. Im zuerst angeführten Beispiel ist offenbar r = 2, da je zwei der Vektoren linear unabhängig, alle drei aber linear abhängig sind. Das System
., =
UJ ' ., [= D' a, m =
=
hat gleichfalls den Rang 2. Hier sind zwar schon die Vektoren ab a2 linear abhängig: es ist al +a2 = o. Aber die Vektoren al' a3 und a2' a3 sind unabhängig, während alle drei wieder abhängig sind:
Für das System
aber ist r = 1, da hier je zwei der Vektoren stets abhängig sind. - Der Rang eines Vektorsystemsgibt also die Anzahl der wesentlich verschiedenen Vektoren des Systems an.
1 Grundbegriffe und einfache Rechenregeln
14
Eine mn-Matrix A = (aik) läßt sich nun, wie nach dem früheren klar ist, auffassen als das System ihrer n Spaltenvektoren oder auch als das ihrer m Zeilenvektoren. Beiden Systemen kommt somit ein bestimmter Rang zu, den man Spaltenrang bzw. Zeilenrang der Matrix nennen könnte. Wir werden aber im II. Kapitel zeigen können, daß beide Rangzahlen übereinstimmen, so daß die Matrix einen Rang r schlechthin besitzt. Offenbar ist dann dieser Rang höchstens gleich der kleineren der beiden Zahlen moder n: (27)
und er ist Null nur für den Fall der Nullmatrix. Auf die praktische Bestimmung des Ranges r einer gegebenen Matrix werden wir ausführlich im 11. Kapitel zurückkommen. Eine quadratische Matrix wird singulär genannt, wenn ihre Spalten (und Zeilen) linear abhängig sind; andernfalls heißt sie nichtsingulär oder auch regulär. Der Unterschied (28)
wird Defekt oder Rangabfall oder auch Nullität der n-reihigen Matrix genannt und sich als ein höchst wichtiger Begriff erweisen. Einer quadratischen Matrix A ist bekanntlich ihre Determinante als eine nach bestimmter Vorschrift aus den Elementen aik berechenbare Zahl zugeordnet, für die wir eines der folgenden Zeichen verwenden: detA = det (aik) = A .
Für die zweireihige Matrix ist bekanntlich
eine Vorschrift, die, wie man weiß, sich leider nicht für Determinanten höherer Ordnung fortsetzen läßt (abgesehen von der Regel von Sarrus für n = 3). Auch auf die allgemeine Determinantenberechnung werden wir erst im 11. Kapitel zurückkommen. Indessen wird dem Leser erinnerlich sein, daß eine Determinante genau dann Null wird, wenn die Zeilen oder Spalten des Koeffizientenschemas (der Matrix) linear abhängig sind, d. h. also wenn die Matrix singulär ist. Eine singuläre Matrix ist somit gekennzeichnet durch
I detA = 0 I' während für nichtsinguläres A stets det A
(29)
'* 0 gilt.
15
2.1 Einführung des Matrizenproduktes
Nichtquadratische mn-Matrizen sind weder regulär noch singulär. Wohl aber ist hier der Fall ausgezeichnet, daß entweder ihre Zeilen (für m < n) oder ihre Spalten (für m > n) linear unabhängig sind, daß also für den Rang r = m < n bzw. r = n< m gilt. Derartige Matrizen nennen wir zei/enregulär bzw. spaltenregulär. Sie verhalten sich in mancher Hinsicht wie nichtsinguläre quadratische Matrizen; vgl. Abschnitt 2.2, Satz 5 und 6. Eine zeilenreguläre quadratische Matrix, r = m = n, aber ist zugleich spaltenregulär, also regulär und das heißt nichtsingulär schlechthin. Eine gewisse Rolle spielt schließlich noch die sogenannte Spur einer quadratischen Matrix, worunter man die Summe der Hauptdiagonalelemente aij versteht:
I sp A = s = a11 + a22 + ... + ann I·
(30)
Sie erweist sich, wie wir später sehen werden, ebenso wie die Determinante der Matrix gegenüber gewissen Umformungen, sogenannten Koordinatentransformationen, denen die Matrix unterworfen werden kann, als invariant. Während sich bei diesen Transformationen die Elemente der Matrix sämtlich ändern, bleiben die beiden der Matrix zugeordneten Zahlenwerte det A und sp A unverändert. Sie haben diese Eigenschaft gemeinsam mit anderen der quadratischen Matrix zugeordneten Zahlenwerten, den im IV. Kapitel ausführlich zu behandelten Eigenwerten, mit denen sie auch in einfacher Weise zusammenhängen: Summe und Produkt der Eigenwerte ergeben Spur und Determinante.
2 Das Matrizenprodukt • 2.1 Einführung des Matrizenproduktes Den Hauptinhalt des Matrizenkalküls bildet die von Cayley eingeführte Matrizenmultiplikation. Zu dieser Operation kommt man durch Hintereinanderschalten linearer Transformationen, wobei ihre Koeffizientenschemata, die Matrizen, eine bestimmte Verknüpfung erfahren, die man in naheliegender Weise als Multiplikation der Matrizen definiert. Zwei Vektoren x = {XI,x2" .. ,xml und Y = {YloY2,'" ,Ynl seien durch eine lineare Transformation verknüpft in der Form (1)
mit der mn-Matrix A = (aik)' Die Komponenten Yk sollen wiederum linear verknüpft sein mit einem dritten Vektor Z = {Zl ,Z2' ... ,zpl in der Form
~1.:. ~~1.~1.~.'.'.'.~.~1~~~} oder
Yn - bnlZ 1 + ... +bnpzp
Y = Hz
(2)
2 Das Matrizenprodukt
16
mit der np-Matrix B = (b ik ). Gesucht ist der unmittelbare Zusammenhang zwischen x und z. Auch er wird homogen linear sein, also von der Form
Xl = CIlZl + ... +C 1P ZP } ... ~. . . . . . . . . . . . . . . . . Xm - CmlZt + ... +cmpzp
oder
X
= Cz
(3)
mit einer mp-Matrix C = (Cik), und es handelt sich darum, die Elemente Cik dieser Matrix aus den gegebenen Koeffizienten aik und bik zu bestimmen, was ja nicht schwer sein kann. Der Koeffizient Cik' das ist der Faktor der Komponente Zk im Ausdruck für Xi' also in der i-ten Gleichung von (3) folgt aus der entsprechenden von (1):
worin laut Gleichung (2) jedes der Yr die interessierende Komponente Zk mit dem Faktor brk enthält. Insgesamt enthält also Xi in Gleichung (3) die Größe Zk mit dem Faktor
Cik = ail b 1k + ai2 b2k + ... + ain bnk =
n
L airbrk
(4)
r=l
Damit haben wir als Bildungsgesetz für den gesuchten Koeffizienten Cik das skalare Produkt der Elemente air der i-ten Zeile von A mit den Elementen brk der kten Spalte von B. Man nennt nun die Matrix C = (Cik) das Produkt der beiden Matrizen A und B in der Reihenfolge AB, eine Bezeichnung, die sich auch formal anbietet. Eine Zusammenfassung der beiden Matrizengleichungen (1) und (2) ergibt nämlich
Ix=Ay=A(Bz) =ABz
=
Cz
I·
(5)
Wir fassen zusammen: Definition 1: Unter dem Produkt AB einer mn-Matrix A mit einer np-Matrix B in der angegebenen Reihenfolge versteht man die mp-Matrix C = AB, deren Element Cik als skalares Produkt der i-ten Zeile von A (des Zeilen vektors a i) mit der koten Spalte von B (dem Spaltenvektor bJ gemäß (4) gebildet wird, kurz:
cik =
n
i = 1,2, ... ,m ,
r= 1
k = 1,2, .. . ,p .
L airbrk = a ibk
(4a)
Dabei stellt auch der Ausdruck aib k schon ein Matrizenprodukt dar, nämlich das der Zeile a i mit der Spalte bh dessen Ergebniss die l'l-Matrix Cik, also eine Zahl
2.1 Einführung des Matrizenproduktes
m
A
17
AB Abb. 2.1. Anordnungsschema einer Matrizenmultiplikation
ist. Indem man jede der m Zeilen von A mit jeder der p Spalten von B auf die angegebene Weise kombiniert, baut sich die Produktmatrix C Element für Element auf. Zur Berechnung der m'p Elemente Cik sind somit insgesamt m' p' n Einzelprodukte zu bilden, ein nicht ganz müheloser Prozeß, der freilich recht schematisch abläuft. Insbesondere lassen sich die skalaren Produkte mit Hilfe eines Taschenrechners automatisch durch Auflaufenlassen der Teilprodukte - unter Berücksichtigung der gegebenen Vorzeichen - ohne ein Niederschreiben der Teilprodukte bilden, und die Rechnung läßt sich auch, wie wir noch zeigen, weitgehend durch sogenannte Summenproben kontrollieren. Für das praktische Rechnen ist eine von FALK [103] vorgeschlagene Anordnung nützlich, Abb. 2.1, bei der jedes Produktelement Cik genau im Kreuzungspunkt der i-ten Zeile von A mit der koten Spalte von B erscheint. Offensichtlich ist zur Ausführbarkeit des Produktes AB Übereinstimmung der Spaltenzahl von A mit der Zeilenzahl von B erforderlich. Wir sagen, A sei mit B in der Reihenfolge AB verkettbar, was gleichbedeutend mit der Multiplizierbarkeit der beiden Matrizen in der angegebenen Reihenfolge ist. Aber auch dann, wenn hinsichtlich der Verkettbarkeit einer Vertauschung der Reihenfolge der beiden Faktoren nichts im Wege steht, d. h. wenn m = p oder sogar m = p = n ist, so darf diese Reihenfolge nicht ohne weiteres vertauscht werden: die beiden Produktmatrizen AB und BA sind im allgemeinen verschieden, von bestimmten Ausnahmen, sogenannten vertauschbaren Matrizen A, B abgesehen. Die beiden Faktoren des Matrizenproduktes ABgehen ja in die Produktbildung verschieden ein, der erste Faktor zeilenweise, der zweite spaltenweise. - Einige Beispiele mögen den Sachverhalt erläutern. 1. Beispiel
(a)
Als quadratische Matrizen sind die beiden Faktoren in beiden Reihenfolgen verkettbar, ergeben jedoch verschiedene Produktmatrizen:
(b)
2 Das Matrizenprodukt
18
2. Beispiel
21 43
-1
2
J
.
(a)
Auch hier sind die Faktoren in beiden Reihenfolgen verkettbar, jedoch ist AB eine zweireihige, BA dagegen eine dreireihige Produktmatrix:
A [
2 1 -1 0
1-3J
[-~
o
-3J2 [-37
~ ~J
B [
-' 1 2
2
A
12 05J BA -1
(b)
7
3. Beispiel
A = (2 -1
3),
B=
[-2 lJ ~ -;
.
(a)
Hier ist A mit B nur als AB, nicht aber als BA verkettbar; das Produkt BA existiert nicht:
[-~ -iJ A (2 -1
3)(
8
B
11) AB.
(b)
Für umfangreichere Zahlenrechnungen sind Rechenkontrollen unerläßlich, wozu als einfaches und wirksames Hilfsmittel die auf Gauss zurückgehende Summenprobe dient, und zwar entweder als Spalten- oder als Zeilensummenprobe. Entweder faßt man in AB = C die Gesamtheit der Zeilen von A in einer zusätzlichen Summenzeile (Zeile der Spaltensummen) zusammen, die wie die übrigen Zeilen von A mit B kombiniert wird und dabei eine zusätzliche Zeile von C liefert, deren Elemente dann gleich den Spaltensummen von C sein müssen, worin die Kontrolle besteht. Oder aber man faßt die Gesamtheit der Spalten des zweiten Faktors B zu einer zusätzlichen Summenspalte (Spalte der Zeilensummen) zusammen, die wie die übrigen Spalten von B mit den Zeilen von A kombiniert wird und dabei eine zusätzliche Spalte von C liefert, deren Elemente dann gleich den Zeilensummen von C werden. Denn jede Zeile von A liefert unabhängig von den übrigen Zeilen die entsprechende Zeile von C, so daß man die Zeilen addieren darf. Jede Spalte von B liefert unabhängig von den übrigen Spalten die entsprechende Spalte von C, so daß auch die Spalten summierbar sind.
19
2.1 Einführung des Matrizenproduktes Beispiel:
[ 42 -2] -3 -1
[~
2 -1 2] 2 3
[13 12 -2J 5 -5-7
5 0 -4 11 17
-12
[ 42 -2] -3 -1
[~ D 2
-1
2
8 Zeilensummenprobe
3 6
[ 12 13 -2J 5 -5 -7 20 -4
Spaltensummenprobe
Die Falksche Anordnung empfiehlt sich besonders bei Produkten aus mehr als zwei Faktoren, etwa P = ABCD, wo man dann jede Matrix und jedes der Teilprodukte nur ein einziges Mal anzuschreiben braucht. Fängt man mit dem letzten Faktor D an, so erhält man das Schema der Abb. 2.2, wieder ergänzt durch eine Summenspalte zur Probe. Man erkennt, daß die Zeilenzahl der Produktmatrix gleich der des ersten Faktors A, ihre Spaltenzahl gleich der des letzten D ist, und weiterhin, daß jede Spalte des letzten Faktors (und ebenso auch jede Zeile des ersten) für sich allein an der Produktbildung beteiligt ist. - Fängt man die Rechnung mit dem ersten Faktor A an, so baut sich das Schema nach rechts anstatt nach unten auf und wird durch eine Summenzeile kontrolliert, Abb. 2.3. Es sei auf einen Umstand ausdrücklich hingewiesen: Liegt in x = ABz der zu transformierende Vektor z zahlenmäßig vor, so ist es durchaus unvorteilhaft, die Produktmatrix C = AB explizit zu berechnen. Vielmehr wird man dann zuerst den transformierten Vektor y = Bz durch Multiplikation der Matrix Bmit dem Vektor z und aus ihm den Vektor x = Ay durch Multiplikation der Matrix A mit dem Vektor y bilden. Man arbeitet also mit der jeweiligen Matrix nur an einem Vektor und spart so erheblich an Operationen. Gegenüber m'n'p Multiplikationen bei Bildung von C = AB zuzüglich den m'p Multiplikationen zur Bildung von Cz ist
D C
I
8
CD
e-
BCD
A
ABCD
Abb. 2.2. Anordnungsschema bei mehrfachem Matrizenprodukt, untereinander
A
B
C
AB
ABC
D
ABCD
Abb. 2.3. Anordnungsschema bei mehrfachem Matrizenprodukt, nebeneinander
20
2 Das Matrizenprodukt
I
D C
I
B
A
r-CD:.r BCIk
ABCD:c
~
Abb.2.4. Multiplikation am Vektor bei mehrfacher Transformation z=ABCDx
hier die Gesamtzahl der Multiplikationen nur M = n· p + m· n = n (m + p). Im Falle m = n = p stehen sich also n 3 + n 2 Multiplikationen einerseits und 2n 2 Multiplikationen andererseits gegenüber. - Das gilt erst recht bei längeren Produktketten. Stets ist ein unmittelbares Arbeiten der einzelnen Matrizenfaktoren am jeweiligen Vektor einem Bilden der Produktmatrix vorzuziehen. Eine Transformation
z=ABCDx=Px ist also in der Regel stets in diesem Sinne durch Bilden der Zwischenvektoren zu realisieren, nicht aber durch explizites Ausrechnen der Produktmatrix ABCD = P; vgl. Abb. 2.4. • 2.2 Sätze über Matrizenmultiplikation Die Matrizenmultiplikation verhält sich in mancher Hinsicht formal wie die Multiplikation gewöhnlicher Zahlen, in mancher Hinsicht dagegen wesentlich anders. Der auffälligste und schon mehrfach hervorgehobene Unterschied besteht in Satz 1: Das Matrizenprodukt ist nicht kommutativ, d. h. im allgemeinen sind A B und BA verschiedene Matrizen, sofern die Faktoren überhaupt in beiden Reihenfolgen verkettbar sind:
1
Im allgemeinen:
AB
* BA I·
(6)
Es kommt also auf die Reihenfolge der Faktoren an, bei Multiplikation von Matrizen hat man darauf zu achten, ob eine Matrix von rechts her oder von links her mit einer zweiten Matrix multipliziert werden soll. Insbesondere hat man beispielsweise in einer Gleichung stets beide Seiten in gleicher Weise mit einer Matrix zu multiplizieren, entweder beide Seiten von rechts her oder beide von links her.
2.2 Sätze über Matrizenmultiplikation
21
In einer Kette von Matrizenfaktoren, etwa ABC . .. N, sind nur ihre beiden äußeren Enden, A und N, einer Multiplikation mit einer weiteren Matrix P zugänglich, also nur A von links her oder N von rechts her. Eine Umstellung der Faktoren ist wegen Gleichung (6) im allgemeinen nicht erlaubt. Bei quadratischen Matrizen kann in Sonderfällen auch AB = BA sein; man spricht dann von vertauschbaren = kommutativen Matrizen A,B. Beispiel A =
[2-IJ 3 4
,
B=
[- 1-2J 6
3
,
AB = BA
= [-
8-7J
21
6
.
Diagonalmatrizen gleicher Ordnung aber sind stets miteinander vertauschbar, und es ist mit A = Diag (ai), B = Diag (bi)
Wie bei gewöhnlichen Zahlen gilt
Satz 2: Die Matrizenmultiplikation ist assoziativ und distributiv, d. h. es gilt (AB)C=A(BC)=ABC, (A+B)C=AC+BC, C(A+B) = CA +CB .
(7) (8a) (8b)
Man darf wie bei gewöhnlichen Zahlen in Produkten aus mehreren Faktoren die Aufeinanderfolge der Produktbildung ändern, d. h. man darf gemäß Gleichung (7) Klammern weglassen, und man darf gemäß Gleichung (8) Klammern auflösen und Klammern setzen wie in der Zahlenalgebra. Beide Eigenschaften folgen aus der Definition (4) der Produktmatrix, z. B.
(AB)C
=(
~ ( ~ airbrs) cSk) = (~ ~ airbrsCSk)
=(
~ air ~ brsCSk) = A (BC)
.
Von großer praktischer Bedeutung für das Operieren mit Matrizen ist die folgende Regel über das Transponieren von Produkten. Dafür gilt
(9) und allgemeiner: (9a)
22
2 Das Matrizenprodukt
p m
jB
n
n
n m
lJ
A
a
j
Ar
n
~
Br
pi b
Abb. 2.5a, b. Veranschaulichung der Regel (A B) T = B TA T für das Transponieren eines Produktes
Die Regel folgt wieder aus der Produktdefinition:
C = AB = (Cik)
C
T
=(
~ airbrk)
= (AB)T = (Cki) = (
~ akrbr) = (~ br,a~)
= B TAT.
Anschaulich aber ergibt sie sich sehr einfach aus unserem Multiplikationsschema, Abb. 2.5 durch Umlegen dieses Bildes. Einen in der Determinantenlehre bewiesenen Satz, auf den wir uns öfter beziehen werden, führen wir hier ohne Beweis an (siehe [12], S. 22 - 23): Satz 3: Die Determinante det (A B) eines Matrizenproduktes AB zweier quadratischer Matrizen ist gleich dem Produkt der Determinanten der beiden Faktoren:
Idet (A B) = det A . det B = A . BI,
(lOa)
und es gilt daher auch
1
det(AB) = det(BA) = A· B
I·
(tOb)
Ähnlich gilt für die Spur des Produktes zweier jetzt nicht notwendig quadratischer Matrizen, eine mn-Matrix A und einer nm-Matrix B:
Isp(AB) sp (A B)
= sp(BA)
=
m
I:
i=l
I·
i a bi =
m
(t1) n
I: I:
i=lk=l
aikbki =
n
m
I: I:
k=li=l
bkiaik =
n
I:
k=l
k b ak
= sp (BA)
2.2 Sätze über Matrizenmultiplikation
23
Beispiel:
A=
AB=
[-~ -:J
B=
4
(a)
3
[-8 J 15
1 14
[ JJ 1 -1
BA =
[-~
9 19 -5 -13
I~J
.
sp (A B) = sp (BA) = 6 .
(b)
Mit besonderem Nachdruck sei nun noch auf einen Unterschied gegenüber dem Rechnen mit gewöhnlichen Zahlen hingewiesen, nämlich
Ein Matrizenprodukt kann Null sein, ohne daß einer der beiden Faktoren selbst Null ist:
IAB = 0 I mit
A"* 0,
B"* 0 .
(12)
Beispiel:
(a)
1 -2 A ( -2 3
Es sei A eine mn-Matrix, B eine np-Matrix. Aus
folgt dann
IAbk = 0 I
k = 1,2, ... ,p .
(13)
Dieses homogene lineare Gleichungssystem hat nun genau dann nichttriviale Lösungen bk "* 0, wenn die Spalten ai von A linear abhängig sind; denn mit den Spalten ai und den Komponenten b ik von b k schreibt sich Gleichung (13) in der Form (13a)
was die Bedingung linearer Abhängigkeit darstellt. Durch Übergang auf das transponierte System B T AT = 0 schließt man in gleicher Weise auf lineare Abhängigkeit der Zeilen von B. Satz 4: Zu einer mn-Matrix A "* 0 gibt es genau dann np-Matrizen B"* 0 derart, daß A B = 0 ist, wenn die Spalten von A linear abhängig sind. - Zu einer np-Ma-
24
2 Das Matrizenprodukt
'*'
trix B 0 gibt es genau dann mn-Matrizen A Zeilen von B linear abhängig sind.
'*' 0 derart, daß AB = 0, wenn die
Wir werden später (in Abschnitt 9) sehen, daß zum homogenen Gleichungssystem (13) genau dA = n - rA linear unabhängige Lösungen bk existieren, so daß der Rang von B höchstens gleich dem Rangabfall n-rA von A ist, rB~n-rA oder (14)
Ergänzend zu Satz 4 formulieren wir
'*'
Satz 5: Aus AB = 0 mit A 0 folgt dann und nur dann B = 0, wenn A spaltenregulär (insbesondere quadratisch nichtsingulär) ist. Und analog: aus AB = 0 mit B 0 folgt dann und nur dann A = 0, wenn B zeilenregulär (insbesondere quadratisch nichtsingulär).
'*'
Als Konsequenz daraus erhalten wir den überaus wichtigen Satz 6: Aus AB = AC folgt dann und nur dann B (insbesondere quadratisch nichtsingulär) ist.
= C, wenn Aspaltenregulär
Denn genau dann folgt aus AB-AC = A(B- C) = 0 auch B- C = 0 also B = C. Hierauf ist beim Rechnen mit Matrizen wohl zu achten. Nichtreguläre Matrizen verhalten sich in mehrfacher Hinsicht ähnlich wie die Null bei gewöhnlichen Zahlen, man darf sie insbesondere nicht "kürzen"! Beispiel: (a)
Hier ist in der Tat
AB=AC=
[~ ~ I~J 17
bei B*C.
(b)
17 27
• 2.3 Diagonal- und Dreiecksmatrix Besonders einfach übersieht man die Auswirkung der Multiplikation einer Matrix A mit einer Diagonalmatrix D = Diag (dj ). Bei quadratischem A wird
(15a)
25
2.3 Diagonal- und Dreiecksmatrix
AD
=[a
l1
an!
0J
a!n] [d!.. . ann 0 dn
(15b)
DA bewirkt zeilenweise Multiplikation der ajk mit den Faktoren dj, AD bewirkt spaltenweise Multiplikation der ajk mit den Faktoren dk. Bei nichtquadratischem A muß Verkettbarkeit bestehen, d. h. bei mn-Matrix A ist D im Falle DA eine mreihige, im Falle A Deine n-reihige Diagonalmatrix. Multiplikation einer n-reihigen quadratischen Matrix A mit der n-reihigen Einheitsmatrix I läßt, wie man als Sonderfall von Gleichung (15) unmittelbar sieht, die Matrix A unabhängig von der Reihenfolge der Multiplikation unverändert:
IIA=AI=AI·
(16a)
I spielt bei der Matrizenmultiplikation die Rolle der Eins. - Bei nichtquadratischem A von m Zeilen und n Spalten schreiben wir anstelle (16) deutlicher
(16b) wo Im die m-reihige und In die n-reihige Einheitsmatrix bedeutet. Nächst der Diagonalmatrix sind von besonderer Wichtigkeit die untere bzw. obere Dreiecksmatrix der Ordnung n
(16c)
Sind insbesondere die Hauptdiagonalelemente gleich Eins, so heißt die Dreiecksmatrix normiert:
(16d)
Summe, Differenz und Produkt von unteren (oberen) Dreiecksmatrizen führen offensichtlich wiederum auf eine untere (obere) Dreiecksmatrix, wobei die Diagonalelemente djj sich genau so verhalten wie die einer Diagonalmatrix. Von besonderem Interesse sind schließlich die sogenannten strikten Dreiecksmatrizen, das sind solche mit verschwindenden Diagonalelementen
26
2 Das Matrizenprodukt
~o= r~.r~~:::J:] l~
0
0...
(16e)
0
Sie sind ni/potent, siehe dazu später in (20.38). • 2.4 Skalares Produkt, Betrag und Winkel reeller Vektoren
Unter dem skalaren Produkt zweier reeller Vektoren a, b von je n Komponenten bzw. b i versteht man bekanntlich die Zahl
ai
(17)
Liegen nun die beiden Vektoren, wie es die Regel sein wird, in Form zweier Spaltenmatrizen vor, so erfordert die Bildung des skalaren Produktes im Rahmen des Matrizenkalküls eine Umwandlung einer der beiden Spalten, a oder b, in eine Zeile, was durch Transponieren geschieht. Das Produkt schreibt sich also in einer der beiden Formen
a T b = (al . .. an) oder
b'a=(b, ... b.)
[b~.nIJ
D:J
(18a)
=a,b,+o,b,+ ... +a.b•.
(18b)
Offenbar ist also (19)
was übrigens auch aus der allgemeinen Regel (9) über das Transponieren eines Produktes folgt unter Berücksichtigung, daß die Transponierte einer Zahl die Zahl selbst ergibt: (a Tb) T = b Ta. Das skalare Produkt eines reellen Vektors a mit sich selbst T
2
2
2
a a=al+a2+ ... +an
(20)
ist als Summe von Quadraten reeller Zahlen positiv und Null nur dann, wenn a = 0, also gleich dem Nullvektor. Die positiv genommene Quadratwurzel aus aT a heißt (in Verallgemeinerung der Bedeutung dieser Größe im dreidimensiona-
len geometrischen Raum) Euklidische Norm, Betrag oder Länge des Vektors:
lai
= Va Ta =
VaT+a~+ ... +a~ .
(21)
2.4 Skalares Produkt, Betrag und Winkel reeller Vektoren
27
Vektoren der Länge 1 heißen Einsvektoren. Ein Vektor a beliebiger Länge läßt sich durch Division durch seine Norm auf die Länge 1 normieren. Eine in vieler Hinsicht bedeutsame Beziehung ist die sogenannte CauchySchwarzsehe Ungleichung (22) ausführlich: (22a) Unter Verwendung des Betragszeichens (21) nimmt sie die Form an (22b) Zum Beweis bildet man mit zunächst beliebigem reellem Faktor A
la- Abl 2 =
(a- Ab) T(a_ Ab)
=
a Ta- 2Aa Tb+A 2bTb~O
Setzt man hier speziell
so folgt Ungleichung (22). In ihr steht das Gleichheitszeichen genau für a = Ab, also für den Fall, daß die beiden Vektoren einander proportional sind, woraus übrigens mit a T = AbT und Rechtsmultiplikation mit b der oben benutzte spezielle A-Wert folgt. Wegen (22b) läßt sich nun analog der dreidimensionalen Vektorrechnung auch für n-dimensionale reelle Vektoren a, b ein Winkel ffJ zwischen a, b definieren nach (23)
Insbesondere heißen die Vektoren a, b zueinander orthogonal, wenn (24)
Sie heißen zueinander parallel für a = Ab. Beispiel
a T = (3,0,4, -5), T
lai Ibl
=
lGQ
iI18
b =(-3,2,1,2), = aTb= -15, lallbl =30,
COSI)J= -0,5.
1)J=2n/3=120°.
28
2 Das Matrizenprodukt
Auch die in der dreidimensionalen Vektorrechnung anschaulich faßbare sogenannte Dreiecks- Ungleichung
lia+bl;;; lai + Ibl
I
(25)
gilt im n-dimensionalen Vektorraum. Beweis:
la+ bl 2 = (a+b) T(a+b) = a Ta+ 2a Tb+b Tb ;;; Ia 12 +21 a Tb I+ Ib 12 ;;; Ia 12 +21 a I Ib I+ Ib 12 = (I a I+ Ib 1)2
,
wo in der zweiten Zeile die Schwarzsehe Ungleichung (22a) benutzt worden ist. • 2.5 Dyadisches Produkt Außer dem skalaren Produkt zweier Vektoren (Spalten) a, b in der Form a T b, Zeile mal Spalte, gibt es als zweite Möglichkeit multiplikativer Verknüpfung die der Form Spalte mal Zeile, das sogenannte dyadische Produkt ab T, wo die beiden Vektoren jetzt auch von verschiedener Dimension sein dürfen. Sind a = (al' .. am ) T und b = (bI' .. bn ) T zwei Vektoren (Spalten) der Dimension m bzw. n, so ist
(26)
eine mn-Matrix mit den Elementen (27)
also m' n Zahlenprodukten, eine Matrix freilich von besonders einfacher Bauart: Jede Spalte ck von C ist Vielfaches ein und derselben Spalte a, jede Zeile Ci Vielfaches ein und derselben Zeile b T: Ck = bka Ci = ai bT
bei
I C = abT I'
(28)
wie formal aus (28a)
29
2.5 Dyadisches Produkt
folgt. Die Matrix C = ab T ist somit vom kleinsten überhaupt nur möglichen Range (29)
wenn wir vom nur der Nullmatrix zukommenden Range 0 absehen. - Ist m = n, so ist C = ab T quadratisch singulär, und zwar vom höchstmöglichen Rangabfall d = n - 1. Nicht allein die Determinante verschwindet, det C = 0, sondern bereits alle in der Matrix überhaupt enthaltenen zweireihigen Unterdeterminanten: (29a)
Nur die Determinanten erster Ordnung, das sind die Elemente aibk selbst sind nicht durchweg Null (abgesehen vom trivialen Fall a = 0 oder b = 0). Während beim skalaren Produkt a T b = b Ta war, führt hier Vertauschen der Reihenfolge zur transponierten Matrix: (30) Ein Beispiel. Gegeben sind die beiden Spalten a und b. Wir berechnen nach dem Schema der Abb. 2.1 die Dyaden (2
C=ab T =
[-iJ [-:
1 -1) 1
-2
-~J
3 -3
(l -2
C T = baT =
-2 2
und außerdem die Skalarprodukte s wie es nach (11) sein muß.
(a)
3)
[-0 [-: JJ -4
, sp C = -3 ;
, spC T = -3
(b)
= a Tb = b Ta = - 3 nach (19). Es ist s = s T = sp C = sp C T,
Skalares und dyadisches Produkt können auch zur Darstellung eines Matrizenproduktes C = AB herangezogen werden, indem man die Faktoren entweder als Zeilen der Spaltenvektoren oder als Spalten der Zeilenvektoren schreibt. Entweder wir schreiben C=AB=
I] [
[tb
Ib ]
aal···a p :m (bl···bp )= .~ ~.. a a bl a bp
.
(31 )
Das Produkt erscheint hier formal als dyadisches Produkt, also als mp-Matrix, deren Elemente jedoch nicht, wie beim echten dyadischen Produkt Zahlenprodukte, sondern skalare Produkte sind:
30
2 Das Matrizenprodukt
(32)
eine Schreibweise, deren wir uns schon bei Definition der Produktmatrix, Gleichung (4a), bedient haben. - Oder wir schreiben
(33)
Das Produkt erscheint formal als skalares Produkt, dessen Summanden jedoch nicht Zahlenprodukte, sondern dyadische Produkte, also mp-Matrizen vom Range 1 sind. Ein Matrizenprodukt ist also darstellbar als Summe dyadischer Produkte. - Daß auch eine beliebige einzelne Matrix in dieser Form darstellbar ist und auch praktisch in eine Summe dyadischer Produkte zerlegt werden kann, werden wir im II. Kapitel anläßlich der Behandlung linearer Gleichungssysteme zeigen können. • 2.6 Potenzen und Polynome
Durch p-malige Multiplikation einer quadratischen Matrix A mit sich selbst entsteht die p-te Potenz AP mit positivem ganzem p. Hierfür gilt bei positiv ganzen Exponenten p, q: (34)
Wie wir im nächsten Abschnitt sehen werden, gilt dies Gesetz auch für negativ ganze Exponenten, sofern A nichtsingulär ist. Besonders einfach gestaltet sich das Potenzieren von Diagonalmatrizen D = Diag (dj ). Denn hier ist, wie leicht zu übersehen, D 2 wieder diagonal mit den Elementen allgemein bei positiv ganzem p
dr,
I DP = Diag (df) I '
(35)
und das gilt sogar noch für nicht ganze Exponenten, beispielsweise (36)
wo wir unter f;i; die positiv genommenen Quadratwurzeln aus den d j verstehen, die freilich nur im Falle nichtnegativer dj~O noch reell sind. Das Radizieren einer
31
2.7 Gaußsche Transformation
allgemeinen Matrix A erfordert indessen wesentlich umfangreichere Hilfsmittel zur Herleitung und kann erst viel später in Angriff genommen werden. Mit den positiv ganzen Matrizenpotenzen lassen sich nun auch ganze rationale Funktionen einer Matrix, Matrizenpolynome einführen. Ist A n-reihig quadratisch und (36a) ein Polynom m-ten Grades in der skalaren Variablen x mit Zahlenkoeffizienten aj, so ist diesem Polynom das Matrizenpolynom (37)
als neue n-reihige Matrix P
zugeordnet. Offenbar gilt
= p(A)
Satz 7: Polynome PI' P2 derselben Matrix A sind vertauschbar (38)
Wie wir später sehen werden (Abschnitt 19), lassen sich, ausgehend von Polynomen, allgemeine Matrizenfunktionen, wie eA , sin A, cos A einführen. Alle diese Funktionen aber sind auf Polynome reduzierbar; eine Eigenschaft der Matrizen, für die es beim Rechnen mit gewöhnlichen Zahlen keine Parallele gibt. Ein Beispiel. Gegeben ist das Polynom p(x) und die quadratische Matrix A 2
p(x)=x +2x+5,A=
[1-2J 32
(a)
.
Damit wird nach leichter Rechnung
[-5-6J + [2 -4J + [5° 0J __ [2 -10J
P=p(A)=A 2 +2A+5I=.
9
- 2
6
4
5
15
(b)
7
• 2.7 Die Gaußsehe Transformation Als eine Verallgemeinerung des Normquadrates a T a eines reellen Vektors a läßt sich die sogenannte Gaußsche Transformation (39)
einer reellen mn-Matrix A auffassen. Das Ergebnis ist eine n-reihige quadratische Matrix B, Abb. 2.6, und zwar eine symmetrische Matrix:
2 Das Matrizenprodukt
32
n .-----
m
A
m AT
n
ATA
Abb. 2.6. Die Matrix ATA
Die Produktbildung wurde von Gauss in der Ausgleichsrechnung bei Aufstellung der sogenannten Normalgleichungen eingeführt, wie wir im Abschnitt 12.1 zeigen werden. Den Aufbau der Matrix erkennt man folgendermaßen:
Das Element bik der Produktmatrix ist also das skalare Produkt des i-ten mit dem koten Spaltenvektor von A : (40)
Diagonalelemente sind die Normquadrate der Spaltenvektoren und als solche stets positiv (von ai = 0 abgesehen). Deren Summe, also die Spur von A TA oder die Summe aller ark> dient als Quadrat einer Matrixnorm, Euklidische Matrixnorm N(A) genannt:
(41)
worauf wir später in allgemeinerem Zusammenhang zurückkommen werden (Abschnitt 16.5), ebenso wie auch auf die wichtige Eigenschaft positiver Definitheit der Matrix A TA (Abschnitt 11.2). Beispiel:
A=[-3~ 2~J. AA=(13-4). AA =[; ~-:J. -4 14 -4 6 13 T
N(A)
=V27 =3 V3= 5.196 .
T
2.8 Orthogonale Matrizen
33
Im allgemeinen ist (auch bei quadratischem A)
Reelle quadratische Matrizen mit der Besonderheit (42) aber heißen normale Matrizen. Sie zeichnen sich durch bestimmte Eigenschaften, namentlich hinsichtlich der im IV. Kapitel behandelten Eigenwertaufgabe aus und spielen daher eine wichtige Rolle. Symmetrische und schiefsymmetrische Matrizen sind offenbar von dieser Art, ebenso die anschließend eingeführten orthogonalen. Über die komplexe Verallgemeinerung vgl. Abschnitt 4.2. • 2.8 Orthogonale Matrizen Eine bedeutsame Klasse reeller quadratischer Matrizen bilden die orthogonalen, gekennzeichnet dadurch, daß ihre Spaltenvektoren ein System orthogonaler Einheitsvektoren bilden: (43a) mit dem sogenannten Kronecker-Symbol 0ih das die Zahl 0 für i =1= kund 1 für i = k bedeutet, also gleich den Elementen der Einheitsmatrix I ist. Da nun das skalare Produkt der Spaltenvektoren, wie oben gezeigt, gleich dem Element der Matrix A TA ist, Gleichung (40), so besagt Gleichung (43a) (44a) als charakteristische Eigenschaft orthogonaler Matrix A. Eine Orthogonalmatrix ist stets nichtsingulär. Dies folgt aus dem Ansatz linearer Abhängigkeit
durch Multiplikation mit a[ von links her, wobei wegen (43a) dann Ck'l = 0 übrig bleibt, so daß sich alle Ci = 0 ergeben, was Unabhängigkeit der Spaltenvektoren ak bedeutet. Es folgt übrigens auch aus dem oben angeführten Determinantensatz 3, Gleichung (10), angewandt auf Gleichung (44a)
detAT'detA = detl
34
2 Das Matrizenprodukt
oder, da bei einer Determinante bekanntlich Zeilen und Spalten vertauscht werden dürfen, det AT = det A, und die Determinante der Einheitsmatrix ersichtlich gleich 1 ist: (detA)2 = 1
oder
I detA =
±1
I
(45)
als weitere Eigenschaft orthogonaler Matrizen. - Multipliziert man nun Gleichung (44a) von rechts her mit AT, so erhält man unter Benutzen des assoziativen Gesetzes
und da AT nichtsingulär ist, folgt als Ergänzung zu Gleichung (44a) (44b) oder auch (43b) Außer den Spaltenvektoren einer Orthogonalmatrix bilden also auch ihre Zeilenvektoren ein System orthogonaler Einheitsvektoren. Auch die orthogonalen Matrizen fallen zufolge ATA = AA T in die oben angeführte Klasse der (reell) normalen Matrizen. Die Gleichungen (44) bedeuten zugleich, wie sich im nächsten Abschnitt zeigen wird, daß die Transponierte AT einer Orthogonalmatrix A ihre Kehrmatrix bildet. Sind A und B zwei orthogonale Matrizen gleicher Reihenzahl n, so sind auch ihre Produkte AB und BA orthogonal:
= B TATAB = BTIB = BTB = I ,
(45a)
(BA)T(BA) =ATBTBA =ATIA = ATA = I .
(45b)
(AB)T(AB)
Diese wichtige Eigenschaft, daß nämlich die Hintereinanderschaltung orthogonaler Transformationen einer einzigen Orthogonaltransformation gleichkommt, verleiht diesen Operationen (im Verein mit dem assoziativen Gesetz und dem Vorhandensein von Einselement I und inversem Element AT = Kehrmatrix) den allgemeinen algebraischen Charakter der sogenannten Gruppe, worauf hier wenigstens andeutend hingewiesen sei.
35
3.1 Begriff und Herleitung der Kehrmatrix
Eine Orthogonalmatrix A, welche überdies symmetrisch ist, AT = A, gehorcht zufolge Gleichung (44) der Beziehung (46)
Die zweimalige Ausübung einer Lineartransformation mit einer solchen Matrix kommt der identischen Transformation gleich, führt also zum Ausgangssystem zurück. Derartige Matrizen werden involutorisch genannt. Natürlich ist auch die Einheitsmatrix sowohl orthogonal als auch symmetrisch, somit involutorisch. Beispiel. Mit den Abkürzungen cos lfJ
= C und sin lfJ = S ist die Matrix der ebenen Drehung (a)
Dagegen ist die involutorische Matrix von Drehung und Spiegelung
G~J
= I. (b)
3 Die Kehrmatrix (Inverse) • 3.1 Begriff und Herleitung der Kehrmatrix
Vorgelegt sei eine lineare Transformation zweier Größensysteme x und y zu je n Komponenten xi' Yi (zweier n-dimensionaler Vektoren) in der Form (1)
mit gegebener n-reihig quadratischer Koeffizientenmatrix A = (aik), ausführlich also das System der Gleichungen (1 a)
welches zu einem gegebenen Vektor x = (XI' .. Xn)T den transformierten Vektor y = (YI ... Yn)T zu berechnen erlaubt. Gesucht ist nun die Umkehrung der Aufgabe, nämlich ein nach den xi aufgelöster formelmäßiger Zusammenhang zwischen den Form
Xi
und
Yk'
Auch er wird wieder homogen linear sein, d. h. von der
(2)
36
3 Die Kehrmatrix (Inverse)
mit einer wiederum n-reihigen Koeffizientenmatrix von Elementen aik> die es zu bestimmen gilt. Diese Matrix der aik, für die man in sinnfälliger Weise das Zeichen A -1 benutzt, also A -1 = (aik), wird inverse Matrix oder auch Kehrmatrix zu A genannt, und man schreibt für den Zusammenhang (2) kurz 1
1
x=A- y
(2a)
I·
Der ganze Vorgang, also der Übergang vom System Gleichung (1) zum System Gleichung (2a) wird Umkehrung des Gleichungssystems, der Lineartransformation genannt, auch Auflösung in unbestimmter Form, d. h. bei "unbestimmten", nicht zahlenmäßig, sondern buchstabenmäßig vorliegenden "rechten Seiten" Yi' Die Elemente aik heißen wohl auch Einjlußzahlen, weil sie den Einfluß der Größe Yk auf die Unbekannte Xi wiedergeben. Zur Ermittlung der Kehrmatrix A - 1 denken wir sie uns gegeben. Dann folgt die Umkehrung (2a) formal aus (1) nach Linksmultiplikation mit A -1, A -1 Ax = A -1 Y, wenn wir für A -1 die Beziehung (3)
fordern. Gesucht ist also eine Matrix A - 1 derart, daß (3) gilt. Das aber setzt zugleich spaltenreguläre, also nichtsinguläre Matrix A voraus. Denn aus (3a)
folgt nach Multiplikation mit dem i-ten ZeiIenvektor a i von A sichtigen von (3) C(
1= 0 ,
-1
unter Berück-
(3 b)
also Verschwinden sämtlicher ci' was Unabhängigkeit der Spalten ak bedeutet. Notwendige Bedingung für Lösbarkeit unserer Aufgabe ist somit
IdetA I· =1=
0
(4)
Sie erweist sich zugleich als hinreichend. Denn zur Bestimmung von A - 1 gehen wir von n speziellen Gleichungssystemen (1) aus, nämlich
!AXk=ekl, k=1,2, ... ,n
(5)
mit dem k-ten Einheitsvektor ek als rechter Seite. Diese Systeme aber sind bekanntlich genau dann eindeutig lösbar, wenn A nichtsingulär ist. Multiplikation von (5) mit A - 1 ergibt nun mit (3):
3.1 Begriff und Herleitung der Kehrmatrix
37
(5 a)
wo rechts die k-te Spalte ak von A - 1 erscheint. Damit haben wir
I xk = ak
I,
k
= 1,2, ... ,n
,
(6)
also
Satz 1: Die k-te Spalte ak der Kehrmatrix A - 1 ergibt sich als Lösung des Gleichungssystems (5) mit der nichtsingulären Koejfizientenmatrix A und dem k-ten Einheitsvektor ek als rechter Seite. Damit ist unsere Aufgabe praktisch gelöst. Auf ihre numerische Durchführung kommen wir in Abschnitt 6 zurück. Indem wir die n Spalten Xk = ak zur n-reihigen Matrix X, die rechten Seiten ek zur Einheitsmatrix I zusammenfassen, schreiben sich die Gleichungen (5) und (6) als Matrizengleichungen
IAX~I X=A-
1
I, ,
(5b) (6a)
in Worten:
Satz 1 a: Die Kehrmatrix A - 1 zur nichtsingulären Matrix A ergibt sich als Lösungssystem X des Gleichungssystems (5 a) mit Aals Koejjizientenmatrix und der Einheitsmatrix I als n-jacher rechter Seite. Die Gleichungen (5b), (6a) und (3) fassen wir zusammen in (7)
als charakteristischer Eigenschaft der inversen Matrix. Beim Übergang von (1) auf (2a): (1)
(2a) folgt jetzt (2a) aus (1) formal durch Linksmultiplikation mit A -1 unter Beachtung von (7). Die tatsächliche Berechnung des Vektors x der Unbekannten Xi bei zahlenmäßig gegebenem Vektor y geschieht indessen durch Auflösen des linearen Gleichungssystems, etwa nach dem Gaußschen Algorithmus, auf den wir in Abschnitt 6 ausführlich zurückkommen. Demgegenüber würde die explizite Berechnung von A - 1 mit anschließender Multiplikation A - 1Y eine erhebliche Mehr-
38
3 Die Kehrmatrix (Inverse)
arbeit erfordern. Überhaupt wird die Kehrmatrix explizit nur relativ selten benötigt. Ihre Bedeutung liegt in der Möglichkeit formalen Rechnens zur Durchführung theoretischer Überlegungen. Auch die Kehrmatrix ist nichtsingulär, was in ähnlicher Weise wie oben für A jetzt aus AA -I = I gefolgert wird. Aus dem in Abschnitt 2.2, Gleichung (10) zitierten Determinantensatz 3 folgt übrigens für ihre Determinante
Idet A -
1=
1/A
I
(8)
mit A = detA. Es folgen einige einfache Rechenregeln. Durch Transponieren von AA -I = I erhält man (A -I) TAT = I, und da mit A auch AT eine eindeutige Kehrmatrix besitzt, so gilt (9)
Die Kehrmatrix der Transponierten ist einfach gleich der Transponierten der Kehrmatrix. Bei symmetrischer Matrix A ist daher auch A - 1 wieder symmetrisch. Weiter gilt als eine der Formel (9) aus Abschnitt 2.2 analoge Beziehung (10) deren Richtigkeit aus (AB)-I AB= B-1A-1AB = B-1IB= B- 1B= I
(9a)
zu bestätigen ist. Allgemein gilt wieder (10a) Für nichtsinguläre Matrizen lassen sich die Potenzgesetze auch auf negative Exponenten ausdehnen. Man definiert für positives ganzzahliges p A - P = (A - I)P
sowie A 0 = I .
(11)
Dann gilt mit beliebigen (positiven und negativen) ganzen Exponenten p, q (12) Für Diagonalmatrizen D
D- 1 = Diag(1Id;).
= Diag (d;)
mit d; =F 0 ist wieder besonders einfach
3.2 Adjungierte Matrix. Formelmäßiger Ausdruck der
39
aik
• 3.2 Adjungierte Matrix. Formelmäßiger Ausdruck der aik Im folgenden brauchen wir einige einfache Tatsachen und Sätze aus der Determinantenlehre, die dem Leser noch hinreichend bekannt sein werden; andernfalls verweisen wir auf die im Schrifttum aufgeführten Darstellungen sowie die üblichen Lehrbücher für Mathematik. Die zu einem Element aik einer n-reihigen Determinante A = Iaik I gehörige Unterdeterminante ist bekanntlich jene (n - l)-reihige Determinante, die man aus dem Koeffizientenschema nach Streichen der i-ten Zeile und koten Spalte (der Zeile und Spalte des Elementes) gewinnt. Versieht man diese Unterdeterminante noch mit dem Vorzeichenfaktor (_l)i+k, also mit + oder - je nach der Stellung des Elementes im Schachbrettmuster
+ +- + + + + + - +
so wird das Ganze das algebraische Komplement A ik zum Element aik genannt. Jedem Element aik einer quadratischen (regulären oder auch singulären) Matrix A ist damit sein algebraisches Komplement A ik zugeordnet. Die aus diesen Komplementen A ik , jedoch in transponierter Anordnung gebildete neue Matrix wird nun die zu A adjungierte Matrix genannt und mit A adj bezeichnet: A adj = (A ki ) =
[~:;. ~~ ~::J A 1n
A Zn
•••
(13)
A nn
Beispiel. In der Matrix A (a) sind die neun Komplemente (b) enthalten.
2 41 -~J
A= [3
(a)
1 -3
~I
A l1 =
1-:
A 21 = -
I-31 -210
A 31 =
I:
=
=
9 ,
A 12 =
6 ,
An =
-213 = 11
,
-I~ ~I
I: -:1
=
=
3,
A 13 =
I~
2,
A 23 =
_1 3
2 -213 = -13
A 32 = - 13
,
A 33 =
41
-3
= -10,
11 = 1 -3
I~ :1
=
10 ,
10 . (b)
40
3 Die Kehrmatrix (Inverse)
Die adjungierte Matrix ist also nach (13)
A adj =
9 6 IIJ [-103 102 - 1013
.
(c)
Mit den Komplementen lautet nun der sogenannte Entwicklungssatz der Determinantenlehre, nach dem der Determinantenwert A darstellbar ist als Summe der Produkte aus den Elementen einer Zeile oder einer Spalte mit ihren "vorzeichenversehenen" Unterdeterminanten, d. h. mit ihren Komplementen:
A = ail A i1
+ ai2Ai2 + ... +ainAin
A = alkAlk+a2kA2k+ ... +ankAnk
Entwicklung nach der i-ten Zeile , Entwicklung nach der k-ten Spalte .
(14a) (14b)
So ist die Determinante A unseres Beispiels, entwickelt etwa nach der ersten Zeile oder der zweiten Spalte: A
= 3 . 9 + 1. 3 + 2· 10 = 50 = 1. 3 + 4·2 + 3 . 13 = 50
(14c)
Ersetzt man in der Entwicklung Gleichung (14a) die Elemente air der i-ten Zeile durch Elemente ajr einer Parallelzeile (j i), während man die Komplemente Air zur i-ten Zeile beibehält, so ist das Ergebnis gleichbedeutend mit einer Determinante, deren i-te Zeile mit der j-ten Zeile übereinstimmt. Dies aber ist nach einem bekannten Determinantensatz gleich Null. Die entsprechende Überlegung gilt für die Spalten in Gleichung (14b). Man erhält so als Ergänzung zum obigen Entwicklungssatz die Formeln
*
+ aj2Ai2 +
+ajnAin = 0
für
i *j ,
(15a)
al/Alk+a2/A2k+
+an/Ank=0
für
k*l.
(15b)
ajlAit
Die linken Seiten von Gleichungen (14a), (15a) aber stellen ersichtlich das skalare Produkt einer Zeile von A mit einer Spalte von A adj dar, und bei Gleichungen (14b), (15b) ist es das Produkt einer Spalte von A mit einer Zeile von A adj , m.a. W. es handelt sich um Elemente der Matrizenprodukte AA adj und AadjA. Beide Gleichungspaare lassen sich somit zusammenfassen zur Matrizengleichung
AA adj = AadjA =A/=
[~~.~] o
0 ... A
(16)
3.2 Adjungierte Matrix. Formelmäßiger Ausdruck der
41
aik
Im Falle einer singulären Matrix A ergibt dies Null: AA adj = AadjA
=0
für
detA
=A = 0
(16a)
.
Ist aber A nichtsingulär, so läßt sich (16) durch A dividieren, und das besagt dann, daß die durch A dividierte Adjungierte A adj gleich der Kehrmatrix ist:
(17)
womit wir einen formelmäßigen Ausdruck für die Elemente gewonnen haben:
aik
der Kehrmatrix
(18)
Für unser Beispiel ist also:
1 [ 93 62 -13IIJ
A- 1 = 50
-10
10
10
=
0,18 0,12 0,22J 0,06 0,04 - 0,26 . [ - 0,20 0,20 0,20
(d)
Für zweireihige Matrizen schließlich merkt man sich leicht das Ergebnis:
Mit Hilfe der adjungierten Matrix läßt sich sehr einfach jene Formel herleiten, die bei der theoretischen Behandlung linearer Gleichungssysteme im Vordergrund steht, die sogenannte Cramersche Regel, von der wir annehmen dürfen, daß sie dem Leser bekannt ist. Sie stellt die Lösungen Xi formelmäßig als Quotienten zweier Determinanten dar: (20)
wo A die als von 0 verschieden vorausgesetzte Koeffizientendeterminante bedeutet, während die "Zählerdeterminanten" Ai aus A dadurch hervorgehen, daß die i-te Spalte von A ersetzt wird durch die Spalte der rechten Seiten Yj. Diese Vorschrift ergibt sich aus
Ax=y
(21)
42
3 Die Kehrmatrix (Inverse)
durch Linksmultiplikation mit der Adjungierten Matrix A adj unter Beachten von Gleichung (16): Ax=Aadjy,
(22)
was sich aufspaltet in die Gleichungen (23) Hier aber ist der Summenausdruck rechts gerade die oben gekennzeichnete Determinante Ai' aus der er durch Entwickeln nach der i-ten Spalte mit den Elementen Yj hervorgeht. Gleichung (23) besagt: Eliminiert man im Gleichungssystem (21) alle Unbekannten bis auf Xi' so enthält die übrigbleibende Unbekannte den Faktor A = det A, während als rechte Seite die Determinante Ai auftritt. Genau dann, wenn nun unsere Koeffizientenmatrix nichtsingulär ist, A :j:: 0, läßt sich Gleichung (23) für beliebige rechte Seiten Yj' die ja in die rechten Seiten Ai von Gleichung (23) eingehen, auflösen in der Form (20) der Cramerschen Regel. - So wertvoll nun diese Regel als formelmäßiger Ausdruck der Lösungen Xi für theoretische Einsichten ist, so ist sie als Lösungsvorschrift - explizite Berechnung von n + 1 Determinanten A, Al' ... ,An - für umfangreichere Gleichungssysteme doch durchaus ungeeignet. Die praktische Lösung eines Gleichungssystems erfolgt vielmehr stets, wie schon oben angedeutet, durch einen schrittweise und zahlenmäßig durchgeführten Eliminationsprozeß in Gestalt des sogenannten Gaußschen Algorithmus, auf den wir im II. Kapitel ausführlich zurückkommen werden. • 3.3 Matrizendivision Entsprechend dem nichtkommutativen Charakter der Matrizenmultiplikation hat man auch für die inverse Operation, die man als Division bezeichnen kann, zwei Arten zu unterscheiden, nämlich bei den gegebenen Matrizen A und B und gesuchter Matrix X die beiden Aufgaben
IAX~BI ' XA=B .
(24a) (24b)
Beide Aufgaben sind genau dann allgemein und eindeutig lösbar, wenn A nichtsingulär ist, und man findet dann die Lösung X formal durch Multiplizieren der Gleichung mit der Kehrmatrix A -1, im ersten Falle von links her, im zweiten von rechts her: (25a) (25b)
4. t Komplexe Matrizen und Vektoren
43
Die beiden Ergebnisse sind im allgemeinen verschieden, es sei denn, daß A und B vertauschbar sind, AB = BA. Die Matrix A ist als nichtsinguläre Matrix quadratisch, die Matrizen B und X brauchen es nicht zu sein; es muß nur Verkettbarkeit herrschen. Ist A n-reihig, so kann im ersten Fall B vom Format np sein bei beliebigem p, und dann ist es auch X, im zweiten Falle beide vom Format pn. Die tatsächliche Ausführung der "Division", also die Berechnung der Matrizen A - I B und BA - I braucht keineswegs durch eine Multiplikation mit A - I zu erfolgen und wird es in der Regel auch nicht, wenn nicht die Kehrmatrix ohnehin bekannt ist. Vielmehr wird man die Aufgabe (24a) als ein lineares Gleichungssystem mit der Koeffizientenmatrix A und einer p-fachen rechten Seite B = (bI b2 . .. bp ) auffassen. Die Ergebnisse der Auflösung, die p Lösungsvektoren xk' sind dann die Spalten der gesuchten Matrix X = (Xj x2' .. xp )' - Im Falle der Aufgabe Gleichung (24 b) stellt man durch Transponieren um: (24b') löst also ein Gleichungssystem mit der Koeffizientenmatrix A T und den p Spalten von B T , das sind die p Zeilen b i von B, als rechten Seiten, denen dann p Spalten von X T , das sind die p Zeilen xi von X, als Lösungsvektoren entsprechen. Beide Aufgaben lassen sich rechnerisch auch vereinigen. Zur praktischen Durchführung siehe Abschnitt 7.6.
4 Komplexe Matrizen • 4.1 Komplexe Matrizen und Vektoren
Bisher haben wir die Elemente einer Matrix meist stillschweigend, mehrfach aber auch ausdrücklich als reelle Zahlen angesehen. Nun erfährt bekanntlich in der Mathematik der Zahlbegriff erst durch Einführen der komplexen Zahlen seine notwendige Abrundung. Erst mit ihrer Hilfe werden grundlegende mathematische Aufgaben, wie etwa die Auflösung algebraischer Gleichungen ausnahmslos lösbar. Dementsprechend spielen auch komplexe Matrizen, das sind solche mit komplexen Zahlen als Elementen, in Theorie und Anwendung eine wichtige Rolle. Beim Arbeiten mit komplexen Matrizen ergeben sich nun gewisse Besonderheiten, ähnlich wie man dies auch vom Rechnen mit komplexen Zahlen her kennt. Charakteristisch ist dort die Bildung des Betragquadrates einer komplexen Zahl x = u + i v, das hier nicht wie bei den reellen Zahlen durch Quadrieren von x erhalten wird, sondern als Produkt mit der konjugiert komplexen Zahl x = u - i v gemäß (1)
Denn nur diese Bildung ergibt in jedem Falle eine reelle, und zwar eine positive (oder verschwindende) reelle Zahl, wie es vom Betragquadrat zu fordern ist. Diese
44
4 Komplexe Matrizen
Operation, das Produkt mit konjugiert komplexen Gebilden, ist nun auch für das Arbeiten mit komplexen Matrizen und Vektoren kennzeichnend. Betrachten wir zunächst einen komplexen Vektor x mit den Komponenten Xj = Uj + i Vj sowie den konjugiert komplexen Vektor x mit den Komponenten Xj = Uj - i Uj. Beide Vektoren lassen sich wie die Komponenten in Real- und Imaginärteil aufspalten:
x=u+iv,
(1 a)
x=u-iv
(1 b)
mit den reellen Vektoren u, v der reellen Komponenten Uj und Uj. Das Betragquadrat des komplexen Vektors, das Quadrat seiner Norm gewinnt man analog zu Gleichung (1) als das skalare Produkt des Vektors x mit seinem konjugierten Vektor x nach (2)
ausführlich: (2')
Nur so wird die Norm, wie es sein soll, abgesehen vom Nullvektor eine reelle (positive) Zahl, so daß insbesondere auch eine Normierung auf 1 stets möglich ist, indem ein beliebiger Vektor durch seinen Betrag dividiert wird. Für den hier und auch sonst auftretenden konjugiert transponierten Vektor x T hat sich die Schreibweise x* eingebürgert: (3)
Damit schreibt sich das Normquadrat zu 1x 1 2 = X * x. Es ist naheliegend, als skalares Produkt zweier n-dimensionaler komplexer Vektoren x und y nicht, wie im Reellen, den Ausdruck x T y, sondern einen der Ausdrücke x* y oder y* x zu definieren. Zwei komplexe Vektoren, deren skalares Produkt verschwindet, (4)
werden zueinander unitär genannt; das ist die komplexe Verallgemeinerung der Orthogonalität, es ist eine konjugierte Orthogonalität. Im Reellen, aber auch nur dort, fallen die beiden Begriffe unitär und orthogonal zusammen. Die komplexe Verallgemeinerung orthogonaler Einheitsvektoren, das ist ein System komplexer, auf 1 normierter, unitärer Vektoren Xj' für die also die Beziehung
4.2 Sonderformen komplexer Matrizen
45
(5)
mit dem Kronecker-Symbol <>ik besteht, heißt ein unitäres Vektorsystem. So wie ein Vektor läßt sich auch eine komplexe Matrix A mit den Elementen ajk = bjk + i Cjk nebst ihrer konjugierten Matrix Ä mit den Elementen äjk = bjk - i Cjk in Real- und Imaginärteil aufteilen gemäß A =B+iC ,
(5a)
Ä =B-iC
(Sb)
mit den reellen Matrizen B = (bjk ) und C = (Cjk). Auch hier erweist sich das Operieren mit der konjugiert transponierten Matrix (6)
in vieler Hinsicht als sachgemäß. Dies gilt insbesondere für die im folgenden aufgeführten • 4.2 Sonderformen komplexer Matrizen
Sollen nämlich die charakteristischen Eigenschaften der wichtigsten Sonderformen reeller Matrizen, so vor allem der symmetrischen, der schiefsymmetrischen und der orthogonalen, im Komplexen erhalten bleiben, so darf man die im Reellen gültigen Definitionen nicht wörtlich übertragen, sondern muß sie sinngemäß abwandeln, und zwar, ähnlich wie bei den Vektoren, im wesentlichen derart, daß an die Stelle der transponierten Matrix die konjugiert transponierte tritt. An die SteIle der gewöhnlichen Orthogonalität tritt dann die konjugierte, d. h. also die Unitarität, an die Stelle der Symmetrie bzw. Schiefsymmetrie eine konjugierte, für die man gleichfalls besondere Bezeichnungen eingeführt hat: Man spricht hier von hermiteschen bzw. schiejhermiteschen Matrizen (nach CharIes Hermite 1822-1901). Eine hermitesche Matrix als komplexe Verallgemeinerung der reell symmetrischen ist definiert durch die Eigenschaft (7)
was mit A = B + i C zerfällt in
IB T ~ B I symmeMsch" Realteil , CT =
-
C
schiejsymmetrischer Imaginärteil .
(8a) (8b)
46
4 Komplexe Matrizen
Die Diagonalelemente sind somit reell, aii = b ii . Im Reellen fällt hermitesch mit Symmetrie zusammen, im rein Imaginären aber mit Schiefsymmetrie. Eine komplexe (weder reelle noch rein imaginäre) symmetrische Matrix ist durch keine besonderen Eigenschaften ausgezeichnet und daher meist ohne Interesse. Eine schiejhermitesche Matrix als komplexe Verallgemeinerung der reell schiefsymmetrischen ist definiert durch (9)
was wieder zerfällt in
I
T
~
8 -8 CT = C
I
schiejsymmetrischer Realteil , symmetrischer Imaginärteil .
(lOa) (lOb)
Die Diagonalelemente sind hier rein imaginär, ajj = iCjj. Im Reellen fällt schiefhermitesch mit Schiefsymmetrie zusammen, im rein Imaginären aber mit Symmetrie. Eine komplexe (weder reelle noch rein imaginäre) schiefsymmetrische Matrix ist wieder durch keine besonderen Eigenschaften ausgezeichnet und daher wiederum ohne Interesse. Eine unitäre Matrix ist als komplexe Verallgemeinerung der reell orthogonalen dadurch ausgezeichnet, daß ihre Spaltenvektoren ein unitäres Vektorensystem bilden: (11)
was zusammen mit der daraus folgenden entsprechenden Eigenschaft der Zeilenvektoren die Definitionsgleichung ergibt
IA*A =AA* =1 I
(12)
oder auch (13)
Aus Gleichung (12) folgt die Determinantenbeziehung
detÄT'detA
= (detA)'detA = IdetA 1 2 =
1 ,
I ldetAI 1 I· =
Im Reellen fällt unitär mit orthogonal zusammen.
(14)
47
4.2 Sonderformen komplexer Matrizen
Alle drei Sonderformen sind Sonderfälle einer allgemeineren Klasse, der sogenannten normalen Matrizen, definiert durch die Eigenschaft (15)
Eine Matrix, die sowohl hermitesch als auch unitär (oder sowohl symmetrisch als auch orthogonal) ist, A * = A und A * A = I, hat die Eigenschaft (16a) und wird involutorisch genannt (in der Geometrie heißt eine Abbildung, deren zweimalige Anwendung in das Ausgangsbild, also die "identische" Abbildung zurückführt, involutorisch oder eine Involution). - Eine Matrix, die sowohl schiefhermitesch als auch unitär (oder sowohl schiefsymmetrisch als auch orthogonal) ist, hat die Eigenschaft (16b) und wird halbinvolutorisch genannt. Die eigentümliche Zusammengehörigkeit je dreier Eigenschaften der hier betrachteten Matrizen lassen sich an einer Eigenscha/tmatrix nach Art der Abb. 4.1 ablesen: Je drei links vor einer Zeile, am Kopf einer Spalte und im Schnitt von Zeile und Spalte aufgeführte Eigenschaften gehören zusammen, wobei wir uns folgender Abkürzungen bedient haben: S = symmetrisch H = hermitesch I v = involutorisch o = orthogonal Re = reell
S' = H' = I v' = U= Im =
schiefsymmetrisch schiefhermitesch halbinvolutorisch unitär rein imaginär.
0
U
Iv Iv Iv' Iv'
0
Iv
U
-
Iv' Iv
Iv'
•
Re
Re
•
Abb.4.1. Eigenschaftsmatrix spezieller Matrizen
48
4 Komplexe Matrizen
Zum Beispiel besagt das Schema: Eine Matrix, die symmetrisch und reell ist, ist auch hermitesch. Eine Matrix, die symmetrisch und orthogonal ist, ist involutorisch. Eine unitäre symmetrische Matrix hat keine besonderen Eigenschaften. Eine zugleich symmetrisch und schiefsymmetrische Matrix gibt es nicht, von der Nullmatrix abgesehen. Jede quadratische Matrix A läßt sich wie unter Abschnitt 1.4, Gleichungen (19), (20) aufspalten in einen hermiteschen und einen schiefhermiteschen Anteil H undK:
A=H+K
(17)
H = +(A + A *) hermitesch,
(18)
mit
K
=
+(A - A *)
schiefhermitesch
(19)
Beispiele a) Hermitesche Matrix
H= [b ll
b l2 - ic l2
b12 +iC12J
(20)
b 22
b) Schiefhermitesche Matrix
iC
K= [iCll, b12.+ 12J -b 12 +IC I2 IC22
(21)
d) Unitäre Matrix
A =
[,c~s lfJ
IsmlfJ
i sin 1fJ] cos lfJ
(22)
c) Involutorische Matrizen
A=
cos lfJ sin 1fJ) [ sin lfJ -cos lfJ
B= ( •
-,c~s lfJ
i sin 1fJ]
-I
COSIfJ
sm lfJ
(23)
A ist symmetrisch orthogonal, B hermitesch unitär.
4.3 Reelle Darstellung komplexer Matrizen Oft ist es zweckmäßig oder erforderlich, komplexe Vektoren und Matrizen in reeller Form darzustellen, was auf einfache Weise möglich ist. Zunächst halten wir fest: zwei komplexe Zahlen/Vektoren/Matrizen sind nur dann einander· gleich, wenn sie in Real- und Imaginärteil übereinstimmen. Betrachten wir daraufhin das Matrizenprodukt n
AX= y.
,
cf8 x
m
P
A
Y
(24)
4.4 Inverse, Adjungierte und Determinante einer hermiteschen Matrix
49
mit
A=A j +iA 2 X=X j +iX2 Y= Y t +iY2
(25) (26) (27)
, ,
.
Die Gleichung (24) geht damit über in (28)
Wird dies ausmultipliziert und setzen wir nach dem oben Gesagten Real- und Imaginärteil auf beiden Seiten einander gleich, so entstehen die beiden reellen Gleichungen
AtXt -A 2 X 2 = Y t ,
(29)
A t X 2 +A 2 X j
(30)
=
Y2
,
oder zusammengefaßt zu (31)
kurz (32)
und dies ist die reelle Ersatzgleichung für (24), wo nun allerdings das Format der Matrizen sich vergrößert hat. • 4.4 Inverse, Adjungierte und Determinante einer hermiteschen Matrix Nennen wir die Inverse einer regulären hermiteschen Matrix A vorübergehend K, dann gilt
AK=I,
(33)
und daraus folgt durch Transposition und gleichzeitigen Übergang zum konjugiert Komplexen nach (6) mit A * = A und 1* = I
(AK)* =K*A* =K*A =1* =1
-+
K*A =1 .
(34)
Nun sind zwei zueinander inverse (reziproke) Matrizen nach (3.7) miteinander vertauschbar , es ist also
AK* =1 .
(35)
50
4 Komplexe Matrizen
Bilden wir die Differenz der beiden Gleichungen (33) und (35) A(K-K*) = 0
(36)
und multiplizieren dies von links mit A K - K* = 0
1,
so wird (37)
K* = K .
-+
Damit haben wir als komplexe Verallgemeinerung von (9) den
Satz 1: Die Inverse einer regulären hermiteschen Matrix ist hermitesch. Ein einfaches Beispiel.
A=
[~ ~ -~ =:] i i
0
0 0
A
0 0
-1
=
=
(A - 1)*.
Probe A A - I = I .
Als nächstes diskutieren wir die Adjungierte einer hermiteschen Matrix. Aufgrund des Bildungsgesetzes (3.13) der adjungierten Matrix ist leicht zu erkennen, daß die Adjungierte einer hermiteschen Matrix ihrerseits hermitesch ist A
*= A
-+
(38)
(A ad})* = A ad}
Beispiel: Es sei A =
[34+i 4-iJ
(a)
5
Die vier Komplemente A jk sind hier die Skalare (b)
und damit erhalten wir
A [All A2] adj
=
=
A l2 A 2
[5-4-i -4+iJ. 3
(c)
Nun zur Determinante. Es ist nach (3.17) mit det A = LI A ad} -LlA-l -
' aA* d } -Ll*(A-
1)*
.
(39)
Ziehen wir die linken und rechten Seiten voneinander ab, so wird (40)
und daraus folgt nach (38) und nach Satz 1 0= (LI- LI *)A -I
.
(41)
4.4 Inverse, Adjungierte und Determinante einer hermiteschen Matrix
51
Da A - 1 nicht gleich der Nullmatrix sein kann, muß der in Klammern stehende skalare Faktor verschwinden, somit gilt wegen .1 * = .1 T = .1 (ein Skalar ist gegenüber Transposition invariant)
.1=.1.
(42)
Damit haben wir den Satz 2: Die Determinante einer hermiteschen Matrix ist reell. Wir setzen unser Beispiel fort. Nach (3.16) ist A A adj = Lll, hier also nach leichter Rechnung AadJA = [-:
-:J
= - 2
G~J
= - 2l ,
(a)
somit ist LI = - 2 reell, wie es sein muß. Wir bestätigen das Ergebnis durch direktes Ausmultiplizieren detA=det
3 4-iJ =3·5-(4-i)·(4+i)=15-17= -2. [ 4+i 5
(b)
II. Kapitel
Transformationen und lineare Gleichungen
Lineare Transformationen spielen nicht nur in den Anwendungen eine bedeutsame Rolle, sondern sind auch grundlegend für den weiteren Ausbau des Matrizenkalküls, insbesondere im Hinblick auf gewisse Normaljormen; das sind solche Matrizen, die eine maximale Anzahl von Nullen neben einer minimalen Anzahl von signifikanten Elementen enthalten. Man unterscheidet freie und gebundene Transformationen. Die ersteren beziehen sich auf eine Matrix A allein und ermöglichen unter anderem das Auflösen linearer Gleichungen (Abschnitt 7), während die im Abschnitt 10 besprochenen gebundenen Transformationen simultan auf zwei Matrizen A und B, oder, wie man auch sagt, auf ein Matrizenpaar A; B angewendet werden. Diese bilden die Grundlage für das im IV. Kapitel behandelte Eigenwertproblem. Eine zentrale Stellung in Theorie und Praxis der Transformationen nimmt der Gaußschen Algorithmus mit seinen Modifikationen von Jordan, sowie Banachiewicz bzw. Cholesky ein; diese bilden den Inhalt von Abschnitt 6. Einige Ausführungen von mehr theoretischem Interesse, nämlich Fragen über lineare Abhängigkeit und Rang einer Matrix (Abschnitt 9) und ein Exkurs über Orthogonalsysteme (Abschnitt 10) beschließen das Kapitel.
5 Freie Transformationen • 5.1 Ein- und beidseitige Transformationen Gegeben sei eine im allgemeinen rechteckige Matrix A der Höhe m und der Breite n. Es sei L (wie links, left) eine quadratische Matrix der Ordnung m, die wir wie in (1.7) zeilenweise aufschreiben
J
(1)
Die Produktbildung L
LA=A
(2)
heißt dann eine linksseitige Transformation. Dies ist nichts anderes als eine Linearkombination der Zeilen von A, denn es wird nach (1) R. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5_2, © Springer-Verlag Berlin Heidelberg 2011
5.1 Ein- und beidseitige Transformationen
53
(3)
wo also die einzelnen Elemente der transformierten Matrix als die in (2.4a) erklärten Skalarprodukte erscheinen:
[J:
1,2, k - 1,2,
,m}
(4)
,n
Analog dazu transformieren wir nun die Spalten von A. Es sei R (wie rechts, right) eine quadratische Matrix der Ordnung n, aufgelöst in ihre n Spalten (5)
dann bewirkt die Multiplikation der Matrix A von rechts mit Reine Linearkombination der Spalten von A
~ ~AR ~
(Ar,
Ar, ... Ar,)
~ r:;~:?:?:J lamYt
(6)
amY2 ... amYn
und hier sind die Elemente der transformierten Matrix die Skalarprodukte
J: 1,2, [ k-1,2,
m} .
, ,n
(7)
In beiden Fällen stimmt das Format der transformierten Matrix mit dem Format der Originalmatrix überein, wie das nachfolgende Schema zeigt: n
~
m~m
n
(a)
~
m~m.
(b)
(8)
Wir führen nun beide Transformationen (gleichgültig in welcher Reihenfolge) nacheinander aus
(9)
54
5 Freie Transformationen
Eine solche beidseitige Transformation wird als Äquivalenztransjormation bezeichnet. Zur numerischen Durchführung gehen wir entweder nach dem Schema der Abb. 2.2 vor, beginnend mit der Matrix R (lOa), oder nach dem Schema der Abb. 2.3, beginnend mit der Matrix L (lOb),
R A
-
AR
A
R
LA
LAR
(b) .
(a)
I
L
LAR
I
L
(10)
Auch jetzt haben, ebenso wie bei einer einseitigen Transformation, die Originalmatrix A und die Transformierte Ä dasselbe Format. Die Multiplikation der Gleichung (9) von links mit dem liegenden Einheitsvektor ei und von rechts mit dem stehenden Einheitsvektor ek ergibt (11)
Hier steht auf der linken Seite die Zeile ei L = /J bzw. die Spalte Rek = rk und auf der rechten Seite das Element aJk der transformierten Matrix A; es ist somit j : 1,2, [ k - 1,2,
m] .
, ,n
(12)
Solche sowohl in /J wie in rk linearen Skalare heißen Bilinearjormen. Die transformierte Matrix wird damit, wenn wir die m'n Gleichungen (12) explizit aufschreiben,
(13)
Schließlich halten wir noch fest, daß die einseitigen Transformationen auch als Sonderfall der Äquivalenztransformation aufgefaßt werden können, denn es ist ja
LA In
= LA,
ImA R
= AR.
(14)
Hier wurde also einmal R = In und ein andermal L = Im gesetzt, und in der Tat gehen damit die Bilinearformen (12) in die Skalarprodukte (4) bzw. (7) über. Ja, wir können sogar noch spezieller L = Im und R = In gleichzeitig setzen, das gibt die sogenannte triviale Transformation (die in Wahrheit gar keine ist)
5.1 Ein- und beidseitige Transformationen
55
ImA In = A. Nun sind die Zeilen von Im die Einheitsvektoren ~ und die Spalten von In die Einheitsvektoren ek; somit geht (12) über in die Selbstdarstellung
[J:
,m) ,
1,2, k-1,2,
(15)
,n
die uns für rein theoretische Formulierungen noch nützliche Dienste leisten wird. Es folgt ein Beispiel zur Äquivalenztransformation mit m = 3 und n = 2:
A = [-
~ 2~1
7;J
,
L=
[~ ~ ~l , R -
2-2 I)
=
(20 5J1
(a)
Wir rechnen nach dem Schema (IOa) von oben nach unten
J
5 1
A
L
[-!
[!
1 -3 -2
21]
oIJ 1
[-~14
15 -5+2iJ 40
[12 35+2i J 18 45-6i 30 80-4i
R AR
LAR=A
(b)
und zur Kontrolle nach dem Schema (lOb) von links nach rechts
A
[-!
21J
[~
J
5 1
1 35+2iJ IJ [ 69 5+2] [2 -3 o -6i 18 45-6i L[! -2 1 15 5-4i 30 80-4i
R
(c)
LAR=A
Schließlich ermitteln wir noch eine Bilinearform (12), etwa das Element ä22 = PAr2
(d) [2(2 - 3 0) ( 9 - 6i)
(45-6i) = ä 22
,
vergleiche dazu das Element ä22 in der Matrix b) bzw. c).
Zu diesem Beispiel ist nicht uninteressant zu bemerken, daß die Matrix L singulär ist, doch wird der Mechanismus der Transformation davon in keiner Weise berührt.
56
5 Freie Transformationen
• 5.2 Reguläre Transformationen Wir setzen ab jetzt voraus, daß die beiden quadratischen Transformationsmatrizen L und R regulär seien; nach Abschnitt 1.6 sind dann ihre Determinanten von Null verschieden
Idet L * 0,
det R
* 0 I·
(16)
Neben der schon in (9) betrachteten, jetzt aber ausdrücklich als regulär vorausgesetzten
Äquivalenztransjormation LA R = Ä
(17)
ist noch ein Sonderfall von größter Wichtigkeit. Es sei A quadratisch, m = n, dann sind auch L und R und damit auch die transformierte Matrix von der gleichen Ordnung n. Wir setzen jetzt (18)
(im Reellen somit L = R T ~ R = L T), dann geht die Äquivalenztransformation (17) über in die
Kongruenztransjormation LA L * =
A
(19)
Sie wird mit Vorteil besonders dann angewendet, wenn A hermitesch ist, denn dann ist auch die Transformierte A ihrerseits hermitesch, wie leicht einzusehen. Nach der aufs Komplexe übertragenen Transpositionsregel (2.9a) wird nämlich A*
= (LAL*)* = L** A * L* = A ,
wo wir L ** = L und A Beispiel: n = 2.
[32-i G-:J e+i 5-i A
L
(20)
* = A eingesetzt haben.
2+i0 J (-~ 4+2] 2+i (:-3i
J ~+3iJ
L* =L T
LAL T =..4
; ..4=..4* .
(a)
• 5.3 Die drei Grundoperationen Wir lernen jetzt drei spezielle, als Grundoperationen bezeichnete Transformationen kennen, aus denen sich, wie wir noch sehen werden, jede reguläre Transfor-
57
5.3 Die drei Grundoperationen
mation einer rechteckigen oder quadratischen Matrix multiplikativ zusammensetzt. Um die Wirkung dieser Operationen zu erkennen, ordnen wir bei Zeilenoperationen die Einheitsmatrix links von A und bei Spaltenoperationen die Einheitsmatrix unterhalb von A an und führen die Operationen an den so entstehenden Doppelmatrizen gemeinsam aus.
Im
In
Grundoperation Ia. Umordnen der Zeilen von A. n
m
n
m
(21)
Grundoperation Ib. Umordnen der Spalten von A.
m~~mR
(22)
nQnG Aus Im entsteht eine Permutationsmatrix Pzder Ordnung m, aus In eine Permuta-
tionsmatrix Ps der Ordnung n. Jede Zeile und jede Spalte enthält außer Nullen genau ein Element 1, aber eben nicht in der regelmäßigen Diagonalanordnung der Einheitsmatrix I, aus der P hervorgegangen ist. Schreibt man unter jede Spalte der Matrix P die Nummer Zj jener Zeile, in welcher das Element 1 steht, so hat man in der so entstehenden Indexliste eine Kurzdarstellung der Permutationsmatrix. So bedeutet die Liste [1 2... n] die n-reihige Einheitsmatrix, dagegen die Liste [n n -1 ... 1] die gespiegelte Einheitsmatrix, in welcher die Einsen in der von links unten nach rechts oben verlaufenden Diagonalen stehen. Darüber hinaus legt die Indexliste das Vorzeichen der Determinante von P fest, die nach dem Entwicklungssatz nur einen der beiden Werte + 1 oder -1 annehmen kann, und diesen Wert findet man folgendermaßen. Stehen links von Zj Zahlen, die größer als Zj sind, so heißt deren Anzahl die Kennmarke aj; auf diese Weise entsteht die Doppelzeile Zeilenindex
Zj
Kennmarke
aj
I Zt
aj
Z2
Z3
zn
a2
a3
an
Damit ist die Determinante
detPn = (_l)v mit v = Dazu ein Beispiel mit n = 5.
Ps
=
[;
1 0 0 0 0
0 0 0 1 0
0 0 0 0 1
1J
4 5 3 002
(23)
n
L aj
j=l
(24)
58
5 Freie Transformationen
Die Inverse einer Permutationsmatrix ist gleich ihrer Transponierten, wie durch Nachrechnen leicht zu bestätigen, p-l=pT.
(25)
Einfachster Sonderfall einer Permutation ist das Vertauschen zweier Zeilen oder Spalten, dafür gilt stets det P = - 1.
Grundoperation Ha. Multiplikation der Zeilen von A mit nichtverschwindenden Skalaren aj,az, . .. ,am (worauf die Pfeile hinweisen)
:: : [~~.. ~l [.. : : :~.' :~J 0 0... 1J
am
amz· , .
amI
-+
[~I ~~ ••
o
•••.••••
0 ...
=>
amn
~.J
(26)
am
Aus Im wird somit die Diagonalmatrix (1.21) mit den mEIernenten
aj
(27)
Grundoperation IIb. Multiplikation der Spalten von A mit nichtverschwindenden Skalaren ßt,ß2, ... ,Pn-
ßI ~
.'
ßz··· ~
ßn ~
[ ~~~ ~ ,~ ~~~J aml
amz'"
amn
=>
(28)
[ .~ ~ ~.J [. ßoI %~.. ~ .. J o
0...
1
0
0...
ßn
Aus In wird somit die Diagonalmatrix D R = Diag
ßz··· ßn> .
(29)
Beide Operationen und ihre Auswirkungen haben wir in anderer Bezeichnung bereits in (2.15a) und (2.15b) kennengelernt, wenn auch nicht in diesem Zusammenhang.
59
5.3 Die drei Grundoperationen
Die Determinante einer Diagonalmatrix
D
=
Diag (d 1t d 22 ··· d nn >
(30)
ist nach dem Entwicklungssatz gleich dem Produkt ihrer Hauptdiagonalelemente
detD = d ll 'd22 '" d nn ,
(31)
und da die Faktoren aj und ßk ausdrücklich als von Null verschieden vorausgesetzt wurden, gilt (32)
Die Inverse einer regulären Diagonalmatrix ist die Diagonalmatrix ihrer Kehrwerte (33)
denn es ist offenbar
Grundoperation lIla. Linearkombination der Zeilen von A. Eine frei wählbare Zeile der Nummer IJ., die sogenannte Pivotzeile, bleibt ungeändert. Die mit Faktoren qjlJ multiplizierte Pivotzeile wird zu den übrigen m - 1 Zeilen addiert; mit den Zeilen aJ von A geschrieben ergibt dies qllJ
(Q~
( ...
qmll
1 0 .. . 0 .. . 0: 0 1 .. . 0 .. . 0: I ............. . I 0 0 .. . 1 . .. 0:
1 a 2 a
.. . a ll
............. . .. . I I
0 0 .. . 0 . .. 1 : a m
1 0 ... ql. . .. 0 a 1 +q llJ alJ 0 1 .. . qz. . .. 0 a 2 +qzlJ alJ
"'*
................ ......... . . .. 0 a lJ ............... . .......... 0 0 .. . qm. ... 0 am+q mlJ a lJ
0 0 . ..
(35)
Bei dieser Operation ist die Einheitsmatrix Im in den sogenannten Spaltenelevator übergegangen, den wir mit EIJ bezeichnen wollen. Er besitzt nur eine signifikante Spalte, sonst aber die Einheitsvektoren el bis em mit Ausnahme von elJ' an dessen Stelle die Spalte
Position f1
(36)
60
5 Freie Transformationen
steht, neben welcher wir noch die restringierte Spalte
o
(37)
Position JJ
einführen, die anstelle der Eins eine Null enthält. Mit Hilfe der Dyade
ql/J q2/J q/Je/J
=
0 qm/J
(0 0 0 0 0 0
0) 0 0
al/J q2/J
.................. 0 0 .. . 0 ... 0 ................. . 0 0 ... qm/J . .. 0
(38)
läßt sich der Spaltenelevator aus (35) dann folgendermaßen schreiben (39)
womit sich die Operation (35) als Linearkombination der Zeilen von A kürzer so formulieren läßt (40)
Multiplikation dieser Gleichung von links mit ei und von rechts mit ek ergibt nach (12) das Element in der Zeilej und der Spalte k der transformierten Matrix Ä als die Bilinearform (41)
und das ist zufolge
ei A ek = ajk nach (15),
ferner
ei q/J =
qj/J
und
a/J ek
=
a/Jk
(42)
Ist
a/Jk
= 0, so bleibt das Element
ajk
unverändert. Ist aber
a/Jk
"* 0, so folgt (43)
61
5.3 Die drei Grundoperationen
und dadurch ist qjp festgelegt, wenn man das Element iijk der transformierten Matrix Ä vorschreibt. Das Element apk wird als Pivotelement oder kurz als Pivot bezeichnet Oe pivot = Angelpunkt, im Sinne der Mathematik Leitelement).
Grundoperation IIIb. Linearkombination der Spalten von A. Eine frei wählbare Spalte der Nummer v, die Pivotspalte, bleibt ungeändert. Die mit Faktoren Pvk multiplizierte-Pivotspalte wird zu den übrigen n - 1 Spalten hinzuaddiert, damit ergibt sich analog zu (35) die folgende Operation
~~
PvJ Pv2 ... 1 ... Pvn
1
o
100 o 1 ... 0 ...
0 0
o
o
0
0
Pvl
P v2
o
0
o
o
...
1 ...
o
o o
1
o o
... 1 ... P vn
o
Die Einheitsmatrix In ist durch diese Operation übergegangen in den Zeilenelevator t v ' Dieser besitzt die signifikante Zeile der Nummer
P v = (Pvl Pv2 ... 1 ... Pvn) .
(45)
Mit der restringierten Zeile
pv = P v_ e v = (Pvl
Pv2 ... 0 ... Pvn)
(46)
schreibt sich dann analog zu (39) der Zeilenelevator als 1 (47)
und daraus folgt auf ähnliche Weise wie in (40) bis (42) die transformierte Matrix (48) mit den Elementen (49) (48) (49) und weiter, sofern das Pivot ajv als von Null verschieden vorausgesetzt wird, Da das große griechische Epsilon dem E Antiqua zum Verwechseln ähnlich ist, benutzen wir ausnahmsweise einen kleinen Buchstaben für eine Matrix.
62
5 Freie Transformationen
(50)
Kommen wir schließlich zur Determinante und zur Inversen der beiden Elevatoren. Wie durch Entwickeln nach der signifikanten Spalte bzw. Zeile leicht zu sehen, gilt det EIJ
=
1,
det e v = 1 ,
(51)
und die Inversen sind (52)
denn es ist (53)
zufolge
qlJlJ =
0, und analog verläuft der Beweis für die Inverse von e v •
Beispiel. Die Inversionsformel (52) ist zu bestätigen für n = 3 und v = 2 -qlz 1
-q3z
0 1
0
~J ~J
13 .
Schließlich vereinbaren wir noch die folgende Kurzschreibweise für die Multiplikation mit einem Elevator, bei welcher allein die signifikante Spalte bzw. Zeile aufgeschrieben wird: Spaltenelevator E,A:
[;0,
Zeilenelevator A,':
I;,I'
(54)
wobei die signifikanten Einsen an der Stelle f.lf.l bzw. vv durch Kursivdruck hervorgehoben werden. Beispiel. Spaltenelevator EzA = Ä mit
A
=
[310J0 , = [10[]3100J ~ 1
-2
Ez
0
4 1
Die vollständige Durchführung als Matrizenmultiplikation steht in b), die Kurzfassung in c)
(a)
5.4 Das Generalschema einer Äquivalenztransformation
3 2 i
10 0 A -2
3 10 -1 2 0 4 i -2
(b)
1 -3 0 0 1 0 0 4 1
63
=>
- 3 10 2 0 8+i-2
(c)
-3 2
10 0 8+i -2
• 5.4 Das Generalschema einer Äquivalenztransformation Wir kommen nun zur praktischen Durchführung einer Äquivalenztransformation. Hier unterscheidet man die explizite und implizite Vorgehensweise. Wir schildern zunächst die explizite, die im sogenannen Genera/schema durchgeführt wird, worunter wir folgendes verstehen. Man ordnet links neben A die Einheitsmatrix Im und unterhalb von A die Einheitsmatrix In an und füllt das untere linke Feld durch Nullen auf. Auf diese Weise entsteht eine quadratische reguläre Oberoder Hypermatrix U der Ordnung m + n, an welcher alle Zeilen- und Spaltenoperationen durchgeführt werden, m
n
[ffiJ m
o
n
Ä
m
R
n
-
=U,
(55)
ein Vorgang, der sich beliebig oft wiederholen läßt. Im akuten Stadium der Rechnung stehen in 0 stets die beiden Transformationsmatrizen L und R zusammen mitÄ, und immer gilt LAR = Ä. Beim Tischrechnen wird man die Nullmatrix unten links fortlassen, da sie während der Transformation unverändert bleibt, doch ist es für programmierbare Computer bequem, die gesamte Hypermatrix U mitzuführen. Erstes Beispiel. An einer Matrix A sind einige Grundoperationen im Generalschema durchzuführen (a)
1. Ha. Die Zeilen von A sind mit den Skalaren al = 3, a2 = -1 und a3 = 2 zu multiplizieren. 2. III a. Pivotzeile ist die dritte Zeile, q13 = - 3, q23 = 2. Es ist somit die mit 2 multiplizierte dritte Zeile zur zweiten und die mit - 3 multiplizierte dritte Zeile zur ersten Zeile zu addieren, wobei die Reihenfolge beliebig ist. Man achte auf die kursiv gesetzte 1 im Spaltenelevator. 3. Ib. Die beiden Spalten der aktuellen Matrix sind zu vertauschen. 4. IIIb. Pivotspalte ist die erste Spalte. Es ist P12 = 2. Die mit 2 multiplizierte erste Spalte ist zur zweiten zu addieren. 5. lIla. Pivotzeile ist die zweite Zeile, q12 = 0, q'3 = -1. Die mit -1 multiplizierte zweite Zeile ist zur dritten zu addieren.
64
5 Freie Transformationen
Das folgende Schema zeigt die numerische Durchführung dieser fünf Grundoperationen.
3· 1 0 -I' 0 1 2· 0 0 13
=>
A
1.
0 0 1
2 0 1 -3 0 1
h
1 0
2.
-3 3 0 2 0 -1 1 0 0
6 -1 0
0 3 2
1 0
0 1
0 1
4.
3 o -6 0 -1 4 0 0 2
0 0 2
3.
3 o -6 0 -1 4 0 0 2
1 0
6
7 -1
2
0
0 1
1 0
1
2
0 3 o -6 1 0 -1 4 -1 0 0 2
=>
(b)
0 1
Ergebnis
5.
-6
6 -6 -1 7 0 2
-6 -6 7 13 2 4 0 1
1 2
3 0 -6 0 -1 4 0 1 -2 L
R
-6 -6 7 13 LAR=A. -5 -9 0 1
1 2
Zur Kontrolle rechne man explizit LAR == Ä. Nachdem wir uns mit dem Mechanismus der Transformation vertraut gemacht haben, kommen wir nun zur Kernfrage, nämlich der Wahl der Elemente ajk (43) bei Zeilenkombination bzw. der Elemente ajk (50) bei Spaltenkombination. Diese können beliebig vorgegeben werden, wodurch die Elemente qjJl bzw. Pvk festgelegt sind. Allerdings kann in jeder Zeile und Spalte nur ein einziges Element ajk vorgegeben werden, wie man leicht einsieht.
°
Zweites Beispiel. In der Matrix A soll das Element 12 = 5 in ä l2 = - 11 und das Element in ä34 = 0 durch Zeilenkombination überführt werden
3 5 9 0 1 4 10 2 - 8 q32 1 1 1 12
034
= 12
q12 q2
(a)
A.
Da die zu transformierenden Elemente in der 1. und 3. Zeile stehen, ist die zweite Zeile Pivotzeile. Mit der Spalte q2 des Zeilenelevators E 2 wird
5+10qI2= -11,
12+(-8)q32=O,
(b)
und daraus berechnet sich q12 = -1,6 und q32 = 1,5, was man natürlich auch aus (43) hätte direkt entnehmen können. Anschließend erfolgt die Transformation, die in der Tat das Verlangte leistet:
-1,6 3 5 9 0 1 4 10 2 -8 1,5 1 1 1 12
=>
- 3,4 -11 5,8 12,8 4 10 2 -8 7 16 4 0
(c)
5.5 Das Pivotkreuz
65
• 5.5 Das Pivotkreuz Eine der wichtigsten numerischen Konfigurationen ist das Pivotkreuz, das folgendermaßen definiert ist. Man wählt ein von Null verschiedenes Element ajk der Matrix A als Pivot und schreibt alle übrigen Elemente der Spalte k und der Zeile j der transformierten Matrix A tr . vor. Damit sind dann die Elevatoren E k und 1/ eindeutig festgelegt. Ein Beispiel mit m = 3, n = 2. Pivot sei 0ll gabe von ä u = 10, ä21 = -1 und ä31 = 1.
[0
1
5
A = 2 -I
o
3
,
q21 q31
3 5 2 -I 0 3
-
1
~
= 3,
das Pivotkreuz wird festgelegt durch die Vor-
3 10 - 1 ä22 = A tr . 1 ä 32
•
(a)
P12
Ohne die Formeln (43) und (50) explizit zu benutzen (der Leser führe dies aber zur Kontrolle durch), bekommen wir a) Zeilenkombination: zweite Zeile: 2 + q21 • 3 = - l q21 = - 1 dritte Zeile: 0+q31'3 = l q31 = 1/3 b) Spaltenkombination: zweite Spalte: 5 + Pu' 3 = 10.... P12 = 5/3.
(b) (c)
Erste Durchführung. Zuerst Zeilen-, dann Spaltenkombination.
1 3 5 -1 2 -I
1/3 0
3 ~
3
5
-1 -6
~
1 14/3
3 10 -I -23/3 1 19/3
(d)
1 5/3
Zweite Durchführung. Zuerst Spalten-, dann Zeilenkombination.
3 5 2 -1 o 3
~
1 -1 1/3
3 10 2 7/3 o 3
~
3 10 - 1 - 23/3 1 19/3
(e)
1 5/3
Man könnte nun daran denken, nach Herstellung eines Pivotkreuzes ein weiteres vorzuschreiben. Man sieht aber sofort ein, daß dadurch im allgemeinen das erste Kreuz ganz oder teilweise wieder zerstört wird; mit anderen Worten, es gelingt im allgemeinen nicht, durch eine Folge von Pivotkreuzen eine Matrix A in eine vorgegebene Matrix AIr. zu überführen. Dies gelingt nur, wenn alle Elemente des Kreu-
66
5 Freie Transformationen
zes (mit Ausnahme des Pivots selber natürlich) zu Null gemacht werden, weil eine Linearkombination von Nullen wieder nur aus Nullen bestehen kann, und auf dieser Tatsache beruht die Herstellbarkeit der Normalform einer Matrix, der wir uns als nächstes zuwenden. • 5.6 Die Normalform einer Matrix Ist A eine beliebige Matrix, so gelingt stets die spezielle Äquivalenztransformation auf die Normalform
LAR=Ä =Nr = ( IOr
°o~0
(56)
in leichtverständlicher Blockschreibweise (siehe dazu Abschnitt 22.1), wo oben links in N r die r-reihige Einheitsmatrix Ir steht. Zum Beispiel wird für m = 4, n = 6 und r = 2
1 0 1
0
N= r
0 0 0 0 0 0 0 0 (57)
0 0 0 0 0 0 0 0 0 0 0 0
Die Anzahl r der Einsen ist gleich dem in (1.27) eingeführten Rang der Matrix Np und dieser ist, wie wir im Abschnitt 9.1 noch zeigen werden, gleich dem Rang der Originalmatrix A. Die Matrix A sei nun hermitesch. Dann gelingt stets eine Kongruenztransformation
LA L * = A = N = (D r r 0
01 oj
,
(58)
wo D r eine Diagonalmatrix der Ordnung r ist, die p mal das Element + 1 und q mal das Element -1 enthält, siehe dazu (11.21). Ist r = n, so ist A regulär. Sind darüber hinaus alle n Hauptdiagonalelemente von Nr gleich + 1 (-1), so heißt die hermitesche Matrix positiv (negativ) definit. • 5.7 Das vollständige System von Elevatoren Ein System von m Spaltenelevatoren E/i heißt vollständig, wenn seine m Spalten q/i' zusammengefaßt zu einer Matrix Q, die folgenden Eigenschaften aufweisen
67
5.7 Das vollständige System von Elevatoren
1
q21 q3t
Q=(ql q2q3 ... qm)=
(59)
oder auch mit den restringierten Spalten (36 a) geschrieben (60)
Wir sehen: wesentlich ist, daß die (zur Hervorhebung kursiv gesetzten) Einsen auf der Hauptdiagonale - und nicht anders verteilt - in der Matrix Q auftreten. Analog dazu ist ein vollständiges System von n Zeilenelevatoren t v von der Art 1
[
Pt2
~:: .~2 Pnl
? Pt3
.
pln]
~:
Pn2 Pn3
(61)
1
oder
(62)
Wir definieren nun eine geordnete absteigende Folge von Elevatoren durch die schon in (2.16 d) eingeführten normierten Dreiecksmatrizen
Q=
~N=
[::: .. q\ . .
~ ~
qml
qm2
qm3
1
Pt2 1
P13 P23
]
(63)
1
bzw.
o o o
o ... 1 o
::: ~~:]
o ...
P3n
(64)
1
Die Folge ist dadurch gekennzeichnet, daß in der Spalte qf1 an den Stellen 1,2, ... ,fl,-1 lauter Nullen stehen, und das Analoge gilt für die Zeilen pV. Eine absteigende Folge kann aber auch ungeordnet sein, zum Beispiel wird für m = 4
68
5 Freie Transformationen
Q=
[.~,
(ql q2 q3 q4) =
q41 (2
0 0
q12
1
1
q32 q42
0 (3
(,
.;4J (4
Man erkennt hier das gleiche Bildungsgesetz wie in (63): die Spalte q't ist vollbesetzt, q'2 hat an der Stelle (I eine Null, q'4 zwei Nullen, nämlich an den bereits vergebenen Stellen (I und (2' und so fort, und das Analoge gilt für die Zeilen p v. Um diese Zuordnung augenfällig zu machen, legen wir zwei Indexlisten an f1.
2
3
m
(j
(k
(s
2
3
n
(65)
Spaltenindex
(I
bzw.
v
(66) Zeilenindex
GI
Gj
Gk
GI
Für das obige Beispiel lautet somit die Indexliste f1.
Spaltenindex
(2
2
3
4
(,
(3
(4
Für die geordneten Folgen (63) und (64) ist offenbar (j = j und Gk = k. Der Leser beachte aber, daß die ungeordneten Folgen keineswegs aus den geordneten durch bloße Zeilen- und/oder Spaltenumordnungen hervorgehen. Wir bilden nun das Produkt der Elevatoren einer absteigenden Folge
K = Er ErS2 ... ErSm-l ErSm ~l
(67)
bzw. (68)
und stellen durch Ausmultiplizieren fest, daß (69)
ist. Mit anderen Worten, die Produkte Kund M brauchen explizit gar nicht ausgeführt zu werden, sondern ergeben sich durch einfaches Anschreiben der Spalten
5.7 Das vollständige System von Elevatoren
qfl bzw. der Zeilen p v in ihrer natürlichen Reihenfolge 1,2,3 usw. von der Reihenfolge ihres Auftretens in der Folge! - von selbst.
69
unabhängig
Erstes Beispiel. Gegeben sind die vier Elevatoren
E2 =
1000J 300J [/003J [1000J 100 0100 0100 o1 0 0 0 -7 1 0 ' E4 = 0 0 1 7 ' EI = 9 0 1 0 , E3 = 0 0 1 0 . [ [ 01001 0001 0001 0001
o1
(a)
Sie bilden eine absteigende Folge, denn der Vektor q2 aus E2 ist vollständig, im Vektor q4 aus q! fehlen die Nummern 2 und 4 und in q3 schließlich die Nummern 2, 4 und 1. Der Leser überzeuge sich durch Ausmultiplizieren, daß tatsächlich
E4 fehlt das Element der Nummer 2, in
(b)
ist. In umgekehrter Reihenfolge dagegen entsteht das Produkt
(c)
und hier ist von den Spalten q/J nichts mehr zu erkennen; auch ist die Hauptdiagonale nicht mehr mit Einsen besetzt.
Als nächstes interessieren wir uns für die Inversen von Kund M. Nach (3.10a) kehrt sich die Reihenfolge der invertierten Faktoren um, es wird somit (70) bzw. (71) Die Inversen von Elevatoren aber entstehen nach (52) durch Vorzeichenumkehr ihrer restringierten Spalten bzw. Zeilen, und damit lassen sich die Inversen (70) und (71) auf einfache Weise berechnen. Man bestätigt leicht, daß ebenso wie in K = Q und M = P auch die Hauptdiagonalen von K- I und M- 1 mit Einsen besetzt sind, und ganz evident gilt der Satz 1: Die Inverse einer normierten unteren (oberen) Dreiecksmatrix ist ihrerseits eine normierte untere (obere) Dreiecksmatrix. Zweites Beispiel. Wir invertieren die Matrix Q des ersten Beispiels. In den Elevatoren werden die Elemente qjk ersetzt durch - qjk' sodann wird das Produkt der einzelnen Inversen in umgekehrter Reihenfolge gebildet, wobei wir E 3- 1 = I - I = I fortlassen
70
5 Freie Transformationen I E2
-3 0 1 0 7 1
[j ! ~ ~J [j ! ~ ~~l [j o
0 0 1
0 0 O;J
-10 0
27
;] -3J
1 o 0 -166 1 20 0 -10 o 1
Q-l
Man beachte, daß auch die Hauptdiagonale von Q -I mit Einsen besetzt ist! Drittes Beispiel. Zu invertieren ist eine normierte untere Dreiecksmatrix der Ordnung n = 3. Wir nehmen eine Zerlegung in Spaltenelevatoren vor
(a)
Umkehrung der Vorzeichen außerhalb der Hauptdiagonale gibt die Inversen
(b)
die nun in umgekehrter Reihenfolge miteinander multipliziert werden
EilEtl =
1 0 [-31 00J 31 -8
= t::>.N I
.
(c)
1
Schließlich betrachten wir die in umgekehrter Reihenfolge gebildeten Produkte (72)
L = Et;mEt;m_, ••• Et;2Et;1
bzw. (73)
Ihre Inversen sind L- 1 =E- 1E- 1 "'E- 1 E- 1 t;1
t;2
t;m-I
t;m
(74)
bzw. (75)
Beides sind absteigende Folgen, mithin gilt für sie die Eigenschaft (60) bzw. (62), und da sich die Inversen der einzelnen Elevatoren von diesen selbst nur durch das Vorzeichen ihrer restringierten Spalten bzw. Zeilen unterscheiden, haben wir als Ergebnis
71
5.8 Potenzen und Polynome
(76)
bzw.
(77)
In diesem Fall ist somit die Inversion von L bzw. R geradezu geschenkt. Wir kommen auf diesen für die Numerik bedeutsamen Sachverhalt im Abschnitt 6.5 nochmals zurück. Viertes Beispiel. Gegeben ist die absteigende Folge
(a)
Das Produkt der drei Elevatoren wird nach leichter Rechnung
5J o [1-7 o 1 0 -2 1
(b)
und die Inverse dazu ist nach (74)
(c)
Die Hauptdiagonale ist mit Einsen besetzt, wie es sein muß. Probe A - JA = 13 .
• 5.8 Potenzen und Polynome Schon im Abschnitt 2.6 haben wir uns im Anschluß an die Äquivalenztransformation (17) mit Potenzen und Polynomen einer Matrix A befaßt, und es entsteht nunmehr die Frage, wie das zum skalaren Polynom (78)
gehörige Matrizenpolynom, gebildet mit der transformierten Matrix Ä = LAR, (79)
sich durch L, A und R ausdrücken läßt. Um dies zu beantworten, erheben wir die Matrix Ä = LA R in die q-te Potenz und fügen links den Faktor R und rechts den Faktor L hinzu ~~
~r------1
Q = R'LA R·LAR·· 'LAR'LAR'L '------JL--.....J
~l.---I
(80)
5 Freie Transformationen
72
Je nach Art der angedeuteten Klammerung erhalten wir damit die drei gleichwertigen Darstellungen
Q = RL(ARL)q
= R(LAR)qL = (RLA)q RL
(81)
Multiplizieren wir dies mit einem Skalar aq , so ist dieser mit allen Matrizen vertauschbar und kann daher passend plaziert werden, das gibt (82)
Setzen wir hier q = 0, 1, ... ,{} und summieren die {} + 1 Matrizen, so entsteht in allen drei Darstellungsarten
I RLp(ARL) = Rp(LAR)L = p(RLA)RL I'
(83)
wo nun im mittleren Term unser gesuchtes Polynom (79) erscheint. Will man es isolieren, so folgt durch Multiplikation der Gleichung (83) von links mit R - 1 und von rechts mit L - 1 Lp(ARL)L -I = p(LAR) = R-1p(RLA)R
(84)
Ist A regulär und damit invertierbar, so gilt diese Gleichung auch für negative Exponenten, mithin für Polynome der Art
wie sich leicht zeigen läßt. Beispiel. Gegeben ist das Polynom p(x) = -2x- 2 +3+x,
(a)
ferner die drei Matrizen (b)
I. Der linke Term in (84) wird nach leichter Rechnung
2. Der mittlere Term: Ä =LAR=
( 0-IJ -I
0
Ä2=],
p(Ä)=
( 1-IJ . -1
I
(d)
73
5.9 Der Vertauschungssatz 3. Der rechte Term:
Alle drei stimmen überein, wie es sein muß.
5.9 Der Vertauschungssatz Wie wir noch sehen werden, läßt sich jede quadratische Matrix A regulär äquivalent auf die diagonale Pivotmatrix transformieren gemäß
LA R = II = Diag (djj )
,
L und R regulär
(86)
Die konjugiert-transponierte Matrix (87)
ist ihrerseits diagonal und somit mit II vertauschbar ll*ll= llll* ,
(88)
und dies bedeutet nach (86)
(LAR)*(LAR)
=
(LAR)(LAR)*
(89)
oder ausmultipliziert
R*A *L*LAR = LARR* A *L*
(90)
Nun sei die Transformation kongruent durchgeführt, dann wird wegen L = R* (man könnte nach (18) ebensogut R = L * setzen)
R*A * RR* AR = R* ARR* A * R
(91)
oder nach Multiplikation dieser Gleichung von links mit (R *) - I und von rechts mit R- 1
IA*RR*A =ARR*A* I,
(92)
und damit haben wir den bedeutsamen Satz 2 (Vertauschungssatz): Läßt sich eine Matrix A regulär kongruent auf Diagonalform transformieren gemäß R* AR = D, so sind die Matrizen A und A * bezüglich R R * vertauschbar.
74
5 Freie Transformationen
Der Vertauschbarkeitsrelation (92) genügt offenbar jede hermitesche oder schiefhermitesche Matrix A zufolge A * = A (4.7) bzw. A * = -A (4.9). Es existiert jedoch die umfassendere Klasse der normalen Matrizen bzw. Matrizenpaare, die durch die Bedingung (92) definiert sind und auf die wir im Abschnitt 10.5 zurückkommen werden. • 5.10 Lineare Abbildungen Schon im Abschnitt 1.2 hatten wir die Beziehung y = Ax als eine lineare Abbildung bezeichnet: x ist der Originalvektor (das Original) und y der Bildvektor (das Bild). Ist A quadratisch von der Ordnung n, so haben auch Bild und Original die gleiche Länge n. Ist die quadratische Matrix A regulär, so existiert die Inverse A - I, und es besteht die nach (3.1), (3.2) wechselseitige Beziehung
y=Ax<=>x=A-1y.
(93)
Diese ist eindeutig, weil es zu A nur eine Inverse gibt; man sagt auch, die Abbildung ist (eindeutig) umkehrbar. Bei singulärer Matrix A dagegen ist eine eindeutige Umkehrung nicht möglich; hier ist zwar bei vorgegebenem Original x das Bild y = Ax eindeutig festgelegt (weil es nur ein Matrizenprodukt gibt), doch findet man zum Bildvektor y das Original x nicht eindeutig wieder, weil noch weitere Originale existieren, die das gleiche Bild entwerfen. Dazu ein Beispiel mit n = 2.
y-Ax-
[ 0 J [YtJ Y2 3x j
-
4x2
-
(a)
Für vorgegebene Werte XI und x2 ist y eindeutig festgelegt, doch gilt nicht das Umgekehrte, da aus YI = 0 gar keine Auskunft über das Original erfolgt, dagegen ist die Gleichung Yl = 3x1 - 4x2 überbestimmt und hat somit unendlich viele Lösungen.
Ein extremes Beispiel für eine nicht umkehrbare Abbildung ist das dyadische Produkt (94) Wir sehen: für jedes beliebige Original x hat das Bild y die Richtung von p; der Bildraum hat nur die Dimension r = 1, und diese ist nach (2.29) gleich dem Rang der Dyade; ganz allgemein gilt: Der Rang einer Matrix A ist gleich der Dimension des Bildraumes (siehe dazu die Ausführungen im Abschnitt 9). Vorgegeben seien nun zwei Abbildungen, vermittelt durch die quadratischen Matrizen A und B
Ya=Ax, Yb=Bx
(95)
75
6.1 Zielsetzung
Im allgemeinen besitzen die beiden Bilder verschiedene Richtungen, sind sie aber kollinear (in eine Linie zusammenfallend) mit einem skalaren Faktor .1., (96)
somit AX=ABx,
(97)
so heißt der Originalvektor x ein Eigenvektor und der Skalar .1. ein Eigenwert. Ist speziell B = I, so wird Ax = AX .
(98)
Hier ist also das Bild A x dem Original x selbst kollinear. Eigenwerte und Eigenvektoren spielen in Theorie und Praxis eine bedeutende Rolle. Ihnen ist das ganze IV. Kapitel gewidmet. Beispiel. n
A =
= 2, B = I.
C:J ' GJ ' x=
y = Ax =
e:J GJ = 6
= 6x ,
x ist somit ein Eigenvektor zum Eigenwert A = 6.
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan • 6.1 Zielsetzung In diesem Paragraphen geht es um die spezielle Äquivalenztransformation
LAR=/1 ; detL=l,
detR=l,
(1)
durchgeführt mit Elevatoren allein, wo /1 eine sogenannte Pivotmatrix ist. Diese ist definiert durch die Eigenschaft, daß jede Spalte ebenso wie jede Zeile als einziges von Null verschiedenes Element ein Pivot 7rjk aufweist. Deren Anzahl r heißt Rang der Matrix /1 und ist, wie wir noch zeigen werden, auch gleich dem Rang der Originalmatrix A, aus welcher /1 hervorgegangen ist. Man nennt die Pivotmatrix /1 (und damit auch A) spaltenregulär (zeilenregulär) , wenn sie keine Nullspalte (Nullzeile) besitzt, mithin jede ihrer n Spalten (m Zeilen) mit einem Pivot besetzt ist. Dies ist offenbar nur möglich für Hochformat (Querformat) oder Quadrat. Zusammengefaßt: es bedeuten Spaltenregularität
m ;:::: n
r= n
(2)
Zeilenregularität
m s; n
r=m.
(3)
76
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Beispiel. n = 5, m = 3, r = 2 mit
1r
=
[
1r13
= 4 und 1rzl = 3 +2i.
00040J 3 + 2i 0 0 0 0 . o 0 0 0 0
Die Matrix ist weder spalten- noch zeilenregulär, da sie zwei Nullspalten und eine Nullzeile aufweist.
• 6.2 Das Nullenkreuz Macht man in dem im Abschnitt 5.5 eingeführten Pivotkreuz mit Hilfe des Pivots ajk die übrigen Elemente im Kreuz zu Null, so entsteht ein sogenanntes Nullenkreuz k j
(4)
ein Vorgang, der als Reduktion der Spalte k bzw. der Zeile j bezeichnet wird. Bei fortgeführter Reduktion mit Hilfe weiterer Pivots bleiben die bereits erzeugten Nullenkreuze erhalten, wie man sich leicht klarmacht. Nach genau r-l Schritten ist damit die Pivotmatrix [] erzeugt. Da man in der Wahl der Pivots völlig frei ist, ist die Pivotmatrix nicht eindeutig. Auf die zweckmäßige Wahl der Pivots kommen wir später zu sprechen, hier sagen wir nur soviel, daß sie weder zu klein noch zu groß sein sollten. Das hier geschilderte Vorgehen der r-tfachen Reduktion ist nichts anderes als der jedem Leser von der Schule bekannte, zumeist nach earl Friedrich Gauß (1777 -1855) benannte Algorithmus, der, wie man heute weiß, bereits vor 2000 Jahren in China praktiziert wurde [105]. Man unterscheidet zwei Arten der numerischen Durchführung, die aufwendige, dafür leichter zu beschreibende explizite und die elegantere implizite Methode. Zum Rechenaufwand siehe die Übersicht (17).
• 6.3 Der Gaußsche Algorithmus in expliziter Durchführung Um auf die angestrebte Pivotmatrix (1) zu kommen, gehen wir nach dem bereits in (5.55) erklärten Generalschema vor und erzeugen in der Matrix A oben rechts nacheinander die Nullenkreuze (4). Im ersten Schritt wird damit
(5)
77
6.3 Der Gaußsche Algorithmus in expliziter Durchführung
Dabei ist es einerlei, ob im Verlaufe der Rechnung jeweils zuerst die Spalte oder die Zeile reduziert wird, da beide Operationen vertauschbar sind; üblich ist aber die vorgezogene Spaltenreduktion. Der Algorithmus bricht von selbst ab, wenn die Matrix A von Pivots ausgeschöpft ist, es steht dann oben rechts im Generalschema die Pivotmatrix n, links daneben die Transformationsmatrix L und darunter die Transformationsmatrix R, ein Vorgehen, das an Einfachheit und Sinnfälligkeit der Durchführung nicht zu übertreffen ist. Erstes Beispiel. In der Matrix A ist das Pivotkreuz zu a13 = 3 zu erzeugen,
A = [30 - 12 3J . 4 10 9
(a)
Wir schreiben links und unterhalb von A die Einheitsmatrizen 12 und 13 auf und reduzieren zu· erst die erste Zeile und sodann die dritte Spalte von A. Das gibt
1 0 0 1
h
13
30 -12 3 A 4 10 9 1 0 0
-10
1
-3
1 0 0 1
0 0 1 0 0 1 4
0 -86
0 3 46 9
1 0
0 0 1 0 4 1
-10
1 0 -3 1 L R
0 0 3 Ä -86 46 0 1 0 -10
0 0 1 0 4 1
(b)
1
Jetzt gehen wir umgekehrt vor und reduzieren zuerst die Spalte, dann die Zeile:
1 1 0 -3 0 1
12
13
30 -12 3 A 4 10 9 1 0 0
0 0 1 0 => 0 I
1 0 -3 1
30 -12 3 -86 46 0 1 0 0 -10
0 0 1 0 0 1 4
1 0 -3 1 L R
0 0 3 -86 46 0 Ä 1 0 -10
0 0 1 0 4 1
(c)
1
Wieder ist der zweite Schritt geschenkt. Der Leser überzeuge sich durch Ausmultiplizieren, daß in der Tat LA R = Ä ist.
78
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Zweites Beispiel. Die vorgegebene Matrix A ist auf eine Pivotmatrix zu transformieren. Das folgende Schema zeigt die drei Reduktionsschritte. Das aktuelle Pivot (das im Kreuzungspunkt der beiden kursiv gesetzten Einsen steht) ist ebenfalls durch Kursivdruck hervorgehoben.
1
1 -10
1 0 0 0 1 0 0 0 1 13 14
3 1 0 -1 3 10
2 1 1
1 2 5
1 0 0 0
0 0 1 0
0 0 0 1
1 -2
-1
-3
0 0
1 0 0 1 1 0 -1 9 1
1
=>
0 3 0 1 -3 0 0 0
0 1 0 0
1 0 0
0 0 8
0 0 22
0 -1 1 1 0 1 0 0
-1 2 0 1
0
A
0 1 9
1 0 0 0 1 1 0 3 -10 0 1 -27
o
1 -3 0 0
0 1 0 0
1 0 0 1 1 0 -1 9 1 L
R
1 0
0 3 -19
0 3
-5
0 0 -2 -1 1 0 0 1
1 -1
0
-1
0 3 0
1 0 0
0 0 8
0 0 0
1 -3 0 0
0 1 0 0
n
-1 7/4 1 -3/4 0 -1114 0 1
1 -1114
Man überzeuge sich, daß LA R = tegie.
n ist und wiederhole die Aufgabe mit einer anderen Pivotstra-
• 6.4 Der Gaußsche Algorithmus in impliziter Durchführung
Die im letzten Abschnitt vorgeführte explizite Variante besitzt einen schwerwiegenden Nachteil. Ist nämlich die vorgelegte Matrix A schwach besetzt, das heißt, besitzt sie viele Nullelemente wie z. B. die sogenannten Bandmatrizen (ein Musterexemplar steht in (17.56», so haben zwar die zur Reduktion erforderlichen Elevatoren die gleiche schwache Besetzung, nicht aber ihre Produkte L = E r - 1E r - z ... EzE j
bzw.
(6) Diesem Mangel wird in der impliziten Durchführung auf einfachste Weise abgeholfen, indem die einzelnen Elevatoren nicht miteinander multipliziert, sondern weggespeichert werden, wobei es genügt, ihre Spalten qp bzw. Zeilen p v zu speichern (bei Handrechnung aufzuschreiben). Die Transformationsmatrizen L und R sind dann, wie man sagt, als Phantommatrizen gespeichert. Auf deren Weiter-
79
6.5 Der Algorithmus von Banachiewicz
verarbeitung kommen wir im Abschnitt 7.2 zurück; hier geht es zunächst nur um die Methode als solche. Beispiel. Die Matrix A aus dem letzten Abschnitt ist in impliziter Technik auf die Pivotmatrix fl zu transformieren mit der gleichen Pivotfolge wie dort.
1
1 -10
3 1 0 -I 3 10 -3
2
1
0
I
2
1
1
5
9
0 1 0 0 3 0 3 3 -27 0 -19 -5
1 -2 -1
1 0
0 0 1 0 0 0 3 0 0 0 1 0 0 8 22
-I -1
o1 0
0 3000 fl.
o0 8 0
0 0 1 -11/4
(a)
• 6.5 Der Algorithmus von Banachiewicz Wir multiplizieren die Transformationsgleichung (1) von links mit L rechts mit R - 1 und bekommen
I
und von
(7)
oder aufgelöst in das Produkt der Elevatoren (6) und (7) nach der Umkehrregel (3.lOa) I E- 1 •• 'E- I n -I A -EI 2 r-I II r - l
...
-1 -1 112 111
(7a)
,
wobei die Inversen der Elevatoren nach (5.52) durch Vorzeichenumkehr der restringierten Vektoren bzw. ~ v entstehen. Nun bilden die Elevatoren links und rechts von n in (9) aufgrund der Konstruktion des Pivotkreuzes jeweils eine absteigende Folge; somit sind die Inversen L - 1 und R - 1 nach (5.76) und (5.77) auf einfachste Weise aus den restringierten Vektoren zu berechnen. Diese gegenüber dem Vorgehen von Gauß grundlegend neue Idee geht auf Banachiewicz (107] zurück und hat im Laufe der Jahrzehnte in großen Teilen der Fach- und Lehrbuchliteratur den Gaußschen Algorithmus verdrängt.
8/l
Wir greifen zurück auf das Beispiel des letzten Abschnitts. Die restringierten Spaltenvektoren in ihrer natürlichen Reihenfolge (die hier zufällig mit der Pivotfolge übereinstimmt) sind
(b)
wo die kursiv gesetzten Nullen anstelle der kursiv gesetzen Einsen stehen, und damit wird nach (5.76) Cl
= 13-
(gi
gz g3) =
[6o ~ ~ld - [ ~ ~ ~l~J = [_: ~ ~ld . 0
-10 9
10 -9
(c)
80
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Die restringierten Zeilenvektoren ;1=(00-1-1), [i2=(-30-2-1),
P=(000-11I4),
P=(OOOO) (d)
ergeben auf analoge Weise
oo -2 -1 o 0 o 0 Kontrollen: 1. A = L
-I
-1
-1
~
-11/4 0
(e)
JIR -I nach (8); 2. LL -1 = 13 und RR -1 = 14 mit den Matrizen L und
R aus dem Beispiel des Abschnitts 6.3.
Das originale Verfahren von Banachiewicz verläuft indessen sehr viel einfacher, indem aus dem Nullenkreuz (4) das im Schnittpunktjk stehende Pivot extrahiert wird, so daß es allein aus Nullen besteht. Zu diesem Zweck wird die Spalte k aj ebenso wie die Zeile a durch das jetzt mit d t bezeichnete Pivotelement ajk dividiert und aus Pt und qZ die Dyade D t nach folgendem Muster berechnet 1 Pt: = -
dt
aj'
t
1
q: = - a dt
k
;
t
D 1 : = Pt d t q .
(8)
Subtrahiert man diese von A, so verbleibt ein Rest A - D 1 = At, der offenbar das gewünschte Nullenkreuz enthält. Mit dieser Matrix wiederholt man das Verfahren, das gibt dann die Matrix At - D z = A z, und nach r- 1 Schritten ist Ar die Nullmatrix geworden, womit das Verfahren endet. Aus der Summe
(8a)
aber folgt (8b)
und dies schreibt sich mit der Diagonalmatrix D der r Pivots D = Diag (d 1 dz ... d r )
(8c)
nach (3.33) unter Zwischenschaltung von D als dreifaches Produkt
(9)
6.5 Der Algorithmus von Banachiewicz
~
mit P
81
lJ ~ [
Q
(P, p, ... p,),
.::
(9a)
'
wobei allerdings zu beachten ist, daß diese Darstellung infolge der Vertauschbarkeit der Summanden in (8b) nicht eindeutig ist; es gibt rl Möglichkeiten, die Matrix A zu zerlegen. Ein Beispiel mit m = 3, n = 4. 3 1 2 IJ [ 3 10 1 5
A=0-112.
Erster Schritt. Pivot
(a)
dt
0tZ =
=
I.
(b)
A - D1= [
~ 0~ -19~ - ~J5
-27
Zweiter Schritt. Pivot
D z = pz· 3· q z = [
AI - D z =
0Zl
= dz = 3.
~J ·3· (1 0 1 1)
-9
0 ° ° 0J [o0 00 08 220
Dritter Schritt. Pivot
(c)
= AI·
033 =
= [
~ ~ ~ ~J. 3 ,
(d)
-9 0 -9 -9
=Az .
(e)
d 3 = 8.
(e)
(I)
Wir stellen nun P, D und Q nach (8c) und (9a) in ihrer natürlichen Reihenfolge zusammen:
P = (Pt pz P3) =
1 01 00J , D = [10 03 0J - 1 0 , Q= [ 10 -9 1 0 0 8
[qlJ qZ
q3
=
J
[31 01 21 11 . (I) 00 1 22/8
82
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
In der Tat ist A = PDQ nach (9), wie leicht nachzurechnen. Es gibt aber noch fünf andere Möglichkeiten, da rl = 3! = 6 ist. Zum Beispiel
P=
(P3 PI pz),
D=
3
[
d0 d0 0J = [8 0 0I 0J 0 , l 0
o
0 dz
0 0 3
Q=
[q3J q I
,
(g)
qZ
und wieder ist A = PDQ, wie es auf Grund der Vertauschbarkeit der Summanden in (8b) sein muß. Wir haben dieselbe Matrix im Abschnitt 6.4 nach Gauß implizit reduziert. Man erkennt alle Zahlen am gleichen Platz wieder mit Ausnahme der dort unterstrichenen Pivotelemente, die hier durch Nullen ersetzt sind.
Die dyadische Zerlegung (9) ist von verschiedenen Autoren angegeben worden. Sie findet sich für symmetrische Matrizen zuerst bei Doolittle [105], später in etwas abgewandelter Form bei Cholesky [106], sodann erstmals für nichtsymmetrische Matrix bei Banachiewicz [107], der seine Methode ausdrücklich als dem Gaußschen Algorithmus überlegen propagiert; seinerzeit (1938) mit Recht, da beim Arbeiten mit der Tischrechenmaschine zwar nicht die Anzahl der Operationen verringert, wohl aber eine erhebliche Einsparung an Schreibarbeit wie ein zügigerer Ablauf erreicht werden konnte. Dieser Grund entfällt seit der Erfindung des Computers, weshalb dem Gaußschen Algorithmus in seiner ursprünglichen Fassung der Vorzug gebührt. Er ist sehr viel anpassungsfähiger allein durch die Möglichkeit der Pivotregulierung und die Anwendbarkeit auf Matrizenprodukte. Nur wenn die dyadische Zerlegung von der Sache her erforderlich wird wie beispielsweise bei den Methoden im Abschnitt 22.5, hat das Verfahren von Banachiewicz noch seine Berechtigung. • 6.6 Der Algorithmus von Gauß-Jordan Während die Algorithmen von Gauß und Banachiewicz zweiseitige Transformationen darstellen, wobei also Zeilen und Spalten linear kombiniert werden, geht der Algorithmus von Gauß-Jordan einseitig vor, wobei zwei Fälle zu unterscheiden sind. 1. Zeilenkombination (Spaltenreduktion) A sei spaltenregulär vom Range T, dann wird (10) wozu
T
Schritte erforderlich sind (11 )
2. Spaltenkombination (Zeilenreduktion) A sei zeilenregulär vom Range T, dann wird (12)
83
6.6 Der Algorithmus von Gauß-Jordan
und es gilt analog zu (11) (13)
Gegenüber dem Gaußschen Algorithmus sind die Spalten qlJ aus EIJ bzw. die Zeilen p v aus e v im allgemeinen vollbesetzt. Da in praxi nicht bekannt sein wird, ob die zu transformierende Matrix A die Bedingung der Spalten- bzw. Zeilenregularität erfüllt, ist der Algorithmus mit einem Risiko belastet; er muß ergebnislos abgebrochen (oder auf andere Weise weitergeführt) werden, falls während der Rechnung eine Nullspalte bzw. Nullzeile auftritt. Ebenso wie beim Gaußschen Algorithmus haben wir auch jetzt wieder die Wahl zwischen der expliziten und der impliziten Durchführung. Beispiel. Spaltenreduktion in drei Schritten, explizite Durchführung, m = 4, n = 3.
0 1 -2 0
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 I
0 1 2
o
3 0 5 -2
0 I
0 8
1 1 0 0 312 0 0 12 -1/12 0 I 0 0 I 0 I -312 0 -2 I 512 0 o -18 o -2 8 -213 0 0 0 1
312 0 512 1
I
0 0 0
0 1 -2 0
0 -1/12 I -312 -2 -2/3 0
LJ
0 0 1 0
0 0 0
0
312
1 0
114 0
I
o -118
0 3 0 1 0 1 0 5 -2 0 -2 8
0 0 1 0 0 0 0 -2
12 0 0 0
lh
In dieser Originalform ist der Algorithmus indessen zu aufwendig. Mit weniger Operationen kommt man zum Ziel, wenn im Fall 1 die Matrix L J aus (10) in zwei Faktoren L und i zerlegt wird. In einem ersten Durchlauf werden die Spalten wie beim Gaußschen Algorithmus reduziert, das gibt mit der gleichen Matrix L wie dort (14)
und nun erfolgt in einem zweiten Durchlauf die vollständige Reduktion der Spalten: (15)
mit derselben Pivotmatrix wie bei Gauß. Entsprechend verfährt man bei der Zeilenreduktion (12) bis (13).
84
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Ein Beispiel mit m = n = 3, explizite Durchführung. Erster Durchlauf in zwei Schritten. L 1 1 0 0
1 0 8 -1 -1 -11 4 1
-3 0 1 0
3
1 0 0 1
0 1
2
1 0 0 1
1 0 5 -1 1 0 1 0 -10 4
-3 1 0 0
A
10 0 1 1 0 -3 1 0 0 5 -1 -5 2 1 0 0 2 (a)
Die Pivots liegen damit fest. In umgekehrter Reihenfolge erfolgt nun der zweite Durchlauf: L
0 0,5 1
A
1 0 0 1 1
0
-3 1 0 0 5 -1 -5
2 1 0 0
2
-0,2 1 0
1 0 0 1 0 0 -5,5 2 0,5 0 5 0 -5 2 1 0 0 2
2,1 -0,4 -0,1 1 0 0 0,5 0 5 0 - 5,5 2 -5 2 1 0 0 2
(b)
• 6.7 Hermitesehe (reellsymmetrische) Matrix
Ist A hermitesch (im Reellen symmetrisch), so ist es vorteilhaft, wenn auch nicht zwingend, die Gaußsche Transformation kongruent durchzuführen, d. h. R = L * zu setzen. Wählt man darüber hinaus alle Pivots aus der Hauptdiagonale, so wird LA L * =
n = Diag <7rj),
7rjj reell .
(16)
Nach (5.12) sind nämlich die Hauptdiagonalelemente der transformierten Matrix die G;tzt als hermitesche Formen bezeichneten) Bilinearformen 7rjj = IjA Tj ~ Il All, und diese sind nach (11.15) reell. (Dort steht H statt 7rjj und x* statt Il.) Da die reduzierte Matrix des Gaußschen Algorithmus in jedem Stadium hermitesch (reellsymmetrisch) ist, braucht nur die untere linke Hälfte berechnet zu werden, womit sich der Gesamtaufwand halbiert, siehe dazu die Übersicht (17). Der Konträralgorithmus von Banachiewicz wird jetzt nach Cholesky benannt, der bereits 20 Jahre früher die Kongruenztransformation für reellsymmetrische Matrizen entdeckt, wenn auch nicht publiziert hatte; siehe dazu die Arbeit von Benoit [106]. Beispiel. A hermitesch, n = 3. Damit die Eigenschaft Pv = q ~ besser ins Auge springt, ordnen wir die Zeilen p v oberhalb und nicht unterhalb der aktuellen Matrix A an.
85
6.8 Rechenaufwand a) Gauß explizit. 13
i 1 0 0 1 0 1 0 -2 0 0 1
-i
1 -2
0 -i 0 i 1 2 0 2 -1
1 0
L
2i
-1 0 2i 0 0 1 -2i 0 -5
1 1 i 0 0 0 10 -2i 0 -2 1
1 i 0 0 1 0 -2i 0 1
1I -1
0 0 0 1 0 0 0 -1 (a)
In der Tat ist 1I eine reelle Diagonalmatrix, wie es sein muß. Mit der Rechtstransformationsmatrix 1 0
R=L*= [
-~ ~
2il
(b)
~J
wird LA L * = 1I, wovon der Leser sich überzeugen möge. b) Cholesky. Mit den drei restringierten Spalten
qt, q2' q3 aus dem Schema (a) wird
[ ~ ~ ~J
=
- 2i - 2 0
[~2i
-:
2
~l1'j ,
(c)
ferner (d)
Zur Kontrolle bestätige der Leser, daß L -1 L
=
13 und R
-I
R = 13 ist.
• 6.8 Rechenaufwand
Der Rechenaufwand für die drei besprochenen Algorithmen bemißt sich nach der erforderlichen Anzahl der Additionen (bzw. Subtraktionen) und Multiplikationen (bzw. Divisionen), Man pflegt die Einheit von einer Addition und einer Multiplikation als Operation zu bezeichnen, und deren Anzahl ist in der Übersicht (17) für eine vollbesetzte quadratische Matrix A der Ordnung n zusammengestellt, wobei die zweiten und ersten Potenzen von n fortgelassen wurden, da sie gegenüber der Größe n 3 um so weniger zu Buche schlagen, je höher die Ordnung n ist. Beidseitige Transformation Gauß
A beliebig Äquivalenz A hermitesch Kongruenz
implizit n 3/3 explizit 2n 3/3 implizit explizit
Banachiewicz
n 3/3
Einseitige Transformation Gauß-Jordan in einem Durchgang n 312 in zwei Durchgängen n 3/3 wie oben
(17)
86
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Wir erkennen hier nochmals, daß der Algorithmus von Gauß-Jordan die hermitesche (reellsymmetrische) Eigenschaft von A nicht nutzen kann und daher im Nachteil ist, ferner daß die explizite Durchführung des Gaußsehen Algorithmus doppelt so viele Operationen erfordert wie die implizite. Bei stark ausgeprägter Bandform der Matrix A treffen die Angaben der Übersicht (17) nicht zu. Die Potenzen n 3 sind dann zu ersetzen durch das Produkt n . b 2, wo b die sogenannte Breite der Bandmatrix ist. Genaueres darüber findet der Leser im Abschnitt 24.15.
• 6.9 Pivotregulierung Die Technik der jetzt zu beschreibenden Pivotregulierung ist nur anwendbar bei den Algorithmen von Gauß und Gauß-Jordan und besteht in folgendem Vorgehen. Das als Pivot vorgesehene Element ajk im Kreuzungspunkt der Zeile j und der Spalte k wird zunächst durch Zeilenkombination nach (5.43) in Ujk = 1tjk bzw. durch Spaltenkombination nach (5.50) in Gjk = 1tjk überführt, wo 1tjk zweckmäßig zu wählen ist, und nun erst erfolgt die Reduktion der Spalte k und der Zeile j. Durch diese Maßnahme wird die Anzahl der Elevatoren gegenüber der normalen Vorgehensweise maximal um r - 1 erhöht. Es haben somit nicht sämtliche Spalten qlJ bzw. Zeilen p v in einer einzigen Matrix Platz und können daher auch nicht kompaktibel sein. Aus diesem Grund kann der Algorithmus von Banachiewicz bzw. Cholesky von der Pivotregulierung keinen Gebrauch machen. Der zusätzliche Rechenaufwand für die Pivotregulierung beträgt maximal n 2/2 Operationen und ist somit gegenüber der Reduktion selbst vernachlässigbar klein. Eine besonders vorteilhafte Technik besteht darin, die ersten r- 1 Pivots zu 1 zu machen und in der Reihenfolge 11, 22 usw. vorzugehen. Die Pivotmatrix ist dann nur in der Hauptdiagonale besetzt (die bei m?: n am rechten, bei m:5 n am unteren Rand anstößt) und enthält nur ein einziges von Null und Eins verschiedenes Element. Dazu ein Beispiel mit m
A=
[
=
n = 3. A ist in die Pivotmatrix fl zu überführen
1 2J
i1 3+i -4 -1 -3-2i
o
, fl=
[1 0 0J 0 1 0 0
0
Erster Schritt. Wir regulieren mit Hilfe des Elementes 7l 11
-a ll
I-i
.
(a)
a21 =
1 und bekommen nach (5.43) (b)
q I 2 = - - - = - = 1-1 a21
.
1r33
1
Damit wird die Pivotregulierung (d) durchgeführt, anschließend erfolgt die Reduktion in (e). Der zweiten Regulierung dient das aktuelle Element an = - I, das gibt
q23
1r22-a22
1-( -2+3i)
an
-1
=- - - =
.
= - 3 + 31
(c)
87
6.10 Pivotregulierung bei hermitescher Matrix Regulierung in (f), Reduktion in (g). Das Ergebnis steht in (h). Probe LAR = JI.
I-i
I 0 0 i 0 I 0 1 0 0 I 0
1
0
h
(d) 13
0 -3+3i
I -I 0
1
I 2 3+i -4 -I -3-2i
0 1 5-2i -2+4i 0 I 3+i -4 -3-2i I 0 -I
I 0 0
0 1 0
0 0 I
I 0 0
1
0
0
1 -5+2i
I-i i 0
0 I 0 0 0 0 -2+3i -2-4i -3-2i 1 0 -1
(f)
I I-i 0 -I i -3+3i -I i -2+3i
1 0 0
L
1 0 0
(h)
1 1 I-i -1 0 I 0 0 0
A
R
(e)
1 -5+2i 0 1 0 0
2-4i 0 1
0
0
1
I
0 -5+2i I
0
1
1
I -I 0
I-i 0 I 0 i -3+3i 0 1 I 0 -I 0 I -5-2i 0 I 0 0
(g)
0
0 0 1O-9i
0
0
0 1 0
1
0 0 I 2-4i
0 13-7i -3-2i 2-4i 0 I -13+7i
JI
53 - 65i -13+7i I
• 6.10 Pivotregulierung bei hermitescher Matrix
Bei der Kongruenztransformation einer hermiteschen Matrix A müssen zur Pivotregulierung Zeilen und Spalten kombiniert werden, damit auch die regulierte Matrix hermitesch bleibt. Es soll ajj in njj übergehen, dann greifen wir die vier beteiligten Elemente heraus und haben damit
(18)
Um die lästige Indizierung zu vermeiden, setzen wir vorübergehend njj
= n,
qjk
= q;
ajj
= a,
ajk
= b,
akk
=C
•
(19)
88
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Damit wird dann das neue Element oben links in (18) (20)
1C == a+(qb+qb)+cqq ,
und hier haben wir zwei Fälle zu unterscheiden.
Fall 1. c == O. Dann verbleibt von (20) der Anteil 1C == a+(qb+qb)
(21)
oder mit q==x+iy,
(22)
b==u+iv
nach leichter Rechnung 1C-a == 2(xu+ yv) ,
(23)
und das ist die Gleichung einer Geraden g in der reellen x-y-Ebene mit den Achsenabschnitten 1C-a
1C-a
2u
2v
x==-- , y==-- .
(24)
Jeder Punkt dieser Geraden ist bei vorgegebenem Wert von 1C zulässig. Zu bevorzugen sind die Punkte PI bzw. P 2 der Geraden nach Abb. 6.1. Liegt nämlich das Element b == u+iv (22) im Gebiet I der komplexen Zahlenebene nach Abb. 6.2, so wählen wir PI' anderenfalls P 2 und haben damit nach (24) Gebiet I: q ==
1C-a x == - reell.
Gebiet II: q == y == 1C - a i rein imaginär. 2v
2u
(25)
y
g
Pz
u
IJ
0
i
~
Abb.6.1. Die Gerade g im Fall
x akk =
0
Abb. 6.2. Die Gebiete I und II in der komplexen Zahlenebene
6.10 Pivotregulierung bei hermitescher Matrix
89
Fall 2. c:l= O. Die Beziehung (20) formen wir zweckmäßig um in re=c
bb ~ (q-fJ,)(q-fJ,) ij+~ +a---; (q+~b) (b)
2
= r (re)
(26)
mit den Abkürzungen
b
fJ,=--,
c
bb
{}=a--,
c
2 re-{} r(re)=--,
(27)
c
und dies stellt nach Abb. 6.3 ein reelles Rotationsparaboloid über der komplexen Zahlenebene mit dem Fußpunkt fJ, und der Scheitelordinate {} dar. Das Paraboloid ist für c>O nach oben, für c
bb
c>O: re?:.{} = a - -
c
bb
c
c
(28)
Nur wenn diese erfüllt sind, schneidet die horizontale Ebene re = const das Paraboloid in einem Kreis K mit dem Mittelpunkt fJ, = - b/c und dem Radius r(re). Alle Punkte dieses Kreises sind für q zulässig; zweckmäßig ist es jedoch, einen der beiden Punkte PI oder P 2 auf der Verbindungslinie von 0 nach M nach Abb. 6.4 zu wählen; es ist dann q = ßb mit reellem Wert ß. Setzt man dies in (20) ein, so entsteht eine quadratische Gleichung für ß (29)
mit den beiden Lösungen 1 1 Vl-(a-re)c(u 2 +v) 2 ß12= --±-
,
(30)
c c
iy iy I!
I
Abb. 6.3. Das reelle Rotationsparaboloid :rr(q) über der komplexen Zahlenebene
OfL'---'~-------r'---I
Abb. 6.4. Der Schnittkreis K in der komplexen Zahlenebene
90
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Ist ajk reell, somit v = 0, so liegen die Punkte Pt, Mund P2 auf der reellen Achse, und auch q ist reell. Beispiel. Die hermitesche Matrix
A=
0 0 o 0 [i 0 i
-i -i] O-i 0 0 0 0
(a)
ist kongruent auf eine Diagonalmatrix zu transformieren. Da alle vier Diagonalelemente gleich Null sind, ist eine vorangehende Pivotregulierung unverzichtbar. Wir wählen j = 1 und k = 3 (j = 1 und k = 2 würde nichts bringen, da aus vier Nullen kein endliches Pivot erzeugt werden kann.) Zufolge akk = a33 = a = 0 liegt der Fall 1 vor (gerade Linie nach Abb. 6.1), und da b = ajk = an = U + i v = 0 + i· ( - 1) im Gebiet lIder Abb. 6.2 liegt, wird nach (25) mit a = all = 0 und wenn wir 7t = 7tll = 2 wählen,
2-0
7t-a
q = - - i = - - i = -i 2v 2(-1)
(b)
Wir rechnen Gauß implizit und bekommen:
i
0
-i 0 0 0 0 0 1 i 0 0 i i
0 0 1 -i/2 0
0
1 0
-i -i 0 -i 0 0
1 2 0 0 0 0 -i/2 i 0 -il2 i i
1
0
0
1 -i/2
2 0 0 2 0 -i 0 0
0 i 0 0
0 2i -1
il2 il2 -i 0 0 0
-i -i 0 0
0 -2i -1 1
2 0 0 0
1
0 0 0 -1 0 0 0 - 112 - 1/2 i - 112 -1/2
0 0 0 0 - 112
2 0 0 o 2 0 o =ll. 0 - 1/2 o - 1/2 0 0
o o o
(c)
Rechnet man dasselbe explizit, so entsteht die Matrix 1 0 -i 1 -2i 1 L = -i/2 il2 1/2 ~ [ -i/2 0 - 112
0J
-1
,detL = 1 .
Probe LAL* = n. Zur Übung. Wählt man 7tll = 1, somit q13 = q gie 11, 44, 22 vor, so ergibt sich die Pivotmatrix II = Diag (1 - 1
1 - 1) .
(d)
= -i/2 und geht nach derselben Pivotstrate(e)
91
6.11 Bewegliches Pivot
Wie man sieht, ist der Preis für die Herstellung der reellen Diagonalmatrix sehr hoch. Sehr viel einfacher kommt man auf ganz gewöhnliche Weise zum Ziel:
0 0 -1 0 0 -1 I
1 0 0 0 1 0 0 0 1 0 0 0
0
I
0 0 0 -i - i 0 0 0 0 -i 0 i 0 0 0 1 i i 0 0
1 0 0 0 0 0 1 0 0 0 L 0 0 1 -1 0 0 0 1 0 i
0 1 0 0 I 0 1 0
0 1 0 0
0 I
1
0 0 0 0 -i 0 0 0 i -i 0 1 -1 0 -i 0 i 0 0 0 1 i
0 0
0 0 -i 0 i 0 J1 -I 0 0 0 0 0
(f)
Die jetzt reelle Matrix L ist kaum besetzt! Die Pivotmatrix ist hermitesch, wie es sein muß.
• 6.11 Bewegliches Pivot Wir haben bislang stillschweigend vorausgesetzt, daß eine Spalte bzw. Zeile mit ein und demselben Pivot reduziert werden müsse, was natürlich keineswegs obligatorisch ist. Oft ist es nützlich, wenn nicht gar erforderlich, das Pivot während der Reduktion zu wechseln, was den Rechenaufwand in der impliziten Durchführung nicht erhöht. Erstes Beispiel, m = 4, n = 3. Die erste Spalte der Matrix A ist mit beweglicher Pivotzeile von oben nach unten zu reduzieren. Wir machen die folgenden Schritte: 1. Addition der dritten Zeile zur vierten. 2. Addition der mit 0,25 multiplizierten zweiten Zeile zur dritten. 3. Addition der mit - 2 multiplizierten ersten Zeile zur zweiten.
A
14
-2 0,25 1
( 1 0 ( 0 1 0 0
( ~
0 0 0 0 1 0 0 1
2 1 6 4 8 -12 -1 4 5 1 -3 -1
L
A red
1 0 0 0 2 0 0 -2 1 0 0 0 6 -24 0 0,25 1 0 0 6 2 4 0 0 1 1 0 I
Probe: LA = A red •
Der Vorteil des beweglichen Pivots gegenüber dem beim Gaußschen Algorithmus verwendeten festen Pivot liegt in der Vermeidung großer Zahlen. Man vergleiche dazu die Spaltenreduktion mittels Elevator E und der Matrix L im folgenden Beispiel.
92
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
E -a
_a 2
~
.................... .
-a rn-2 0 0 -a rn-I 0 o
L 0 0 -a 1 0 0 -a 1
a
0 0 ... 0 0 1 0 ... 0 0 0 1 ... 0 0
...
1 0 0 1
a a2 a
3
a rn a
) ) I
rn
0 0 0 0 0 0
. ................... 1 0 0 0 0 -Q o ... 0 0 1
)
Bei großer Ordnungszahl n und großem Betrag von 0 ist der Unterschied zwischen o (in L) und orn -I (in E) erheblich. Da L ein Produkt von m - 1 Elevatoren (mit nur jeweils einem Quotienten qjk) ist, gilt ebenso wie beim Gaußschen Algorithmus detL = 1. Wie geht man nun praktisch vor? Die m Elemente der zu reduzierenden Spalte o (oder der Zeile 0 T) werden nach der Größe ihrer Beträge geordnet und numeriert von 1 bis m, wo 1 das betragskleinste und m das betragsgrößte Element bezeichne. Sodann wird ein geeignetes Element der Nummer p als Houptpivot n gewählt; das ist jenes Element, das als einziges stehenbleibt und folglich in der Pivotmatrix n erscheint. Die Reduktion geht dann "von innen nach außen" nach folgendem Schema vonstatten: Gruppe I: m mittels m-l, m-l mittels m-2, ...• p+l mittels P ,} (31) 2 mittels 3, ... , P - 1 mittels p. Gruppe 11: 1 mittels 2, Zweites Beispiel. n = 7, gewählt werde p = @], das Hauptpivot ist somit
0=
°1 °2 °3 °4 °5 °6 °7
-23 2+6i 0,9 240 75i -0,02 5
I II
rJJ:~J
1
-q12
0 0 0
1 0 0 0 0
-q51
0 0
0 0 1
0 0
0 0 0
0 0 0
1
-q45
0 -q63 0 0 0 -qn
1 0 0
TC =
2 + 6i.
0 0 0 0 0 -q37 0 0 0 0 1 0 1 0
detL = 1
=L.
(a)
mit q45 = °4 1°5 =
240175 i = -3,2i.
...• qn = 07 /02 =
51(2 + 6i) = 0,25 -0.75i .
(b)
Der Quotient qjk steht in der Position jk (Zeile j. Spalte k) in L, wie es sein muß. Die zweite Spalte ist mit zwei Quotienten besetzt. da 02 das Hauptpivot ist, während die vierte und sechste Spalte keinen Quotienten aufweisen. weil in der Gruppe I mit 04 und in der Gruppe lImit 06 die Reduktion beendet wird.
Soll das Hauptpivot fest vorgegeben werden, zum Beispiel als reell und ganzzahlig (insonderheit n = 1), so erfolgt vorweg eine Pivotregulierung dergestalt. daß das in der komplexen Zahlenebene (bzw. auf der reellen Zahlenachse) am nächsten gelegene Element °Oj zu n gemacht wird. wie im Abschnitt 6.9 beschrieben.
6.12 Reelle ganzzahlige Äquivalenztransformationen
93
• 6.12 Reelle ganzzahlige Äquivalenztransformationen Ist die mn-Matrix A ganzzahlig, so besteht der begreifliche Wunsch, auch die Äquivalenztransformation LAR = n ganzzahlig - und damit fehlerfrei! durchzuführen. Dies gelingt in zwei Schritten, nämlich zunächst LA = S (Zeilenkombination) und sodann SR = n (Spaltenkombination) , wozu verschiedene Methoden in der Literatur bekannt sind, am einfachsten mit Hilfe des bekannten Euklidischen Algorithmus, den wir deshalb zuerst beschreiben. Herzstück der Methode ist die Reduktion einer Spalte a mit p reellen Komponenten (Elementen) auf den Ska/arvektor Sj = Tej' wo T der größte gemeinsame Teiler der p Elemente von a ist, gemäß der Transformationsvorschrift (32) und zwar geschieht dies mit Hilfe beweglicher Pivots auf folgende Weise.
EUKLID STANDARD Gegeben: Die Spalte a"* 0 mit p reellen Elementen. START: Suche das betragsgrößte Element des Vektors a; es heiße g. (Bei mehreren betragsgleichen Elementen hat man die Auswahl.) ALGORITHMUS: 1) Suche aus den übrigen p - 1 Elementen (der sogenannten Konkurrenz) das betragsgrößte Element; es heiße k. (Bei mehreren betragsgleichen Elementen hat man die Auswahl.) 2) Bilde den Quotienten q = g/k und runde zur nächstgelegenen ganzen Zahl Q. 3) Subtrahiere von g das Produkt Q' k, d. h. ersetze g durch g - Q' k. (Gaußscher Algorithmus, ein Schritt.) 4) Ersetze g durch k. Fahre fort mit 1) ENDE: Die Prozedur endet mit Punkt 1), wenn k = 0 ist. Es sind dann p - 1 Elemente gleich Null, das verbleibende Element ist gleich dem größten gemeinsamen Teiler Tder p Elemente des Vektors a. Führt man die Reduktion außer am Vektor a an der Einheitsmatrix I p durch gemäß (32a) so geht Ip in die Transformationsmatrix Laus (32) über, und zwar ist det L = 1, da L ein Produkt aus lauter Elevatoren (mit jeweils nur einem Quotienten) ist. Erstes Beispiel mit p = 4. Wir reduzieren zunächst den Vektor a allein. START: g = 04 = 10. ALGORITHMUS: Erster Schritt. 1) k = 0J = 7. 2) q=g/k= 10/7= 1,43; Q= 1. 3)g-Q'k= 1O-1·7=3=Q4. 4) g-k = 01 = 7.
(a)
94
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Zweiter Schritt. I) k = ö3 = - 3 (auch k = ö4 = 3 wäre möglich). 2) q = g/k = 7/( -3) = -2,33 ... ; Q = -2. 3) g- Q' k = 7 - (- 2)'( - 3) = I = Öl' 4)g--+k=ö3 = -3.
(b)
Insgesamt sind die folgenden 6 Schritte zur Reduktion erforderlich
'{l])-' [-l]L [-!]), [~])-, [f])-' [~b-' m"".
(c)
Vollständige Durchführung. Mit den 6 Schritten (c) erhält man nach (32a) die Transformationsmatrix
L=
[; ~
~ -~J
-I 0 I -2 -I -2
, detL = 1.
I I
(d)
Probe La = I·e!.
Es sei nun eine mn-Matrix A vom Range r gegeben. Nachdem eine erste Spalte ak mit m Elementen nach Euklid auf Tl ej reduziert ist, wird die Zeile j und die Spalte k gesperrt und aus der verbleibenden Untermatrix eine Spalte mit jetzt nur noch m - 1 Elementen reduziert, und so fort. Dies führt dann ebenso wie beim Gaußschen Algorithmus auf LA = S, wo S eine gestaffelte Matrix ist. Zweites Beispiel mit m = 4, n = 3.
A
=
12 -I -15]
-30
[
60
o
4
35
3 -4 -2 2
(a)
.
Reduktion der ersten Spalte gibt L!A = Al mit
(b)
i i ~~J .
Reduktion der zweiten Restspalte von A! führt auf L 2 L 1A = A 2 mit
-! ~ ~J ' 4 0 3
A2 = [-
0 0 -4
(c)
6.12 Reelle ganzzahlige Äquivalenztransformationen Reduktion der dritten Restspalte von A z ergibt schließlich L 3 L ZL t A
5
2
2 1 o 0 1 64 L= 195 80 o [ -770 -316 -4 -253
I'J
01-3J
-6 2 5 o 0 -1 o 0 0
[
' S=
95
= LA = S.
(d)
Probe: LA = S.
Kommen wir jetzt zur zweiten Transformation (Spaltenkombination) SR = Il. Damit auch diese ganzzahlig verläuft, berechnen wir das Produkt (33)
der r Pivots und starten mit der Skalarmatrix D = gIn; es wird dann nach r Schritten
SR=LAR=gIl ,
(33a)
wo L, Rund Il ganzzahlig sind. Wir führen das zweite Beispiel fort. In der Matrix S (d) stehen die r = 3 Pivots, deren Produkt ist g = ( - 6)' 1. ( - 1) = 6. Damit folgt in zwei Schritten
1
1/3 5/6
S
0 -6 0 0
1 2
-3 5
0 0
-1 0
D
6 0 0
0 6 0
0 0 6
0 1
3
0 1 -3 -6 0 0 0 0 -1 0 0 0
0 1 0 -6 0 0 1I. 0 0 -1 0 0 0 (e)
Probe: SR
6 2 0 6 0 0
5 0 6
6 2 11 0 6 18 R 0 0 6
= gil = 611.
Eine ganz andere Methode des ganzzahligen Rechnens besteht in einer Modifikation des Gaußschen Algorithmus, die allerdings nur dann zu empfehlen ist, wenn A die Hessenberg-Form besitzt:
A=
°11
°12
°13
°l,n-l
°ln
°21
°23
02,n-l
0
°22
°2n
°32
°33
°3,n-l
°3n
0 0
0 0
0 0
°n-I,n-I
°n-l,n
°n,n-l
°nn
............................... ...
(34)
96
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
a) Regelfall. Es sind alle n Hauptabschnittsdeterminanten (35)
von Null verschieden. Dann gelingt die ganzzahlige Transformation LA ="\1 mit 0 0 H1 0 * H2
0 0 0
0 0 0
* L= *....................... . * * * *
* *
Hn -
*
2
0
Hn -
"\1=
H I 012 013 ... 0 H 2 023 ... 0 0 H 3 •..
°ln
02,n-l
°2n
°3,n-l
°3n
......................... 0 0
I
0l,n-l
0 0
0 Hn 0 ... 0
I °n-l,n
Hn
(35a)
Aus LA ="\1 folgt nach dem Determinantensatz detL'detA = det"\l und daraus offensichtlich detA = H n • Die Transformation beruht auf einem einfachen Kunstgriff. Bevor man die zweite Zeile reduziert, wird sie mit all = H 1 multipliziert, womit der störende Nenner in q21 = -a21/all beseitigt ist, und so fort in allen folgenden Zeilen. Es entsteht somit der Algorithmus
a-/1· IJ a-/1+1 =a/1/1 a/1+ 1_ a/ 1 + 1 ,/1''''
m = 1 , 2 , ... , - 1 .
(36)
Führt man diese m - 1 Zeilenersetzungen auch an der Einheitsmatrix In durch, so wird (37)
b) Ist das Hauptdiagonalelement H/1 = 0, so werden die beiden Zeilen a/1 und a/1 + 1 miteinander vertauscht. Drittes Beispiel. n = 4, Regelfall.
A=
(a)
Die erste Zeile bleibt unverändert. Dann folgt nach (36)
11 = 1: ö 2 = a1la2-a2Ia' = (0 14 12 35); H 2 = ö22 = 14 . 11=2: ö3=H2a3-a32ö2=(0 016 -105); H 3 =ö33= 16. 11=3: ö4=H3a4-a43ö3=(0 0 0 331); H 4 =Ö44=331.
(b)
Somit ist
'1=
lJ
35 -105 331
, det A = H 4 = 331 .
(c)
97
6.12 Reelle ganzzahlige Äquivalenztransformationen Ferner wird nach (37) die Transformationsmatrix
°3 ° 0J ° ° . -~-~ 14 -42 16 I
L _
2
- [
(d)
Probe: LA ='l.
Selbst bei kleinen Elementen
ajk
entstehen bei hohen Ordnungszahlen mund
n im allgemeinen sehr große Zahlen, weshalb die praktische Durchführbarkeit eines ganzzahligen Algorithmus durch die Mantissenlänge begrenzt wird. Grundsätzlich aber kann jede Matrix ganzzahlig transformiert werden; denn sind die Elemente von A Dezimalzahlen, so wird die Matrix vor Beginn der Rechnung mit einer geeigneten Zehnerpotenz 10" multipliziert dergestalt, daß alle Elemente ganzzahlig werden. Nach erfolgter Transformation ist dann die Matrix S bzw. die Pivotmatrix [] mit 10 -" zu multiplizieren. Schließlich sei noch erwähnt, daß es Matrizen gibt, die überhaupt nur ganzzahlig transformiert werden können, da andernfalls zufolge von Rundungsfehlern das Ergebnis um 1000070 und mehr verfälscht wird. Das bekannteste Beispiel dafür ist die nach Dekker benannte quadratische Matrix T der Ordnung n mit den Elementen tjk
=(n;~~l) (:=~)-j+;-1 ; detT=
(37a)
1.
Viertes Beispiel. Die Determinante der Dekker-Matrix (37a) ist zu ermitteln nach den folgenden fünf Strategien: 1. Gauß. 2. Gauß. 3. Gauß.
Pivots sind die Elemente a ll ,a22," .,ann . (Hauptdiagonale, sogen. Schul-Gauß) Pivots sind die Elemente a ln ,a2n_I'" .,anl . (Nebendiagonale) Totale Pivotsuche. Pivot ist das'betragsgrößte Element der aktuellen Restmatrix TJl' (Beim Start ist TI = T.) 4. Gauß. Totale Pivotsuche. Pivot ist das betragskleinste Element der aktuellen Restmatrix TI" (Beim Start ist TI = T.) 5. Euklid, Spaltenfolge a l ,a2, ... ,an' Die nachfolgende Tabelle zeigt für einige Ordnungszahlen die Ergebnisse. n=5 1.
2, 3, 4. 5.
°
n
= 10
n
= 12
1,000 007 0,999 7 0,999 999 999 999 1 I 1 0,999 999 999 999 6 0,999 990 0,966 1 1 1 1 1 1
n
= 14
-11,664 1 36,248 1 1
n
= 18
1,4'10 14 1 - 2,3 '10 13 I - 2,5'1 049(!!)
Nach (37 a) muß det T = 1 sein, aber was ist herausgekommen? Daß die Strategien 2 und 4 identisch sind, liegt an einer speziellen Eigenschaft der DekkerMatrix. (Bei beliebiger Matrix trifft dies nicht zu.) Der Euklidische Algorithmus liefert seiner Natur nach fehlerfreie Ergebnisse, ist allerdings bei 16stelliger Mantisse, mit der hier gerechnet wurde, ab n = 19 nicht mehr durchführbar. Rechnet man mit doppelt so langer Mantisse (was leicht möglich ist), so sind exakte Ergebnisse noch bei wesentlich höheren Ordnungszahlen erreichbar.
98
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Der Leser beachte, daß bei der Strategie 1 ab n = 14 und bei der Strategie 3 ab n = 12 total unbrauchbare Ergebnisse resultieren. Daß anstelle des exakten Wertes det T = 1 einige Billionen herauskommen, darf nicht überraschen, da die Kondition der Dekker-Matrix nach Konstruktion eben extrem schlecht ist. Etwa für n = 100 ist bei dem heutigen Stand der Rechentechnik an eine exakte Ermittlung der Determinante überhaupt nicht zu denken.
• 6.13 Der verkürzte Euklidische Algorithmus
Der Euklidische Algorithmus in seiner hier geschilderten Grundform ist im allgemeinen recht aufwendig. Es empfiehlt sich daher eine Kombination mit dem Gaußschen Algorithmus auf folgende Weise. Aus dem Vektor ader Längep greift man ß Elemente heraus, wo 2sß
a=
[:~~]
, b= [97J ;
...
104
104
1
-1
1 0 97 0 1 104
-14 1
1 0 97 -1 1 7
b
1
7
15 -14 -1 -1 1 7
15 -14 104 -97
-1 0
L
s
(a)
Probe: Lb = s. Zweites Beispiel. Aus dem Vektor a der Länge p = 4 werden die ersten beiden Elemente herausgegriffen.
• = [
~.
-30 12J
12
b = [_
30J ;
6.13 Der verkürzte Euklidische Algorithmus
1 1 0 2 0 1
2
12 -30
1 0 1
1 2
I; ;I-~ I
12 -6
=
(a)
s
L
b Probe: Lb
99
s.
Es seien nun a ll und a v zwei Zeilen einer Matrix A, und die Spalte a) soll reduziert werden. Dann bilden die beiden Elemente all) und av) den Vektor b der Länge ß = 2, der nach Euklid reduziert wird auf einen Skalarvektor; die zugehörige zweireihige Transformationsmatrix heiße L llv ' Mit dieser multiplizieren wir die beiden Zeilen der Nummern J1 und v der aktuellen Matrizen L und A und bekommen
(37b)
In L und A sind somit die Zeilen -Il
a ,
a-v .
[Il,
C und a ll , a v zu ersetzen durch [J1,
rv und
Drittes Beispiel. m = 4, n = 3. I. Transformation LA = S.
1 0 1 o 0 o 0
o
0 0 0 0 1 0 0 1
12 -1 -15 - 30 4 35 60 3 -4 0 -2 2
A
1 0 0 0 0 1 0 0
(a);
5 2 5 2 0 0 2 1 2 1 0 0
12 -1 -15 -30 4 35 0 -6
3 2
. (b)
-5 5
1.1. Reduktion der ersten Spalte. Wir wählen J.I = 1, v = 2. Mit der im zweiten Beispiel berechneten Matrix L 12 bekommen wir nach (37b) in (b) die beiden transformierten Zeilen, die in (a) substituiert werden; anschließend wird reduziert mit dem Pivot 1121 = - 6.
0 1 10 0
5 2 0 2 1 0 0 0 1 0 0 0
0 0 0 1
3 -5 2 5 60 3 -4 o -2 2 0
5
2 0
0
0
-6
2
1 0 0
-6
2
5
0
23
46
0 -2
2
20
o
10
1 0
0 0
1
3-5 (c)
1.2. Reduktion der zweiten Spalte. Die zweite Zeile ist gesperrt und scheidet daher aus. Wir wählen J.I = 1 und v = 4.
100
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
~
5 2 0 0 0 3 -5 0 0 0 1 0 -2 2
-2
1 1 2 3
1 1 5 2 0 1 0 2 3 10 4 0 3 0
1 0
(d)
1 -3 0 -4
Die beiden unteren Zeilen werden anstelle der ersten und vierten Zeile in (c) substituiert, sodann erfolgt die Reduktion der Restspalte (das heißt mit Ausnahme des zweiten Elementes) mittels des Pivots 1l2! = 1.
1 5 2 0 0 2 1 0 -23 20 10 1 0 10 4 0
1 0 0 3
0 1 -3 -6 2 5 o 23 46 0 0 -4
5 2 0 1 2 1 0 0 -95 -36 1 -23 10 4 0 3
o 1 -3 -6 2 5 o 0 115 o 0 -4
(e)
1.3. Reduktion der dritten Spalte. Die zweite und erste Zeile scheiden aus. Die Matrix L 34 wird bestimmt, mit dieser erfolgt die Linksmultiplikation der dritten und vierten Zeile und anschließend die Substitution. Das ergibt
115 -4
5 2 0 2 1 0 0 770 316 4 253 195 80 1 64
L L 34
4 115 1 29
0 -1
0 -6 0 0
1 -3 2 5 S. 0 0 0 -1
(f)
Probe: LA = S. 11. Transformation SR = eil. Die Pivots stehen an den Plätzen 21, 12 und 43, damit wird das Produkt (g)
Zeilenreduktion mit der Startmatrix D = 613 in der Reihenfolge 1, 2, (3) ergibt
0 0
1 -3 2 5 0 0 0 -1
6 0 0
0 6 0
0
S
-6
0 -6 0 0
1 -3
0 0 0 0 0 -1
0 -6 0 0
1 0 0 0 0 0 0 -1
il (h)
D
0 0 6
6 2 0 6 0 0
5 0 6
1 1/3 5/6
0 1
3
6 2 11 0 6 18 0 0 6
R
Kontrolle der Rechnung: SR = eil, somit insgesamt LAR = eil = te Beispiel aus dem Abschnitt 6.12.
61l.
Man vergleiche das zwei-
101
6.14 Reelle ganzzahlige Kongruenztransformationen
• 6.14 Reelle ganzzahlige Kongruenztransformationen
Es sei nun A reellsymmetrisch von der Ordnung n und dem Range r~ n mit ganzzahligen Elementen, dann ist es zweckmäßig, zunächst die Kongruenztransformation
LAL T = T,
det L
=1
(38)
auf die Tridiagona/matrix T vorzunehmen, wo L und T ganzzahlig sind. Wir beschreiben den dazugehörigen Algorithmus EUKLID STANDARD bzw.
EUKLID/GAUSS.
1)
1a) Reduktion der ersten Spalte von A mit Ausnahme des Elementes all' Es verbleibt das Element Tkl in der Zeile k. 1b) Reduktion der ersten Zeile. Es verbleibt das Element Tlk = Tk I in der Spalte k. 2) Falls k "* 2, vertausche 2a) die Spalten kund 2 und 2b) die Zeilen kund 2. Auf diese Weise ist eine reellsymmetrische Matrix entstanden, deren erste Spalte und Zeile mit Ausnahme der ersten beiden Elemente mit Nullen besetzt sind. Auf die verbleibende Untermatrix A 22 , die nach Streichen der ersten Zeile und Spalte entsteht, wird die gleiche Prozedur angewendet. Nach höchstens r-l Schritten ist die Transformation (38) abgeschlossen. Prinzipiell ist auch eine ganzzahlige Kongruenztransformation auf eine Diagonalmatrix D möglich, doch führt dies im allgemeinen auf sehr große Zahlen, weshalb es zweckmäßiger ist, nach (38) vorzugehen und anschließend, da T eine (spezielle) Hessenberg-Matrix ist, die Transformation L T = 'l nach (36), (37) vorzunehmen. Ein Beispiel mit n = 4, r = 3.
A=[!~ r~~J -6 0 -3
(a)
0
Die Reduktion der ersten Spalte mit Ausnahme des Elementes
all
ergibt
(b)
Führt man dies an der Einheitsmatrix 14 durch, so geht diese über in die Transformationsmatrix LI' womit sich die Matrix LI ALT = A I berechnen läßt.
[°°~ -~ ~ ~J I -2
2 2 2 1
01 -41 -90 -90J -20 -20 [°° -9 -9 -20 -20
(c)
102
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Sodann erfolgt die Reduktion der Restspalte der Nummer 2, indem die mit - 1 multiplizierte dritte Zeile zur vierten addiert wird. Führt man das gleiche an den Spalten durch, so folgt das Ergebnis _ L-
°
oOJ 1 ° ° 1 2 2 [ ° -3 ° 1
0-2
T
,LAL
= T=
-1
°
°°
[10-4 10 -90 J -9 -20
(d)
° ° °°
Der Leser führe die Transformation nach dem Programm 1a) bis 2b) durch ohne Erstellung der Transformationsmatrix L und vergleiche den Rechenaufwand.
6.15 Komplexe ganzzahlige Transformationen Es sei der zu reduzierende Vektor a = u + i v der Länge p komplex, wo die reellen Vektoren u und v ganzzahlig sind. Dann wird zunächst der Vektor v nach EUKLID STANDARD oder EUKLID/GAUSS reduziert auf Sj = '0ej' sodann erfolgt die Reduktion des Vektors u mit Ausnahme des Elementes Uj auf Tkek' Wir haben dann die Situation 0 0
ii=
uj+i'0
0 0
) ~ a=
0
Tk
Tk
0
0
(39)
1. Regelfall. Es ist T k = + 1 oder T k = - 1. Dann dient T k als Pivot zur Annullierung des Elementes äj = Uj + i '0. 2. Ausnahme. Trifft 1. nicht zu, so wird der größte gemeinsame Teiler tjk der drei reellen Zahlen Uj' Tj , T k ermittelt, das Element äj mit Tkltjk multipliziert und dann erst mittels Tk reduziert. 3. Alternative zu 2. Will man die Ermittlung von tjk vermeiden, so wird äj mit Tk multipliziert und sodann reduziert; doch führt dies auf unnötig große Zahlen im folgenden. Dehnt man diese Operationen auf die Einheitsmatrix I p aus, so gewinnt man die Transformation (40)
Im Fall 1 ist det L = 1, im Fall 2 det L = T k I tjk> im Fall 3 det L = Tk , wie man sich leicht klarmacht. Es ist danach evident, wie der Algorithmus für eine komplexe ganzzahlige Matrix A verläuft. Zunächst erfolgt LA = S, wo S eine gestaffelte Matrix ist, und sodann SR = {! n wie im vorangegangenen geschildert.
103
6.15 Komplexe ganzzahlige Transformationen
Ist A hermitesch, so empfiehlt sich die Kongruenztransformation LA L * = T auf die ree//symmetrische Tridiagonalmatrix T auf die gleiche Weise, wie im Abschnitt 6.14 beschrieben. Prinzipiell wäre auch eine ganzzahlige Kongruenztransformation LA L * = D auf eine reelle Diagonalmatrix D möglich, doch führt dies im allgemeinen auf sehr große Zahlen, weshalb der Umweg über T zweckmäßiger ist. Ein Beispiel. Die komplexe Matrix A ist ganzzahlig auf eine gestaffelte Matrix S zu transformieren, LA = S.
A=
2i 0 3 2+i 0 -5 [ 3-i 1 1 +i
J
(a)
(b)
a, u,
1. Reduktion der ersten Spalte = + i VI mit den reellen Vektoren u l und Zeile der Gesamtmatrix (13 1 a,) wird zur zweiten addiert, das gibt
VI
(b). Die dritte
(c)
Damit ist der Vektor v, reduziert, und u l ist übergegangen in den Vektor u" dessen erste beide Elemente zu reduzieren sind mit der leicht zu berechnenden Matrix L 12 , die wir auch zu einer dreireihigen Matrix L'2 ergänzen können (was für das Programmieren bequemer ist):
(d)
Wir multiplizieren die Matrix (c) von links mit dem Pivot ä ll = 1 (Regelfall) , das gibt 2 -1 -1 \ ] ) -5 3 3 0 -3+i [ o 0 1 3-i
--->
[
L 12 und reduzieren anschließend nach Gauß mit
2 -5 -6+2i
-\
5 3-i
-1
5
(e)
4-i
2. Reduktion der zweiten (transformierten) Spalte. Diese wird zunächst berechnet aus
Die beiden letzten - in (f) eingerahmten - Elemente von V2 werden nach Euklid reduziert mit Hilfe der Matrix L 23 , die wir zu [,23 erweitern durch eine sogenannte Ränderung
L 23
=
[ 4-3J -\3
10
, L 23 = A
0
['
o4 -30J
0 -\3
10
.
(g)
104
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Sodann berechnen wir das Produkt
[,23L, =
2
[
-I
-2-6i 3+3i 5+20i -9-IOi
-I
J
3i 1-10i
(h)
und daraus die transformierte Spalte Ö2
(i)
Hier ist nun 023 = Tk = - 39 das reelle Pivot, mit dem das komplexe Element 022 = 12 - i zu annullieren ist. Es liegt der Fall 2 vor. Die drei Zahlen üj = 12, Tj = - 1 und Tk = - 39 haben den größten gemeinsamen Teiler tjk = I, somit ist die zweite Zeile mit - 39 zu multiplizieren; sodann wird die mit - (12 - i) multiplizierte dritte Zeile zur zweiten addiert, womit die Matrix L 2 (h) übergeht in die endgültige Transformationsmatrix L. Mit dieser wird dann die gestaffelte Matrix S = LA berechnet.
Schließlich ermitteln wir noch die Determinante von A gemäß detS 1'39'(-11+32i) detA = - - = = 11-32i detL -39
(k)
6.16 Die Normalform
Von der Pivotmatrix n ist es nicht mehr weit bis zu der in (5.56) definierten Normalform einer Matrix A. Halten wir nochmals fest, daß bislang zur Transformation LAR = n ausnahmslos die Grundoperation III benötigt wurde; demzufolge ist det L = det R = 1. Erst an dieser Stelle benötigen wir erstmalig die Grundoperationen I und 11 aus Abschnitt 5.3. Grundoperation I Die Zeilen und Spalten der Pivotmatrix n werden so umgeordnet, daß die r Pivots auf die Plätze 11, 22, ... , rr geraten. Dies bedeutet die Transformation pzn Ps = n mit zwei Permutationsmatrizen Pz (Zeilenumordnung) und Ps (Spaltenumordnung). Ist A hermitesch (reellsymmetrisch) und definit (somit auch regulär), so entfällt diese Umordnung, da die Pivots bereits auf der Hauptdiagonale stehen. Grundoperation 11 Es werden nach (5.26) bis (5.28) entweder die ersten r Zeilen oder die ersten r Spalten von jj durch die Pivots dividiert bzw. mit deren Kehrwerten multipliziert. Es läßt sich auch beides kombinieren durch die Produktzerlegung des Pivots, z. B. 7r = 100 = 4· 25; es wird die Zeile durch 4 und die Spalte durch 25 dividiert oder umgekehrt.
105
6.17 Dreieckszerlegung einer quadratischen Matrix
Ist A quadratisch und regulär, so empfiehlt es sich, via Pivotregulierung die ersten n - 1 Pivots zu Eins zu machen und in die Hauptdiagonale zu verlegen. Es resultiert dann die allein durch die Grundoperation III hergestellte sogenannte Determinanten/arm Nd
LAR
= Nd =
[~o ~ ~ ~ ..
o
.. ]
0 0
det L
= 1 , det R = 1 .
(41)
1 0 0 detA
Dieses Verfahren versagt nur dann, wenn im Verlaufe der Transformation die Situation eintritt, daß unterhalb und rechts des Diagonalelementes ajj = 1rjj lauter Nullen stehen. Dies trifft zum Beispiel in der Matrix
A =
5 0 0J [o0 43 -211
(41 a)
schon beim ersten Schritt zu. Dazu ein Beispiel mit m = n = 3, Gauß-Jordan explizit in einem Durchlauf.
1 0 0 1 -2 1 0 10 PV 0 0 0 1 0 1 2 1
-3 0 1 0 3
1 0,6 1
2 -10 1 o -5 -3 1 -5 0 1 -3 3 -1 6 0 0 5
-5
0 -5 1
-2 - 1,2 3
1 0 0 1 -2 1 -3 1 0 0 6 7 0 0 1 0 1 2
1 -4 0,4 - 1,4 -1
6
n.
-1
1 0 0 1 -2 1 -3 1 -5 0 1 -3 00 1 0 1 2
1 0 0 0 1 0 , det A = det n = 5 . 0 0
L
Probe: LA =
2 1
5
n
(Anmerkung: die Abkürzung PV weist auf Pivotregulierung hin.)
6.17 Dreieckszerlegung einer quadratischen Matrix Es sei A quadratisch und regulär. Werden die Pivots aus der Hauptdiagonale auf den Plätzen 11,22, ... ,n n gewählt, so wird offenbar L eine untere normierte Dreiecksmatrix, n eine Diagonalmatrix D n und R eine obere Dreiecksmatrix:
L=
,R=
(42)
106
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Wir zeigten in Satz 1 aus Abschnitt 5.7, daß die Inverse einer normierten unteren (oberen) Dreiecksmatrix ihrerseits eine normierte untere (obere) Dreiecksmatrix ist, es wird somit LA R == D
-> A
== L - 1D R - 1 == L - 1 (D R -
oder
1)
== (L - 1D) R -
1
(43)
~R ,
(44)
'-----r---J
'--v---.J
"'l R
&.L
A == ~L
je nachdem, ob man die Diagonalmatrix D zum rechten oder zum linken Faktor schlägt; in beiden Fällen resultiert eine sogenannte Dreieckszerlegung der Matrix A. Ist A singulär, r< n, und gelingt es dennoch, die Pivotfolge 11,22, ... ,rr einzuhalten (was nicht immer möglich sein muß), so sind in L - 1 die letzten d r == n - r Spalten und in R - I die letzten d r Zeilen Einheitsvektoren; die Konfiguration (42) geht damit über in
, n == Dr ==
L==
t--I~----->t--i '
R ==
I, . (45)
'f----J
r
Ist A hermitesch (reellsymmetrisch) und transformiert man kongruent, so wird A == L -1 D(L - 1)*,
D reell ,
(46)
und hier wird man die reelle Diagonalmatrix D weder nach rechts noch nach links in die Klammer nehmen. Eine - für manche Zwecke erwünschte - Dreieckszerlegung ist jedoch keineswegs immer durchführbar, wie wir oben schon andeuteten. Wir erinnern bei dieser Gelegenheit an die reguläre hermitesche Matrix
A==
[~ ~ -~ =~J i i
0
0 0
0 0
, detA == 1
aus dem Abschnitt 6.10. Auch die zweireihige Matrix
A == [: :] , detA
*0
läßt sich nicht in das Produkt von zwei Dreiecksmatrizen zerlegen.
6.18 Eigenzeilen und Eigenspalten einer singulären Matrix
107
• 6.18 Eigenzeiten und Eigenspalten einer singulären Matrix
Die Pivotmatrix n habe m - r = d m Nullzeilen und n - r = d n Nullspalten, zum Beispiel mit d m = 2 und d n = 3
n
L
(47)
R
Dann gilt offenbar für die durch Pfeile markierten Zeilen und Spalten .
e1 n
=0
oder mit
T
nek = 0
,
n = LAR
.
e1LAR=o
T
,
LARek=o,
und wenn wir die erste Gleichung von rechts mit R mit L - 1 multiplizieren, Ilj A
(48)
= OT,
Ark = 0
I.
(49) I
und die zweite von links
(50)
Die d m Vektoren lj heißen Eigenzeiten und die d n Vektoren rk Eigenspalten der Matrix A. Sie sind jeweils unter sich linear unabhängig, weil die Einheitsvektoren in (48) es sind. Nun ist jede Linearkombination der dm Eigenzeilen (die wir im Gegensatz zum Schema (47), aus dem sie gewonnen werden, von 1 bis d m durchnumerieren) (51)
und jede Linearkombination der dn Eigenspalten (52)
108
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
ebenfalls eine Eigenzeile bzw. Eigenspalte von A; denn multipliziert man (51) von rechts mit A bzw. (52) von links mit A, so wird zufolge (50) 1m A = cto T+C 20 T + ... +cdmo T
(53)
bzw.
Arn = c,o+c2o+ ... +cdn 0 ,
(54)
wie immer man die reellen oder komplexen Koeffizienten ci, ck wählt. Man sagt: die Gesamtheit der Eigenzeilen spannt einen Linkseigenraum (auch Linksnullraum oder Zeilenkern ) der Dimension d m und die Gesamtheit der Eigenspalten einen Rechtseigenraum (auch Rechtsnullraum oder Spaltenkern ) auf. Ist dm = 1, so gibt es nur eine Eigenzeile, und diese ist bis auf ihre Länge, das heißt bis auf den Faktor c I eindeutig, gleichviel, welche Pivotstrategie eingeschlagen wurde. Ist aber d m > 1, so hängt die Erscheinungsform der Eigenzeilen von der Pivotstrategie ab; man kann daher nicht sagen, die Matrix A besäße diese oder jene Eigenzeilen - dies verbietet sich schon im Hinblick auf die lineare Kombinierbarkeit (51) -, sondern unabhängig vom numerischen Vorgehen und daher der Matrix wirklich eigentümlich (im Sinne dieses Wortes) ist allein der von den dm Eigenzeilen (gleich welcher Erscheinungsform) aufgespannte dm-dimensionale Linkseigenraum, und das Entsprechende gilt für die d n Eigenspalten. Erstes Beispiel. Die Matrix II aus Abschnitt 6.1 mit n = 5, m = 3, r = 2. Es ist d m = m - r = 3 - 2 = 1, dn = n - r = 5 - 2 = 3, somit gibt es eine Eigenzeile e 3, weil die Nullzeile die Nummer 3 hat, (a)
und es gibt die drei Eigenspalten der Nummern 2, 3 und 5, weil dies die Nummern der Nullspalten von II sind,
"~ [~J . "~ [~J . '5~ m.
(b)
In der Tat sind damit die Gleichungen (48) erfüllt, denn es ist
e 3ll=oT; lle2=o, lle3=o, lles=o.
(c)
Zweites Beispiel. m = n = 4, Gauß explizit. Nach zwei Reduktionsschritten bricht das Verfahren ab, der Rang ist somit r = 2. 1 1 0 -2 0 1 -3 0 0 -1 0 0
0 0 1 0
0 0 0 1
14 14
1
2 3 1
3 3 2 4
1 0 0 0
0 1 0 0
1 -3
-5 4 -4 2 -1 -2 -7 6 0 0 1 0
0 0 0 1
5 -4
0
A
1
-7/3 1/3
1 -2 -3 -1
0 0 1 0 0 1 0 0
0 0 1 0 0 0 o -3 6 -6 0 o -7 14 -14 1 0 I -2 2 1 -3 0 1 0 0 0 0
5 -4 0 0 1 0 1 0
0
2
1
-2
109
6.18 Eigenzeilen und Eigenspalten einer singulären Matrix 1 0 -2 1 5/3 -7/3 - 5/3 1/3
0 1 0 0 o -3 0 0 0 1 0 0
0 0 1 0
0 0 0 0
0 0 0 0
13 = ( 5/3 - 7/3 1 0) 14 = (- 5/3 1/3 0 1)
n
(b)
(a)
L R
1 -3 -1 2 0 1 2 -2 1 0 0 0 0 0 0 1
(c)
Wir haben hier im Gegensatz zu (51), (52) die korrekte Numerierung gewählt, die mit dem Generalschema (a) übereinstimmt. Man überzeuge sich, daß 13A = 0 T, 14 A = 0 T und Ar3 = 0, Ar4 = 0 ist. Jede Linearkombination (d)
ist wiederum eine Eigenzeile bzw. Eigenspalte. Zum Beispiel wird mit
c3
= -10,
c4
=2
(e)
und tatsächlich ist Ar = 0, wie es sein muß.
Werden die d m Eigenzeilen /J zu einer Linkseigenmatrix L e und die d n Eigenspalten Tk zu einer Rechtseigenmatrix Re zusammengefaßt,
(55)
so schreiben sich damit die Gleichungen (50) kompakter als
1
LeA
= 0, ARe = 0 I·
(56)
Die Erscheinungsform der beiden Eigenmatrizen hängt wesentlich ab von der gewählten Pivotstrategie, wie wir abschließend noch zeigen wollen. Zuerst die Eigenzeilen. Wählt man die Pivots zeilenweise von unten nach oben, so geht die Einheitsmatrix Im in eine normierte obere Dreiecksmatrix über. Erscheinen darüber hinaus in der Pivotmatrix 11 die dm Nullzeilen als die letzten ganz oben (was die Pfeile im Schema (57) andeuten), so sind demnach aus der Matrix L die oberen d m Zeilen herauszugreifen, und das bedeutet, daß L e von Trapezform ist, wie unmittelbar aus dem Schema ersichtlich
= rs\',;;·
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
110
LSJ
~
---~
Le
>~I (57)
L~
Das Analoge gilt für die Matrix Re' wenn die Pivots spaltenweise von rechts nach links gewählt werden und die dn Nullspalten in 1t ganz links auftreten
~R
(58)
Wir nennen dies die Normalform der Eigenmatrizen L e und Re' Sollen beide diese (numerisch erwünschte) Normalform besitzen, so müssen demnach die Pivots aus der von unten rechts nach oben links verlaufenden Diagonale (das ist bei quadratischen Matrizen die Hauptdiagonale) gewählt werden, also fortschreitend in der Reihenfolge m n, m - 1 n - 1 usw., was allerdings im allgemeinen nicht möglich sein wird. Aber selbst die Normalform von nur einer der beiden Eigenmatrizen L e oder Re ist dann nicht gegeben, wenn wie im Schema (47) die Pfeile wie wir sagen wollen "fehlplaziert" sind, die Nullzeilen bzw. Nullspalten in [] somit nicht erst geschlossen am Ende der Reduktion, sondern im Laufe der Rechnung schon vorher erscheinen. Wir kommen auf diesen wichtigen Sachverhalt im Abschnitt 10.10 noch einmal zurück. Wir wiederholen das letzte Beispiel mit der Pivotfolge 44, 33, also von rechts unten nach links oben fortschreitend. Man erhält
L
1 0 0 0
0 -1/10 -7/10 1 - 1/2 - 1/2 0 1 1/3 0 1 0
0 0 0 0
0 0 0 0
0 0 -10/3 0
0 0 0 6
0 0 1 7/6
0 0 0 1
L = 2
I11J 11 lp lo
0 1
-0,1 -0,7J -0,5 -0,5 (b)
(a)
1 0 0 1 1 1 1 1/2
R
In der Tat stehen in (b) und (c) die Normalformen (57) und (58) vor uns.
o11 ] 0,5
.
(c)
6.19 Die normierte Eigendyade als Projektor
111
6.19 Die normierte Eigendyade als Projektor
Es sei jetzt die singuläre Matrix A quadratisch von der Ordnung n mit dem Rang r, somit ist der Defekt dm = dn = d = n - r, und wir fassen ebenso wie in (55) die Eigenzeilen und Eigenspalten zusammen zu den beiden Rechteckmatrizen
L,~ [
-n-
(59)
Deren Erscheinungsform hängt auch jetzt wieder ab von der Pivotstrategie, oder anders ausgedrückt: wählen wir zwei reguläre, aber sonst beliebige d-reihige Matrizen Cl und Cr> so erfüllen die transformierten Eigenmatrizen (60) ebenfalls die beiden Gleichungssysteme (56), denn es ist ja
LA=CILeA=CIO=O, L-..J
AR=AReCr=OCr=O. L-J
(61)
Wir können dies auch so sehen: Alle die unendlich vielen Matrizen L e und Re (59), die durch verschiedene Pivotstrategien erzeugt werden, gehen ineinander über durch eine bestimmte Wahl der beiden Matrizen Cl und Cr. Es wäre daher wünschenswert, eine Repräsentation der beiden Eigenräume von A zu haben, die unabhängig ist von der willkürlich eingeschlagenen Pivotstrategie, und eine solche Darstellung ist in der Tat möglich für den Fall, daß die Produktmatrix LeRe regulär ist. Dann nämlich existiert ihre Inverse und damit auch das normierte d-fache dyadische Produkt, die sogenannte Eigendyade (62)
der Ordnung n vom Range d, und diese Matrix ist wie gewünscht invariant gegenüber der Wahl von Cl und Cr, denn die transformierte Eigendyade jj wird mit den Matrizen (60)
(63)
Die Matrizen Cr und Cl heben sich wieder heraus, und damit haben wir einen Repräsentanten der beiden von Le und Re aufgespannten Eigenräume der Matrix A gefunden, der unabhängig ist von der Pivotstrategie.
112
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Die Eigendyade (62) hat einige bemerkenswerte Eigenschaften, wie wir jetzt aufzeigen wollen. Zunächst bilden wir das Quadrat von D (64)
es gilt somit (65)
und damit weiter zufolge D 3 = D 2 D
= DD = D
usw. auch
DP = D, p = 2,3, ....
(66)
Matrizen dieser Eigenschaft heißen idempotent und werden als Projektor bezeichnet. Satz 2: Die Eigendyade D ist ein Projektor. Ferner gilt ein einfacher Satz über die Spur und die Determinante einer Eigendyade, nämlich sp D
= n - r = d;
det D
=0
.
(67)
Den Beweis dafür können wir erst später erbringen mit Hilfe der Eigenwerte des Paares D; In - Kenntnisse, die uns im Augenblick noch nicht zur Verfügung stehen. Bevor wir eine weitere bedeutsame Beziehung herleiten, wollen wir eine Erweiterung vornehmen, die sich in vielen Fällen als nützlich, wenn nicht erforderlich erweist. Es sein N eine reguläre, aber sonst beliebige Normierungsmatrix der Ordnung n, und das damit gebildete dreifache Produkt LeNRe sei ebenfalls regulär. Dann definieren wir damit die verallgemeinerte Eigendyade (68)
die für N = In in (62) übergeht, und auch diese Matrix ist ein verallgemeinerter oder N-Projektor, welcher zufolge D'N-1'D=NRe(Le NR e )-I L e N·N- 1·NRe(Le NR e )-I L e N (69)
der Gleichung (70)
113
6.19 Die normierte Eigendyade als Projektor
und somit auch wieder als Verallgemeinerung von (66) der erweiterten Relation (71)
genügt. Schließlich multiplizieren wir den Projektor (68) von links mit L e und sodann von rechts mit Re (72)
und bekommen damit die angekündigten Beziehungen (73)
Daß es Matrizen gibt, die eine Darstellung mittels Eigendyaden nicht zulassen, zeigt das folgende Beispiel
Hier ist das Produkt LeRe nicht invertierbar, weil Eigenzeile und Eigenspalte zueinander orthogonal sind. A ist eine sogenannte Jordan-Zelle, vergleiche (18.69). Erstes Beispiel. Die singuläre Matrix A hat den Rang, = 1. Man findet nach leichter Rechnung die Eigenzeile (; und die Eigenspalte ' •. In der Tat ist (; A = OT und AI. = 0 mit
A=
[21J 4
T ,1.=(-2
2
1),
'e=
[-IJ 2
;
T le'e=4*0.
(a)
Natürlich ist auch al: eine Eigenzeile und 'eb eine Eigenspalte, wo a und b von Null verschiedene, aber sonst beliebige (auch komplexe) Skalare sind. Dagegen ist die Eigendyade
(b)
von a und b unabhängig. Nach (67) ist sp D = n - , = 2 - 1 = 1 und det D = 0. Zweites Beispiel.
A=[;
~=;~l.
-1 -2
I~J
(a)
114
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Erstes Pivot sei
all =
0 0 3 -2 1 0 0 1/3 0 1 0 1
0 0 0
3, dann gibt Gauß explizit bereits nach dem ersten Schritt
0 0 0
n,
L e -_ [-2/3 1 0J 1/3 0 1
Rang r = 1, Defekt d = 2 .
1 -2 10 0 1 0 0 0 1
L
R
(b)
,
Das Produkt LeRe ist regulär und damit invertierbar. Man findet nach leichter Rechnung
1 [ 7 - 20J , (LeRe)-1 =3LeRe =3 - 2 51
13
[13 20J 2 7
90J
1 [42 ,D=Re(LeRe)-ILe =-6 -18 3960 51 3 6 21
(c) Probe: sp D = n - r = 3 - 1 = 2 und det D = 0 nach (67). Wählt man ein anderes erstes Pivot, etwa al3 = - 30, so ergeben sich andere Matrizen L e und Re' doch wird die Eigendyade D (c) davon nicht betroffen, wovon der Leser sich überzeugen möge. Schließlich überprüfe man noch die Beziehungen (73) mit N = 13, also LeD = L e und DRe = Re mit den Eigenmatrizen (b) und der Eigendyade (c).
• 6.20 Schlußbemerkung Es ist nicht übertrieben zu sagen, daß der Gaußsehe Algorithmus das Kernstück der Matrizenalgebra darstellt. Dies betrifft sowohl das Auflösen linearer Gleichungssysteme (Abschnitt 7), die Biorthonormierung zweier Matrizen Bund A (Abschnitt 8), die Transformation einer Matrix bzw. eines Matrizenpaares auf die Normalform, die Behandlung des Eigenwertproblems und zahlreiche andere Problemkreise, die wir erst im Teil 2 des Buches erschließen werden. So gesehen basiert letztendlich der gesamte Matrizenkalkül auf der numerisch problemgerechten Erstellung der Pivotmatrix n, die wir deshalb so ausführlich in allen ihren Varianten dargelegt haben. Der Nachteil der Algorithmen von Banachiewicz bzw. Cholesky liegt in der Starrheit ihres Ablaufs begründet, ein Umstand, der unter anderem weder eine Pivotregulierung noch ganzzahliges Rechnen ermöglicht. Der Algorithmus von Gauß-Jordan besitzt diese Nachteile nicht, leidet aber daran, daß er bei spaltensingulärer bzw. zeilensingulärer Matrix A überhaupt versagt. Wir werden uns deshalb in den weiteren Partien unseres Studiums aus guten Gründen fast ausschließlich auf den Gaußsehen Algorithmus stützen. Zum Schluß dieses Abschnitts sei nochmals nachdrücklich vermerkt, daß alle hier vorgeführten Modifikationen weder Zeilen- noch Spaltenvertauschungen erforderlich machen, so daß in den Äquivalenztransformationen
ausnahmslos det L
=
richtig ist.
1,
det R
=
1
(75)
115
7.1 AufgabensteIlung
7 Auflösung linearer Gleichungssysteme • 7.1 AufgabensteIlung Vorgelegt sei das bereits auf Seite 1 dieses Buches dem Matrizenkalkül vorangestellte Gleichungssystem (1.1) in der Kurzschreibweise (1.4), ein System von m Gleichungen mit nUnbekannten all XI aZI XI
+ +
a12xZ + azzxz +
+ +
alnxn = b l aznxn = b z
(1)
wo die reellen oder komplexen Elemente ajk ebenso wie die "rechte Seite" b gegeben und die Unbekannten Xl' ... 'X n gesucht sind. Normalerweise liegt in den Anwendungen ein Gleichungssystem von n Gleichungen mit ebenso vielen Unbekannten vor, die Systemmatrix A ist dann quadratisch. Ist sie außerdem regulär, so existiert ihre Inverse A - 1 und damit die (formale) Lösung X = A - I b, und da die Inverse eindeutig ist, gilt der
Satz 1: Das Gleichungssystem Ax = b mit regulärer quadratischer Matrix A besitzt eine eindeutige Lösung. Bei singulärer Matrix A ist dagegen die Existenz einer Lösung keineswegs gesichert, wie schon das einfache Beispiel detA
= 0,
b=
GJ
(1 a)
zeigt. Ziehen wir nämlich die erste Gleichung zweimal von der zweiten ab, so erhalten wir (1 b)
und dies ist offenbar für kein Wertepaar Xl' Xz erfüllbar. Ist jedoch die rechte Seite b wie man sagt verträglich, dergestalt, daß anstelle von (1 a) die Gleichung (1 c)
resultiert, so gibt es unendlich viele Zahlenpaare Xl' Xz als Lösungen. Andererseits können auch dann mehrere Lösungen existieren, wenn jede beliebige rechte Seite verträglich ist. Zum Beispiel sei (1 d)
116
7 Auflösung linearer Gleichungssysteme
Lösungen sind hier (1 e)
beliebig wählbar ist. Die praktische Lösung eines Gleichungssystems geschieht stets über die Pivotmatrix n. Da ein System der Art l1Y = centkoppelt ist, können die n Unbekannten Yt, ... 'Y n in beliebiger Reihenfolge, daher auch gleichzeitig und unabhängig voneinander berechnet werden: das Nonplusultra einer Gleichungsauflösung! WO X3
Beispiel: lly
= c mit m = n = 3.
o !i ~3J)
12
o
0 0 0
2i
=
[C ~ -3 -43J Yl = -1/3 Y2 =
~
10
~
Y3 = IOl2i = - Si
Diese triviale Lösbarkeit ist einer der Gründe, weshalb wir uns im Abschnitt 6 so ausführlich mit der Äquivalenztransformation
LAR=11
(2)
befaßt haben. In den Anwendungen sind häufig zu einer Matrix A mehrere rechte Seiten b l , b2, ... ,bp gegeben. In der Baustatik beispielsweise sind die p rechten Seiten die verschiedenen Lastfälle wie Eigengewicht, Verkehrslast, Winddruck usw. Man faßt dann die p Gleichungssysteme (3)
mit den Matrizen
(4) zusammen zu der einzigen Gleichung
AX=B,
(5)
was für theoretische Fragestellungen wie auch beim Programmieren für Digitalautomaten oft zweckmäßig ist.
• 7.2 Drei Kardinalforderungen Die verschiedenen rechten Seiten (4) sind in praxi nicht immer von vornherein gegeben, sondern fallen im Laufe der Problemaufbereitung (Testläufe, Serienrechnung) an. Aus diesem Grund sollte der Algorithmus zur Auflösung des Glei-
117
7.2 Drei Kardinalforderungen
t - -1 o
f----L..r~-LL...L--~_
A P Abb.7.1. Zweiseitig eingespannte verformbare Platte unter einer Einzellast P
Abb. 7.2. Biegemomentenverlauf eines geraden verformbaren Balkens unter verteilter Last
chungssystems (1) so angelegt werden, daß er jederzeit auf Abruf wiederholbar ist, ohne daß bei einer neu hinzutretenden rechten Seite die aufwendige Transformation (2) aufs neue durchgeführt werden muß. Zweitens sind in den Anwendungen nur selten alle n Unbekannten der Gleichung (1) gesucht. Die Abb. 7.1 zeigt eine belastete verformbare Rechteckplatte, deren Auslenkungen XI" .. ,xn nach einer geeigneten Finite-Element-Methode (FEM) durch ein Gleichungssystem festgelegt sind. Von den Auslenkungen interessieren im allgemeinen nur die maximalen Werte, und diese befinden sich in der Nähe des Lastangriffspunktes A; man wird deshalb nur diese wenigen berechnen wollen. Ähnlich liegt die Situation bei dem Balken der Abb. 7.2. Hier sind die Unbekannten die Biegemomente Xj eines finiten Modells, und auch hier interessiert nur das maximale Biegemoment x max ' das unter der Einzellast liegen muß. Drittens schließlich ist bei zahlreichen AufgabensteIlungen der Praxis die Matrix Ades Gleichungssystems (1) nicht nur quadratisch, sondern darüber hinaus reellsymmetrisch (selten hermitesch). Um diese Symmetrie numerisch zu nutzen, wird man deshalb die Transformation (2) kongruent durchführen. Fassen wir das Gesagte in einem Forderungskatalog zusammen. 1. Rechnen auf Abruf (Serienrechnung); 2. die Reihenfolge der interessierenden Unbekannten legt die Reihenfolge der Vorgehensweise fest; 3. bei reellsymmetrischer (hermitescher) Matrix A erfolgt eine Kongruenztransformation. Nun zur Pivotauswahl. Die Reihenfolge der Pivotspalten und damit der Unbekannten Xj sei
(6)
118
7 Auflösung linearer Gleichungssysteme
Sie ist frei wählbar. Sollte im Laufe der Rechnung eine Nullspalte in der aktuellen Matrix auftreten, so stört dies in keiner Weise; der zugehörige Reduktionsschritt fällt dann einfach aus. Die Reihenfolge der Zeilen (7)
dagegen ist durch die Festlegung (6) nicht immer frei wählbar, da die zur Reduktion vorgesehene Zeile in der aktuellen Matrix eine Nullzeile sein kann; man muß dann auf eine andere Zeile ausweichen. Gibt es eine solche Zeile nicht, so fällt der Schritt einfach aus. Wir werden noch sehen, daß die Unbekannten Xj sich nacheinander in der umgekehrten Reihenfolge an, an-I' ... ,0'1 berechnen; die Numerierung hat daher so zu erfolgen, daß die interessierenden Werte die letzten (und nicht die ersten!) Nummern bekommen. Im Beispiel der Rechteckplatte nach Abb. 7.1 ist damit die Strategie klar. Beim Balken der Abb. 7.2 dagegen wird man von einem geeignet gewählten Punkt A aus nach links und rechts abwechselnd die letzten Nummern verteilen, bei n = 100 etwa bekommt die Unbekannte XA die Nummer 100, so daß damit die Reihenfolge festgelegt ist. Zur Transformation von A auf die Pivotmatrix n stehen uns die in der Übersicht (6.17) zusammengestellten Algorithmen zur Verfügung. Halten wir dabei fest, daß die Einbeziehung der rechten Seite b (von der im Abschnitt 6 noch keine Rede war!) in den Algorithmus bei vollbesetzter Matrix A nur rund n 2 Operationen erfordert und daher gegenüber der Transformation selbst nicht ins Gewicht fällt. • 7.3 Der Algorithmus von Gauß
Das vorgelegte Gleichungssystem A x = b wird von links mit L multipliziert, LAx=Lb=b mit
b = Lb ,
(8)
außerdem führen wir die zum Vektor Z zusammengefaßten neuen Unbekannten
zt> . .. ,zn ein x=Rz. Beides zusammen führt auf LARz entkoppelte Gleichungssystem
(9)
= b, somit zufolge LAR = nnach (2) auf das
(10) Die Lösung des vorgelegten Gleichungssystems (1) geschieht somit in drei Schritten.
7.3 Der Algorithmus von Gauß
119
Erster Schritt. Transformation der rechten Seite nach (8). a) Explizit. Die Matrix L wird im Generalschema mitgeführt. b) Implizit. Es werden nur die Spalten q/1 der Spalteneievatoren E/1 mitgeführt. Aus diesen wird anschließend (oder irgendwann später, sofern auf Abruf transformiert wurde) der Vektor b auf folgende Weise berechnet (11 ) Dabei wurden die der Pivotregulierung dienenden Spaltenelevatoren E/1 mit einer Tilde versehen. Entfällt vor einem Reduktionsschritt diese Regulierung, so wird der Elevator durch die Einheitsmatrix Im ersetzt und kann somit im Produkt (11) fehlen. Der Vektor b wird nun von rechts nach links fortschreitend mit den Elevatoren multipliziert, wofür wir wieder die Kurzschreibweise (5.54) benutzen. Erstes Beispiel mit m = n = 3. Es wurde auf Pivotregulierung verzichtet, die Spalten qU = q3 1 und qu = q2 wurden in dieser Reihenfolge gespeichert. Irgendwann später tritt die rechte Seite b hinzJ
(a)
Es erfolgen somit die beiden Transformationen mit q3 und sodann mit q2
35[j6 IDJ26 [j2 []] 2
0
1
-7
=>
-14 -7
,
1 0
- 14 -7
=>
-14 = -7
b.
(b)
Unabhängig davon, ob für die Zukunft noch weitere rechte Seiten erwartet werden oder nicht, wird man die bei der AufgabensteIlung bereits vorliegenden rechten Seiten gemeinsam mit A transformieren. Diese Methode wollen wir mit "Standard" bezeichnen; sie ergibt in dem um die Spalte b bzw. die Matrix B (4) erweiterten Generalschema folgendes Bild Standard explizit
q
L
A
R p
B
Standard implizit
~
(12)
Zweiter Schritt. Die Diskussion des entkoppelten Gleichungssystems flz = b (10). Fall I: Das System ist lösbar. Fall 11: Das System ist widersprüchlich, somit nicht lösbar. Näheres dazu im Abschnitt 7.10.
120
7 Auflösung linearer Gleichungssysteme
Dritter Schritt. Im Fall I erfolgt die Rücktransformation (9) von z auf x. a) Explizit. Die Matrix R wird im Generalschema (12) mitgeführt, dann ist
x=Rz. b) Implizit. Es werden allein die Zeilen p v der Elevatoren E v gespeichert. Es sei nun v ein beliebiger Vektor, dann wird
e1 e2 EV=
eV
, V=
VI
VI
v2
v2 , EVV =
Vv
en
vn
(13)
pVv vn
Das Produkt aus einem Zeilenelevator E v und einem Vektor V ist somit auf einfachste Weise zu bilden: ersetze die Komponente Vv durch das Skalarprodukt p v v, die übrigen n - 1 Komponenten bleiben unverändert. Wenn wir Pivotregulierung durch Spaltenkombination ausschließen (was keine Einschränkung bedeutet, weil das Produkt (11) bereits allfällige Pivotregulierungen beinhaltet), so besteht die Matrix R aus dem Produkt von r - 1 Zeilenelevatoren in der gewählten Reihenfolge (6). Somit ist nach (9) (14)
und da der letzte Elevator eine (in (14) nicht aufgeführte) Einheitsmatrix In ist, gilt (15) Die Zeilen p v enthalten ebenso wie die Spalten qlJ mit fortschreitender Reduktion immer weniger signifikante Elemente, nämlich für (Jr überhaupt keines, weshalb die Beziehung (15) gilt, beim vorletzten Schritt (Jr-l nur ein einziges und so fort, und daraus folgt offenbar, daß die Skalarprodukte p v V im aktuellen Vektor (13) die gesuchten Unbekannten in der vorgegebenen Reihenfolge (6) sind. Das Verfahren kann demnach abgebrochen werden, sobald die interessierenden Werte ermittelt wurden. Zweites Beispiel mit m Gegeben
A=
[i
2
= n = 3, Gauß Standard explizit nach Schema (12), anschließend implizit.
-I~J' -6
Reihenfolge der Spalten <71
b= [
= 2,
~J
(a)
-3
<72
= 3,
(<73
= I).
Reihenfolge der Zeilen (,
= 1,
(2
= 3,
«(3
= 2).
121
7.3 Der Algorithmus von Gauß
A 1 1 0 0 -1 0 1 0 -1 0 0 1 13
h
2 1 -11 3 1 2 1
7
-6
1 0 0 1 0 0
0 0
-2 1
11
L R
0 -3,6 1
1 0 0
-1 -1
1 0 0 1
0 1 1 0 0 0
0 1 0 1 o IS 0 0 5
0 1 -3
1 0 0 -2 1 11 0 0 1
1
0 0 1
b
II
1 0 0 2,6 1 -3,6 -1 0 1
0 1 -3
0 0 5
0 II,S -3
..... Z2 = ..... ZI = ..... Z3 =
0 11,S, -0,6
z=
11,SJ 0 . [ -0,6
(c)
1 0 0 -2 1 11 0 0 1
Die Rücktransformation ergibt den gesuchten Vektor x
Rz =
10 0J o11,SJ [11' SJ -30,2 [-2o 01 111 [-0,6 -0,6 =
= x .
(d)
Implizite Methode. Jetzt sind nur die im Schema (c) angegebenen Spalten qiJ und Zeilen p v gespeichert. Wir berechnen zunächst den transformierten Vektor Lb = E q E q b = E 3 E l b = b 2
llz = b ..... z =
Nun die Rücktransformation (14) mit den Skalarprodukten p Vv = 11 ,S, weil (1n = (13 = 1 ist. Sodann wird
xv'
l
101'SJ . [ -0,6
(e)
Zunächst ist nach (15)
Xl = Zl =
Xl;
[1~'SJ - 0,6
p3
(0 0 1) (-0,6) =
/~----+
x3'
101'SJ [ - 0,6
[ 11,8J . / -30,2 =x. (f) /r----- 0,6
p2(-2 111) (-30,2) =x2
Man sieht: Wären nur die beiden Unbekannten Xl und x3 gesucht, so brauchte der letzte Schritt gar nicht ausgeführt zu werden. Bei großen Gleichungssystemen, etwa n = 100 oder n = 1000, ist der Gewinn an Rechenzeit nicht unerheblich.
122
7 Auflösung linearer Gleichungssysteme
• 7.4 Der Algorithmus von Banachiewicz Im Generalschema werden lediglich die Spalten q/l und die Zeilen p v mitgeführt und mit Hilfe der restringierten Vektoren q/l und Pv nach (5.76), (5.77) die Inversen L- 1 - ]m _
[.. .j [ J
(16)
qt q2···qm
und
o
R- 1 - ]n-
t
P02 P
(17)
pn
berechnet.
Erster Schritt. Aus dem Gleichungssystem L-t;;=b
-->;;
(18)
wird die transformierte rechte Seite;; berechnet. Dieses Gleichungssystem ist gestaffelt in der Reihenfolge (19)
das heißt, es ist jeweils nur eine lineare Gleichung mit einer Unbekannten zu lösen. Zweiter Schritt. Diskussion des entkoppelten Gleichungssystems llz = b (10). Fall I: Das System ist lösbar. Fall 11: Das System ist widersprüchlich, es existiert somit keine Lösung. Näheres dazu im Abschnitt 7.10. Dritter Schritt. Im Fall I werden die Unbekannten
Xj
aus dem Gleichungssystem (20)
berechnet. Dieses System ist gestaffelt in der Reihenfolge (21)
und wie in (15) gilt (22) Dazu das zweite Beispiel aus dem letzten Abschnitt. Zunächst werden nach (16) und (17) die Matrizen L - 1 und R - I zusammengestellt
123
7.5 Der Algorithmus von Gauß-Jordan
L
' =1
3-
3-
R- 1 = 1
[. ..J [i ql q2 q3
;2
[
=
°1
P
J=
0 1
~J
0 1
- [-: -1
0 1 o 0J 0 1
-
G
J ['
o - 03,6 o 0
~J
[-2 0 0 11 000
=
J
1 01 03,6 1 0 1
= [201 -110J . 001
Aus dem gestaffelten Gleichungssystem (1S) gewinnt man die Komponenten des Vektors Reihenfolge 51' 53' 52
(51 b2 b3 L
-1
(b)
b in der
b
)
J
1 1 01 03,6
[ 1 0
(a)
=
--->52 = II,S, --->53 = -3
1
5=
(c)
Auflösen des entkoppelten Gleichungssystems llz = 5 gibt den Vektor Unbekannten in der Reihenfolge XI' x 3, x 2 berechnet
z,
und damit werden die
z
I~'SJ
[ -0,6
--->XI =
II,S --->x2
--->x3 =
= -30,2 ,
-0,6
X =
11,SJ -30,2 . [ -0,6
(d)
• 7.5 Der Algorithmus von Gauß-Jordan Voraussetzung ist nach (6.10) die Spaltenregularität der Matrix A. a) Gauß-Jordan in einem Durchgang. Die Gleichung Ax = b wird von links mit L J multipliziert, wir haben dann LJAx = LJb, somit wegen LJA = llJ (23)
mit (24)
was explizit oder implizit, auch nach der Methode Standard durchgeführt werden kann. Wieder haben wir zu unterscheiden: Fall I: Das System ist lösbar. Dies gilt stets für m = n zufolge der vorausgesetzten Spaltenregularität. Fall II: Das System ist widersprüchlich. Näheres dazu im Abschnitt 7.10. b) Gauß-Jordan in zwei Durchgängen nach (6.15) mit LJA =LLA =llL ,
sonst wie oben beschrieben.
(25)
7 Auflösung linearer Gleichungssysteme
124
Wir wiederholen das Beispiel aus dem letzten Abschnitt, Gauß-Jordan implizit Standard mit derselben Pivotfolge wie dort. Es wird nach drei Schritten (nicht nach zwei, weil hier das letzte Pivot wirklich als Pivot dient im Unterschied zu den Algorithmen von Gauß und Banachiewicz):
1 2 1 -11 -1 3 1 7 -1 2 1 -6
o
1 0 1 0 0
o
0 5
0 1 -3
-30,2 11,8
X2 Xl
-3
x3
2,2 -3,6 1
= -30,2 = 11,8 = -0,6
2 1 -11 1 0 18 0 0 5
x=
0 1 -3
-2 2 1 0 1 1 0 0 0 0 0 5
-6,6 11,8 -3
11,8J -30,2 . [ -0,6
(a)
Jetzt in zwei Durchgängen. Der erste Durchgang mit der gleichen Pivotfolge wie oben gibt
1 2 1 -11 -1 3 1 7 -1 2 1 -6
0 2 1 -11 -3,6 1 0 18 1 0 0 5
0 1
-3
0 1 -3
2 1 -11 1 0 0
o
0
0 11,8
(b)
5-3
Das Gleichungssystem ist gestaffelt und könnte daher bereits gelöst werden. Besser, weil systematischer, ist dagegen die Reduktion in der rückwärtigen Folge der Pivots. Das gibt im zweiten Durchgang die Pivotmatrix und daraus die Lösung x
"J
-2 2 1 -11 1 1 0 0 5 0 0 0
0 11,8 -3
2,2 0 1 -11 1 0 0 0 1 0 0 5
-23,6 11,8 -3
0 1 0 1 0 0 0 0 5
-30,2 11,8
-3
-30,2 11,8 . = -0,6
x2 = x1= x3
(c)
• 7.6 Reguläre quadratische Matrix. Determinante, Inverse und Adjungierte
Zunächst die Determinante. Nach der Produktvorschrift (2.10a) gilt det n = det (LAR) = det L'detA 'det R = l'detA'I, det A = det n
.
Die Determinante von n aber ist, wenn wir die Pivots Plazierung durchnumerieren,
somit (26)
'Trj
unabhängig von ihrer
(27)
wo die ganze Zahl v aus der Indexliste nach dem Muster (5.23) gewonnen wird. Nun zur Inversen. Aus LAR = n folgt durch Inversion nach (3.10a) R - 1 A - 1 L - 1 = n - 1, mithin nach Multiplikation dieser Gleichung von links mit R und von rechts mit L
7.6 Reguläre quadratische Matrix. Determinante, Inverse und Adjungierte
125
(28)
IA-1=Rn-1LI·
Die Inversion einer regulären quadratischen Matrix wird somit auf die Inversion der ebenfalls regulären quadratischen Pivotmatrix abgewälzt, und diese ist trivial, nämlich (29)
wovon man sich leicht überzeugt. In Worten: man ersetze die Pivots durch ihre Kehrwerte und transponiere anschließend die so entstandene Matrix. Kommen wir nun zur Adjungierten. Nach (3.17) ist die Inverse mit der Determinante zu multiplizieren, also wird mit (28)
IAadi=R(n- 1detA)L I, wo die Produktbildung tionen erfordert.
(30)
n - 1 det A
mit der Determinante (27) nur n Multiplika-
Ein Beispiel. Determinante, Inverse und Adjungierte einer dreireihigen Matrix A sind zu bestimmen. Man findet, beginnend mit dem Pivot a 13 = - 1, nach leichter Rechnung mit ä32 = 60 als zweitem Pivot
A =
R=
[65 82 2 4
-] 11
L=
7
[1 ~J , -11/15 0 1 0 2/15 8 1
fl=
G'5
0 1 0
~'5J
[0 00 -IJo 0 60 0 5
.
(a)
a) Determinante. Die Pivots 5, 60 und - 1 stehen der Reihe nach in den Zeilen 2, 3 und 1, damit wird die Indexliste Zeilenindex
2 3
Inversionen
0 0 2
->
Summe v = 2
Folglich wird die Determinante nach (27) detA=(-1)2[5'60'(-I)]= -300,
(b)
und dies hätte man in diesem einfachen Fall natürlich auch durch Entwickeln nach einer Spalte oder Zeile der Matrix fl (a) bekommen können. Doch ist bei großen Matrizen, insbesondere bei Maschinenrechnung, der Weg über die Indexliste angemessen. b) Inverse. Wir ersetzen die Pivotelemente durch ihre Kehrwerte und gehen anschließend zur transponierten Matrix über
126
7 Auflösung linearer Gleichungssysteme
und nun wird nach (28) mit den Matrizen L und Raus (a)
1 [3013 -4460 -90J 71
A- 1 =Rll-1L=300
-16
8
.
(d)
28
c) Adjungierte. Es wird, ohne daß wir die Formel (30) benutzen müßten (der Leser führe dies aber durch), A adj = LlA
-I
= (-3OO)A -1 =
-30 -60 90J -13 44 -71 . [ 16 -8 -28
(e)
Die Adjungierte einer ganzzahligen Matrix ist ihrerseits ganzzahlig, was zur Kontrolle dient. Machen wir noch eine weitere Probe. Nach (3.13) ist
A 11
= det
[
022
023J
032
033
= det
[2 11J = 4
14 - 44 = - 30 ,
(f)
7
und dieser Wert steht in der Tat oben links in der Matrix (e).
7.7 Pivotregulierung. Wiederholung der Rechnung Es sei A eine n-reihige reguläre quadratische Matrix. Dann ist die Determinante gleich dem vorzeichenbehafteten Produkt der n Pivotelemente (31)
die bis auf das letzte frei wählbar sind. Wählt man sie zu Anfang zu groß (zu klein), so fallen die letzten zu klein (zu groß) aus, und beides wirkt sich nachteilhaft auf die noch nicht reduzierten Untermatrizen aus, was bei großen Ordnungszahlen, etwa n = 100 oder n = 1000 nicht nur zu großen Fehlern führt, sondern bei schlechter Beschaffenheit der Matrix (schlechter Kondition, siehe dazu Abschnitt 25.5) den Algorithmus völlig zum Erliegen bringen kann. Wir ermitteln daher in einer als Vorlauf zu betrachtenden ersten, implizit durchgeführten Rechnung die Pivotmatrix n, berechnen das im allgemeinen komplexe Produkt (32)
und daraus als reelles Leitpivot die Größe (33)
127
7.7 Pivotregulierung. Wiederholung der Rechnung
Jetzt wiederholen wir die Transformation LAR = rung, wobei wir die ersten n - 1 Pivots als :n:l
= :n:2 = ... = :n:n-l = :n:
[J,
nun aber mit Pivotregulie-
(34)
wählen und in die Hauptdiagonale verlegen. Die Pivotmatrix wird dann zum Beispiel bei Einhaltung der natürlichen Reihenfolge 11, 22, ... ,n - 1 n - 1 [J=
Diag<:n::n: ... :n: :n:nn>
(35)
,
'-------r-----n-l mal
wo bei fehlerfreier Rechnung das im allgemeinen komplexe Element :n:nn den Betrag von :n: haben muß; doch erfüllt das Leitpivot :n: auch dann seinen Zweck, wenn die Wurzel (33) nicht allzu genau berechnet wird; eine leichte Rundung ist manchmal angebracht. Bei extrem schlecht konditionierter Matrix können mehrere Wiederholungen erforderlich sein. Allerdings ist auf folgendes zu achten. Es werde das Element a}/J (Zeile j, Spalte !J.) in das Pivot ä}/J überführt und sodann der Rest der Spalte !J. reduziert nach dem Schema
erster Schritt
zweiter Schritt
Nach dem ersten Schritt ist daher die Pivotzeile ä}
= a i + qjk ak
mit
qjk
= äiIJ- aiIJ
(35a)
akl'
Beim zweiten Schritt wird ak/J annuliert mit qkj = -ak/J/ä}1" was entweder direkt geschehen kann oder auch kürzer auf folgende Weise (35b) wie man leicht nachrechnet. Bei schlecht konditionierter Matrix ist die Methode (35b) vorzuziehen, da bei der direkten Vorgehensweise die Gefahr der Stellenauslöschung infolge von kleinen Differenzen großer Zahlen besteht. Beispiel. Nach der direkten Methode wird mit IJ = 2
128
7 Auflösung linearer Gleichungssysteme
Nach (35b) wird dagegen k 4 ä = - ' (3
-2
3 5) + 1,5' (7 4 - 2) = (4,5
0 - 13) .
(b)
• 7.8 Homogene Gleichungssysteme Vorgelegt sei das homogene Gleichungssystem (36) wo also die rechte Seite verschwindet. Derartige Systeme bilden einerseits die Grundlage auch der allgemeinen inhomogenen Gleichungen mit m"* n, andererseits treten sie mit quadratischer Matrix im Zusammenhang mit der im IV. Kapitel zu behandelnden Eigenwertaufgabe auf. Zunächst hat das homogene System unter allen Umständen die sogenannte triviale Lösung Xl
= X2 = ... = X n = 0, kurz
x
=0
(37)
,
die freilich in der Regel ohne Interesse ist. Bedeutsam sind allein nichttriviale Lösungen, und dies sind gerade die im Abschnitt 6.15 gefundenen dn = n - r linear unabhängigen Eigenspalten rj' Damit ist dann auch jede beliebige Linearkombination (38) mit beliebig wählbaren Konstanten Cl bis Cd eine Lösung. Setzt man alle Konstanten gleich Null, so resultiert als Sonderfall die Triviallösung (37). Der Vektor xh (38) wird im Zusammenhang mit der Aufgabe (36) als homogene Lösung bezeichnet, worauf der Index h hinweisen soll. Die numerische Ermittlung der Eigenspalten haben wir im Abschnitt 6.15 ausführlich behandelt. Da die Eigenzeilen von A nicht gesucht sind, braucht die Matrix L auch nicht mitgeführt zu werden. Dazu ein Beispiel mit m = n = 4, Gauß explizit,
A 1 1
-2 2
3 -5 3 -4
4
-3
3
2 2 -\ -2
-\
\
4 -7
6
14
1 0 0 0
0 1 0 0
0 0 0 1
1 -3
0 0 1 0
5 -4
0 1 0 0 0 3 o -3 6 -6 7 o -7 14 -14 1 0 1 -2 2 1 -3 0 1 0 0 0 0
5 0 1 0
0
2 -2
1
-4 0 0
1
1
0 0 0
0 0 0 1
0 0 0 0
0 0 TI 0 0
1 -3 -1 2 0 1 2 -2 R; 0 0 1 0 0 0 0 1
7.8 Homogene Gleichungssysteme
129
(a)
Zur Bezeichnung. Anstatt die Eigenspalten wie in (38) durchzunumerieren (was in der Theorie nicht anders geht, da man die Nummern der Eigenspalten im konkreten Fall gar nicht kennt), ist es in praxi zweckmäßiger, bei den Indizes des Generalschemas zu bleiben. Die allgemeine homogene Lösung lautet damit
x. =""
=', [-
+c.'.
i]
+co [-;]
(b)
Probe: Ar3 = 0, Ar4 = o. Wir wiederholen das Ganze mit einer anderen Pivotstrategie und erhalten diesmal
-1,4
-5 1 3 -5 4 -4 2 3 -4 2 ] 3 2 - ] -2 -7 1 4 -7 6 1 0 0 0
0 1 0 0
0 0 1 0
3 2
]
0
0
-10
0
0 0
0 0
]
0 -2
0 0 0 1 -2
-14 -7 -10 -5 0 0 -20 -10 1 0 3 0
0 1 2 0
]
-0,5
0 14 0 10 -1 0 0 20 0 0 0 0 1 -2 0 1 0
1
0 0 0
0
-1 0 0 0
n (c)
1 -0,5 0 1 3 0,5 0 0
0 0 1 0
1 0 R 1 1
Jetzt lautet die homogene Lösung
(d)
Die beiden Lösungen (b) und (d) spannen trotz des unterschiedlichen äußeren Erscheinungsbildes den gleichen Nullraum (Spaltenkern) der Dimension dn = n - r = 4 - 2 = 2 auf. Beispielsweise wird für die speziellen Werte c3 = 1, c 4 = 2 und c2 = - 2, c4= 2
7 Auflösung linearer Gleichungssysteme
130
x=i=
[-IJ .
(e)
• 7.9 Hermitesche (reellsymmetrische) Matrix Im Gleichungssystem A x = b bzw. A x = 0 sei nun die Matrix A hermitesch (im Reellen symmetrisch). Legt man die Transformation kongruent an (was keineswegs zwingend ist), so wird zufolge R = L * (39)
LAL*=/1, /1*=/1,
auch /1 hermitesch. Wählt man darüber hinaus alle Pivots aus der Hauptdiagonale, so wird /1 eine reelle Diagonalmatrix
LA L * = /1 = Diag (l1j})
,
TC}}
reell ,
(40)
wozu allerdings Pivotregulierung erforderlich werden kann. Die Determinante det A
= det /1 = TCII TC22 ••• TC nn
(41)
ist stets reell. Bei regulärer Matrix A ist sie von Null verschieden, und es existiert die nach Satz 2 aus Abschnitt 4.4 ebenfalls hermitesche Inverse, die sich nach (28) mit R = L * berechnet zu (42)
Der Gaußsche Algorithmus (39) bis (41) führt stets sicher zum Ziel, während bei indefiniter Matrix A der Algorithmus von Cholesky versagen kann. Erstes Beispiel. Federkette nach Abb. 7.3. a) allein unter Eigengewicht, b) mit Zusatzgewicht P = 2 mg. Gefragt ist nach der Auslenkung x3 der dritten Masse. Bleibt diese auf dem Tisch lie-
gen oder nicht?
c
m
Xs
m P.2mg
Abb. 7.3. Federkette unter Eigengewicht
7.9 Hermitesche (reellsymmetrische) Matrix
131
Wir fassen die beiden rechten Seiten b l (Fall a) und b z (Fall b) nach (4) zur Matrix B zusammen, dann lautet das Gleichungssystem (5) AX = B mit X = (XI Xz), wo alles dimensionslos gemacht wurde. Die gesuchten Auslenkungen sind dann X = X mg/co Da uns allein die dritte Komponente x3 des Vektors X interessiert, wählen wir die Pivotfolge 11, 22, 44, 55, (33). Auch jede andere ist möglich, die mit (33) endet. Gauß Standard implizit ergibt: 1/2
1
2 -I
1
0
0
0
0 0
0 0 0 0 0 0 0 0 0
112 -I
2
-I
0 0 0
0 0
-I
o -I 0 0
0
0
2 -1 2 -I I 1 0 -1 1 1 3
A
2 0 112 0 1 0 1/2 0
0
312 0 0 0
112
1
0 0 0 0 0 0 0 0
0 0 0 0 0 0 4/3 -1 0 2 -1 -1 0 -1 1
1
I
1 3
o 0 0 o o 2 0 312 o 0 0 o o 2 4 0 1/3 0 0 o 2 0 1 I 0 o 0 1/2 312 712 0
z=
Da nach (15) Fall (a)
x3
=
Z3
[~~12J
'
Fall (b)
1
0 0 2 0 0 0 312 0 I 0 0 5/6 0 0 0 0 1 0 0 -112
o n o o o
Fall (a)
2 0 0 0 3/2 -1 2 0 -I 0 0 -I 0 0 0
0
0
0 0
0 0 0 0 0 0 0 0 0
-1
2 -1
-1
(a)
1 1
I I 3
B
1/2
0 0 0 0
0 1 2/3 0 0
2/3
1
0
1
0 0
0 0
0 0 0 0 o -112 1/2 112 2 0 1 1 0 112 312 7/2
(b)
LB.
z=
(c)
ll~ J
(d)
112
7
ist, haben wir damit die Lösungen
x3 = 6 mg/c,
Fall (b)
x3 = 12 mg/c
.
Bei vorgegebenen Werten von mg und c kann daraus abgelesen werden, ob die dritte Masse auf dem Tisch verbleibt. Falls nicht, sind die rechten Seiten b j , bz abzuändern, da nun auch die dritte Masse durch ihr Eigengewicht belastet wird. Zweites Beispiel. Die Inverse der hermiteschen Matrix aus Abschnitt 6.10 ist zu berechnen. Es war
A=
[1
0 0 0
-;oo -J o
-i 0 0
-i i i/2 1/2 -112 0 0
' L =
[ -II
-il2 -il2
1
-~i] o ' I
n=
[1
0 0 2 0 o0 ] 0 -112 o 0 0 -112
.
(a)
132
7 Auflösung linearer Gleichungssysteme
Mit
i/2 i/2] Oll-I [1/2 00 001/2 1/2 -1/2'
1 -1
L* =
[
? ! I
o
-i/2
-I
=
o
2i
1
0
0
-L!]
(b)
findet man nach einiger Rechnung gemäß (42) die Inverse
Probe: AA -I = I .
(c)
Zum Vergleich gehen wir von der komplexen Pivotmatrix, Formel (f) aus dem zweiten Beispiel von Abschnitt 6.10 aus und bekommen
ll=
[1
llT(nJi 1)
0 0 -i 0
oo o
-~] 0 0
= ll-I =
[;
, ll(nJi I) =
0 0 -i 0
o o o
-~J0
U ~] 0 0 0 -i 0 0 0
(d)
0
und nun folgt nach (42) A -I = L T ll- I L mit dem gleichen Ergebnis wie in (c). Die Rechnung ist aber sehr viel einfacher, da die Matrix L jetzt reell ausfällt:
L=
[~ ! ~ o
0
1
J]
(e)
0
7.10 Allgemeine inhomogene Gleichungssysteme
Es sei nun wieder das inhomogene Gleichungssystem (43)
Ax=b vorgelegt. A habe den Rang r, somit die Defekte Zeilendefekt d m = m-r~O,
Spaltendefekt
dn = n-r~O .
(44)
Ist m < n, so gibt es mehr Unbekannte als Gleichungen, das System heißt dann unterbestimmt, ist m > n, so gibt es mehr Gleichungen als Unbekannte, das System heißt überbestimmt. Bei quadratischer Matrix A, m = n stehen n Gleichungen für n Unbekannte zur Verfügung, hier ist dm = dn = d der Defekt schlechthin.
133
7.10 Allgemeine inhomogene Gleichungssysteme
Die Diskussion erfolgt stets in drei Schritten. 1. Lösbar oder nicht? } 2. Falls lösbar, Berechnung einer Partikularlösung. (45) 3. Fallunterscheidung: 3a. Die Lösung ist eindeutig, 3 b. Die Lösung ist mehrdeutig. Wie geht man nun praktisch vor? Wie immer geschieht die Transformation auf das Gleichungssystem Ilz = b (10) mittels des Gaußschen Algorithmus, wo die Linksmatrix L nicht interessiert und somit nicht mitgenommen zu werden braucht. Das transformierte Gleichungssystem hat nun folgendes Aussehen
zn
Zl
Ilz = b ,
tl
•
•
51 52 ... , 5m
• n
f-
(46)
-I
woran die Fallunterscheidung (45) leicht zu treffen ist. 1. Lösbar oder nicht? Die Pivotmatrix hat dm ~ 0 Nullzeilen. Prüfe, ob auf den Zeilen gleicher Nummer auch im Vektor b Nullen stehen
5a = e a b; a = 1,2, ... ,dm
.
(47)
1a. Dies trifft nicht zu. Dann ist das Gleichungssystem (46) und damit auch das Originalsystem (43) widersprüchlich, da, wie man sagt, die rechte Seite 5 mit Il und damit auch die rechte Seite b mit A unverträglich ist. Es existiert keine Lösung. Schluß der Diskussion. 1b. Die dm Verträglichkeitsbedingungen (47) sind erfüllt. Dies trifft sicherlich zu für dm = 0; es gibt keine Nullzeile, A ist zeilenregulär . 2. Berechnung einer Partikular/äsung (Sonder/äsung). Im System (46) sind jene d n Unbekannten Zj' die über den Nullspalten stehen, beliebig wählbar. Wir setzen sie der Einfachheit halber gleich Null. Die übrigen Unbekannten werden aus den restlichen r Gleichungen eindeutig berechnet, das gibt den Vektor xp und daraus nach (9) die Partikularlösung xp = R zp
(48)
3. Eindeutig oder nicht? 3a. Die Pivotmatrix besitzt keine Nullspalten, d n = 0; Il und damit auch A ist spaltenregulär. Dann ist (48) die einzige Lösung, das System ist eindeutig lösbar.
7 Auflösung linearer Gleichungssysteme
134
3b. Die Pivotmatrix besitzt dn Nullspalten, dann existiert nach (7.8) die homogene Lösung A Xh = 0 mit d n frei wählbaren Konstanten Cj' und damit wird die gesuchte Gesamtlösung (49) denn es ist (50)
wie in (43) verlangt. Sonderfall. Die Matrix ist zeilenregulär, dann gibt es keine Verträglichkeitsbedingungen, und sie ist spaltenregulär, dann gibt es keine homogene Lösung, somit ist für jede beliebige rechte Seite b die eindeutige Lösung x = xp ' Beides zugleich ist aber nur möglich für m = n = r, und das ist die reguläre quadratische Matrix A, siehe Satz 1 im Abschnitt 7.1. Die Lösung (49), ausführlich (51)
stellt eine Hyperebene der Dimension dn dar, die jetzt aber zufolge der rechten Seite b nicht mehr den Nullpunkt 0 enthält, sondern parallel verschoben wurde; ein Beispiel im Reellen für m = n = 3 und r = 1 zeigt die Abb. 7.4. Die Lösungsebene E enthält 00 2 Punkte, die beschrieben werden durch den Koordinatennullpunkt xp innerhalb von E, die beiden Basisvektoren '1 und '2 und die Koordinaten Cl und C2' Nun hängt aber die Erscheinungsform der Vektoren x p und '1' ... ,'dn ab von der gewählten Pivotstrategie, mit der A in 11 transformiert wird; man kann daher nicht sagen, es gäbe die Partikularlösung (48) ebensowenig wie es die Eigenspalten 'j gibt. Eine andere Strategie führt auf andere Vektoren Xp , Xl' X2; ein festgewählter Punkt Q der Hyperebene ist somit auf viele Arten darstellbar, siehe dazu Abb.7.4.
Lösungsebene
- ~
a
P~-'r'hZ \~ ... P \ Tz
'
/
o
r,
/
Xl
Abb. 7.4. Die Lösungsebene E für m = n = 3, r = 1 im Reellen
135
7.10 Allgemeine inhomogene Gleichungssysteme
Fassen wir als das wichtigste Ergebnis zusammen: Das inhomogene Gleichungssystem Ax = b hat genau eine eindeutige Lösung x = xp unter den folgenden Bedingungen: a. m;?: n. Das Gleichungssystem ist nicht überbestimmt. b. r = m. Die Matrix A ist spaltenregulär. c. Die rechte Seite b erfüllt die d m Verträglichkeitsbedingungen (47). Dazu wiederholen wir nochmals: Ist A quadratisch und regulär, somit m = n = r, dm = 0, so sind alle drei Bedingungen erfüllt. Erstes Beispiel. m = n = 2.
3/4
+ 2x2 = A 3xI + 6x2 = 9/4 • XI
[1 2J
=
3 6'
b=
[3/4J
(a)
9/4
In diesem einfachen Fall können wir uns die Transformation auf die Pivotmatrix ersparen. Wir schreiben das Gleichungssystem (a) spaltenweise auf, bekommen
und daraus folgt die Gleichung einer Geraden
g(xJ>x2) =
3
XI
+ 2x2 - -
4
=
0
(c)
nach Abb. 7.5. Jeder Punkt auf der Lösungsgeraden (c) ist eine Lösung des Gleichungssystems (a). Ohne die Einführung von Begriffen wie Rang, Verträglichkeit usw. kommen wir somit zum Ziel. Um nun dennoch unsere Theorie zu bestätigen, berechnen wir Eigenzeile und Eigenspalte aus den Gleichungssystemen I TA = 0 T bzw. Ar = 0
b
I
r
8/J
IJ
r Abb.7.5. Die Lösungsgerade g zum ersten Beispiel
136
7 Auflösung linearer Gleichungssysteme
(d)
Der Rang von A ist r = 1, somit nach (44) d m = m - r = 2 - 1 = 1 (es gibt eine Eigenzeile) und d n = n - r = 2 - 1 = 1 (es gibt eine Eigenspalte). Die Dimension der "Hyperebene" ist hier d = 2 - 1 = 1, und das ist unsere Gerade g g. Da beide Vektoren (d) von unbestimmter Länge sind (a und ß können ja beliebig gewählt werden, sogar komplex, sie müssen nur von Null verschieden sein), gehört zu I eine Gerade I und zu r eine Gerade r durch den Nullpunkt in Richtung von I bzw. r. Wir sehen, die Lösungsgerade gg ist der Eigenspalte r parallel. Für b = 0 geht die Lösungsgerade über in die Eigenspalte r, und das ist die homogene Lösung. Wir bemerken noch, daß der Vektor b auf der Eigenzeile I senkrecht steht. Dies ist kein Zufall, siehe Satz 3 im Anschluß an Formel (53). Der Leser vergewissere sich, daß ein solches direktes Vorgehen ohne Transformation auf die Pivotmatrix schon im nächsten Beispiel mit m = n = 3 nicht mehr praktikabel ist. Zweites Beispiel mit m
= n = 3;
A
b
1
2 1
3 1
0
1
-3
o -1
! 11 0 1 0 1 0 -1 ~1 I 0
0 1 I
2
5 3 10 1 1 0 0 1 0 0
Gauß Standard explizit.
1 0
0 0 1
0 1 0 0 0 0
1
2 -2
-2 1 -3
1
1 0
I
1 0
verträglich!
-2
1 0 0 1 -3 1 0 1
0
-2 1 -3 0 0
0 0 1
-5
R
(a)
Die Partikularlösung zp wird zurücktransformiert und die allgemeine Lösung angeschrieben
Das dritte Beispiel wählen wir aus der Statik, siehe Abb. 7.6. Die Gleichgewichtsbedingungen lauten A x = b mit 1
o
IJ
o
an
'
b-
-
K J [P Pa+Kb
(a)
mit den nunbekannten Auflagerkräften x t ,x2'" .,xn . Wir wählen alt = 1 als erstes Pivot und bekommen
,
b-
K P
J
- [ P(a-al)+Kb
(b)
7.10 Allgemeine inhomogene Gleichungssysteme
a
137
c
b
Abb. 7.6. Starrer Balken auf n Stützen
Verträglichkeit. Unabhängig von der Anzahl n der Stützen muß K = 0 sein, damit Gleichgewicht möglich ist, denn anderenfalls würde der Balken davonrollen. Jetzt unterscheiden wir: Fall a) n > 2. Das Gleichungssystem ist überbestimmt. Gleichgewicht ist möglich, aber nicht eindeutig. Fall b) n = 2. Das Gleichungssystem ist bestimmt, sofern 02 1 ist,
*" °
(c)
Fall c) n = 1. Von der Matrix A verbleibt nur noch die erste Spalte
verträglich verträglich?
(d)
Eine weitere Verträglichkeitsbedingung lautet jetzt a = a,. Die Kraft P muß somit im Auflagerpunkt A angreifen, damit Gleichgewicht möglich ist. Die dann eindeutige Lösung ist Xl = P. Viertes Beispiel. Das Gleichungssystem Xj
-
3X2+ 2x3- X4
2
-2x1+ 6x2- 4x3 + 3x4 + 2xs = - 1 3x l - 7x2+ 8x3 - 3X4 + Xs =
4
x,- x2+ 4x3- X4+ Xs =
0
7xs =
4
2x,+
lOx3+
Ax=b
(a)
ist zu lösen. Wir rechnen Gauß Standard explizit. Gewählte Reihenfolge (Jk=
1,4,2(,3,5),
(j=
1,2,3(,4,5) .
(b)
138
7 Auflösung linearer Gleichungssysteme 1
2 -3 -1 -2
2 -1 1 -3 -2 6 -4 3 3 -7 8 -3 1 -1 4 -1 2 0 10 0
0 0 1 -1 -3
1
3 -2
1 0 0 0 0
0 0 2 2 6
0
1 -1
0 0 2 2 6
0 2 1 1 7
0 1 1 0 0 0 0 0 -2 0
2 -1 4 0 4
0 0 2 2 6
0 2 2 3 1 -2 1 -2 7 0
0 1
0 0 2
0 0 0 1 -2
1 0
0 1 0 0 0
0 0 2 2 6
0 0 1
2 3 -2 -2 -6
1
3
1 0 0 0 0
0 0 2 0 0
0 0 0 0 0
0 1 0 0 0
0 0 0 0 0
2 3 -2 0 0
Zt Z4 Zz
=2 =3 = -1
verträglich verträglich
o -0,5
(c)
Das System ist verträglich. Die Partikularlösung xp wird berechnet, die Eigenspalten sind e3 und es' Diese drei Vektoren werden jetzt in der umgekehrten Reihenfolge der Zeilen, nach (b) also 3, 2, 1 zurücktransformiert, wie in (13), (14) beschrieben.
(Zp e3 es) =
(0
1 -1
0 -0,5)
-+
(l
3 -2
1
Hier ist zufällig
[-l
['J!
+]
0 -1 1 0 -2 1 0 2 -5 -3,5) .
[-;
-+
0 -1
tJ
1 0 0 ( 3 0 -2 ) -5 -1 -0,5 1 o = 0 -2 0 1
[-1 -"'j
(Xp '3
's)
(d)
n[-"']
Die Gesamtlösung lautet somit
-1
X=Xp=Xh=
[-1
-0,5) (0 0 0 1 -2)
(-1 -1
o)(
x p = zp'
n
0 0 1 0 0
-1
+Z3
~ +zs
-0,5
_~
.
(e)
Der Leser überzeuge sich, daß das Gleichungssystem (a) erfüllt ist für beliebige Werte von Z3 und zs.
7.10 Allgemeine inhomogene Gleichungssysteme
139
Abschließend leiten wir noch zwei Sätze her, die zwar in praxi nicht allzuviel nützen, für theoretische Fragestellungen jedoch unentbehrlich sind. Setzen wir in die Verträglichkeitsbedingungen (47) b = Lb ein, so wird daraus eULb=/Ub=O;
a=1,2, ... ,dm
(52)
,
und damit haben wir den Satz 2: Das Gleichungssystem A x = bist genau dann verträglich, wenn die rechte Seite b zu allen d m = m - r Eigenzeiten orthogonal ist. Sodann denken wir uns die Pivotmatrix 11 vom Rang r und die rechte Seite b umgeordnet und zusammengefaßt zur Gesamtmatrix
(11, b) =
[~ : I~J.
(53)
Der Rang dieser um eine Spalte erweiterten Matrix ist ebenfalls r, da mit Hilfe der r Pivots durch Zeilenkombination die r Komponenten von b annuliert werden
können; die Anzahl der Pivots wird davon nicht berührt. Nun werden wir im Abschnitt 9.1 zeigen, daß der Rang einer Matrix invariant ist gegenüber Äquivalenztransformationen, somit gilt das soeben Gesagte auch für die erweiterte Originalmatrix (A, b), und diesen Sachverhalt sprechen wir aus als Satz 3: Das Gleichungssystem A x = bist genau dann verträglich, wenn der Rang der erweiterten Matrix (A,b) gleich dem Rang von A ist. Speziell für die quadratische Matrix A stellen wir alles in den letzten Abschnitten Gesagte im sogenannten Alternativsatz übersichtlich zusammen:
m=n
detA
homogen Ax=o
Fall 1.1: x=o Triviallösung
Fall 1.2: a) x = 0 Triviallösung b) x = Clrl + ... +c,ur,u; Il=n-r Eigenspalten
inhomogen Ax=b
Fall 2.1: x=A-1b
Fall 2.2: a) Keine Lösung vorhanden, Widerspruch, b) Falls b verträglich, Lösung vorhanden, aber nicht eindeutig.
=f::.
0, r = n
detA = 0, r
(54)
eindeutig
7 Auflösung linearer Gleichungssysteme
140
Wir werden diesem Satz in (26.1a) mit einem erweiterten Inhalt wortwörtlich wiederbegegnen, und zwar im Zusammenhang mit dem Eigenwertproblem. 7.11 Ganzzahlige Gleichungssysteme
Das Gleichungssystem Ax = b sei spaltenregulär und die rechte Seite verträglich, so daß eine eindeutige Lösung existiert. Sind nun die Elemente von A und b reell und ganzzahlig, so läßt sich, wie wir im Abschnitt 6.12 gezeigt haben, auch die Auflösung ganzzahlig durchführen mit Hilfe des Produktes (55) und zwar am einfachsten nach Gauß-Jordan, Standard, explizit oder implizit. Im ersten Durchlauf wird (56) womit die n Pivots festliegen. Sodann wird das Produkt (55) berechnet und mit diesem Wert die Gleichung (56) multipliziert, das gibt (57) Jetzt erfolgt der zweite Durchlauf ebenfalls ganzzahlig L 2 L 1Ai = L 2 6 oder
lli
= b mit
b= L 2 6
,
(58)
'---v------..J
und damit wird die Lösung
i
X=-
Xi
Xi = - ,
{}
i = 1,2, ... ,n .
(59)
{}
Ist A quadratisch, so ist nach (27) {} = detA (-1) v, und damit bedeutet die letzte Gleichung nichts anderes als die Cramersche Regel (3.20), wo die im Zähler stehenden Unterdeterminanten Ai = Xi( -1) v natürlich ganzzahlig sein müssen. Erstes Beispiel. Das Gleichungssystem Ax = bist ganzzahlig zu lösen. Gegeben
A =
[
12 -14 -15] - 30 35 60 3 _ 4 '
o -2
2
b=
[OJ 1
- 79
.
(a)
0
Die Matrix A hatten wir im Abschnitt 6.12 auf Ä = LI A transformiert. Wir berechnen dazu den Vektor b = LI b und stellen fest, daß das System verträglich ist.
141
7.11 Ganzzahlige Gleichungssysteme
[ -;] -~ ~ o o
Es war
{!
= 6,
-3 5 0 ]
0 0 0-1
somit wird
1 -3 2 5 0 0 0 -]
0 -6 0 0
5 2 2 1 [ 770 316 195 80
ti = 65,
12 6 0 6
0 0 4 1
verträglich. (b)
und damit erfolgt der zweite Durchlauf.
]
-2 0 0
0 ] 0 -6 2 0 0 0 0 0 0 -1
-6 36 0 6
o 1 0 -6 0 0 o 0 0 o 0 -1
-6 48 0 6
b .
(c)
Daraus ergibt sich die Lösung
(d)
Probe: Ax = b. Zweites Beispiel. A x
A=
=
b mit
127 127 85 4J 2 17 11 2 11 [ 3 -4 -3 -9
,b=
[
03J -5
(a)
1
1. Durchlauf, Gauß-Jordan, Standard explizit. Erster Schritt. Erste Spalte. Wir wählen alt = 12 und a2t = 7. Der Euklidische Algorithmus ergibt die Teilermatrix L l2 (b), damit werden die ersten beiden Zeilen der Matrix A einschließlich der rechten Seite b multipliziert und das Produkt in (A Ib) substituiert (c), sodann erfolgt die Reduktion nach Gauß in (d).
]
L l2 = [
1 0
o o
3 -5J 12
-7
' (b)
1 -1 2 0 4 -4 -6 19 -23 -7 o -15
9 -21 -158 -26
0 -17 -3
] 1 -1 2 0 0 4 -4 17 11 2 11 3 -4 -3 -9
9 -21 -5 1
(c)
(d)
Zweiter Schritt. Zweite Spalte. Wir kombinieren die Elemente a32 = - 6 und a 42 = -7 nach Euklid und bekommen die Matrix L 34 (e). Sodann erfolgt die Linksmultiplikation der dritten und vierten Zeile von (A Ib) und die Substitution. Die Reduktion nach Gauß entfällt, da a22 = a32 = 0 ist,
142
7 Auflösung linearer Gleichungssysteme 1
L 34 =
7 -6J [ -1 1
o
(e) ,
o
o
Dritter Schritt. Dritte Spalte mit
1
-1 2 4-4 0 133 -71 -1 -19 8
023
I
L 23
133 -4J (g) , = [ - 33 1
9 -21 -950 132
0
= 4 und 1
o 0 [o 0 o -1
033
(f)
= 133. Die Reduktion entfällt, da 023 = 0 ist,
-1o 2 9]
1 -19
-248 61 8
1007 -257 132
(h)
Das Produkt der vier Pivots beträgt
e=
1. ( - I)' 1.( - 248) = 248 ,
(i)
und damit wird die neue rechte Seite jj = 248 jj. 2. Durchlauf. 2/248 1
61/248 8/248
I I -1 2 0 -248 0 0 1 61 0 0 8 0 -I -19
2232 249736 -63736 32736
1937 1 I I 0 0 0 0 0 0 -248 249736 0 -2309 0 0 0 I 1 0 -I 0 0 -3079
n
I 1 1 -I 4246 0 0 -248 249736 0 0 0 1 1 0 0 0 -2309 19 0 -1 -19 0 40792
I 0 0 0 0 0 o -248 0 0 1 0 0 -1 0 0
-1142 249736 -2309 -3079
-+ -+ -+
= -1142 = -1007 x3 = -2309 .
XI X4
-+ x2
=
(j)
(k)
3079
Man findet den Vektor i und daraus die gesuchte Lösung x:
A
x=
-1142J 3079 _ 2309 [ -1007
i
, x = 248 =
- 4,60483871 0J 12,415322580 - 9,310483871 . [ - 4,060483871
(I)
• 7.12 Zusammenfassung
Die Abschnitte 5 bis 7 dienten in erster Linie der Auflösung linearer Gleichungssysteme Ax = b bzw. Ax = 0, oder auch, wenn sogleich p rechte Seiten zu einer Matrix B zusammengefaßt werden, AX=B
bzw.
AX=O
(60)
mit (61)
7.12 Zusammenfassung
143
Kernpunkt des Problems ist in jedem Fall die Transformation von A auf die Pivotmatrix n, was für nichtquadratische Matrizen nur äquivalent möglich ist, LAR = n, für quadratische dagegen auch kongruent, LAL* = n, wo dann mit A zugleich auch n hermitesch (im Reellen symmetrisch) ist. Halten wir nachdrücklich fest, daß die Algorithmen von Gauß-Jordan wie auch von Banachiewicz bzw. im hermiteschen Fall von Cholesky nicht ausnahmslos praktikabel sind; wir werden uns daher in den folgenden Partien des Buches vornehmlich auf den Gaußschen Algorithmus stützen. Den Schluß dieses Abschnittes möge eine nützliche Betrachtung allgemeinerer Art bilden. Da die Gleichung (60) drei Teilnehmer enthält, gibt es auch drei verschiedene Problemstellungen. 1. A und X gegeben, B gesucht. Mit den Originalspalten Xj aus X lassen sich die Bilder bj aus B unabhängig von Format und Rang der Matrix A eindeutig berechnen. 2. A und B gegeben, X gesucht. Diese Umkehraufgabe bereitet - wie alle Umkehraufgaben der Mathematik - nicht nur grundsätzliche Schwierigkeiten, sondern zwingt auch zur Einführung neuer Begriffe und Methoden. Dies haben wir in den Abschnitten 6 und 7 durchgeführt. 3. X und B gegeben, A gesucht. Ist X quadratisch und regulär, so lautet die eindeutige Lösung A =BX- 1
•
(62)
Anderenfalls aber ist die Aufgabe verwickelt und füllt bereits eine beachtliche Literatur insbesondere auf dem Gebiet der Schwingungstechnik, wo diese Fragestellung im Zusammenhang mit der sogenannten Systemidentijizierung von wachsender Bedeutung ist. Mit diesen drei Grundmöglichkeiten sind die praktischen Anwendungen indessen nicht erschöpft; denn es ist denkbar, daß von den drei Matrizen A, X und B einige Originale Xj' einige Bilder b k und nicht alle Elemente von A gegeben sind, und dies kann noch komplizierter ausfallen, wenn die Aufgabe nicht spalten-, sondern elementweise zerfällt. Die einschlägigen Theorien und Lösungsvorschläge sind zur Zeit in Entwicklung begriffen.
144
8 Orthogonalsysteme
8 Orthogonalsysteme 8.1 Die Normalform eines Matrizenproduktes Ein spezielles Kapitel innerhalb des Matrizenkalküls bildet die Konstruktion von Biorthogonalsystemen zweier vorgegebener Matrizen Bund A auf der Grundlage der Transformation ihres Produktes
tt t
A
n
BA = C,
C
B
s
(1)
auf die Normalform (5.56) N=
[~ r
o
o
J
(2)
r
s-r'
t-r
wo r der Rang des Produktes C ist. Diese Transformation wird zweckmäßig im Generalschema durchgeführt und geschieht nach Unger [109] in den folgenden drei Schritten:
tffiJ
ransformation
A
C
•
tffiJpermutation ~ormierung ~ A • Ap AN (3) •
B
II
B
IIp
Bp
N
BN
1. Scbritt. Einseitige reguläre Transformation von Bund A gemäß
B=
LB,
det L
= 1 ,
A' = AR, det R = 1
(4)
(5)
und damit Äquivalenztransformation des Produktes
C=BA' =LBAR=LCR=ll
(6)
auf die Pivotmatrix II vom Range r. 2. Schritt. Permutation. Die Zeilen von L, II und B und/oder die Spalten von R, II und A werden so umgeordnet, daß die r Pivots in die Hauptdiagonale geraten; es wird dann
o
o
r
t-r
J
r s-r
(7)
145
8.1 Die Normalform eines Matrizenproduktes
mit der Diagonalmatrix der jetzt umnumerierten Pivots D r = Diag (1l1l
... 1l rr > ,
(8)
siehe das Generalschema (3), wo der Index p auf die Permutation hinweist.
3. Schritt. Normierung der Diagonalmatrix Dr- Die Pivots werden in Faktoren zerlegt (9)
und sodann die ersten r Zeilen von L p und Bp durch 11, ••• ,Ir sowie die ersten r Spalten von Rp und A p durch r\> ... ,rr dividiert. Natürlich kann man auch alle Faktoren Ij oder alle Faktoren rj gleich Eins setzen, doch empfiehlt sich namentlich bei betragsgroßen Pivots eine Aufteilung nach (9). Im Generalschema (3) stehen nun die fünf Matrizen fertig vor uns, wo mit (10)
die gestellte Forderung nach der Normalform (2) erfüllt ist:
o
o
J
(11)
r
s-r
(-r
Beispiel. Gegeben sind A und B, das Produkt BA = C wird berechnet.
B=
[01-6 -IJ 1 0
2
1
'
A=
1 20 2 lJ 1 [ 1
BA=C=
1 0
-2 -4
[-3 0-IJ 1
0
2
(a)
1
Der Gaußsche-Algorithmus, durchgeführt im Generalschema (3), ergibt 1 2 1 2 1 1 -2 -4
3 1 0 1 0
h
1 13
-3
2 -1 2 -2 1 1 -2 -2 -4 5 1
1
0 A 0 1
1
B
1
0 -1 0 1 -6 -1 0 2 1 0 2 1
1 3 0 1
0 1
1 0 0
0 1 0
L
1 0 0
1
o -2
0 0 1
R
0 0
JJ
5 3 1 0 2 0 1 0 2 1
o -2 1 0
Ä
0 1
(b)
146
8 Orthogonalsysteme
Wir vertauschen jetzt die beiden Zeilen der Horizontalleiste des Zahlenkreuzes und anschließend die zweite und dritte Spalte der Vertikalleiste (dies kann auch in umgekehrter Reihenfolge geschehen). Es resultiert das Kreuz (c)
2 2 1 -2 1 -2 5 -4 1 -1 1 -2
0 1 1 3
1 0
0 5
1
-2 0
0
1
0
0 0
1 1 1
Ap Bp
0 1 0 2 1 0 3 1 0 2
-2
1
1 0
0
1
-0,4 0 0,2
0 1 1 3
(c)
LN RN
1
-0,2 -0,4 -0,4
0 0
1
2 2
AN
1
-4
BN
0 1 0 2 1 0 3 1 0 2
(d)
0 1 0
Eine Zerlegung von 1122 = 5 wäre hier wenig sinnvoll. Wir dividieren die gesamte zweite Spalte durch 5 und bekommen das Ergebnis in (d) mit den fünf gesuchten Matrizen der Transformation. Probe: BNAN=N, ferner ARN=A N und LNB = B N· Der Leser wiederhole die Aufgabe mit einer anderen Pivotstrategie.
8.2 Biorthonormalsysteme
Es sei nun s = t, dann ist die Produktmatrix CI quadratisch von der Ordnung t
(12)
BA=C,
Sie sei überdies regulär, also vom Range r = t, dann wird die Normalform (13)
gleich der r-reihigen Einheitsmatrix, und diesen Sachverhalt können wir mit den Zeilen bzw. Spalten von Bund A
B= A=
l
[ ] b
BN =
bl
[al'
ooa]
,
[
bj.
b~
]
A N = [aN'l" . aN,]
(14)
(15)
auch so formulieren:
b~aN,k = 1 für j = 1,2, ... , t b~aNk = 0 für j, k = 1, 2, ... , t; j
(16)
*' k
(17)
8.2 Biorthonormalsysteme
147
oder mit dem Kronecker-Symbol (2.43) kürzer gefaßt
Ib~aN,k
= 0jk
I;
(18)
j, k = 1, 2, ... ,t .
Die beiden vorgelegten Matrizen Bund A sind damit zu B N und AN biorthonormiert worden; ihre Zeilen b~ und Spalten aN,k bilden ein Orthonorma/system. Sind B und/oder A komplex, so wird diese Operation als normierte Unitarisierung bezeichnet. Beispiel. Die Matrizen Bund AsolIen biorthonormiert werden:
B=[2~ -7=~ ~-7J' -2 -3
2
3 1 -2 -1 3 0 2 -2 -1 1 -3 2 0 1 1 1 -3 -4
1 1 3 4 4 -3
A=
1
-21
-13 3 0 2 -2 -1 [ 1 -3 2
o
1
A B
0 1
7
1 -1 -2
3 -2 -14 4 14 2 -4 -17 1 -4 -12 0 1 4
1 0 0
0 0 0 1 0 -25
=
[~4 -34 iJ4
(a)
1
3 -2 -4 -1 4 2 2 -4 -5 1 -4 0 0 1 1
2 1 -2 -2 0 2 3 3 1 -4 3 -1 4 2 -2 -3 2 1
-1
C=BA
1 0 0 1 -2 -2 0 2 0 1 -3 0 7 2 3 -7 0 -7 -4 2 6 5 2 -7 0
1
3
A jj
1 -2 -2 0 2 0 7 2 3 -7 -2 55 19 23 -56
(b)
Die Pivotmatrix ist regulär, somit ist eine Biorthonormierung möglich. Die Permutation entfällt, da wir die Pivots aus der Hauptdiagonale gewählt haben. Jetzt erfolgt die Normierung, die sich hier fast ohne Rechnung erledigt. Wir dividieren die dritte Spalte von Ä durch 5 und die dritte Zeile von jj durch - 5 und bekommen
~ -; J'
- 4,6
11,2
AN = [ -
r ~: ~ HJ
01 - 4 - 2,4 1 0,8
.
(c)
8 ürthogona!systeme
148
8.3 Das vervollständigte Matrizenprodukt Es sei jetzt Beine zeilenreguläre Matrix mit r Zeilen und n Spalten und A eine spaltenreguläre Matrix mit r Spalten und n Zeilen
n
d=n-r.
(19)
Wie im Abschnitt 6.15 dargelegt, gehören zur Matrix B genau d linear unabhängige Eigenzeilen und zu A d linear unabhängige Eigenspalten, die wir zur Matrix L e bzw. Re zusammenfassen
] t· -n-
-d-
ld
(20)
und mit diesen bestehen die beiden homogenen Gleichungssysteme (21)
Mittels der beiden Matrizen L e und Re ergänzen wir nun das Paar (19) zu je einer vollständigen quadratischen Matrix der Ordnung n in folgender Anordnung (22) n
d
Das Produkt dieser beiden Matrizen ist dann
mit den beiden quadratischen Matrizen der Ordnung r bzw. d (24)
und es gilt nach dem Entwicklungssatz für Determinanten det Cu = det Cr . det Cd .
(25)
8.3 Das vervollständigte Matrizenprodukl
149
Damit ist das Produkt Cu entkoppelt, und nun können getrennt und unabhängig voneinander die beiden Matrizen Cr und Cd auf ihre Normalform transformiert werden (26)
insgesamt also ist (27) d
Wir heben an dieser Stelle hervor, daß zwar r gleich dem Zeilenrang von Bund gleich dem Spaltenrang von A ist, doch nicht etwa gleich dem Rang des Produktes Cr = BA sein muß, sondern sehr wohl kleiner sein kann, wie das einfache Beispiel zweier vom Nullvektor verschiedener orthogonaler Vektoren b T und a mit b T a = 0 zeigt. Das Produkt ist eine }-}-Matrix vom Range Null, während b T und a selbst den Rang Eins haben. Es sei nun die Produktmatrix Cr = BA ausdrücklich regulär, dann ist N r = Ir' Was aber ist mit Cd = LeRe? Um dies zu klären, fragen wir, ob das homogene Gleichungssystem (28) nichttriviale Lösungen besitzt, bejahendenfalls wäre nämlich Au singulär. Die Multiplikation der GI. (28) von links mit B ergibt nun (29)
und daraus folgt mit
Cl
=
0,
da BA als regulär vorausgesetzt wurde. Es verbleibt so(30)
denn da Re spaltenregulär ist, muß auch c2 verschwinden, so daß insgesamt C = 0 wird, und das bedeutet, daß die Gesamtmatrix Cu regulär ist. Die Determinanten von Cu und Cr sind somit von Null verschieden, also muß nach (25) auch die Determinante von Cd von Null verschieden, somit Cd selbst regulär sein. Wir sprechen diesen Sachverhalt aus als
Satz 1: Die Regularität der Produktmatrix Cr = BA zieht die Regularität der Produktmatrix Cd = LeRe nach sich. Damit wird dann auch Nd = I d ; die Normalform von Cu = BuA u ist daher gleich der n-reihigen Einheitsmatrix
8 Orthogonalsysteme
150
(31)
Die beiden Matrizen B vN und A vN bilden jetzt ein vollständiges Biorthonormalsystem bzw. bei unterlassener Normierung ein vollständiges Biorthogonalsystem. Wir erläutern das Vorgehen wieder an einem Beispiel. Gegeben sind die Matrizen Bund A, die vollständig biorthonormiert werden sollen,
-~]
01
1 -3 2 B= [ 3 -2 -I 2J '
A = [ - ;4 -I I 3
C=BA =
'
[136 145J
(a)
Als erstes berechnen wir die Eigenspalten der Matrix B. Gauß implizit gibt
1
-3
1 -3
2 0 3 -2 -1 2
0 1 1 0
0
7
-7
o -3,5
3 -2 0
1
0
~ ~HB.
0 2
3,5
t
1
(b)
t
Eigenspalten der Pivotmatrix HB sind somit e2 und e3, mithin sind die Eigenspalten von B die Vektoren '2 = Re2 und '3 = Re3:
u!lr--_. CL LJJUs L -2 ]
(0 - 3,5
3,5
1)
(-3,5
3,5)
(l
3 -2 0)
(3
-2)
Beide Spalten multiplizieren wir mit 2, um auf ganze Zahlen zu kommen, und gewinnen damit die Matrix Re (c). Probe: BRe = O!
6-4J [~ ~ -7
=
(c)
Re .
7
Es folgen die Eigenzeilen der Matrix A nach der gleichen Vorgehensweise:
-2
2
1
-I
-4
1
I
-2
5 0 -5 1 0
1
4 -1 1 3
13 o -13 0 1 0
1 .-3
0
1
HA
~ o
o
<-
I
0 0 I 0
Eigenzeilen von HA sind e 1 und e 2. Die Eigenzeilen demnach
(d)
<-
[1 =
e 1L und
[3 =
e 3L der Matrix A sind
8.4 Kongruenztransformation. Orthogonalsysteme
-
.--2 1 -4 1
5 1 13 0 1 0 0 0 0 0 1 0
151
G
3 9
1 5 0 0 0 13 1 0
5 13
t
~J
5 0 13 1
(e)
=L e ·
t
Probe: LeA = O. Nach (22) werden nun die gegebenen Matrizen ergänzt und ihr Produkt (23) berechnet, das gibt
[-; B,= [:}[;
-3 2 -2 -1 0 1
5 13
;HI~
1 -2 -1 3
6 2 0 -7
5 14
0 0
0 0
-5 -37
-j]
=
[A R.] =A,
~J {,
1
0 =B,A,
0
17 65
C
(f)
d
Eine Zerlegung der beiden Matrizen C, und Cd lohnt hier nicht. Wir berechnen nach (3.19) ihre Inversen 1
C,-
=[ J =ill [J 13
5
6
14
-1
1
14 - 5
-6
13
,Cd
l
=
[J - 5
17
-37
65
-1
1
=304
[
J
65 - 17 37
-5
(g)
und multiplizieren nun B von links (oder auch A von rechts) mit C ,-I und L e von links (oder auch Re von rechts) mit Cd I. Auf diese Weise bekommen wir die beiden zueinander reziproken Matrizen
B vN =
-2 -64 66 -20] 66 - 16 - 50 52 65 104 -17 42 304 [ 37 120 -5 66 1
[-~ -;
~ -~J2
4 -1 0 1 3 -7
(h)
7
8.4 Kongruenztransformation. Orthogonalsysteme
Es sei Aspaltenregulär, dann ist A * zeilenregulär. Wählen wir nun als Faktormatrix B = A *, so wird das jetzt hermitesche Produkt Cr = A * A regulär, weil es nach (11.22) positiv definit ist. Aus (13) bzw. (18) wird daher das Orthonormalsystem (im Komplexen normiert unitäre System) (32)
152
8 Orthogonalsysteme
und das vervollständigte System (22) geht über in
[
*J
A
R:
(33)
r , d r
n
d
mit der Produktmatrix nach (23)
Cv=A~Av=
(A*A
o
0
J
* ReR
=
(Cr 0J 0 Cd
pos. def. ,
(34)
(35)
wo die drei Matrizen C v' Cr und Cd hermitesch und positiv definit sind. Wir haben somit anstelle von (26), (27) die Kongruenztransformationen (36)
oder en bloque (37)
Die Transformation der vervollständigten Matrix A v auf die n-reihige Einheitsmatrix In wird auch jetzt wieder in zwei getrennten Rechengängen durchgeführt. Zunächst die Matrix A. Da Cr hermitesch und positiv definit ist, lassen sich die Pivots (in beliebiger Reihenfolge!) aus der Hauptdiagonale wählen, 1lr hat dann die Diagonalform
o
so daß die Permutation entfällt. Das Generalschema vereinfacht sich daher zu
~
TranSformatiO~
0
~
Normierun:
~.
~
(39)
Die nach dem ersten Schritt vorliegende Matrix Ä = AR ist damit bereits orthogonal (im Komplexen unitär), wenn auch nicht normiert. Sollte eine Normierung erwünscht oder erforderlich sein, so werden die Spalten von Ä der Reihe nach durch die Werte ~, ... , ~ dividiert, wodurch Ä in AN übergeht; es ist dann endgültig (40)
8.4 Kongruenztransformation. Orthogonalsysteme
153
und analog verfährt man mit der Matrix Re nach dem Schema
~ TranSformatio~
(41)
~
Erstes Beispiel. Zwei Vektoren a t und a2 sind zu orthonormieren und orthonormal zu vervollständigen
A
= (at
=
a2)
GiJ .
(a)
Als erstes bestimmen wir die Eigenzeile zur Matrix A als vektorielles Produkt
(b)
(Der Leser führe dies zur Übung auch nach Gauß durch.) Damit ist die Matrix A vervollständigt, und nun wird
(c)
Erste Transformation der Matrix steht: 2 1 1
1 2
6 -5/6 5
5 6
1
1
er aus (c) nach dem Schema (39), die aus nur einem Schritt be2
2
1
1
2 -2/3 1 1/6 1 7/6
V63
6
V6 6
o
0 11/6
---a a =
7
a
=
V6I1t = 0,738549 0.816497 -0,492366J 0,408248 0,123091 = AN . [ 0,408248 0,861640
(d)
-a
1 -5/6
6
Transformation
Normierung
J
Zweite Transformation. Diese besteht allein aus der Normierung des Vektors re' Es ist r re c 11, somit
reN =
,~ V 11
[-;J 1
= [-
~:~~;;~J
0,301 511
.
(e)
154
8 Orthogonalsysteme
Die orthonormierte vervollständigte Matrix ist daher mit (d) und (e)
A vN = (AN reN) =
0'816497 -0,4923661 0,301511J
~
0,408248 0,408248
0,123091 0,861640
-0,904534 0,301511
.
(I)
Zweites Beispiel. Die Matrix A ist vollständig zu orthonormieren:
3 1]
-1
A =
2
[-4 -2-b .
(a)
~
Ermittlung der Pivotmatrix llr und der Matrix L e durch Rücktransformation: 1
-2 1 0 2
3 1 -1 2 3 -1 0 I -4 -2 -3
0 7 -6
0 1 -7 0 6 0 1 0 2 0
1
-2
(b)
1 0
1
-
r--
0 7 -6
1
-2 I 0 2
1
-2 0 I 0 0 0 0 0 1 0 0 0 0 0 0 I
7 -6 -2
0 I 0 7 0 0 0 1 -6 0 0 0 0 -2 I
-2 1 2
[-!
t
&
J
107 0 o 1 -6 0
o
0 -2 1
= L e . (c)
Wir vervollständigen die Matrix A durch Re = L; ZU A v und berechnen das Produkt A ~Av = C v
[31 A
Av
AT
Le
[-;
-1 3 2 -1 1 0 0
-J
o -2
-I 2 3 -1 1 0 -4 -2
-2 1 0 7 0
6 6 10
0 0
1 o [l6
0 7 1 -6 0 -2
o I
0 0 0
0 0 0
Re
I 0 I -6 0
-1l
0 0
54 -44 -44 38 -18 14
-:j]= [
Cr
0
0
Cd
]
1di
=C
8.5 Eine Variante
155
Mit Hilfe der Matrix Cr wird die Matrix A transformiert und normiert, das gibt 3
I
3
-I
2
-1
3
-I
I
0 -2
3 1 -4
1/2 13/6 -3/2 -1/6 -4/3
36 0
0 9
A
-4 1
36
-1/6
6
6 10
1
-1/6
1
, AN
=-
18
9 3]
-3 9 3 -12
[
13 -9 -1 -8
.
(e)
Dasselbe führen wir jetzt für die Matrix Re durch mit Pivots an den Plätzen 11 und 22 und bekommen -2 1 0 7 0
1 0 1 -6 0
2 0 0 -2 1
54 -44 -18 -44 38 14 -18 14 9
=>
- 2 - 0,629630 1,137931 1 0,814815 0,586207 0,310345 0 1 7 -0,296296 0,241380 0 0 1 54 0 0
0 0 2,148148 0 2,793103 0
-0,272165 -0,429589 0,680883 0,136083 0,555939 0,350758 o 0,682288 0,185695 0,952580 -0,202159 0,144430 0,598351 o 0
= Re,N .
(f)
8.5 Eine Variante
Die in den vorangehenden Abschnitten 8.1 bis 8.4 beschriebene (Bi-)orthonormierung läßt sich nach einem Vorschlag von Budich 1 wesentlich vereinfachen, wenn mittels Pivotregulierung anstelle der Pivotmatrix fl in (6) sogleich die (im allgemeinen rechteckige) Normalform Nd (6.41) hergestellt wird, welche dann an die Stelle der Matrix flp (7) tritt. Die Normierung als dritter Schritt im Schema (3) besteht demzufolge aus einer einzigen Division durch die Rumpfdeterminante LI bzw. aus zwei Divisionen, falls analog zu (9) die Zerlegung LI = LI (LI r vorgenommen wird. I
Mündliche Mitteilung vom 9. November 1990.
156
8 Orthogonalsysteme
Beispiel. Nach (1) sei s = 4, n = 10, t = 5 mit den Matrizen
A=
B=
0 2-3i 4 -1 -3 0 1 0 0 0
1 1 1 0 2 -I 0 -1 -2 2 4 3
[1+; [
BA=C=
0 0+2i 0 2 2 0 0 0 2 0
0 1 2 1 0 0 1 0 1 O-i
0 0+6i 0 6 6 0 0 1 0 1
0 0 -I-i l+i
0 O+i 0 1 1 0 0 0 1 0
2 1+3i 1 3
(a)
-I 2 -2 0
O+i 0 -2 0 1 +2i -2 -I 2
'-;]
~-2i
,
1+;]
2-i 2+2i 7+6i 4-3; - 2 - 8 -I 11 5 -1+3i -1O-2i -1O-2i -15-6i -5-i 9-9i 14 14+6i 29+ 18i 7+3i
Der erste Schritt gemäß (4) und (5) mit det L
C=BA=LBAR=LCR=N,=
= det R = 1 ergibt nach (6)
[i l ~
o
0]0
o
0
o
(b)
(c)
die Matrix
0
(d)
mit der Rumpfdeterminante LI = 218/3+70i ,
(e)
wo die Elemente der beiden Transformationsmatrizen L und R zufolge der Pivotregulierung nicht mehr ausnahmslos ganzzahlig sind, wovon der Leser sich überzeugen möge. Dividiert man die dritte Zeile von L oder die dritte Spalte von R durch LI, so ist damit die Endform (11) auf einfachste Weise berechnet.
8.6 Überbestimmte Gleichungssysteme. Kondensation. Die Pseudoinverse
Vorgelegt sei das überbestimmte Gleichungssystem
Ax=b,
m>n,
r=n,
(42)
wo die mn-Matrix Aspaltenregulär und die rechte Seite b verträglich ist. Dann existiert, wie wir aus Abschnitt 7.10 wissen, eine eindeutige Lösung x. Ein besonderer Kunstgriff besteht nun in der sogenannten Kondensation des überbestimmten Systems auf ein bestimmtes System der Ordnung r mittels geeigneter Linearkombination der m Zeilen von A auf nur n Zeilen einer quadratischen Matrix der Ordnung n. Die einfachste Kondensation besteht offenbar im Herausgreifen von n geeigneten Zeilen des Gleichungssystems (42)
8.6 Überbestimmte Gleichungssysteme. Kondensation. Die Pseudoinverse
aJX = bJ
,
157
(43)
j = (1' ... ,(n ,
doch ist es im allgemeinen zweckmäßiger, eine geeignete zeilenreguläre Matrix B zu wählen und mit dieser zu kondensieren n m m
BAx=Bb,
n
IB
A
b
BA
Bb
m
n ,
(44)
wozu allerdings die Regularität der Produktmatrix C = BA vorausgesetzt werden muß. Es existiert dann deren Inverse, und damit wird die Lösung des kondensierten Systems (45)
mit der sogenannten BA-Inversen
IKBA=C-1B mit C=BA
I,
(46)
und es ist offensichtlich (47) so daß die Inverse K BA die Rolle der gewöhnlichen Inversen A -1 im Falle m = n übernimmt. In der Wahl von B ist man relativ frei, doch ist es vom numerischen wie vom theoretischen Standpunkt aus optimal, B = A * zu setzen; dann wird aus (47) (ohne den jetzt überflüssigen Index) I K= C-1A*
mit
C=A*A
pos. deLI·
(48)
Diese spezielle Matrix heißt die Pseudoinverse, auch generalisierte oder Ha/binverse der spaltenregulären Matrix A. Dazu ein Beispiel. Gegeben ist das Gleichungssystem Ax = b mit
(a)
8 Orthogonalsysteme
158
A ist spaltenregulär und die rechte Seite b mit A verträglich, mithin existiert eine eindeutige Lösung x. Wir berechnen das Produkt C = A TA und daraus die Inverse nach (3.19) T
A A = C=
[
18 -9J 1 1 [15 9J 1 [5 3J 9 15 , C - = 189 9 18 = 63 3 6
_
(b)
Die Pseudoinverse K und die Lösung x sind damit leicht berechnet
Proben: Ax = bund KA = 12 ,
Zur Kontrolle der Rechnung setzt man die Lösung x in die Ausgangsgleichung (42) ein und bekommt
Ax-b=o,
(49)
wie verlangt. War aber die rechte Seite nicht verträglich (was man oft vorher nicht wissen kann), so entsteht eine Gleichung mit Resten (Fehlern, Residuen, Dejekten)
Ax-b=v,
(50)
und nun kann man fordern, daß das überbestimmte Gleichungssystem (42) wenigstens "im Mittel verträglich" wird. Diese Forderung führt dann auf die von Gauß begründete Ausgleichsrechnung, auf die wir im Abschnitt 12.1 noch zu sprechen kommen. Wie leicht nachzurechnen, bekommt man auf Grund der Definitionsgleichung (48) die folgenden hermiteschen Matrizenprodukte
KK* = C- 1 AA* =K*C 2 K K*K =A*C- 2 A } G=AK =AC-1A*
Ordnung n, Rang r, pos. def.
(51) (52)
Q'dnung m, Rang, = n.
(53) (54)
Das letzte, gemischte Produkt besitzt die bemerkenswerte Eigenschaft
G 2 =AK'AK=AI,K=AK=G,
(55)
L--..J
woraus dann auch GP = G für jede natürliche Zahl p folgt. Matrizen dieser Eigenschaft werden idempotent genannt oder auch als Projektor bezeichnet. Die Pseudoinverse wird nicht allein zur Lösung von überbestimmten Gleichungssystemen herangezogen, sondern erfüllt innerhalb des Matrizenkalküls noch mannigfache andere Funktionen, weshalb es zweckmäßig sein kann, die
9.1 Die Pivotmatrix
159
konjugiert-komplexe Matrix K* anstelle von KaIs Pseudoinverse einzuführen, worauf beim Literaturstudium zu achten ist. Der an diesen Fragen interessierte Leser sei auf die zusammenfassende Notiz bei Maess [37, S. 163] und auf eine Arbeit von Zielke [11Oc] hingewiesen.
9 Lineare Abhängigkeit und Rang • 9.1 Die Pivotmatrix
Wir haben schon in den Abschnitten 1.6 und 2.3 den Begriff der linearen Abhängigkeit und im Zusammenhang damit den Rang einer Matrix eingeführt und wollen nun unsere Kenntnisse in wesentlichen Punkten ergänzen. Beginnen wir mit der Definition 1: Der Rang ist ein Maß für die Singularität einer Matrix und fügen sogleich hinzu den Satz 1: Der Rang r ist gleich der Anzahl der Pivotelemente.
Dies besagt aber, daß man im allgemeinen nicht um die Äquivalenztransformation n
>-
LAR=[]=
-I
•
•
1 I
m
•
(1)
• t
herumkommen wird, um den Rang einer Matrix A zu bestimmen, und da die Anzahl der Pivots nicht größer sein kann als die kleinere der beiden Reihenzahlen von [] und somit auch von A, gilt trivialerweise
r=5min(m,n) .
(2)
Natürlich entsteht sofort die Frage, ob nicht verschiedene Pivotstrategien auf Pivotmatrizen mit verschieden vielen Elementen führen können. Dies ist leicht verneint; denn wird eine vorgelegte mn-Matrix A mittels zweier regulärer quadratischer, aber sonst beliebiger Matrizen Sund T transformiert auf
SAT=A,
(3)
und transformieren wir diese Matrix ein weiteres Mal mit den beiden Matrizen
(4)
9 Lineare Abhängigkeit und Rang
160
so resultiert insgesamt
LAR = LS-1SATT- 1R = LAR = n l---J
(5)
l---.J
mit derselben Pivotmatrix
n wie in (1), und da Sund T beliebig waren, gilt der
Satz 2: Zwei äquivalente Matrizen A und A = SA T haben denselben Rang. • 9.2 Die Basis Die einfachste Basis ist die Einheitsmatrix, entweder aufgefaßt als Spaltenbasis In oder Zeilenbasis
r
(6)
mit den Einheitsvektoren ek und ihren Transponierten e k . Nun ist die Einheitsmatrix eine Pivotmatrix mit n Elementen, somit ist nach Satz 1 ihr Rang r = n. Entfernt man aus In einige Spalten (aus einige Zeilen), so bleibt offensichtlich der Rest spaltenregulär (zeilenregulär); zum Beispiel wird für n = 6
r
000 1 0
0
000 010
(7)
o 0 1 000 ••- - - n - - - -
r=3
Ist nun A eine reguläre quadratische Matrix der Ordnung n, so wird
und da man auch hier wieder die Matrix A Er von links mit A - 1 bzw. die Matrix ErA von rechts mit A - 1 multiplizieren und damit die Aussage auf die Pivotmatrizen (7) zurückführen kann, haben wir den
'*
Satz 3: Irgend r< n (r 0) Spalten (Zeilen) einer regulären quadratischen Matrix A sind spaltenregulär (zeilenregulär) und damit linear unabhängig. Die Matrix A selbst bildet eine Basis.
9.3 Dyadische Zerlegung
161
Fügt man andererseits zu einer Basis eine oder mehrere Spalten (Zeilen) hinzu, so ist die so entstehende Rechteckmatrix spaltensingulär (zeilensingulär), wie man sich anhand der Pivotmatrix leicht klarmacht. 9.3 Dyadische Zerlegung Wir multiplizieren die Gleichung (1) von links mit L -1 und von rechts mit R- 1 und nennen diese Matrizen zwecks Erleichterung der Schreibweise P und Q, dann wird
A=PllQ
(9)
Schreibt man nun die Pivotmatrix mit den Rechts- und Linkseigenvektoren bzw. e k als dyadische Zerlegung II =
L e/Trjke k
ej
(10)
,
so geht die Gleichung (9) über in (11)
mit r Spalten Pj aus P und r Zeilen qk aus Q, und diese sind je für sich linear unabhängig nach Satz 3, da sie einer Basis P bzw. Q entnommen wurden. Die Darstellung (11) der Matrix A heißt deshalb eine reguläre (auch minimale dyadische) Zerlegung von A oder eine Basisjaktorisierung. Numerisch durchgeführt stellt sie nichts anderes dar als den Algorithmus von Banachiewicz aus Abschnitt 6.5. Faßt man die Spalten Pj und die Zeilen qk in einer Matrix Pr bzw. Qr und die Pivots zur Diagonalmatrix D r zusammen,
P, =
~,p,
Q' =
p,j ,
[
::
l'
D,
= D;ag(n,}
,
(12)
wo wir der Einfachheit halber alles durchnumerieren (um die lästige Doppelindizierungjk zu umgehen), so läßt sich aufgrund der Lesart (2.33) die Gleichung (11) auch als dreifaches Produkt schreiben n
r r A = PrDrQr m
Qr
Dr
DrQr
Pr
A
(13)
und dies ist oft zweckmäßiger als die Darstellung durch eine Summe.
9 Lineare Abhängigkeit und Rang
162
9.4 Der dominierende Minor Wir kommen nun zu einer ganz anderen Auffassung des Ranges. Ist die Matrix
A quadratisch und regulär, so hat sie den vollen Rang r = n. Ist aber A eine beliebige mn-Matrix, so beherbergt sie doch stets eine quadratische reguläre Untermatrix, einen sogenannten dominierenden Minor M r der Ordnung r, während alle übrigen etwa vorhandenen Minoren höherer Ordnung singulär sind. Dies führt uns zu der Definition 2: Der Rang einer Matrix ist gleich der Ordnung des dominierenden regulären Minors (oder irgendeines der dominierenden Minoren).
Ist zum Beispiel A eine Dyade, so sind, wie wir im Abschnitt 2.5 sahen, alle Minoren von zweiter und höherer Ordnung singulär; reguläre Minoren sind somit, falls vorhanden, von der Ordnung 1, und das sind die von Null verschiedenen Elemente selber; mithin ist auch der Rang der Dyade höchstens gleich 1. Sind alle m' n Elemente gleich Null, so ist A die Nullmatrix und besitzt den Rang O. Wir greifen nun irgendeinen dominierenden Minor M r der Ordnung raus A heraus und schaffen ihn der einfachen Darstellung wegen durch Umordnung der Zeilen und Spalten in die linke obere Ecke. Sodann transformieren wir M r auf die r-reihige Pivotmatrix (14) die als Rumpfmatrix bezeichnet werde. Diese Transformation betrifft auch die ersten r Zeilen von B und die ersten r Spalten von C, es wird somit insgesamt (15) Benutzen wir jetzt die r Pivots zur Reduktion nach unten und rechts, so verbleibt
c[ffil ~ [~J '
(16)
wo nun nicht allein A und B, sondern auch die Matrix Q unten rechts in die Nullmatrix übergegangen ist. Denn besäße Q auch nur ein einziges von Null verschiedenes Element, so könnten wir dies in die obere linke Ecke von Q bringen und hätten damit einen regulären Minor der Ordnung r+ 1 (in (16) eingezeichnet), was aber nicht sein kann, denn M r wurde ja als dominierender Minor angenommen. Natürlich ist es gar nicht erforderlich, den zur Pivotisierung ausgewählten dominierenden Minor in die linke obere Ecke zu schaffen; dies geschah nur der einfachen Darstellung halber. De facto bleiben alle Elemente der Matrix M r auf ihrem Platz, und da zur Transformation ausschließlich Elevatoren benutzt werden, bleibt auch die Determinante erhalten,
163
9.5 Lineare Abhängigkeit von Vektoren und Matrizen
det M r = det llr
(17)
mithin gilt der Satz 4: Die Determinante der Rumpfmatrix llr ist gleich der Determinante des durch die Pivotstrategie favorisierten dominierenden Minors M r . Dazu ein Beispiel mit m
= 3 und n = 4.
~-4 -5
-3
2 1 4 -6
1 6
-2 Rumpfmatrix
n2 =
1
4 5 8 10
0 2
-8 0 -16 -20 0 1 16 0
-4 -5
1
1 0
0 32
0 40
-2 -2,5
n 2 und Minor M 2 (beide eingerahmt) haben dieselbe Determinante,
[-8
0
01tJ '
M2 =
[-2 3J 2
1
'
det n 2 = det M 2 =
-
8 .
(b)
Mit einer anderen Strategie resultiert bereits nach dem ersten Schritt das Ergebnis (d). 1
-2
1
2
2
4 -0,4
n2 =
[j
CJ-4 1 4 -6 0,6
1l40-5J0
'
8
10
-0,8
1
M2
=
[
[3 -5J 1
5
'
0 rolO~5 oWo 0
o
0 0
det ll2
n.
(c)
0
= det M 2 = 20
.
(d)
9.5 Lineare Abhängigkeit von Vektoren und Matrizen Kommen wir schließlich zum Begriff der linearen Abhängigkeit. Dieser bringt im Prinzip nichts Neues; anstatt mit der Matrix A selbst operiert man lediglich mit dem zugeordneten homogenen Gleichungssystem (18)
oder spaltenweise geschrieben (19)
und postuliert damit wie schon in (1.25) als
164
9 Lineare Abhängigkeit und Rang
Definition 3: Folgt aus der Gleichung (19) notwendig Cl = C2 = ... heißen die n Spalten 01,02" .. ,an der Matrix A linear unabhängig.
= Cn = 0,
so
Denselben Sachverhalt können wir auch so formulieren: Besitzt das homogene Gleichungssystem Ac = 0 nur die Triviallösung, so sind die Spalten von A linear unabhängig, andernfalls linear abhängig. Der Leser wiederhole dazu die Abschnitte 1.6 und 7.8. Der Begriff der linearen Abhängigkeit ist ohne weiteres von Vektoren auf Matrizen übertragbar. Wieder gilt: Gibt es Skalare Cl' C2, ... , cp derart, daß sich aus p vorgegebenen Matrizen ~ gleichen Formates die Nullmatrix kombinieren läßt, (20) ohne daß alle Cj verschwinden, so heißen die Matrizen linear unabhängig. Faßt man die n Spalten der Länge m einer Matrix zu einem Hypervektor mit m' n Elementen (Komponenten) zusammen, so überträgt sich die Forderung (20) auf die ihr nun gleichwertige Forderung (19), und wieder ist klar, daß mehr als m'n mnMatrizen linear abhängig sein müssen. Ist aber A quadratisch, und betrachtet man speziell die n+ 1 (nicht n 2 + 1!) Matrizenpotenzen A O = In> Al = A,A 2, ••• ,An, so besteht bereits zwischen diesen eine lineare Abhängigkeit (mit cn = 1) (21)
mit gewissen durch die Matrix A selbst festgelegten Koeffizienten Co bis c n -1' Dies ist der berühmte Satz von Cayleigh und Hamilton, einer der tiefstgreifenden und faszinierendsten Sätze des Kalküls überhaupt, den wir im Abschnitt 14.3 beweisen werden. Beispiel
A --
(3 -IJ ' 2
0
A 2 _-
[7 -3J 6
-2
.
Behauptung:
Co
= 2,
CI
= - 3 ,
(a)
und wirklich ist
2/2-3A +A2 =
2[1o 01d -3 (3 -IJ (7 -3J rloo oj01 +
2
0
=
6
(b)
-2
9.6 Der Rang eines Matrizenproduktes Wir fragen jetzt, welche Beziehungen zwischen dem Rang rc eines Matrizenproduktes AB = C und den Rängen 'A und rB der beiden Faktormatrizen A und B bestehen. Um dies zu beantworten, multiplizieren wir die Gleichung A B = C beidseitig mit zwei regulären Matrizen La und Rb' nehmen eine innere Erweiterung vor
9.6 Der Rang eines Matrizenproduktes
165
LaARa( LbRa )-1 LbBRb = LaCRb '--.,--J
'---v--!
Ä
p
'----.,---)
11
(22)
'----.,---)
=
C,
P= (L bR a )-1 regulär
(23)
und bestimmen die beiden Paare La; Ra und L b; Rb so, daß A und B in ihre Normalformen (6.13) übergehen:
p
f
r
A
P
B
=>
C
~
1
1-----''''----+---+--+-------11 A f m. (24)
L---'-----'------'--_----'1 f-14~--
n - - - - - - I .I
Aus der Matrix P wurde somit eine Matrix K der Höhe,A und der Breite p herausgeschnitten, die mit 11 multipliziert den oberen Teil S der Matrix Cergibt; deren dominierender Minor bestimmt dann den Rang von C und damit den der Ausgangsmatrix C. Da P regulär ist, muß nach Satz 2 die Matrix K zeilenregulär sein und besitzt demnach mindestens einen dominierenden Minor der Ordnung/A. Dieser kann sich innerhalb von K irgendwo befinden, im Extremfall ganz links oder ganz rechts, und beide Fälle haben wir jetzt zu diskutieren anhand der drei folgenden nichtnegativen Größen Spaltendefekt von A:
dA
,
(25)
ZeilendefektvonB:
dB=P-'B~O,
(26)
=P-'A~O
(27)
oder, was dasselbe ist, (27a)
Wir verfolgen nun den Rang 'c als ganzzahlige Funktion (Relation) von 'B' indem wir 'B die Werte 0, 1,2, ... ,p annehmen lassen. Dies bedeutet, daß aus der Matrix K die ersten 'B Spalten herausgeschnitten werden, wodurch sich im Fall CD (der Minor sitzt links) die gestrichelte und im Fall Ci> (der Minor sitzt rechts) die durchgezogene Linie, insgesamt somit das Parallelogramm OEFG der Abb. 9.1 ergibt, und damit ist der Rang 'c als Ordinate dieses Parallelogramms in Schranken eingeschlossen, wobei die drei in Abb. 9.1 eingerahmten Fälle zu unterscheiden sind. Nun basiert diese Abbildung auf der Annahme, daß in der Matrix K zwischen dem Minor links und dem Minor rechts eine Lücke besteht, mithin die Differenz
166
9 Lineare Abhängigkeit und Rang · - - - - dA - - - - - 1 - - 'Ä
r rt'
------1
1-1
f
K=
TA I
11
1. L
~
t=_r,,_-_-.~I_.__=___=___=__=_-p-=--d-A'~--=---=---=-------~-J E
F
Abb. 9.1. Der Rang 'c als ganzzahlige Funktion des Ranges
E /
/
/
F
o
~L2LE __ A
/
/
p
'B
o
/
/
/
F
G P Fall I1: dA < 'A
TB
für den Fall I:
dA
<,A
TeLL U
Tj,=p
QG
P
Fall
TB
m.dA=O
Abb. 9.2. Die drei Fallunterscheidungen bezüglich'A
p-2rA = dA -rA eine positive Größe ist, Fall I. Die Abb. 9.2 zeigt diesen Fall nochmals und dazu die Fälle II und III, womit das Problem erschöpfend beschrieben ist. Insgesamt haben wir damit die folgende Einschließung gewonnen
(28)
Unsere Einschließung enthält aber auch zwei Gleichungen, nämlich die Punkte
ound F des Parallelogramms. Für den Nullpunkt 0 ist zufolge rc = 0 C die Null-
matrix, und das ist klar, da ja zufolge rB = 0 auch B die Nullmatrix ist. Interessanter ist der Punkt F. In den Fällen I und II bedeutet dies (29) und im Fall III (30)
167
10.1 Die simultane Äquivalenztransformation
Beide Aussagen fassen wir zusammen zum Satz 5: Ist B zei/enregulär (A spaltenregulär), so übernimmt die Produktmatrix AB = C den Rang von A (von B). Dieser Satz läßt noch eine weitere wichtige Folgerung zu. Fall a: Sind Bund A zeilenregulär, so ist nach (29) rc = rA = mund C ist somit ebenfalls zeilenregulär, und das Analoge gilt im Fall b. Fall a
m$p
ciEB n"2p
PA
Fall b
-
p p
n$p
B
C
(31) m"2p
A
C
Es gilt somit der Satz 6: Das Produkt zweier spaltenregulärer (zei/enregulärer) Matrizen ist spaltenregulär (zei/enregulär). Sind A und B quadratisch, so heißt dies: Das Produkt zweier regulärer quadratischer Matrizen ist regulär, und das ist trivial.
10 Gebundene Transformationen • 10.1 Die simultane Äquivalenztransformation Gebundene oder simultan durchgeführte Transformationen beziehen sich nicht auf eine einzelne Matrix A, sondern auf ein Matrizenpaar A; H, und es ist von vornherein klar, daß wir jetzt nicht mehr so frei über die beiden regulären Transformationsmatrizen L und R verfügen können, wie dies bei den in den Abschnitten 5 bis 9 betrachteten freien Transformationen möglich war. Wir beschränken uns für das folgende auf den Fall, daß A und B quadratisch von der Ordnung n seien, dann steht allen Ausführungen voran die simultane Äquivalenztransformation zweier Matrizen
LAR=Ä; LBR=B,
L und R regulär,
(1)
die nur durchführbar ist, wenn auch L und R quadratisch von der Ordnung n sind. Es sei nun B und damit auch B regulär, dann folgt durch Inversion der zweiten Gleichung (1) und anschließende Multiplikation von links mit R und von rechts mit L (2)
168
10 Gebundene Transformationen
Wir verlangen jetzt, daß das Paar L; R die Matrix B in die Einheitsmatrix
ii = In transformiert
ILAR=A,
LBR=In I·
(3)
Eine solche spezielle Äquivalenztransformation heißt Ähnlichkeitstransjormation, man sagt auch, die beiden Matrizen A und A seien einander ähnlich bezüglich B oder einfach B-ähnlich. Aus (2) folgt dann mit ii = In (4)
oder auch, wenn diese Gleichung von links bzw. von rechts mit B multipliziert wird,
1
BRL = In = RLB
I·
(5)
Ist speziell B gleich der n-reihigen Einheitsmatrix, so haben wir anstelle von (3) die strikte Ähnlichkeitstransjormation (6)
und die Gleichungen (4) und (5) besagen dann, daß (7)
LR=In =RL ist, somit die beiden Matrizen L und R zueinander reziprok sind
(8)
Ein Sonderfall der Äquivalenz ist die schon im Abschnitt 5.2 besprochene Kongruenz, das ist die wechselseitige Beziehung (9)
L=R*~R=L*,
die zur Folge hat, daß nur noch eine der beiden Matrizen L oder R frei verfügbar ist; die Gleichungen (3) bis (5) gehen dann der Reihe nach über in
LAL*=A=R*AR; L*L=B- 1 =RR* und BL*L=In=RR*B.
LBL*=In=R*BR,
(10) (11) (12)
10.1 Die simultane Äquivalenztransformation
169
Die Matrix B ist nun nicht mehr frei wählbar, weil nach (4.22) das Produkt L *L und damit nach (11) die Matrix B -\ hermitesch und positive definit ist; folglich muß nach Satz 1 aus Abschnitt 4.4 auch die Matrix B selber hermitesch und positiv definit sein
I B:=: B*
(13)
pos. deLI
Wir stellen abschließend die freien und gebundenen Transformationen noch einmal übersichtlich in der Tabelle 10.1 zusammen und bemerken, daß es außer diesen weitere nicht geben kann. Tabelle 10.1 gewöhnlich L und R quadratisch und regulär
konjunktiv (= hermitesch kongruent) L = R *, R = L * quadratisch und regulär
a)
b)
frei
I Äquivalenz I
I Hermitesche Äquivalenz I
A rechteckig oder quadratisch LAR=Ä
A quadratisch LAL*=.4=R*AR
c)
d)
gebunden
IB-Ähnlichkeit I
IB-Unitarität I
A und B quadratisch, B regulär
A und B quadratisch, B*
[LAR=Ä'
[LAL*
LBR = In-+RL
= B- 1
=.4 =R*AR LBL* =In =
=B
pos. def.
R*BR~RR* = B-
1
= L*L
Sind alle beteiligten Matrizen reell, so entfällt der Übergang auf das konjugiert Komplexe; das Zeichen * ist dann zu ersetzen durch das gewöhnliche Transpositionszeichen T. Ist speziell B:=: Im so wird nach (10) (14)
bzw. im Reellen (15) Die Matrizen L und R sind jetzt strikt normiert unitär bzw. im Reellen normiert orthogonal oder, wie man mit einem Kunstwort sagt, orthonormal. Die Kongruenztransformation ist besonders dann angebracht, wenn außer B auch A hermitesch ist; auch A ist dann hermitesch. Wir werden aber im Abschnitt 10.5 zeigen, daß es noch eine umfassendere Klasse von Matrizenpaaren gibt, die bei Kongruenztransformationen in sich selbst übergeht.
170
10 Gebundene Transformationen
Für gewisse Formulierungen ist es oft zweckmäßiger, anstelle des Matrizenpaares A; B die charakteristische Matrix F(A) = A -AB
(16)
einzuführen, wo A ein beliebiger (im allgemeinen komplexer) skalarer Parameter ist. Die allgemeine simultane Äquivalenztransformation (1) lautet dann in der geschlossenen Schreibweise LF(A)R = F(A) ,
(17)
und analog wird bei der allgemeinen Kongruenztransformation (10) LAL*=A=R*AR;
(18)
LBL*=ii=R*BR
LF(A)L* = F(A) = R* F(A)R ,
(19)
wo beim Übergang auf das konjugiert Komplexe auch der Skalar Adurch Xzu ersetzen ist. • 10.2 Die dyadische Zerlegung eines Matrizenpaares Wir studieren im folgenden die spezielle simultane Äquivalenztransformation auf zwei Block-Diagonalmatrizen
LAR=Ä =
[AJ'J.<.~J o
0
... Ass
LBR
=B=
[
BI'
0
...
0
o
0
... B ss
.~ ..~~~ . : : : .. ~.
wo die quadratischen Hauptdiagonalblöcke die Ordnungen also
u, bis
Us
J
(20)
haben; es ist (21)
Nach dem Determinanten-Entwicklungssatz gilt zufolge der Diagonalstruktur (20) offenbar det Ä
= det Ä" . det Ä 22 ••• det Ä ss; det B = det B" .det B22 ••• detBss
und da wir auch jetzt wieder B als regulär, mithin det B auch die einzelnen Blöcke regulär: det Bjj
*" 0
für j = 1,2, ... , s .
, (22)
*" 0 voraussetzen, sind (23)
10.2 Die dyadische Zerlegung eines Matrizenpaares
171
Auch die Transformationsmatrizen L und R unterteilen wir passend zu A und B in s Blockzeilen bzw. Blockspalten, dann vollzieht sich die Berechnung des dreifachen Produktes LAR (und analog für LBR) nach dem Blockmuster
[ A
Die
s2
][
(24)
Blöcke von Ä und B sind somit die Block-Bilinearformen für j = 1,2, ... ,s ,
(25)
Um nun zu einer bemerkenswerten Darstellung des Paares A; B zu gelangen, greifen wir zurück auf die schon früher eingeführten Eigendyaden (6.68). Als Normierungsmatrix wählen wir N = B, was erlaubt ist, da die Blöcke (23) invertierbar sind. Wir haben somit (in etwas anderer Bezeichnungsweise als dort) die Eigendyaden (27), die wir aus sogleich verständlichen Gründen erweitern zu (28), denn dann läßt sich mit den Abkürzungen (29) die Eigendyade kompakter schreiben in der Form (30). B·} = BR.(LjBR·)-I LjB = BR·B-:: I LjB , }} } }}
(27)
die wir aus sogleich verständlichen Gründen erweitern zu --I -
--I
j
(28)
Bj = BRßjj Bjßjj L B ,
[j = BJ; 1 Lj B, ~
- - I "j
Bj=Rßjj L .
Rj = BRjBJ'/
'
(29) (30)
Da sich die beiden Matrizen Ä und B im Aufbau (20) in nichts unterscheiden, bilden wir das zu Bj analoge dyadische Produkt, indem wir Bjj durch Ä jj ersetzen und haben damit das dyadische Matrizenpaar (31)
10 Gebundene Transformationen
172
dessen Eigenschaften wir jetzt untersuchen wollen. Zu diesem Zweck multiplizieren wir das Paar von links mit LJi und von rechts mit R v und bekommen somit die s2 Blöcke der transformierten Matrizen LAjR und LBjR als
Für fJ.
= v = j wird daraus (34)
*
Alle übrigen Blöcke aber verschwinden (auch für fJ. = v = k j I), und damit hat das transformierte Matrizenpaar (31) die überraschend einfache Blockstruktur mit je s2 - 1 Nullblöcken
0 0 ... 0] LAjR =
[~
~~j. .' .' .' . ~
° ° ... °
0... 0 ... 0] , LBjR=
[~.'.'.'..~j:.:::.~ o ...
° ... 0
.
(35)
Summieren wir über j, so resultiert gerade das transformierte Paar (20)
und nun zeigt ein Vergleich mit LAR = Ä, LBR = 8, daß gilt A
=
s
L Aj
j=l
;
B
=
s
L Bj
(37)
j=l
oder ausführlich mit den Dyaden (31)
(38)
und dies ist die angestrebte dyadische Zerlegung des Paares A; B, die sich bald als von fundamentaler Bedeutung erweisen wird. Um noch eine weitere wichtige Beziehung aufzudecken, multiplizieren wir die zerlegte Matrix A aus (38) von links mit L k und bekommen mit (29) und (26)
173
10.3 Die Spektralzerlegung eines Matrizenpaares k
s
_
k
~
--1 -
--I
_
~j
L A - i.J L BRßjj Ajßjj L B -
s
~
i.J
-
--I -
--I "j
(39)
Bkßjj Ajßjj L B .
j=1
j=l~
Dies verschwindet für alle k *- j, weil B kj = 0 ist nach (26); für k genau ein Summand stehen, und damit wird
= j
aber bleibt
(40)
wo die zweite Gleichung resultiert, wenn man die Matrix A aus (38) von rechts mit R k multipliziert. Ein Beispiel. A = [-
919J ;
-5
L=
~:J
11
= [_:
B = [-
35J ;
-I
-:J ;
1
R=
~, rzJ
[= ~
=
~J
(a)
Die Transformation ergibt wie verlangt die (hier skalare) Diagonalform (20):
LAR=Ä= [
- [50 50J = [20-tJ01 0 0J = [40 01 tJ ; LBR=B= z z
ä l1
11
ä
(b)
Mit den Vektoren aus (a) berechnen wir nach (29) [1=5'111'B=(-1
[2=521,/z8=(-1
2);
3);
'I=BrI5lil=
P2= 8r25 22 1 =
J'
[ 2 1
e]
(c)
und daraus die Eigendyaden (31) und deren Summe (38)
'
8 z = rz b zz lf2 = A
-
[1 -3J 1
-3
A,+A z =
[-9
B,+Bz =
[-3 5J
-5
-1
191_AI IIJ (d)
1
=B! (e)
• 10.3 Die Spektralzerlegung eines Matrizenpaares
Die dyadischen Zerlegungen (35) bis (38) erlangen eine besondere Bedeutung, wenn es zwei Transformationsmatrizen Lj und R j aus L und R gibt derart, daß die Blöcke Ä jj und Bjj einander proportional sind mit einem skalaren Faktor Aj' der als Eigenwert des Blockes Ä jj ; Bjj bezeichnet wird; es ist dann
174
10 Gebundene Transformationen
(41) und damit wird die Dyade A j (31), wenn wir den Skalar Aj nach links herausziehen, ein Vielfaches der Dyade Bj (42)
Gilt dies für alle s Blöcke, so geht die dyadische Darstellung (38) über in die Spektralzerlegung s
A =
L
j;l
s
Aßj
B=
L Bj
(43)
,
j;l
so genannt, weil die sEigenwerte Aj des Paares A; B dessen Spektrum bilden. Die beiden Gleichungen (43) lassen sich mit der charakteristischen Matrix (16) zusammenziehen zu einer einzigen s
F(A)=A-AB=
L (ArA)Bj
(44)
,
j; 1
eine Schreibweise, die besonders für theoretische Herleitungen wegen ihrer Kürze von Vorteil ist. Die Gleichungen (40) gehen nun zufolge (41) über in (45) und dies ist eine Beziehung von grundlegender Bedeutung, die uns einen direkten Zugang zu dem schon des öfteren erwähnte Eigenwertproblem eröffnen wird. Wir weisen aber ausdrücklich darauf hin, daß zwar jedes Matrizenpaar (wenn B regulär ist) die spezielle Transformation (20) zuläßt, nicht aber gilt ausnahmslos die Proportionalität der Eigenblöcke gemäß (41); genaueres darüber werden wir im Abschnitt 18 erarbeiten. Macht man die Unterteilung (20) so fein, daß s = n wird, so gehen die Blockzeilen Lj in die Zeilen lj und die Blockspalten Rk in die Spalten rk über, womit (45) sich schreibt als (46)
und die Spektralzerlegung (38) bzw. (43), (44) erstreckt sich nun über n Summanden n
A =
L Aßj;
j;1
n
B=
L Bj
j;1
n
F(A) =
L (ArA)Bj
j;l
(47)
175
10.4 Normale Matrizenpaare
mit den Eigendyaden B.=Br/B J /j Br.
(48)
J
• 10.4 Normale Matrizenpaare Ist die Matrix B hermitesch und positiv definit, so liegt es nahe, anstatt der Äquivalenztransformation (1) eine Kongruenztransformation (9) bis (13) vorzunehmen. Wir haben dann anstelle von (20)
R'BR~D~ rDJI~2;l
lo
mit den Hauptdiagonalblöcken
0
... Bss (49) (50)
Die Eigendyaden (31) sind jetzt mit
lj = Rj (51)
und man sieht, daß zufolge fit = fijj nach (50) auch die s Dyaden Bj hermitesch und positiv definit sind. Es seien nun die s Blöcke aus A ihrerseits Diagonalmatrizen (dies ist zum Beispiel garantiert für s = n, dann ist Ajj = Qjj sogar ein Skalar), dann wird auch die Gesamtmatrix A diagonal R* AR
= A = Diag(Qjj>
(52)
Nun hatten wir im Abschnitt 5.9 gezeigt: Läßt sich eine Matrix A kongruent auf Diagonalform transformieren, so folgt daraus als äußeres Kriterium der Vertauschungssatz A*RR*A =ARR*A*
(53)
und dies galt für die freie Transformation ohne Bindung an einen Partner B. Nun sei die Kongruenztransformation (49) B-unitär, R* BR = In' dann folgt aus (11) die Beziehung RR* = B- t , und damit geht (53) über in (54)
10 Gebundene Transformationen
176
eine Relation, die wir ebenso wie bei der freien Transformation aussprechen wollen als Satz 1: (Vertauschungssatz) Läßt sich ein Matrizenpaar A; B mit hermitescher und positiv definiter Matrix B kongruent simultan auf das Diagonalpaar A; In transformieren, so sind die Matrizen A und A * bezüglich B - 1 vertauschbar. Matrizenpaare mit dieser Eigenschaft heißen B-normal oder normal bezüglich B, für B = In (strikt) normal. Aufgrund des Kriteriums (54) läßt sich somit nachprüfen, ob ein vorgelegtes Matrizenpaar A; B mit B = B* pos. def. sich kongruent simultan auf Diagonalform transformieren läßt, ohne daß die Transformation faktisch durchgeführt werden müßte. Die Gleichung (54) heißt deshalb auch ein äußeres Kriterium für die kongruente Transformierbarkeit eines Paares A; B auf ein Diagonalpaar A; In' Es ist evident, daß die Bedingung (54) für hermitesche und schiefhermitesche Matrizen A erfüllt ist, gleichviel, welche hermitesche und positiv definite Matrix B als Partner fungiert. Anstelle der bloßen Gleichheit der beiden dreifachen Produkte (54) kann man sehr viel schärfer fordern, daß beide einer dritten gegebenen Matrix H gleich sind,
A*B-1A =H=AB-1A*;
H=H*
pos. (semi-)def. ,
(55)
was dann eine Forderung an die Diagonalmatrix A beinhaltet. Speziell für H = In wird zum Beispiel (56) die Matrix A heißt dann normiert B-unitär, und die Gleichung (56) sagt etwas über die Inverse aus, nämlich (57) Im Sonderfall B tätsbedingung
=
In geht (56) über in die bereits in (4.15) aufgeführte Normali-
A*A =AA* ,
(58)
und (57), (58) bedeuten die gewöhnliche normierte Unitarität (4.12), (4.13) (59)
Bei reellen Matrizen A und B ist überall das Zeichen * durch T und das Wort unitär durch orthogonal zu ersetzen. Wir fragen schließlich, wie sich ein normales Matrizenpaar gegenüber Kongruenztransformationen verhält. Es sei C eine beliebige reguläre Matrix der Ordnung n, dann wird das transformierte Paar
10.5 Potenzen und Polynome
At = C* AC;
177
Bt = C* BC,
Bt = Bi
pos. def.,
(60)
denn es ist Bi = (C* BC)* = C* B* C** = C* BC = B t, und auch die positive Definitheit ist leicht nachzuweisen. Mit der linksseitig transformierten Matrix
CR=R t
(61)
geht nun das Originalgleichungspaar
R*AR=A; R*BR=In
(62)
über in
RiC*BCRt = In ,
RiC*ACRt=A
(63)
somit nach (60) in (64)
Also ist die transformierte Matrix At normal bezüglich der transformierten Matrix Bt , und es besteht das äußere Kriterium (65)
Setzt man hier At und B t nach (60) ein, so hebt sich einiges heraus; es verbleibt
C*A*B-1AC=C*AB-1A*C, !
I
!
I
(66)
und dies ist richtig, weil die beiden unterklammerten Terme nach (54) einander gleich sind. Man kann nun verlangen, daß bei dieser Kongruenztransformation die Matrix B in sich selbst übergeht, womit C der Bedingung
C*BC=B genügen muß. Speziell für B
(67) =
In bedeutet dies, daß zufolge
C*C = In
(68)
die Matrix C strikt normiert unitär sein muß. • 10.5 Potenzen und Polynome
Wir hatten uns im Abschnitt 5.8 mit Potenzen und darauf aufbauend mit dem Polynom (69)
10 Gebundene Transformationen
178
einer freien Äquivalenztransformation LA R = Ä befaßt und fragen nun, wie die dort gewonnenen Ergebnisse sich auf die gebundene (simultane) Äquivalenztransformation
LAR=Ä; LBR=B
(70)
übertragen lassen. Nun gilt nach (5.83) (in vertauschter Reihenfolge der Gleichungen) getrennt für die Polynome in A und B
p(RLA)RL = Rp(LAR)L = RLp(ARL) ;
(71)
p(RLB)RL = Rp(LBR)L = RLp(BRL) .
(72)
Speziell für die reguläre Ähnlichkeitstransformation gehen zufolge RL = B- 1 diese beiden Gleichungen über in (73) und
p(B- 1B)B- 1 = Rp(LBR)L = B-1p(BB- 1)
(74)
oder mit LBR = In und da p(In) = p(x)In eine Skalarmatrix und als solche mit jeder anderen Matrix vertauschbar ist,
p(x)B- 1 = p(x)B -I = p(x)B- 1 ,
(75)
und dies ist eine nichtssagende Identität. Von Bedeutung ist somit allein die Gleichung (73), doch wird man für die praktische Rechnung (71) bevorzugen. Multipliziert man diese Gleichung von links mit R - 1 und von rechts mit L - I, so entsteht daraus wieder die Ausgangsgleichung (5.84)
IR-1p(RLA)R
=
p(LAR)
=
Lp(ARL)L -I
I;
RL
=
B- 1 .
(76)
Ist A regulär, so gilt diese Beziehung auch für die allgemeinere Funktion (5.85)
(77)
Betrachten wir schließlich noch die strikte Ähnlichkeitstransformation LA R LInR = In- Mit B = In geht die Formel (73) über in die einzige Gleichung
Ip(A) = Rp(LAR)L I;
RL = In .
= Ä;
(78)
10.5 Potenzen und Polynome
179
Beispiel. Gegeben ist das Polynom p(x) = 1+2x-8x 2
(a)
,
ferner die Matrizen
A
= (-
11J
o
L
1
=~ ( 4
4°ld
B=
-5
(1 -lJ 1
R
3
=
[2 IJ 1 1
mit LBR=/. (b)
Wir berechnen als erstes die drei in Klammern stehenden Matrizenprodukte aus (71)
RLA=Al=~
4
old , ARL=A2=~4 (-4 °l~ -1 j
LAR=A=~ (-4
(-3 4J ' 1 0
4
6
(c)
sowie deren Quadrate
Af=~ [13 16
-3
J'
-12 4
A2 =
~[ 16
16 -18
Ol ,
d
f
und damit weiter die Polynome p (A 1) = 1+ 2A I - 8A usw. gemäß (a), das gibt p(A)=
[-9 0J 12
,
1
p(A 2) =
(-9 0J
. (e)
-2 1
Nach (71) werden nun die drei Matrizenprodukte p(A1)RL
=~ [-29
lJ '
471
Rp(A)L
=~ [-29
lJ '
471
RLp(A 2)
=~ [-29
IJ
471
(f)
einander gleich, wie es sein muß. Der Leser beachte besonders, daß die Matrix B -1 an keiner Stelle explizit erscheint; die Gleichung (73) hat daher nur theoretischen Wert.
Wie sieht nun das Polynom in der dyadischen Blockzerlegung (38) aus? Um das zu klären, betrachten wir das dreifache Produkt mit der Dyade A J aus (31)
und erkennen darin ein getreues Abbild der linken Seite, umrahmt von der Blockspalte RJ und der Blockzeile i J• Für höhere Potenzen folgt ebenso
und dies schreiben wir mit einer zweckmäßigen Erweiterung
180
10 Gebundene Transformationen
Multiplizieren wir diese Ausdrücke mit dem Koeffizienten ap und addieren die so entstehenden Terme, so folgt mit dem Polynom (69) für jede der s Dyaden A j
Summation über alle s Polynomdyaden gibt dann endgültig s
L R;11jjp(Bjj'Äjj)i/
Bp(B-1A)=
j=1
bzw.
s
L Rjp(ÄjjBjjl)Bjji/
p(AB-1)B=
(83)
j= I
mit der bei dieser Prozedur unverändert gebliebenen Matrix s
~
~
-
s
~j
~
(83a)
B = '-' RßjjL = '-' Bj . j= I
j= I
- I - lIst nun insonderheit A- jj = AjB-jj , so wird Ajßjj = Bjj A jj = Ajljj, ferner p(A;Ijj) = p(A)ljj' und damit folgt aus (81) nach leichter Rechnung
(84)
Trifft die Bedingung Ä jj = AjBjj für alle s Blöcke zu, so haben wir damit die Spektralzerlegung des Matrizenpolynoms in der zweifachen Ausführung
Bp(B-1A)=
s
L
p().'j)Bj=p(AB-1)B
(85)
j=1
Dazu ein Beispiel, Gegeben ist das spezielle Paar A;l2 und das Polynom p(x) A=
10 [ 1
-91oj'
p(x)=3-5x+2x
3
(a)
•
Die Matrix p(A) ist zu berechnen a) auf direktem Weg, b) über die Eigendyaden. a) Es wird A 2 = [91 -90J ,
10
-9
A 3 = [820 -819J ,
91
-90
p(A)=312 -5A+2A 3 = [1593 -1593J . (b)
177
-177
b) Die Eigenwerte und -vektoren und daraus die Eigendyaden sind zu berechnen:
AI = 1: [I = (-1
9),,\ =
[IIJ ' J'
A2=9: [2=( 1 -I), '2= [9 1 Mit p(AI) = p(l) = 0,
p(A2) = p(9) = 1416
BI =
~ = ~.8 [I"
B 2 ='2
12
P'2
=~. 8
[-I
99J
(c)
9 -9J
(d)
-1
[
1 -1
(e)
10.6 Die Produktzeriegung einer diagonalähnlichen Matrix
181
bekommen wir die Spektralzeriegung (85) mit B = 12 in der Form p(A) = p(}.'I)B, +p(A2)B2 = O· BI
1[9
+ 1416· B 2 = 1416· _. 8
(f)
1
wie unter (c).
10.6 Die Produktzerlegung einer diagonalähnlichen Matrix Es sei das spezielle Paar A; In diagonalähnlich
LAR = A
= Diag ().);
LInR = In
(86)
oder auch als Umkehrung geschrieben (87)
A=RAL. Nun folgt aus LR = In auch (LR)*
= I~ = In'
somit
R*L* =In .
(88)
Wir nehmen jetzt in (87) eine Erweiterung vor, das gibt
A=RInAL=RR*L*AL,
(89)
und dies schreiben wir als Produktzer/egung (90)
mit
H-
1=
R R * pos. def.,
G = L * AL,
(91)
wo der erste Faktor H - 1 hermitesch und positiv definit ist. Ist nun die Spektralmatrix A reell, dann ist sie auch hermitesch, denn es gilt A * = Ä T = Ä = A, damit ist aber auch G hermitesch zufolge G * = (L * AL)* = L*A*L** =L*AL = G, und dieses Ergebnis formulieren wir als Satz 2: Eine diagona/ähn/iche Matrix A mit reeller Spektra/matrix A läßt sich darstellen als Produkt A = H- 1 G, wo H- 1 und damit auch H hermitesch und positiv definit und G hermitesch ist. Ist dagegen A komplex, so sind die beiden dreifachen Produkte
G*H- 1 G=L*A*L'RR*'L*AL=L*A*AL,
(92)
L.-.....J L......-----'
GH- 1 G*
= L*AL'R R*'L* A *L = L* AA *L L.-.....J L......-----'
(93)
182
10 Gebundene Transformationen
einander gleich, weil die Diagonalmatrizen A und A * vertauschbar sind, somit gilt (94) mithin ist nach (54) das Paar G; H normal. Dies besagt dann der Satz 3: Jede diagonalähnliche Matrix A läßt sich darstellen als Produkt A =H-1G, wo H- 1 und damit auch H hermitesch und positiv definit und G normal bezüglich H ist. Ist insonderheit die Ähnlichkeitstransformation (86) kongruent mit L = R*,
R*AR=A=Diag(A);
R*InR=In ,
(95)
dann lautet mit H - 1 = R *R = In die "Zerlegung" (90) A = In G = G mit G *In G = GInG* nach (94). Demnach ist A selbst In-normal (strikt normal), und die Produktzerlegung (90) geht über in eine Identität.
• 10.7 Normalformen von Matrizenpaaren Schon im Abschnitt 5.6 hatten wir die Normalform bezüglich der freien Transformation LA R = A aufgeführt, und wir fragen jetzt nach der Normalform eines Matrizenpaares bezüglich der simultanen Transformation
LAR=A N
;
LBR=In ·
(96)
Auch jetzt ist AN eine Matrix, die eine maximale Anzahl von Nullen und Einsen enthält, allerdings - und das ist neu gegenüber der freien Transformation - daneben mit einer Anzahl von weiteren signifikanten Elementen; und hier sind nun zwei Typen von Normalformen zu unterscheiden, nämlich solche, die sich allein durch rationale Operationen, d. h. durch Anwendung der vier Grundrechenarten herstellen lassen, und andere, die algebraisch irrationale Operationen zu ihrer Ermittlung erfordern. Bei letzterem Typ erweisen sich als signifikante Element gerade die nEigenwerte Aj des Paares A; B. Diese aber sind, wie wir bald zeigen werden, die Nullstellen (Wurzeln) einer algebraischen Gleichung n-ten Grades und können als solche im allgemeinen nicht rational sein. Ohne Beweis und auch ohne weitere Begründung stellen wir im folgenden die Normalformen übersichtlich zusammen, wobei uns die praktische Durchführbarkeit der zugehörigen Transformation (96) im Augenblick nicht interessieren soll.
10.7 Normalformen von Matrizenpaaren
183
I. Rationale Transformationen Ia.
000 100 010
o o
(97)
0 0 0 gn-t.n 0 0 ". 1 gnn
Das ist die sogenannte Begleitmalrix von Günther [131]1. Die Transformation selbst wird im Abschnitt 10.10 beschrieben. Sie verläuft stets unsymmetrisch und kann daher die etwa bestehende Eigenschaft A * = A bzw. AT = A nicht nutzen. Ib. Ist das Paar A; B hermitesch, B überdies positiv definit, so führt eine Kongruenztransformation mit im allgemeinen komplexer Matrix L auf die reelsymmetrische Tridiagonalmalrix T, deren Kodiagonalelemente negativ sind. I tt
112
0
A N = T=
t 23
t 33
0 0 0
0 0
0 0
tn- t.n- t tn-t.n
112 122
0 123
0 0 0
tn-t.n tnn
............................... 0 0
(98)
Beide Normalformen können in Ausnahmefällen entarten zu einer Blockmatrix (Hypermatrix)
A [A~' .A~ N
=
o
0
:.l
(99)
A Nq
wo jeder der (} Hauptdiagonalblöcke die Normalform (97) bzw. (98) aufweist. 11. Nichtrationale Transformationen
Ha. Normalform ist hier die Jordan-Matrix (tOO)
Die Hauptdiagonale ist besetzt mit den Eigenwerten des Paares A; B, in der oberen Kodiagonale stehen entweder Nullen oder Einsen. Sind alle n - 1 Kodiagonalelemente gleich Null, so ist J = Diag (),) die Spektralmatrix A. Das Paar A; Bist dann diagonalähnlich. 1
Oft auch benannt nach Frobenius (1849 - 1917).
10 Gebundene Transformationen
184
IIb. Ist das Paar A; B normal, so führt eine Kongruenztransformation auf (101) und dies ist die einfachste Normalform überhaupt, weil sie außer den n Eigenwerten nur Nullen enthält im Gegensatz zur Jordan-Matrix (100), die im allgemeinen (keineswegs immer) noch einige Einsen aufweist. • 10.8 Die strikte Ähnlichkeitstransformation. Die drei Grundoperationen
Die simultane Ähnlichkeitstransformation
LAR=Ä;
(102)
LBR=In
ist in einem einzigen geschlossenen Rechengang im allgemeinen nicht ökonomisch durchführbar, sondern verlangt eine vorgezogene Äquivalenztransformation der Matrix B nach Gauß oder Gauß-Jordan auf die reguläre Pivotmatrix n, wo A im Generalschema mitgeführt wird, das gibt zunächst
LoARo = A o ; LoBRo = n
.
(103)
Sodann wird wiederum im Generalschema die Pivotmatrix in die Einheitsmatrix überführt,
(104) und nun erst erfolgt die strikte Ähnlichkeitstransformation mit dem Paar AB; In' wo wir im folgenden aber anstelle von AB einfach A schreiben wollen. Es geht also um die strikte Ähnlichkeitstransformation (105) wo die Transformationsmatrizen L und R zueinander reziprok sind (106) Multiplizieren wir die Gleichung LAR = Ä von links mit R rechts mit L = R - t, so wird
= L - t bzw. von
(107) und diese Form einer strikten Ähnlichkeitstransformation ist zumeist vorteilhafter als die Darstellung (105); es genügt dann, entweder L oder R mitzuführen. Auch für Kontrollzwecke ist die Gleichung (107) vorzuziehen.
10.8 Die strikte Ähnlichkeitstransformation. Die drei Grundoperationen
185
Zwei einander ähnliche Matrizen A und A gehorchen einer Invarianzeigenschaft, die wir ohne Beweis aussprechen als Satz 4: Die Summe aller a-zeiligen Hauptunterdeterminanten einer Matrix A ist invariant gegenüber einer Ahnlichkeitstransjormation. Von größerer Wichtigkeit sind aber nur die Fälle a = 1 und a = n. Im ersten Fall sind die einzeiligen Hauptunterdeterminanten die Hauptdiagonalelemente ajj selbst; deren Summe ist somit die schon in (2.30) eingeführte Spur der Matrix, also gilt nach Satz 4 (108)
und im zweiten Fall a = n gibt es nur eine einzige Haupt(unter)determinante, das ist die Determinante von A selbst. Deren Invarianz ist evident, denn aus (107) folgt detA 'det R = det R'detA (oder auch det L'detA = detA 'det L) und weiter, da detR (ebenso wie detL) von Null verschieden ist,
detA
detA .
=
(109)
Die Invarianz der Spur werden wir im Abschnitt 13.5 beweisen. Der allgemeine Beweis des Satzes 4 dagegen ist weitläufig und kann etwa bei Gröbner [8, S. 153] nachgelesen werden. Wir rechnen ein einfaches Beispiel.
A=
[-~
2 1 -4 3
LR=I3 1.
2.
'
:J
1 , R= , L= [ -12 - 21 - 0J o -1 1
[i ~J
LAR=Ä = [ 3o -25 -I4J -1 1 1
1 2 2
(a)
0"=1. spA=0+1+1=2, spÄ=3-2+1=2. (b) 0" = 2. Es gibt drei zweizeilige Hauptunterdeterminanten, das sind die Determinanten der drei Hauptminoren (Hauptuntermatrizen) (c)
und deren Summe ~ det ist ~ det (A) = 2 + 0 - 2 = 0,
3.
0" = 3.
det A = - 6,
~ det (Ä) = - 6 + 7 - 1 = 0 .
det Ä = - 6 .
(d) (e)
Unabhängig von irgendeiner Zielsetzung fragen wir jetzt, wie die Ähnlichkeitstransformation (105) numerisch bewerkstelligt werden kann. Dies gelingt auch
10 Gebundene Transformationen
186
hier mit Hilfe der im Abschnitt 5.3 eingeführten drei Grundoperationen; es sind dies der Reihe nach:
Grundoperation I. Gleichnamige Permutation der Zeilen und Spalten. Zufolge p-l = pT ist PA pT =A-',
PIn pT =1n
Diese Permutation bewirkt einen Austausch einiger oder aller Elemente
(110) ajk
von
A, insbesondere den Austausch der Hauptdiagonalelemente untereinander. Deren Summe bleibt somit erhalten, und folglich gilt sp A = sp Ä. Ist A hermitesch (reellsymmetrisch), so ist es auch Ä.
Grundoperation 11. Dies ist die sogenannte Ska/ierung mittels einer regulären Diagonalmatrix D (111)
bei welcher die Elemente von A übergehen in (112)
Insbesondere für j = k wird äjj = djajjdj-l = ajj' Die Hauptdiagonalelemente werden somit von der Skalierung nicht betroffen, daher gilt wiederum spA = spÄ. Ist A hermitesch (reellsymmetrisch), so geht diese Eigenschaft auf jeden Fall verloren.
Grundoperation 111. Linearkombination der Zeilen und/oder Spalten mittels Elevatoren. lIla. Mit dem Spaltenelevator EIJ und seiner Inversen (113)
geht die Ähnlichkeitstransformation in zwei Schritten vonstatten, und zwar 1. Schritt. Transformation von links, d. h. Linearkombination der Zeilen
A = EIJ A = (In + qOIJ elJ)A = A + qOIJ elJ A = A + qOIaJlJ '
(114)
Der erste Schritt unterscheidet sich somit in keiner Weise von der freien GaußTransformation. 2. Schritt. Transformation von rechts, d. h. Linearkombination der Spalten (115)
10.8 Die strikte Ähnlichkeitstransformation. Die drei Grundoperationen
mit anderen Worten: Berechne den Bildvektor tlJ. der Spalte der Nummer f.J. gemäß
=
187
A qlJ. und subtrahiere ihn von (116)
IIIb. Mit dem Zeilenelevator e V verläuft alles analog zu (113) bis (116), was im einzelnen wohl nicht vorgeführt werden muß. Ist A hermitesch (reellsymmetrisch), so geht diese Eigenschaft verloren, während sie bei der freien Gauß-Transformation erhalten blieb. Wir rechnen ein einfaches Beispiel. Die Matrix A soll ähnlich transformiert werden mit einem vorgegebenen Spaltenelevator L = E 2 .
A=
E2 =
[3oo -1 011] I 2 0 3 -8 -5 1 10 2 0
[1
2 1 4 -1
0 0 I 0
;]
,
spA = -4 .
0
1• E2-
['o -21 0
o -4 o 1
I 0
U]
(a)
sp Ä = - 4 = sp A !
(b)
;]
0
• q2 =
a) Explizites Ausmultiplizieren ergibt
3 -11 4 10J 0 0-7 2 LAR=E2AE 2 =A= 0 2 o -5 ' [ I 7 o 0 _I
-
b) Wir rechnen nach der Vorschrift (t 14) bis (116). 1. Schritt.
02
~
A=A+q2 a =A+
[
2J
[(~ 2 ; ~J) [3 1 4 IOJ
000000120 4 0 4 8 0 = 0 7 0-5 -1 0 -1 -2 0 1 9 0 0
(c)
2. Schritt. Berechne den Bildvektor t 2 mit dem restringierten Vektor (a) und damit die Differenz der Spalten (t 16)
~
0
t2 = A q2 =
12] [ 8 ~
•
~
a2 - t 2 =
[-11]
-7. ; = a2 •
(d)
das gibt dieselbe Matrix wie in (c). Kontrolle: LA = ÄL nach (107) mit L = E 2.
Damit ist im Grunde alles gesagt. Ebenso wie bei der freien Äquivalenztransformation LAR = n, durchgeführt nach Gauß bzw. Gauß-Jordan, lösen wir auch jetzt die Gesamttransformation auf in endlich viele Teiltransformationen gemäß
188
10 Gebundene Transformationen
LAL- 1 =Lo"'L2L1ALlILil"'Löl =Ä ,
(119)
'---v---'
Al
wobei nun über die Vektoren qlJ bzw. qV aus EIJ bzw. eV geeignet verfügt werden kann, etwa so, daß A in eine der im Abschnitt 10.7 aufgeführten Normalformen AN transformiert wird. Auf weitere technische Einzelheiten sowie numerische Aspekte der Ähnlichkeitstransformation kommen wir im Teil 2 dieses Werkes ausführlich zu sprechen. • 10.9 Die gequantelte Ähnlicbkeitstransformation
Um zu einer äußerst flexiblen und erweiterungsfähigen Technik zu gelangen, zerlegen wir die Grundoperation III bewirkenden Elevatoren in ihre kleinstmöglichen Wirkungseinheiten, das sind solche, die nur ein einziges signifikantes Element qkj enthalten und daher geradezu als Quant bezeichnet werden. Es sei zum Beispiel n = 5 und das Element q42 = 6, dann ist
E42 =
[~
o
nH] , [~ nH] 6 0 1 0
Eil
00001
l
=
(120)
0 -6 0 1 0
00001
Ein solches Quant ist sowohl Spalten- wie Zeilenelevator, wir könnten daher für E 42 sowohl E 2 wie 1;4 schreiben, bleiben statt dessen aber beim doppelten Index und vereinbaren weiterhin, daß wir fortan E kj selbst als Links- und E 0 1 als Rechtstransformationsmatrix verwenden (auch das Umgekehrte wäre möglich), somit ist L kj = E kj;
-l L-l R kj = E kj = kj
•
(121)
Wie unschwer einzusehen, läßt sich der bislang verwendete vollständige Elevator EIJ bzw. e v seinerseits in ein Produkt von höchstens n- 1 Quanten auflösen, doch brauchen wir gar nicht auf diese Möglichkeit zurückzugreifen. Schon bei der Definition der drei Grundoperationen im Abschnitt 5.3 hätten wir das Quant einführen können, ohne den Elevator je zu erwähnen, so daß es an dieser Stelle keiner weiteren Begründung bedarf. Das mehrfache Produkt (119) besteht infolge der Quantelung zwar aus sehr viel mehr Faktoren, doch ist der Gesamtaufwand deshalb nicht größer, dafür die Programmierung äußerst einfach und vor allem konsequenter, weil die Pivotregulierung nun nicht mehr als besondere Maßnahme aus dem Rahmen fällt, sondern sich störungsfrei in den Algorithmus einordnet.
189
10.9 Die gequantelte Ähnlichkeitstransformation
Beginnen wir mit dem Fall n = 2, wo bereits alles Wesentliche hervortritt. Um den Anschluß an das folgende zu erleichtern, schreiben wir anstelle der Indizes 1 und 2 schon jetzt j und k, (122) und damit wird die Ähnlichkeitstransformation Quant
a jj - ajkqkj
_
'---J
[
(123)
akj+ qkjajj- akkqkj - qkjajkqkj L.....J
<---..J
l.-J'---I
Wir sehen: Das Element ajk bleibt ungeändert, die Elemente äjj und äkk sind linear, und das Elemente iikj ist quadratisch abhängig von qkj' Notabene ist sp A = att + a22 = sp Ä gemäß (108). Anstelle dieser formalen Schreibweise vollzieht sich die praktische Rechnung natürlich sehr viel einfacher in zwei Schritten wie im Gaußschen Schema, zuerst durch Zeilen-, dann Spaltenkombination, wo die kursiv gesetzte 1 wie früher die Pivotzeile bzw. Pivotspalte kennzeichnet
A
A
Ä
(124)
Reduktion nach unten
Natürlich ist auch die umgekehrte Reihenfolge erlaubt, doch wollen wir uns fürderhin der Einfachheit halber an dieses Schema halten. Beispiel. Gegeben die Matrix A = (ajk) und qkj = 3.
A
A
~ ~
2-3 ~.
~ -2
1
-3
1
~.
sp A = 8 = sp Ä,
det A = - 8 = det Ä .
10 Gebundene Transformationen
190
Es sei nun n > 2. Dann greifen wir aus der Matrix A der Ordnung n zwei Zeilen und Spalten gleicher Nummer j und k heraus und wenden auf den so festgelegten Hauptminor (122) die Transformation (123) an nach folgendem Schema
,,
,,
,
Zeile j
0jj-ajk
Zeile k
akj-Okk.
I"", 1 ,,
(125)
,,
,
So betrachtet, kann die Ähnlichkeitstransformation Quant als Gaußscher Algorithmus aufgefaßt werden, allerdings mit der Einschränkung, daß der zweite Schritt nun nicht mehr der Zeilenreduktion, sondern der Wiederherstellung der Einheitsmatrix In dient, die durch den ersten Schritt zerstört worden ist. Kommen wir nun zum Eigentlichen. Das sogenannte Zielelement al/v soll in al/v überführt werden (speziell in al/v = 0 bei Reduktion, doch ist dies für den Mechanismus selbst nicht wesentlich), und dies kann auf vielerlei Weise geschehen: innerhalb der Spalte fJ. von oben nach unten oder umgekehrt und innerhalb der Zeile v von links nach rechts oder umgekehrt. Wir schildern im folgenden die ersten beiden Fälle, wobei nach Schema (125)j
(126)
'* }),
Hier dürfen wir das Pivot ajl/ nicht aus der Hauptdiagonale wählen (fJ. weil sonst infolge der Spaltenkombination im 2. Schritt das Zielelement akl/ (insonder, heit akl/ = 0 bei Reduktion) wieder geändert würde. 1b) Zeilenkombination. Die mit qkj multiplizierte Zeile ti wird zur Zeile a k addiert: k
ii =
a
k
+ qkja j L-..I
(127)
191
10.9 Die gequantelte Ähnlichkeitstransformation
1c) Spaltenkombination. Die mit addiert: iij =
qkj
multiplizierte Spalte ii k wird zur Spalte iij
(128)
arakqkj L.-..J
Der Leser beachte in allen diesen Formeln das Gesetz der Indexkette nach (22.18). Die angegebene Unterklammerung ist nicht nur sinnfällig und dient der Kontrolle, sondern bewirkt, daß sich der Algorithmus beinahe von selbst programmiert. Ein Beispiel. Vorgelegt ist die Matrix
A =
[1 2-IJ 0 -4 7 4 8 10
.
(a)
Mittels einer Ähnlichkeitstransformation soll das Element an = 8 überführt werden in än = 2 mit Hilfe des Pivots al2 = 2. Hier ist also j = 1, k = 3 und f.L = 2, Reduktion nach unten. Aus (126) folgt q31
än-an
2-8
al2
2
(b)
=---=--=-3
Wir rechnen explizit und bekommen 3 1 1 0 0 1 2 -1 0 0 1 0 0 -4 7 -3 0 0 1 4 8 10
0
1
1 0 0 1 2 -1 0 1 0 o -4 7 -3 0 1 1 2 13 L
1
0
0 0
1 0
0 0 1
-2 2 -1 21 -4 7 LAR =Ä . (c) 40 2 13 1
0
0 3
1 0
0 0 1
R
Probe: LAR=Ä und L/R=/=RlL.
Kommen wir zur Reduktion von unten nach oben. Anstelle von (123) haben wir jetzt
ajj+qjkakj
=
~
[
akj
ajk + qjkakk - ajjqjk - qjkakjqjk] L-.J
akk-akjqjk L......J
während das Schema (124) übergeht in
~
~L.....J
,
(129)
10 Gebundene Transformationen
192
A
(130)
Reduktion nach oben
Es sind somit lediglich die Indizes j und k zu vertauschen, womit die für die numerische Durchführung grundlegenden Formeln (126) bis (128) übergehen in 2. Reduktion nach oben. 2a) Das Zielelement ajp (Zeile j, Spalte f1) soll übergehen in
äjlJ'
Dann ist
(131)
2b) Zeilenkombination. Die mit diert:
qjk
multiplizierte Zeile
il wird zur Zeile iiJ ad(132)
2c) Spaltenkombination. Die mit addiert:
qjk
multiplizierte Spalte iij wird zur Spalte iik (133)
10.10 Die Ähnlichkeitstransformation auf die Begleitmatrix Die für Theorie und Praxis wohl wichtigste Ähnlichkeitstransformation ist die einer beliebigen Matrix A auf die Günthersche Beg/eitmatrix G (97). Sie geschieht in drei Etappen. Als erstes wird die Matrix A auf die sogenannte HessenbergMatrix oder Fastdreiecksmatrix H transformiert
LHARH=H=
h tt h 2t 0
h12 h t3 h 22 h 23 h 32 h 33
ht,n-t h2,n-t h 3,n-t
htn h 2n h 3n
hn-1,n-t hn,n-t
hn-t,n h nn
............................... 0 0
0 0
0 0
...
LHIRH=I (138)
10.10 Die Ähnlichkeitstransformation auf die Begleitmatrix
193
mit den Kodiagonalelemenlen (139) denen, wie wir gleich sehen werden, eine besondere Bedeutung zukommt. Wir schildern zunächst den Regelfall. Es sei a21 *- 0, dann kann dieses Element als Pivot dienen, mit dem die erste Spalte nach unten reduziert wird, während all ebenso wie a21 = h21 unverändert stehenbleibt. Die erste Spalte von H liegt damit fest. Sodann berechnet man den Bildvektor 12 nach (116) und subtrahiert ihn von der zweiten Spalte, womit die erste Transformation beendet ist. So schreitet man fort, bis nach n - 2 Schritten die Hessenberg-Matrix (138) erstellt ist. Für n = 4 zum Beispiel verläuft das folgendermaßen:
A[::::J=>[::::J=>[:: * * * * ****
0 * * * 0***
~
::JH'
* * 001**
(140)
Wie leicht zu sehen, sind auf Grund der Vorgehensweise L und R normierte untere Dreiecksmatrizen, deren Determinante gleich eins ist: (141) Ausnahmesituation. Sollte im Laufe der Rechnung ein Kodiagonalelement gleich Null werden, so wird dieses durch Pivotregulierung via Quant nach Abschnitt 10.9 zu eins gemacht, und dann erst erfolgt die Reduktion nach unten. Stehen aber unterhalb des verschwindenden Kodiagonalelementes lauter Nullen, so fällt dieser Reduktionsschritt einfach aus; die Hessenberg-Matrix zerfällt dann an dieser Stelle. Für n = 5 etwa ergibt das folgenden Verlauf, falls nach dem ersten Schritt h32 = 0 geworden ist:
A[::::
:]=>[~ ~:: :]=>[~: ~ : : :]H.
***** *****
00*** 00***
00* 000
** **
(142)
Infolge der Pivotregulierung sind L H und RH nun keine unteren Dreiecksmatrizen mehr, doch ist nach wie vor det L H = det RH = 1. Erstes Beispiel. Ähnlichkeitstransformation einer Matrix A auf die Hessenberg-Form H mit n = 4, halbexplizit, das heißt, wir führen nur R mit, nicht L. Da Q21 = 0 ist, liegt die Ausnahmesituation vor, die Transformation beginnt daher mit einer Pivotregulierung.
194
10 Gebundene Transformationen
H
A 0 -1
0 1
2 1 0 0 0 3 1 0 0 0 2 1 -1 2 1 0
0 1 0 1
1 1 0 2
2 1 0 -2
2
0 1 0 1 2 1 1 2
0 0 1 0 0 1 0 -1 2 1 0 0 1 3 1
(a)
14
0 0 1 0 0 0 0 1
0 0 0 0 0 0 1 0 0 1 0 0 -1 0 1
0 1 0 1
0 -1
1 0 0 0 0 1 0 1
0 0 0 0 0 0 1 R 0 0 1 0 0 -1 0 1
1
1
0 1
Damit ist die erste Spalte reduziert. Zufällig ist hier h42 = 0, so daß wir schon fertig sind. Probe nach (107): AR = RH. Wir merken noch an, daß R keine untere Dreiecksmatrix ist zufolge der Pivotregulierung, es gilt dennoch det R = 1, da ausschließlich Elevatoren benutzt wurden.
Eine zweite Ähnlichkeitstransformation überführt die Hessenberg-Matrix auf die sogenannte Kodiagona/matrix K gemäß 0 h 21
LKHRK==K==
0 0
0
h 32
0 0
0 0
0 0 0
0 0 0
kIn k 2n k 3,n
............................ 0 0 0 ... hn,n-I
LKIRK==I,
(143)
kn-1,n k nn
wo also die Kodiagonalelemente (139) aus H stehenbleiben. Im Regelfall sind sie alle von Null verschieden und können somit als Pivots dienen, mit deren Hilfe der rechte obere Teil in H abgeräumt wird mit Ausnahme der letzten Spalte, die nach der Transformation die neuen Elemente kin bis k nn enthält. Während man bei der ersten Transformation (138) noch die Wahl hat zwischen dem gequantelten und dem normalen Vorgehen, ist nun der Algorithmus Quant obligatorisch, weil andernfalls der Algorithmus numerisch instabil wird, siehe dazu [110]. Die Reduktion geschieht zeilenweise von links nach rechts, beginnend mit der ersten Zeile und endend mit der vorletzten. Für n == 4 beispielsweise ergibt sich das folgendes Reduktionsmuster
[~ ~J [~ ~J [~ ~J [~ ~J * * * * * * 0 *
0 0
H
HI
* * * * 0 *
* * 0 *
0 0 0 0 * 0 0 *
H2
H 3 ==K
0 0 0 0
(143a)
wo der Index die Anzahl der erzeugten Nullzeilen (mit Ausnahme des letzten Elementes) kennzeichnet. Man vergleiche dazu auch das Schema (179a).
10.10 Die Ähnlichkeitstransformation auf die Begleitmatrix
195
L K und R K sind obere normierte Dreiecksmatrizen. Insgesamt haben wir damit beim Übergang von A auf K LKL H A RHRK = K
A RHRK = RKRH A
-+
A
'-----v-------J
~
oder L
-+
A
=K
R
'-----v-------J
'-----v-------J
R
R
(144)
A
(145)
Die Produktmatrizen L und R (sofern man sie überhaupt ausmultipliziert) sind im allgemeinen vollbesetzt, da aber in beiden Transformationen ausnahmslos Elevatoren verwendet wurden, ist in jedem Fall det L = 1 , det R = 1 .
(146)
Eine dritte, als Skalierung bezeichnete Ähnlichkeitstransformation auf die Günthersehe Begleitmatrix G DKD-1=G;
D=Diag(d t d 2
..•
dn -
(147)
1 1)
mit den Diagonalelementen
(148)
überführt dann schließlich die Kodiagonalelemente in Einsen und die letzte Spalte von K in die letzte Spalte der Matrix G (97) (149)
doch zeigt es sich, daß die Skalierung nicht unproblematisch ist, da die Produkte (148) bei hoher Ordnungszahl n und betragsgroßen Kodiagonalelementen be-
trächtlich anwachsen können, weshalb die Begleitmatrix G zumeist nur von theoretischem Wert ist. Für weitere Einzelheiten sei der Leser auf die Arbeiten [110] und [126] verwiesen. Zweites Beispiel. Ähnlichkeitstransformation einer Hessenberg-Matrix H auf die Kodiagonalmatrix K und anschließende Skalierung. Wir rechnen via Quant implizit und bekommen H
2 1 0
-4 2 0
K
4 17 1 -11 3 -8
1 -2
0
~ Z~~J
h 32
-2 0 6 -5 0 2 -3 -11 1 0 3 -8
k 33
1
= K.
0
0 0 0 11 1 2 -3 -7 1 0 3 -8
2
(vergleiche (143» .
0
o
0 11 2 0 -15 o 3 -11
1 -I
(a)
10 Gebundene Transformationen
196
Mittels der Spaltenelevatoren erzeugen wir jetzt die Matrix L k
-2 1 2 0
2 1 0 0 1 0 1 0 o 0 0 1
o
0 1 0 1 0 0 1
o
1 2-2 1 0 1 0 1 0 0 1
1 2-2
o o
1 0
1 1
LK .
(b)
Nun zur Skalierung. Die Diagonalelemente der Matrix D (147) sind nach (148) (c)
und damit wird die letzte Spalte von G nach (149) mit n = 3
g3=Dk 3 =
r~L~ 0~ ~ld [-:~J ~ G= Lor~ ~1 -11 -~~J -11 [-~~J - 11
.
(d)
Zur Kontrolle rechne man noch (DLK)H = G(DLK ) mit DL K =
612 -12J [o0 3 3 0
.
(e)
1
• 10.11 Normiert-unitäre Transformationen. Unitäre Ergänzung
Unitäre Transformationen werden vorzugsweise auf normale (insonderheit hermitesche) Paare, aufgrund ihrer numerischen Stabilität jedoch ebenso auf beliebige Paare angewendet. Ist nun ein solches vorgelegt, so überführt man nach (103), (104) zunächst Bin 11 und anschließend 11 in In. Ist das Paar aber normal, so erfolgt statt dessen die Kongruenztransformation
LoALÖ = A o ; LoBLÖ = D = Diag (djj > pos. def.
(150)
und in einem zweiten Schritt die Normierung von D auf In (151) mittels der positiven Diagonalmatrix D w = Diag (+
lfd;> .
(152)
Wir beziehen uns deshalb im folgenden auf das spezielle Paar A; Im einerlei, ob A normal ist oder nicht und vollführen die unitäre Kongruenztransformation (153) Ebenso wie bei der Ähnlichkeitstransformation haben wir auch hier die beiden Möglichkeiten der kompakten Durchführung mit der ganzen Zeile bzw. Spalte oder der Quantelung.
10.11 Normiert-unitäre Transformationen. Unitäre Ergänzung
197
a) Kompakt. Dem lange vor Gauß bekannten Elevator entspricht hier die erst in neuerer Zeit von Householder [19] kreierte normiert-unitäre und gleichzeitig hermitesche (und somit nach der Eigenschaftstafel 4.1 involutorische) als Reflektor bezeichnete Transformationsmatrix (154)
denn in der Tat ist
qq*) q*) qq* (/)(/) = ( I n- 2 - (Iq n- 2 - = I n+(4-2-2)- = In q*q
q*q
q*q
(155)
b) Gequantelt. Durch einen einfachen Kunstgriff werden die Matrizen der Ähnlichkeitstransformation Quant unitär ergänzt, eine Maßnahme, von welcher die grundlegenden Gleichungen (126) bzw. (131) zur Bestimmung des Quotienten qkj bzw. qjk gar nicht berührt werden. 1. Reduktion nach unten. Die zweiten Spalten der beiden Matrizen aus (122) - wo jetzt der Index G auf Gauß hinweisen soll (156)
werden unitär ergänzt auf
-eh;] . 1
,
R kj --
[1 -
qkj
eh;] -L* 1
-
k·
(157)
J
Das (vertauschbare) Produkt dieser beiden Matrizen ist (158)
mit dem Längenquadrat der Zeilen und Spalten von L kj und R kj (159) (das gleich der Determinante von L jk und R jk ist), also sind L kj und R kj = L kj zueinander unitär, wie verlangt.
198
10 Gebundene Transformationen
z o
Quant
Quant unitär (nicht-normiert)
Abb. 10.1. Der Übergang von Quant auf Quant unitär durch orthogonale Ergänzung im Reellen
Die Abb. 10.1 verdeutlicht nochmals diesen einfachen Kunstgriff im Reellen. Durch Hinzufügen der waagerechten Strecke AB wird der Winkel ader Ähnlichkeitstransformation Quant zu einem rechten ergänzt, und die beiden mit 1 und 2 bezeichneten Spalten der Matrix L kj haben dadurch die gleiche Länge bekommen. Wir berechnen nun mit den beiden Matrizen (157) das Produkt
Ajk =
LkjAjkRkj =
[1- h i
J]
[ajj
1
qkj
akj
aj~
ak
ajr ajkqkj+ ( - i'Jkjakj + i'Jkjakkqkj) [
akj+ qkjajj- akkqkj- qkjajkqkj
(1
i'JkJ]
1
- qkj
__
[~jj ~j~ _ ~ akj
ak
ajk + (- i'Jkjakk + ajji'Jkj - i'Jkjakji'Jkj)! akk
+ qkjajk+ (akji'Jkj+ qkjajji'Jkj)
J
(160) und konstatieren, daß alle vier Elemente der transformierten Matrix quadratisch von qkj abhängig sind, wobei der Deutlichkeit halber die gegenüber (123) auf Grund des Elementes i'Jkj neu hinzugekommenen Summanden in Klammern stehen. Um nun die beiden Transformationsmatrizen (157) zu normieren, braucht man sie nur durch die Größe Wkj aus (159) zu dividieren und bekommt somit
-1i'Jkj!
J
,
~k' = J
_1_ (1 Wkj
-qkj
i'J kj! ; 1
J
Wkj =
+
Vi +qkji'Jkj . (161)
Kommen wir nun zur Gesamttransformation. Das Schema (125) ist im Hinblick auf die jetzt vollbesetzten Transformationsmatrizen (161) offenbar zu erweitern auf
10.11 Normiert-unitäre Transformationen. Unitäre Ergänzung
199
(162)
wo die Elemente der doppelt schraffierten Reihen quadratisch, diejenigen der einfach schraffierten linear und die übrigen überhaupt nicht von qkj abhängig sind. Als Erweiterung der Transformationsvorschriften (127) und (128) haben wir demnach: Erster Schritt. Zeilenkombination. Ersetze die Zeilen aj und a k der Matrix A durch j ii = (aj-akqkj)/wkj,
ii k = (ak+qkjaj)/wkj .
L.....J
(163)
L-J
Zweiter Schritt. Spaltenkombination. Ersetze die Spalten iij und iik der Matrix durch aj
= (iij-iikqk)lwkj'
ak
= (ii k + qkjiij)/wkj
L-l
.
A
(164)
L.-J
Damit wurde die Matrix A über A in A transformiert. Noch eine Randbemerkung. Ist qkj reell und setzt man qkj = tan ([J, so geht zufolge Wkj
= VI +qrj = VI +tan 2 ([J = _1_
(165)
cos ([J
die Matrix (161) über in
f kj = cos
([J
(1 - tan ([J] tan([J 1
=
[c~s ([J SIn([J
-sin([J] , cos ([J
(166)
und das ist die bereits im Abschnitt 1.2 eingeführte Matrix der ebenen Drehung, siehe auch Abb. 10.1. Doch wird weder die Winkelfunktion noch der Winkel selbst etwa explizit ermittelt; die Darstellung (166) ist daher nur von akademischem Wert und führt vollends im Komplexen zur Absurdität, wenn zusätzlich noch Hyperbelfunktionen herangezogen werden. Um nochmals ganz klar heraus-
10 Gebundene Transformationen
200
zustellen, daß der für die Transformation allein maßgebliche Quotient qkj ursprünglich dem Gaußschen Algorithmus und somit einer Äquivalenztransformation entstammt (worauf der Index G hinweisen soll), sei dies nochmals zusammengefaßt: Gauß äquivalent G G LkjAjkRkj = Ä jk
Quant ähnlich
Quant unitär normiert unitär
G 0_1 _ LkjAjkLkj = A jk
. (167)
)
G
In jedem Fall ist demnach die erste Spalte der Transformationsmatrix L kj bzw. L kj durch den zur Reduktion ausersehenen Quotienten qkj festgelegt. 2. Reduktion nach oben. Die beiden Transformationsmatrizen (156) werden ergänzt zu (168) und anschließend normiert
1[1
_ , RNjk -
Wjk
ii.jk
-qjk]
1
mit
WJk =
1 + qjkii.jk> 1 . (169)
Abschließend noch zwei Bemerkungen zur normiert unitären Transformation. Ist A hermitesch (reellsymmetrisch), so ist es auch die transformierte Matrix A. Man braucht daher nur den linken unteren (rechten oberen) Teil einschließlich der Hauptdiagonale zu berechnen und den rechten oberen (linken unteren) Teil hermitesch (reellsymmetrisch) zu ergänzen, wodurch der Rechenaufwand sich annähernd auf die Hälfte reduziert. Und noch ein Zweites zur Information. Wir sahen in (166), daß alle vier Elemente /ijj , /ijk , /i kj und /i kk quadratisch von qkj abhängig sind. Wählt man daher das zu reduzierende Zielelement im doppelt schraffierten Innenfeld der Matrix (162), so hat man eine quadratische Gleichung zu lösen. Eine solche Transformation benutzte als erster Jacobi [110b], während die lineare Reduktion im Außenfeld auf Givens [110a] zurückgeht, weshalb die Transformationsmatrizen (161) und (170) in der Literatur oft nach Jacobi bzw. Givens benannt werden. Außer der hier besprochenen zweiseitigen wird bisweilen auch die nur einseitige unitäre Transformation herangezogen, und zwar speziell für eine Variante des Gaußschen Algorithmus, was zwar größeren Aufwand erfordert, dafür aber ge-
10.12 Nicht-normiert unitäre Transformationen
201
wisse numerische Vorteile bringt; wir kommen im Abschnitt 28 noch darauf zurück. Wird eine Matrix A mit n Spalten mit einer normiert-unitären Matrix U von links multipliziert, was einer Linearkombination ihrer m Zeilen gleichkommt, UA = Ä, mithin Uaj = äj , so gilt zufolge aj U* = äj die Beziehung (170)
und Entsprechendes gilt bei normiert-unitärer Linearkombination der Spalten einer Matrix. Ein Beispiel. Gegeben ist die Matrix A (a), und es werden mittels der vier normiert-unitären Matrizen Ljk (b) die Zeilen I, 2; 1, 4; 3, 4 und 2, 4 der Matrix A linear kombiniert.
A =
r
[-o~
1] 1 2
vlö
i
3+2i
[1 -3J 3 1
-
~61J
(a)
1] 1 4
V6
[1 -2+iJ 2+i 1
3] 1 4
v5
(
2J 2] V21(1
1 -2 1
'
4
i
-iJ 1
(~)
Man erhält nach einiger Rechnung die transformierte Matrix
A=
0,387298 - 0,387298 i 2,134936+ 3,753308 i [ -1,196837 - 0,346410 i 3,306094 + 1,889987 i
- 3,136887 - 0,279149 i 2,526215 + 1,098944 i 1,210915 + 1,076707 i - 0,242697 + 3,287562 i
- 4,640781 + 2,449490 i] 1,259991 + 1,570352 i 2,205557 - 0,230940 i 1,570352 + 1,423290 i
(c)
Zur Probe bestätigen wir die Relation (170): (d)
Führt man die vier Transformationen (b) an der Einheitsmatrix 14 durch, so geht diese über in die normiert-unitäre Matrix U. Mit dieser müssen die folgenden Kontrollen erfüllt sein: U* U = 14
,
U U*
= 14
und
UA
=A .
(e)
Zur Anregung: Der Leser erfinde noc~ einige weitere normiert-unitäre Matrizen L jk und führe damit die Transformation der Matrix A (c) fort. Wiederum müssen alle oben angegebenen Kontrollen erfüllt sein.
10.12 Nicht-normiert unitäre Transformationen
Nicht-normiert unitäre Transformationen arbeiten mit dem halben Rechenaufwand, vermeiden das Radizieren, das aus dem Bereich der rationalen Zahlen herausführt und sind überdies anwendbar nicht nur auf B = In> sondern auch auf die reelle und positive Diagonalmatrix
B = D = Diag
,
(171)
202
10 Gebundene Transformationen
womit also bei einem normalen Paar A; B die Normierung (151), (152) entfallen kann. Es sei nun aus dem Paar A; D das zweireihige Paar (172)
herausgegriffen, dann ist die nicht-normiert unitäre Ergänzung bei Reduktion nach unten
mit
L kj =
[1
wt
1 +qk/hjdj/dkk > 1 ,
(173)
qkj
=
(174)
'---.J
und es wird die transformierte Matrix (175) diagonal und positiv wie verlangt. Mit anderen Worten: Die Matrizen L kj und R kj sind zueinander D-unitär, siehe dazu Abb. 10.2 und vergleiche Abb. 10.1.
z
Quant
Abb. 10.2. Zur Transformation Quant D - unitär
Nun zur Gesamttransformation. Anstelle der beiden Ersetzungsvorschriften (163) und (164) haben wir nun sehr viel einfacher:
Erster Schritt. Zeilenkombination. Ersetze die Zeilen aj und a k der Matrix A durch ~j j k d /d a = a -a qkj jj kk' L...-J'---.J
il = a k + qkja j L....J
(176)
203
10.12 Nicht-normiert unitäre Transformationen
Zweiter Schritt. Spaltenkombination. Ersetze die Spalten iij und iik der Matrix A durch aj = iij-akqkjdj/dkk ,
ak = ii k + qkjiij .
(177)
'--'
L......J~
Damit ist A über A in A übergegangen, und in D ist die Ersetzung (175) vorzunehmen. Ein Beispiel. Gegeben ist das hermitesche Paar at.
A= [
11
I-i
-~
:+iJ
=A*;
1 1
D=
[dÜI
~
0
(a)
0
Mittels einer D-unitären Transformation soll das Element a31 in ä31 = 1 überführt werden. Reduktion nach unten ergibt nach (130) mit f.l = I, j = 2, k = 3 den Quotienten ä31-a31
1-(I-i)
a21
i
q32=---=
= 1
(b)
Damit werden die beiden Transformationsmatrizen der Ordnung n = 3 mit den zweireihigen eingerahmten Teilmatrizen (173)
: -q,,~,,/J~ -i:l~ I: -~/lll,~ ;,,- ~l,- i:l~ dJ ~l,
q32
I
I
I
und eine einfache Rechnung liefert das transformierte Paar
n n
L 32 A R 32
[all
= A = - (2 ~ 5i)/3
(c)
A; 15, das seinerseits hermitesch ist:
- (2 + 5i)/3 5/3 8/3
o
10/3
o
~J . (d)
Dazu eine Probe. Nach (174) ist
(e)
und in der Tat wird a22=d22w~2=2·5/3=10/3,
a33=d33w~2=3·5/3=5,
(f)
wie es nach (175) sein muß.
Bei Reduktion nach oben haben wir anstelle von (173) das Paar (178) mit (179) womit alles weitere analog zum Vorhergehenden verläuft.
204
10 Gebundene Transformationen
Der Verzicht auf die Normierung verringert wie eingangs erwähnt den Rechenaufwand fast auf die Hälfte, doch kann bei großen Ordnungszahlen die numerische Stabilität darunter leiden, weshalb man von Zeit zu Zeit eine sogenannte Regeneration oder Postnormierung vornimmt. Es resultiere nach (l Transformationen das Paar A e ; D e , dann führt man mit diesem die Normierung (151), (152) N
durch und fährt mit dem so regenerierten Paar A e; In fort. Auch nach der letzten Transformation wird man so vorgehen, um mit einem speziellen Paar A; In den Algorithmus zu beenden; dies besonders dann, wenn bereits beim Start D = In war. Ist die Diagonalmatrix D (171) regulär, aber sonst beliebig, so geht man vom Paar A; D auf das Paar D -1 A; In über. 10.13 Unitäre Transformation auf obere Hessenberg-Matrix
Vorgelegt sei das Paar A; D der Ordnung n, wo A beliebig und D eine reelle Diagonalmatrix mit positiven (negativen) Elementen dpp ist, und geplant wird eine unitäre Ähnlichkeitstransjormation auf das Paar H; jj mit der reellen Diagonalmatrix jj mit positiven (negativen) Elementen dpp , während H eine obere Hessenberg-Matrix ist, die spaltenweise in n - 2 Schritten hergestellt wird, für n = 5 beispielsweise nach folgender Strategie:
(179a)
Wir beschreiben die Reduktion der ersten Spalte. Beim Start ist L = In zu setzen. Ausnahme. Es ist a31 = a41 = ... = an l = O. Dann gehe über zur nächsten Spalte. Regelfall. Mindestens eines der Elemente a31 bis an l ist von Null verschieden. 1. Vertauschung 1a) Suche aus den Elementen a21 bis an l das betragsgrößte; es sei das Element ajl'
1b) Es ist j = 2. Dann weiter mit Programmpunkt 2.
10.13 Unitäre Transformation auf obere Hessenberg-Matrix
205
1c) Es istj>2. 1c I) Vertausche die Zeilen 2 und j in L und A. 1cII) Vertausche die Spalten 2 und j in A. 1c III) Vertausche die Elemente d22 und djj in D. 2.
Reduktion
Als Pivot dient das Element am Platz 21 in der aktuellen Matrix A. Die Nullen werden an den Plätzen 31,41, ... ,n1 (nicht unbedingt in dieser Reihenfolge) erzeugt mit Hilfe der Matrix L kj (173) für j = 2. 2a) Berechne die signifikanten Elemente der Matrix L k2 :
2b) Zeilenkombination der aktuellen Matrix L , d.h.
qk2
Zeile . 2J) -P2k ([Zelle k
(B)
2cI) Zeilenkombination der aktuellen Matrix A (C)
2c II) Spaltenkombination der Matrix A N
fik=äk+tik2ä2} fi 2 = ä 2 -P2k ä k
,
d.h.
~
[~
qk2 ~
i1
r/)
~J
_
i1
(D)
r/)
-P2k
~
2d) Transformation der aktuellen Matrix D. Berechne den Skalar W~2 und daraus weiter die Elemente 22 und kk :
a
a
(E)
Die zweiten Zeilen der Matrizen L, A und D und ebenso die zweite Spalte von A werden demnach n - 2mal ersetzt, die übrigen Zeilen und Spalten nur einmal. Der Schritt der Nummer k fällt aus, wenn 0kl = 0 ist. Damit ist die erste Spalte reduziert. Die Reduktion der weiteren Spalten verläuft analog, siehe dazu das erste Beispiel. Zum Schluß der Transformation sind die drei Matrizen In' A und D in L, H und D übergegangen, und es gilt
LAL* =H; LDL* =D .
(F)
206
10 Gebundene Transformationen
Außerdem besteht die Beziehung
spD -1 A =
n
L
Q/1/./d/1/1 =
/1; 1
n
L
h/1/1ld/1/1 = spD -1 H
(G)
/1; 1
Ist insonderheit A hermitesch, so ist auch H hermitesch und somit tridiagonal, siehe dazu das zweite Beispiel. Erstes Beispiel. n = 4, AreeIl, D positiv. Gegeben ist
A =
[-!
~ ~ _tl~J , [~ ! ~ ~J
(a)
D=
2 -1 -6
0 0 0 4
Reduktion der ersten Spalte. Es liegt der Regelfall vor, da nicht alle Elemente Null sind. 1. Vertauschung
la) Das betragsgrößte der Elemente 1c III) wird dann
Lv =
ist
°21,°31,°41
unterhalb der Kodiagonale gleich
°31,°41
041
= 2,
mithin ist j
[30 32] [i [i ~] 0 0 0 1
0 0 1 0
Av =
2 4 -6 -1 0-2 2 1 -1 1 5 0
, Dv =
= 4. 0 4 0 0
Nach 1b) bis
0 0 2 0
1]
,
(b)
wo der Index V auf Vertauschung hinweist. 2. Reduktion
1. Schritt, k 2. Schritt, k
= 3. = 4.
Annullierung des Elementes Annullierung des Elementes
031 042
= 0 entfällt. = - 1. (c)
(B):
_
/
Lv - 0,5 ..... [
1 0
0 0
3
o
o
o 1
0
_ / 2 4 (C): A v - 0,5 0-2 [ ..... -1 1
(D): Ä =
W~2 = 1 +Q42P24
o o oo1 ] 1
o 1
o
[ o~ f.~':~-:; ] o
(E):
n)-2. [~ -; -;-1 b- [i -! o
-2 2 1 3 2 -0,5 '--2../
2·
~
-: [ ~
0-4
o
=L.
(d)
o 0,5
-163 -12 2 1
J
_-A.
(e)
2 -0,5 3 -16
4
2 2
(I)
= 1 +0,5'2 = 2 ;
d22 = d22W~2 = 4·2 = 8, d44 = d44W~2 = 1-2 = 2 .
(g)
10.13 Unitäre Transformation auf obere Hessenberg-Matrix
207
Damit ist auch jj berechnet, und wir stellen nochmals alle drei Matrizen zusammen:
LI =
[' OOOJ o
-2 0 1 0 0 1 0
o
,A, =
1 0 0,5
~J [i ~J
[
-4 3 4 4 -16 0 -4 2 2 0 4
0 8 0 0
, D,=
0 0 2 0
(h)
Reduktion der zweiten Spalte. Es liegt der Regelfall vor. 1. Vertauschung
Entfällt, da die Elemente a42 = - 4 und a43 = 4 betragsgleich sind. 2. Reduktion
(B):
(C):
L,=
i([~
0 -2 0 1
Ic[l
-4 3 4 -16 -4 2 2 4
[1
-4 3 4 -16 -8 o 4 0
AI=
0 0 1 0
1
o
J
[~
=>
0,5 )-1 2 0 0 I
J)-1" [l
-Ii'
(D):
,.1,=
2 0
-\
1
1
J
=>
[l
0 -2 -1 1
0]
0 0 1 1 -0,5 1 0,5
-4 3 4 -16 -8 0 4 0
2 0 -1 1
-4 I 5 4 -16 -16 -8 1 -I 3 5 0
(i)
-
(j)
= LI
] J
=,.11·
(k)
=,.11 =A 2 =H.
(I)
V
(E):
W~3
= 1 +Q43P34 = 1 + 1·1 = 2
(h)
->
-
d 33
(m)
= d33W432 = 2·2 = 4
, d44
= d44W~3 = 2·2 = 4
(n)
.
Damit wird endgültig 0 o -2 0 [' 0 L= o -I 1 o 1 1
-L]
L4
0
(0):
IJ=
aJlJl
-
l dJlJl
, H=
0,5
2
4
2
4
=-3 + - + - + - = 5
[-' I '] 4
o o
4 -16 - 16 -8 1 - 1 0 3 5
D=
[~ ~J 0 8 0 0
0 0 4 0
(0)
4
L ~JlJl=~+~+~+~=5 Jl=
Der Leser führe auch die Probe (F) durch!
I dJlJl
1
8
4
4
(p)
208
10 Gebundene Transformationen
Zweites Beispiel. Areellsymmetrisch, D = In' 0 0 0 0 0 0 0 0 0
0 0 1
0 1 2
1 2 3
........................ , .... n-4 n-3 n-2 n-3 n-2 n-I n-2 n-l n
A=
0 0 1 0 1 2 1 2 3
nungerade:
sp A = a 2
detA = (_1)a,
n+l
mit a = - - , 2
n gerade:
detA = (-l)P,
mit
n
ß=-. 2
spA = ß(ß+ l) (a)
Da Areellsymmetrisch ist, trifft dies auch für H zu, somit ist H tridiagonal. Auch die Transformationsmatrix L ist reell_ Es wurden einige Ergebnisse mit 16-stelliger Mantisse berechnet, siehe Tabelle (b). Die erste Spalte enthält die Spurkontrolle (G), die zweite die Abweichungen von der Symmetrie. Dabei ist Ykj = h kj - hjk für j *" k. Die auftretenden Fehler sind einigermaßen akzeptabel, gemessen an der Größenordnung der Elemente 0jk von A und der Spur von A
n
L 01'1'- L hl'l' ldl'l'
IYkj Imax
spA
100 200 300 400 500
-2,1-10- 12 4,8-10- 11 6,8'10- 11 -2,4'10- 11 -1,7'10- 10
1,6-10- 12 2,9'10- 11 4,3'10- 11 2,9'10- 10 4,1'10- 10
2550 10100 22650 40200 62750
(b)
Bei großen Ordnungszahlen ist es zweckmäßig, die Kontrollgleichungen (F) in ihre n Spalten aufzulösen und nur einige von ihnen heranzuziehen: ?
sl'=LA(1I')T_h>=o,
?
tl'=LIn(1l')T-dl'~o; JI= 1,2, ... ,n .
(c)
Von jeder der ausgewählten Spalten sI' und tl' wird allein das betragsgrößte Element ausgedruckt. Zum Beispiel hat für n = 500 und JI = n = 500 das betragsgrößte Element von S500 bzw. t soo den Wert 6,1'10- 9 bzw. 3,6'10- 10 • Für das spezielle Beispiel n = 500 sind auf Seite 210 die letzten 60 Elemente der Haupt- und Kodiagonale von H sowie der Hauptdiagonale von jj angegeben.
10.14 Ganzzahlige Ähnlichkeitstransformation auf obere Hessenberg-Matrix Ist die quadratische Matrix A reell und ganzzahlig, so gelingt die Ähnlichkeitstransformation LA L -1 = H auf die Hessenberg-Matrix H mit det L = 1, wo L und H ganzzahlig sind, mit Hilfe des in den Abschnitten 6.12 bis 6.15 beschriebenen Euklidischen Algorithmus, wobei nach jedem Reduktionsschritt der Partner In via Quant (Abschnitt 10.9) sogleich wiederhergestellt wird. Bezeichnen wir als aktuelle Restspalte fiIJ die Spalte der Länge n - fJ. unterhalb des Hauptdiagonalelements, so ist der Algorithmus in wenigen Worten beschrieben. Algorithmus QuantiEuklid (QE) Gegeben: A quadratisch, reell, ganzzahlig. Ordnung
n;::>: 3.
10.14 Ganzzahlige Ähnlichkeitstransformation auf obere Hessenberg-Matrix
209
1) Die Restspalte iilJ ist die Nullspalte. Keine Aktion. Sonst aber: 2) Reduktion der Restspalte iilJ nach Euklid Standard bzw. Euklid-Gauß. Das verbleibende Element TIJ steht 2a) am Platz /1. + 1, /1.. Keine Aktion. 2 b) am Platz k/1., wo k =1= /1. + 1 ist. Die Zeile k wird mit - 1 multipliziert, sodann werden die Zeilen kund /1. + 1 miteinander vertauscht. Dies wird durchgeführt von /1. = 1 bis /1. = n - 2. ENDE. Eine ganzzahlige Transformation empfiehlt sich besonders dann, wenn das charakteristische Polynom p(A) = det (A - H n ) = det (H - H n ) zu ermitteln ist, was durch sukzessives Berechnen der Hauptabschnittsdeterminanten der Matrix F(A) = H - H n geschieht. Erstes Beispiel. Gegeben ist die ganzzahlige reelle Matrix der Ordnung n = 4
A =
[-~ ~ j 2 3
!]
spA = -9 .
(a)
5-6
Wir transformieren zunächst ohne Mitführung der Matrizen L und R = L - 1• f1 = 1, Reduktion der ersten Restspalte. Es sind vier Schritte erforderlich:
0 1 -1 0
-2
[]
3 4 0 0 1 1 4 0 -1 3 5 -6 1
0
0 1 0 -2
1
0
-2 43 18 0 15 -5 1 35 0 -84 -36 13 2 50 21 -6 0
2
0
-2 7 4 0 5 1 1 1 1 2 -2 -2 3 0 2 8 5 -6
0 -2
0
-2 1
o
o
1
2
0 1 -2 0
0
-2 7 18 0 Nicht 1 5 15 -5 eindeutig. 2 -2 -6 3 Auch 2 8 21 -6 ä41 = 2 wäre 0 2 1 0 möglich.
43 18 0 25 15 -5 -58 - 36 13 -12 -9 4
(b)
1
f1 = 2. Reduktion der zweiten Restspalte. Es sind zwei Schritte erforderlich:
0 0 -5 1
-2 1
o o 0
43 18 0 15 -5 25 -58 -36 13 -12 -9 4 0
1
Probe: spA =spH= -9.
5
0 0 1 6
-2
0
0
43 18 90 25 15 70 0 2 9 38 o -12 -9 -41 1
o -6
1
43 25 2
o
-522 -405 90J 70 -219 38 =H. -1077 187 (c)
210
10 Gebundene Transformationen Kodiagonale von H
Hauptdiagonale von H 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 47<; 480 461 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500
1.777367905tI961& -1.08962007421256& 3.2084~906857842& -1.307175277~5712~
2.61168515100905& -2.25436449045502& 2.770815491t2949& -3.04539781286845& 1.79282020398700& -1.95324279558676& 4.71410388557439& -3.68719973516729& 1.3908CI19248575& -2.94322350294290& 1.68551216057178& -3.9026C920401483& 2.77435213251939& -2.67022263405196&
2.1703~7~70~8415&
-1.14871513263054& 2.28186551186046& -5.10256398288948& 3.79398384804634& -6.24685724582866& 1.66937969585924& -2.55873558938406& 1.00121031426807& -4.70738380630500& 4.84113856207977& -5.99133691493208& 2.72892307835294& -5.00010158049455& 5.14253191698004& -2.70065302571496& 1.83930945630965& -1.03376666808155& 1.30814620995107& -3.30355689973052& 7.01135983604343& -3.66221706984220& 7.48179417406086& -1.56771655187905& 3.09586907539606& -2.00005083771096& 3.67510956848251& -5.43733415745278& 1.94646014689702& -1.23524826327101& 5.00590136581599& -4.02859393273697& 8.75352413662736& -1.90647228918583& 1.32874011821683& -4.71554334199146& 1.71866642741026& -3.90042845250664& 6.34899443171566& -1.35230678947471& 3.60207795212610& -3.27484216122590&
3 4 3 2 3 3 3 3 4 2 3 3 3 4 4 3 3 2 3 4 4 2 3 3 3 3 2 2 3 3 3
3 2 2 3
4 3 3 3 3 3 4 3 4 3 2 3 4 2 3 3 3 3 3 3 2 2 4 2
3
-1.53401273793170& 2.038961738100~6&
2.20720107706283& 1.96948272366111& -8.08145481836408& -8.23024035957643& 9.44839238140128& -2.37556030176600& -5.94028440407514& -3.00965419658349& -1.29065888739417& 6.92369933838283& 1.92996797340515& 6.63332028645104& -2.38178334758905& 9.53687936767818& -2.45848663493931& 2.14499062877777& -1.38585236748396& 4.42980774619774& -9.19172218991059& -3.692299617998E8& -1.27109222446884& -8.30047636608381& 5.22292512471805& 1.25826372934106& 5.30115398226045& 3.62335302646324& 1.26846900421731& 9.35241679648791& -8.37471233131104& -3.56619120307360& -8.11434552124794& 1.50324043388870& -9.09384462301030& -7.50033594041866& 4.13891753023351& 9.35365265393182& -9.59593277071317& -9.65484332235207& -1.94174123387406& 1.21353555352598& 1.32631455461715& -1.40177492218926& 2.23138856480662& 1.56595890424471& 7.17367856407339& -3.48823242503902& -1.90236696665421& 7.57227831031356& 4.92713222352711& 1.80686549477469& -2.65180099971583& 2.78730686885885& -7.292894215581t6& 3.95998704512340& 2.01428157174506& 1.23605723041940& -4.29364032655821&
Computerausdruck zum zweiten Beispiel von Seite 208
Hauptdiagonale von jj 3 3 2 2 2 2 2 3 2 2 3 2 3 3 3 2 2 2 3 3 2 2 3 2 2 2 1 2 3 2 2 2 1 2 2 2 2 2 2 2 3 3 3 3 2 2 2 2 2 2 2 2 2 2 1 1 2 2 1
7.10944201074809& 4.3584788tOI7263& 1.28339802103293& 5.228t8392656818& 1.04467188950t99& 9.01743144811608& 1.10832738066561& 1.21815865178231& 7.17128851916443& 7.812~9627984640&
1.88564040006594& 1.47487539645297& 5.56318288068840& 1.17728385018795& 6.74202283602338& 1.56104234891539& 1.10974127088757& 1.06808807285236& 8.68163508966866& 4.5~487644048880&
9.12748537818298& 2.04103026912887& 1.51759560076817& 2.49873722723252& 6.67750522874525& 1.02349626266550& 4.00483306844396& 1.88295021257151& 1.93645929471979& 2.39653392107487& 1.09156738143263& 2.000041357~1194&
2.05701102293143& 1.08026112599598& 7.35723388327489& 4.13506696768146& 5.23259115042129& 1.32141968389042& 2.80455152336625& 1.46488743910146& 2.9~271606123397&
6.27087223678900& 1.23834152193445& 8.0002296~289946&
1.47005210168739& 2.17492813362505& 7.78586480888066& 4.94098513829858& 2.00234744910104& 1.61144138183778& 3.50140286714415& 7.62584029526321& 5.31498301063906& 1.88622904882225& 6.87463889232474& 1.56016337296008& 2.53959585145924& 5.40923838659453& 1.44083114053572& 1.30993502765679&
3 4 4 2 4 3 4 4 4 2 4 4 3 5 4 4 4 3 3 4 4 3 4 4 3 4 2 3 4 4 4 4 3 3 3 4 3 4 4 4 4 4 4 4 4 3 3 4 3 4 4 3 3 4 3 3 3 4 3 4
10.14 Ganzzahlige Ähnlichkeitstransformation auf obere Hessenberg-Matrix
211
AUSGANGSMATRIX A 6 21 56 126 252 462
20 105 336 840 1800 3465
15
70 210 504 1050 1980
15 84 280 720 1575 3080
6 35 120 315 700
1386
1 6 21 56 126 252
HESSENßERGMATRIX 757 -6642 -24 0
6 7 0 0 0 0
-272837 2420348 68984 -7
[1
0
-2348503950 20833716611 593877879 -51176 -384
Ü
0
0
-55579181669 493046188136 14054584197 -1211112 -9164 -385
10971490681 -97328738855 -2774415436 239077 1809 76
LINKSMATRIX 0 1 -8 -172 32088 162514
1 0 0 0 0 0
0 0 -13 -40 95688 484726
ü
2 40 -49 -48638 -246400
0
-1
-24 210 -87561 -443520
0 -1
-15 20 9588 48575
RECHTSMATRIX
0
0
0
0
L
A
0:.
6 7 0 0 0 0
L
1 0 0
0 0 0
0 -8659168 -55872808 -114242085 -24101498 -213041840
0 -204925979 -1322273674 -2703628238 -570380789 -5041801666
0 40452979 261020635 533704008 112594812 995266183
.~
0 0
-272837 2420348 68984 -7 0
0
0
-2348503950 20833716611 593877879 -51176 -384 0
-55579181669 493046188136 14054584197 -1211112 -9164 -385
10971490681 -97328738855 -2774415436 239077 1809 76
0 0
0
0
0 0
-1006 -6491 -13272 -2800 -24750
R = H
757 -6642 -24
I
(.
0
0 3 18 36 8 66
1 0
.:. R =
I
()
(I
1 0 0 0 0
0 1 0 0
0
0 1
0 0
Computerausdruck zum zweiten Beispiel von Seite 212
0
0 1 0
0
0 0 1
212
10 Gebundene Transformationen
Führen wir die insgesamt sechs Reduktionsschritte an der Übermatrix der Ordnung 2n = 8 durch, so ergeben sich nach dem Schema (d)
die beiden Transformationsmatrizen
I
L=
o [
0
o
0
o
3 -2 o 23 -15 -5 132 -86 -29
0J
1 0
R=
0
o [ o
o
5 -58 7 -87
2
-6
0J
10 1~
(e)
.
Proben: LA R = H, L14 R = 14; det L = det R = 1. Schließlich berechnen wir noch das charakteristische Polynomp(A) als letztes Glied der Folge von Hauptabschnittsdeterrninanten der Matrix
F(A) =H-A/4 =
[T'
-522 43 25-A -405 70 ] 00 -219-A 38 2 -1077 187-A 0
(f)
.
Man erhält
H 1 = -2-A, H 2 = A2 -23A-93, H 3 = -A 3 -196A 2 +4320A+ 17703 , H 4 =p(A) = A4 +9A 3 -46A 2 -381A-237 .
(g)
n
Zweites Beispiel. Die Transformation der Dekker-Matrix (6.37 a) der Ordnung = 6 zeigt der Computerausdruck auf Seite 211. Mit den beiden Transformationsmatrizen L und R wurden die beiden Proben LAR = Hund L16 R = 16, ferner die Probe sp A = sp H = 2084 gemacht. Da det A = 1 ist (dies gilt für jede Dekker-Matrix beliebiger Ordnung), gilt zufolge det L = det R = 1 auch det H = 1, insgesamt also det A = det H = det L = det R = 1
(h)
Die drei Matrizen H, L und R sind aber derart schlecht konditioniert (i11 conditioned) oder wie man auch sagt "bösartig", daß es ohne Zuhilfenahme besonderer Maßnahmen nicht gelingt, ihre Determinanten mit Sicherheit auszurechnen.
10.15 Lineare Abbildungen
Wir kommen zum Schluß unseres Studiums der gebundenen Transformationen noch einmal auf die lineare Abbildung (1.4) y=Ax
(180)
zurück und fragen, wie diese durch die Äquivalenztransformation LAR=Ä
(181)
betroffen wird. Um dies zu erkennen, multiplizieren wir die Gleichung (180) von links mit L und nehmen eine geeignete Erweiterung mit In = R R - 1 vor, das gibt
213
10.15 Lineare Abbildungen
Ly oder
(182)
'-,.--J
y
Ä=LAR
(183)
mit
(184) Demnach transformieren sich die beiden Vektoren y und x "kontragredient", weil vor y die Matrix L, dagegen vor x die Inverse R -I steht. Unsere nächste Frage ist, wie sich der Differenzvektor (185)
o=y-x=Ax-x
gegenüber der Transformation (181) verhält. Betrachten wir dazu die vier Anteile der beiden Betragsquadrate
0*0 = (y-x)*(y-x)
=
y* y- y* x-x* y+x* x
(186)
und
J*J= (ji-i)*(ji-i) =y*y-y*i-i*y+i*i ,
(187)
das sind die Längenquadrate und Skalarprodukte einmal im Original (186) und ein andermal transformiert, (187). Ihren Zusammenhang beschreiben wir durch Matrizen Tjk auf folgende Weise
y*y=y*Tl1 y, y*i=y*TI2 X,
i*y=x*T21 y, i*i=x*T22 X. (188)
Zum Beispiel ist nach (184) y*i=(Ly)*(R- 1x)=y*L*R- 1x=y*T12 X mit T12 =L*R- t usw., wie im Fall a) der Äquivalenztransformation in der Tabelle 10.2 angegeben. Die Transformation wird nun kongruent durchgeführt, Fall b), dann zieht dies zufolge T 12 = In' T 21 = In die Gleichheit der Skalarprodukte nach sich
y*i=y*x, i*y=x*y,
(189)
doch ist dies nur eine einzige Gleichung, da beide durch konjugiert-komplexe Transposition auseinander hervorgehen. Kommt man aber von der Äquivalenz zur Ähnlichkeit, Fall c), so bedeutet dies die Kogredienz, das heißt die Gleichheit der Transformation für den Originalvektor x und den Bildvektor y. Schließlich gehen wir in der Tabelle 10.2 von b) nach d) oder von c) nach d) und kommen damit zur Unitarität, und nun sind die Längenquadrate und die Skalarprodukte einander gleich
y*y=y*y, y*i=y*x, i*y=x*y, i*i=x*x
(190)
214
10 Gebundene Transformationen
Tabelle 10.2 a) äquivalent, L und R beliebig L*L L*R-! (R*)-lL
b) kongruent, L* L*L
(RR*)-!
L'L (RR',-' } 0
] Gleichheit
(RR*)-!
T 11 Tl! T2! T22
c) ähnlich, L = R- l <=lR= L- 1 RL=LR
L*L=(RR*)-r L * L = (R R *) - 1 L* L = (RR*)-!
~:
.-~
= R <=l R* = L
d) unitär (ähnlich und kongruent)
f:r"ORR'
~-
. kogredient
~:
Gleichheit
In
Zum Schluß noch eine geometrische Deutung. Ist alles reell, so geht die komplexe Unitarität in die Orthonormalität über; in der reellen XI - xrEbene besagen die Gleichungen (190), daß die Längen von y und X und der Winkel zwischen den Vektoren y und X erhalten bleiben, somit das schraffierte Dreieck OAB der Abb. 10.4 als starre Figur um einen gewissen Winkel ({J gedreht wird, was auch in der Transformationsmatrix (191) explizit zum Ausdruck kommt. Beispiel. Die lineare Abbildung y = Ax mit
A= [:
-~J
' GJ ' X=
y=Ax=
GJ ' (a)
1. Kongruenztransformation nach Abb. 10.3 mit
' LAR=LAL
T=A- [4-8 4J0 =
,
(b)
[-0'5J, 2,5
(c)
und damit wird (d)
vergleiche (a), wie es nach (189) sein muß. Probe: Ä i = ji!
10.16 Zusammenfassung. Ausblick
215
5 y
-
~------
----- y
i
Abb. 10.3. Kongruente Transformation
70
5
5
5
Abb. 10.4. Orthonormale Transformation
2. Unitäre (das heißt hier im Reellen orthonormale) Transformation nach Abb. 10.4 mit der Matrix (191), lfJ = 60°: L
=
[cos 60° - sin 60 sin 60° cos 60°
1 1 ji=LY=-2 [3 -3V3J
+~
jiTji = 10,
jiT X =
0
J ~ V3 =
[I
2
- V3J , 1
= [-2,098076211J
2,366025404
xT ji = 6, xT X =
10 ,
'
LALT=Ä=~ [1+]/3 -5+V3J, 4
1 [3-
X=LX=;
(e)
7+V3 3-h
V3J
1+3h
10,633974596J = L3,098076211
' (f)
(g)
und das stimmt überein mit (a). Daß beide Längenquadrate einander gleich sind, ist Zufall. Probe: Äx = ji!
• 10.16 Zusammenfassung. Ausblick
Halten wir, am Ende angekommen, noch einmal Rückschau. Was war das Problem? Bereit stehen zwei reguläre quadratische Transformationsmatrizen L und R mit insgesamt 2n 2 Elementen, über die wir bis auf die Bedingung der Regularität, die in L und R nur jeweils ein Element einschränkt, nach Belieben verfügen können. Wir unterschieden: a) Freie Transformation
Die Elemente ajk der Matrix A werden transformiert auf die n 2 Bilinearformen (192)
216
10 Gebundene Transformationen
die sich in weiten Grenzen vorschreiben lassen, zum Beispiel so, daß A in die Pivotmatrix n oder auch in Normalform Nd (6.41 c) übergeht, wobei sogar noch R = In oder L = In gewählt werden kann (Gauß-Jordan). b) Gebundene Transformation
b 1) Äquivalenztransformation Die jeweils n 2 Elemente ajk von A und bjk von B werden überführt in die 2n 2 Bilinearformen (193) die nun nicht mehr ausnahmslos vorgebbar sind. Zwar kann B = In verlangt werden, falls B regulär ist, doch zeigt die Normalform (100) für A, daß bestenfalls die n 2 - n Elemente außerhalb der Hauptdiagonale zu Null gemacht werden können, sofern die Struktur des Paares A; B dies zuläßt; andernfalls resultiert als Optimum die Jordan-Form, deren (aufwendige) Konstruktion wir im Abschnitt 18.7 beschreiben werden. b2) Kongruenztransformation Zufolge der Bindung R = L * bzw. L = R * ist nur noch L oder R verfügbar. Ist nun B hermitesch und positiv definit, und verlangt man LBL*( = R* BR) = In' so sind dies nur n (n - 1)/2 Bedingungen, so daß noch weitere n (n - 1)/2 Elemente von L (bzw. R) geeignet wählbar sind. Diese genügen aber im allgemeinen nicht, um auch A auf Diagonalform zu transformieren, außer wenn A normal bezüglich B ist; dann nämlich bestehen auf Grund der erfüllten Vertauschbarkeitsbedingung (54) gerade so viele Bindungen der Elemente ajk untereinander, daß die simultane Transformation
LBL*
= fj =
Diag(1) = In
(194)
möglich wird. c) Matrizentupel Sind nun p> 2 Matrizen, sogenannte Matrizentupel, vorgelegt, so haben wir als Verallgemeinerung von (194) die simultane Transformation
(195) Hier gelingt es selbst bei bescheidenen Ansprüchen an die Normalform - etwa Ne =~e oder Ne = He' Hessenberg-Form (138), - im allgemeinen nicht, das Tupel simultan auf N zu transformieren. Dies wird nur möglich, wenn gewisse Bindungen zwischen den p'n 2 Elementen des Tupels bestehen, was zumeist durch bestimmte Vertauschbarkeitsrelationen zum Ausdruck kommt, so zum Beispiel beim Matrizentripel durch das Erfülltsein der Gleichung (21.76) (Bequemlichkeitshypothese ).
10.16 Zusammenfassung. Ausblick
217
Fassen wir zusammen: Während die freie Transformation (also die Transformation einer einzelnen Matrix A ohne Bindung an einen Partner) auf die Pivotmatrix n und von da auf die Normalform Nd (6.41 c) ohne nennenswerten Aufwand - und das auf unendlich vielfache Weise - gelingt, ist die gebundene, d. h. simultane Transformation eines Paares A; B auf N;In ohne Kenntnis der Eigenwerte Aj nicht durchführbar. Deren praktische Ermittlung bildet daher eines der zentralen Probleme des Matrizenkalküls und wird uns im IV. Kapitel noch ausführlich beschäftigen.
III. Kapitel
Quadratische Formen nebst Anwendungen
Bilineare und quadratische Formen sind Skalarprodukte mit der Besonderheit, daß nicht der Vektor yT mit x selbst, sondern mit dessen Bildvektor Ax multipliziert wird. Auf diese Weise entsteht das Produkt P = yT{Ax), das natürlich auch gelesen werden kann als P = (y TA)x oder noch einfacher als P = y TA x infolge des assoziativen Gesetzes der Matrizenmultiplikation. Solche Formen sind uns längst bekannt als Elemente (A)
einer im allgemeinen rechteckigen Matrix Ä, die bei der Äquivalenztransformation YA X = Ä entsteht, aber auch sonst spielen sie in der linearen Algebra eine nicht unwichtige Rolle. Für y = x geht die Bilinearform über in die quadratische Form A = x TA x bzw. im KomplexenA = x* Ax, wo nun die MatrixA quadratisch sein muß (daher der Name), da sonst die Multiplikation nicht ausführbar wäre. Für A = In wird A = x* Inx = x* x das reelle und nichtnegative Betragsquadrat des Vektors x, was die Frage aufwirft, wie die Matrix A beschaffen sein muß, damit ebenso wie beim Skalarprodukt s=x*x>O
~
A=x*Ax>O
(B)
die Form A reell und nicht negativ ist, und dies führt auf den wichtigsten Begriff der Dejinitheit, siehe Abschnitt 11.2. Die Existenz einer quadratischen Form ist grundlegend vor allem in der Theorie der Kegelschnitte und der Flächen zweiten Grades sowie in der Ausgleichsrechnung. In der Mechanik lassen sich kinetische und potentielle Energie eines Mehrmassensystems (zumindest näherungsweise) durch quadratische Formen ausdrücken, und dies bietet einen einfachen Zugang zu den Bewegungsgleichungen von ungedämpften Schwingungssystemen mit endlich vielen Freiheitsgraden, deren Lösung wir im Abschnitt 15.5 in Form eines Computerprogrammes angeben werden. Als für zahlreiche Fragestellungen bedeutsam erweist sich fernerhin der Quotient (C)
zweier Bilinearformen, speziell der Rayleigh-Quotient (auch Formenquotient) R. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5_3, © Springer-Verlag Berlin Heidelberg 2011
11.1 Darstellung quadratischer und bilinearer Formen
w*Aw R[w]=-- , w*Bw
219
(D)
mit dessen Eigenschaften wir uns im Abschnitt 21 noch gründlich beschäftigen werden.
11 Quadratische Formen • 11.1 Darstellung quadratischer und bilinearer Formen Unter einer reellen quadratischen Form in n reellen Veränderlichen Xt ,xz, ... ,xn versteht man einen in den Xj homogenen Ausdruck zweiten Grades mit reellen Koeffizienten ajk:
(1 ')
Setzen wir überdies ajk = akj' so läßt sich dies so schreiben:
(1 ")
Hier aber steht rechts das skalare Produkt des Vektor x T = (XtXz . .. x n ) mit dem transformierten Vektor y = Ax der Komponenten
womit wir für A endgültig kurz schreiben können
IA = x
T
Ax
I mit
AT =
A .
(1)
Die symmetrische Matrix A = (ajk) wird Matrix der Form genannt, sie legt die Form, d. i. die quadratische Funktion der n Variablen Xj eindeutig fest. Denken wir uns für die Xj Zahlenwerte gesetzt, so ergibt A eine Zahl. Die Form A ist also eine skalare Größe, was wir übrigens auch dem der Gleichung (1) zugeordneten Multiplikationsschema der Abb. 11.1 entnehmen können. Quadratische Formen treten in den Anwendungen vielfach als Energieausdrücke auf, z. B. als kinetische und potentielle Energie mechanischer elastischer Systeme, als Formänderungsarbeit in der Baustatik, als magnetische oder elektrische Energie in der Elektrotechnik. In der Mathematik begegnen uns Ausdrücke
220
11 Quadratische Formen -
n X
n
n
A
y
XT
A
Abb. 11.1. Multiplikationsschema zum Vektor y = Ax und zur quadratischen Form A = x TA x
A = r~ als Mittelpunktsgleichung von Kegelschnitten und Flächen zweiten Grades (n = 2 und 3), und auch im Falle allgemeiner Dimension n deuten wir daher A = r~ als Gleichung einer Fläche 2. Grades im Rn'
Neben quadratischen treten sogenannte bilineare Formen auf, das sind gekoppelt lineare Ausdrücke in zwei Variablensystemen (2')
+ Q2tY2 X t
+ + Q22Y2 x 2 +
+ QmtYmXj
+ a m2Ym x 2 +
p=
allYtXt
+
+at2Yt X 2
+ QtnYtXn + Q2nY2xn .. + Qmnymxn
}.
(2")
wofür wir wie oben kurz schreiben können Ip=yTAXI
(2)
mit einer jetzt weder notwendig symmetrischen noch auch nur quadratischen m nMatrix A = (ajk), deren Elemente wir nur wieder als reell annehmen wollen. Auch P ist ein Skalar, was man sich auch wieder anschaulich ähnlich wie in Abb. 11.1 klar machen kann, und es ist daher gleich dem transponierten Ausdruck:
I p=yTAx=x TATy I.
(2a)
Auch bei quadratischem A sind P = yTAx und P = x TAy = yTATX im allgemeinen verschieden, nämlich abgesehen von symmetrischem A.
11.1 Darstellung quadratischer und bilinearer Formen
221
Beispiel
P=yTAx=2YjXt+y,X2-3Y2Xj+4Y2X2 , T P=x Ay = 2Y1X,-3YjX2+ Y2x 1+4Y2x2 .
(a)
(b)
Von der quadratischen Form A als Funktion in n Variablen Xj oder der bilinearen P als Funktion der n + m Variablen Xj, Yj hat man vielfach die partiellen Ableitungen nach den Variablen zu bilden. Dies gelingt mit Hilfe des Matrizenkalküls leicht unter Beachten von 0
0 8y
8x -=ej= 8xj
, -=ej=
(j-ter Einheitsvektor)
8Yj
0
0
Differenzieren wir in A = x TAx zuerst nach dem linken Faktor x T, sodann nach dem rechten x, so erhalten wir
wo der letzte Ausdruck durch Transponieren der Bilinearform x TA ej = eJ A TX = eJAx wegen AT = A folgt. Das Produkt eJAx aber ist offenbar diej-te Komponente des Vektors Ax. Fassen wir nun die n Ableitungen 8A/fuj zu einem Vektor zusammen, für den wir sinnfällig 8A/8x schreiben wollen, so erhalten wir als Differenzierregel der quadratischen Form A = x TAx
IaA 8x = 2Ax I
(3)
Auf die gleiche Weise ergeben sich für die beiden Vektoren der Ableitungen einer Bilinearform P = y TA x = X TA TY = X TAy nach x bzw. y die Ausdrücke 8P -=Ay, 8x
8P -=Ax 8y
(4)
Die Ableitungsvektoren (3) und (4) werden als Gradienten bezeichnet, man schreibt deshalb auch gradA = 2Ax x
gradP= Ay x
gradP=Ax y
(4a)
222
11 Quadratische Formen
• 11.2 Definite quadratische Formen In den Anwendungen spielen eine wichtige Rolle solche quadratischen Formen, die ihrer physikalischen oder sonstigen Natur nach nur positiv oder negativ sein können, welche - reellen - Werte die Variablen Xj (das sind die Komponenten des Vektors x) auch immer annehmen A = X TA x > 0
bzw.
A = X TA x< 0;
x*"o.
(5)
Eine derartige Form A und ebenso ihre Matrix A heißt positiv (negativ) definit, in allen anderen Fällen dagegen semidejinit bzw. indefinit. Schreiben wir mit dem Bildvektor y = Ax die Form als A = x T y, so heißt dies, daß bei definiter Matrix A Ortsvektor y und Bildvektor y nicht orthogonal sein können, und dies bedeutet mit Blick auf die Abb. 11.5, daß bei einer Ellipse (deren Form positiv definit ist) der Gradient y mit dem Ortsvektor x in keiner Lage einen rechten Winkel bildet. Um nun die Definitheit einer vorgelegten reellsymmetrischen Matrix A festzustellen, gibt es verschiedene Methoden, die wir jetzt herleiten wollen. Beginnen wir mit einer trivialen Bemerkung. Setzt man alle Variablen xk = 0 bis auf eine einzige, Xj 0, so wird A = ajjxJ, und das kann für reelles Xj nur dann positiv (negativ) sein, wenn ajj> 0 (ajj< 0) ist. Doch reicht das zur Definitheit nicht aus, wie das Gegenbeispiel
*"
(1 "')
zeigt, wo all = 1 und a22 = 3 zwar beide positiv sind, jedoch für Xj = 2 und = - 1 die Form den negativen Wert A = 4 - 8 + 3 = - 1 annimmt. Immerhin haben wir auf diese Weise ein einfaches negatives Kriterium gewonnen; denn sind die Hauptdiagonalelemente nicht alle von gleichem Vorzeichen, so ist die Matrix A und ihre Form A sicherlich indefinit. Besonders einfach erledigt sich die Frage nach der Definitheit, wenn A eine Diagonalmatrix ist. Ihre Elemente heißen aus bald verständlichen Gründen die Eigenwerte der Matrix A und werden mit ajj = Aj bezeichnet. Die zu X2
(6)
gehörige Form (1') ist eine Summe von reinen Quadraten ohne gemischte Produkte XjX2 usw. (7)
und da die Quadrate xJ zufolge x*"o nicht alle verschwinden können, gilt der Satz 1: Eine Diagonalmatrix A und ihre Form A ist positiv (negativ) definit, wenn ihre n Diagonalelemente ajj positiv (negativ) sind.
223
11.2 Definite quadratische Formen
Ist nun aber die Matrix A vollbesetzt wie in (1"), so führt der Gaußsche Algorithmus auf die - zufolge Symmetrie von A diagonale - Pivotmatrix
(8) und damit wird die transformierte Form mit den neuen Variablen Zj als den Komponenten des Vektors x = Raz ebenfalls eine Quadratsumme wie in (7) (9)
folglich geht der Satz 1 über in den Satz 2: Eine reellsymmetrische Matrix A und ihre Form A ist positiv (negativ) deRa = II die n Pivots positiv finit, wenn nach der Kongruenztransformation R (negativ) sind.
hA
Ein anderes Kriterium, welches die Transformation (8) entbehrlich macht, ergibt sich auf folgende Weise. Wir unterteilen die Matrix A in sogennante Hauptabschnittsmatrizen oder Hauptminoren von aufsteigender Ordnung nach folgendem Muster
A=~
(10)
Es ist also allgemein (11)
und speziell für die Pivotmatrix
, ... ,lln=ll.
(12)
Ist A definit, so sind, wie wir sahen, alle Hauptdiagonalelemente von Null verschieden, somit gelingt der Gaußsche Algorithmus in der natürlichen Reihenfolge mit den Pivots auf den Plätzen 11, 22, ... n - 1, n - 1, und man zeigt leicht, daß die Hauptabschnittsdeterminanten H 1, H 2, ••• , H n der Hauptminoren von A und II einander gleich sind, Hj=detAj=detllj
j= 1,2, ... ,n ,
(13)
224
11 Quadratische Formen
und daraus folgt nach (12) n
Hn =
Il
7tj =
detA. (14)
j=l
Sind nun alle n Pivots positiv, so sind es auch ihre Produkte, sind sie aber alle negativ, so sind die Produkte (14) abwechselnd negativ und positiv; andere Möglichkeiten der Vorzeichenfolge scheiden damit bei Definitheit aus. Stellen wir abschließend alles Gesagte nochmals übersichtlich zusammen:
Bedingungen für positive
negative Definitheit
notwendig
ajj> 0 Hauptdiagonalelemente ajj< 0
(a)
notwendig und hinreichend
Aj>O 7tj>O
Eigenwerte Aj
(b) (c)
+ + + + ...
- + - + ...
(15)
(d)
Die hier aufgeführten Kennwerte sind nicht voneinander unabhängig, sondern es bestehen, wie wir im Abschnitt 13.7 noch zeigen werden, unter anderem die Beziehungen (16)
und (17)
Im übrigen ist die Unterscheidung von positiver und negativer Definitheit nicht wesentlich; denn ist A positiv (negativ) definit, so ist die Matrix - A negativ (positiv) definit, so daß wir fortan nur noch von Definitheit schlechthin sprechen werden. 11.3 Indefinite quadratische Formen Beginnen wir mit dem einfachsten Fall. Eine Matrix A und ihre Form A = x T Ax heißt positiv (negativ) halb- oder semidejinit, wenn sie außer positiven (negativen) Werten auch den Wert Null annehmen kann. Besitzt die Matrix A und mit ihr auch die Pivotmatrix n den Rang r< n, somit den Defekt d = n - r, so sind auch genau d Hauptdiagonalelemente in n gleich Null. Es gilt mithin der
11.3 Indefinite quadratische Formen
225
Satz 3: Eine reellsymmetrische Matrix A ist positiv (negativ) semidefinit vom Range r, wenn nach der Transformation (8) r Pivots positiv (negativ) und die rest-
lichen Null sind. Die Zahl d
=
r-n heißt der Defekt der quadratischen Form.
~p~ m
m
m
m
m
~ c c c
(10)
c
m
m
~ c c c Ce,Mo
c
Cr,M
Ce,N
(Za) .
m
(lb)~
m
m
(Zb)~ c c
Cr,Mo
Abb. 11.2. Dreigliedrige Schwingerkette mit defektiven Energieformen
Dazu ein Beispiel. Die Abb. 11.2 zeigt eine Schwingerkette mit defektiven Energieformen. Die Federmatrix ist im Fall a) (eingespannt) bzw. im Fall b) (frei)
Ce=C
[-~o -~ -~J -1
1
pos. def.;
Cf =
C [-:
-
~ ~J1
o -1
-
pos. semidef.
(a)
Die Massenmatrix ist im Fall 1) bzw. im Fall 2) (die mittlere Masse fehlt)
M=m
[~
o 1
o
~J
po
Mo = m
U~ ~J
pos. semidef.
(b)
Die Eigenbewegungen sind nach Abschnitt 15.6: (1 a) Drei harmonische Schwingungen (2a)
Zwei harmonische Schwingungen
(l b)
Zwei harmonische Schwingungen und eine Translation (2b) Eine harmonische Schwingung und eine Translation
Es sei nun unsere Form indefinit. Dann enthält die Pivotmatrix mindestens zwei Elemente von verschiedenem Vorzeichen, genauer: es seien p Pivots positiv, q negativ und die übrigen gleich Null, womit die Summe aus p und q gleich dem Rang r ist. Bezeichnen wir die Differenz s = p - q als Signatur, so wird die Form eindeutig charakterisiert durch die beiden Kennzahlen
I Rang r = p + q;
Signatur s
= p - q I·
(18)
Eine indefinite Form kann stets auch den Wert Null annehmen (19)
und hier sind zwei Fälle zu unterscheiden.
226
11 Quadratische Formen
1. Die Matrix A ist singulär. Dann gibt es d linear unabhängige Eigenspalten Xj' für welche AXj = 0 gilt, womit der Bildvektor Yj = AXj für sich allein verschwindet (19')
2. Die Matrix A ist regulär. Jetzt kann Y = A x kein Nullvektor sein, folglich müssen Originalvektor x und Bildvektor Y = A x zueinander orthogonal sein (19")
Zum Beispiel wird mit
0J o -b 2
A
= [a
2'
X=
(bJa
(-ab abJ 2
, Y = Ax =
2'
(19"')
p
n
A
n
n
B
BA
p
AT
C
Abb. 11.3. Das dreifache Produkt C = A T BA
In den Anwendungen begegnet uns häufig das dreifache Produkt, wo B reellsymmetrisch und regulär ist; auch die p-reihige Matrix C ist dann offenbar reellsymmetrisch. Setzt man Ax = Roz, so überführt der Gaußsche Algorithmus die zu C gehörende Form C in eine Summe von Quadraten T Tn z=7rtZt+7r2Z2+ 2 2 2 C =X TC X=X TA TBA X=z TRoBRoz=z ... +7rpZp, (20) womit Rang und Signatur der Produktmatrix C offenbar werden. Insbesondere gilt, wie wir im Abschnitt 9.6 erkannten: die Anzahl der von Null verschiedenen Pivots in (20) ist gleich dem Spaltenrang von A. Ein Beispiel.
(a)
227
11.4 Transformation quadratischer Formen. Invarianten Wir berechnen das Produkt ATBA
C= [-3 3J. (b)
= C in (b) und transformieren C auf die Pivotmatrix 1 IJ
Rc = ( 0
3 -3
1
T
RcCRc=ll=
;
[-3 oj01 . 0
11:
(c).
(c)
Somit ist C=ZTll Z = -4zf+O'z~;
p=O, q= 1;
,=0+1 = 1, s=O-1 = -1.
(d)
Damit ist C negativ halbdefinit, der Spaltenrang von A ist, = 1. Tatsächlich sind die beiden Spalten aus A linear abhängig, denn es ist a2 = - a2'
11.4 Transformation quadratischer Formen. Invarianten Eine reguläre Transformation LA R = Ä läßt nach Satz 1 aus Abschnitt 9 den Rang r der Matrix A unverändert, die Kongruenztransformation R TA R = A einer reellsymmetrischen Matrix darüber hinaus auch die Signatur, wie wir jetzt zeigen wollen. Wie immer gehen wir aus von der Transformation
A
= X TA x = z T11z mit
z = R - 1x,
R - 1 =K =
[
~kn~ J
(21)
Bezeichnen wir die Inverse von R mit K und lesen sie zeilenweise, so sind die neuen Variablen die Skalarprodukte (22)
(oder geometrisch gedeutet die Projektionen des Vektors x auf die Vektoren k j ). Die Spalten und Zeilen der Pivotmatrix sortieren wir zweckmäßig in der Weise um, daß zuerst die p positiven, sodann die q negativen und schließlich die restlichen Nullen erscheinen. Auch schreiben wir anstelle von 1rj mit durchweg positiven Größen bj , damit die Vorzeichen besser hervortreten
-p-
Ll=RTAR=Diag( b1···bp
-bp + 1 ' " -b,
-q•
...- - - - - r
0 ... 0 )
(23)
-n-r-
Eine erste Transformation mit der Matrix R ergebe nun die Form A, eine zweite mit der Matrix R die Form Ä A=xTAx=ZTRTARz=
-
T
-T -T - - -
p
q
j= t
k= 1
L bjzJ- L bkzk, j5
~
- -2
A=x Ax=z R ARz= '-' bjz j j= 1
(24)
ij
~ .. -2 '-' 0kZk' k= 1
(25)
228
11 Quadratische Formen
und da beide Formen denselben Zahlenwert A repräsentieren, verschwindet ihre Differenz
f OjZ;+ f Jkz~l(f J
A -Ä = ( 0=1 k=1 -n+e-
lk=1
okd+
f JjzJlJ
(26)
= 0 ,
j=1
-n-e-
wofür wir kürzer schreiben wollen (26') Es sei zunächst A regulär, somit p+q = n. Dann muß (26/1)
sein, weil anderenfalls alle n 2 Variablen in SI wie in S2 und damit die Vektoren Z und Z selbst gleich Null sein müßten, was aber zufolge Z = Kx bzw. = Kz auch x = 0 nach sich zöge. Wir nehmen nun an, es sei p größer als p, sagen wir p = p + e, dann besteht, wie in (26) bereits markiert, SI aus n + e und S2 aus n - e Summanden. Nun gibt es im Rn stets (mindestens) einen Vektor X, der auf den insgesamt n - e Zeilen k j aus K (21) bzw. ii/ aus K senkrecht steht, womit die Skalarprodukte (22) und damit auch die Summe S2 gleich Null wird, was aber nach (26/1) ausgeschlossen ist. Es muß also e = 0 und damit p = p, folglich auch q = fj sein, damit dieser Widerspruch sich löst. Ist nun A singulär, so ist die Beweisführung dahingehend zu modifizieren, daß nur solche Vektoren x zugelassen werden, die nicht Eigenspalten von A sind; ohne Einschränkung gilt somit der
z
Satz 4: (Trägheitsgesetz von Sylvester) Rang und Signatur einer quadratischen Form sind invariant gegenüber einer regulären Kongruenztransformation. Anschaulich bedeutet dies zum Beispiel für n = 2, daß ein Kegelschnitt A = x T Ax = r~ durch reelle Kongruenztransformation stets in einen solchen der gleichen Art, eine Ellipse in eine Ellipse, eine Hyperbel in eine Hyperbel usw. überführt wird; man vergleiche dazu die Abschnitte 11.6 und 15.5. Der Satz von Sylvester gilt für jede beliebige Kongruenztransformation. Halten wir aber fest, daß speziell der Gaußsche Algorithmus RbARo = n zufolge det R o = 1 neben Rang und Signatur auch die Determinante det A = det n bzw. bei singulärer Matrix A die Rumpfdeterminante unverändert läßt. Beispiel. Die Matrix (17.39) mit n = 3.
A=
0 1 0J 1 0 1 . [ 010
(a)
11.4 Transformation quadratischer Formen. Invarianten
229
Da alle drei Hauptdiagonalelemente gleich Null sind, erfolgt zunächst eine Pivotregulierung. Addition der zweiten Zeile zur ersten und Addition der zweiten Spalte zur ersten (gleichviel in welcher Reihenfolge) ergibt ölt = 2. Die Pivotfolge 11,22 führt sodann auf die Pivotmatrix n in (b). (Man beachte, daß hier die Dreieckszerlegung von Cholesky in ihrer Urform nicht durchführbar ist!) R~ARG=n=
2 0 00J , [0o -112 0 0
[11- 112 - IJ 112 0 , 0 0 1
RG=
Die Rumpfdeterminante ist in der Tat H 2 = Te ,Te2 = 1. Es ist p Rang r
= 1 + 1 = 2,
Signatur s
Wir wählen nun einen Vektor
= 1- 1 = 0
x und
= 1 und q = 1,
(c)
z gemäß
112J
1
-1 1
o
(b)
somit
.
transformieren ihn auf 1/2
detRG =1 .
(d)
und damit wird (e)
Wir zeigen bei dieser Gelegenheit, daß die Matrix LI (23) durchaus keine Pivotmatrix sein muß, und zwar anhand einer Transformationsmatrix R, welche A ebenfalls auf Diagonalform transformiert:
R=
1 -V2 1 0IJ V2 [ 1
1
, RTAR=LI=
-1
4V2 -4V2 0
[ oo [
0J0
0
- 1/2 + -112 2
,
(f)
0
VV2J
-VV2
(g)
Auch hier ist (h)
Jetzt endlich sind wir auch in der Lage, die schon in (5.58) angekündigte Normalform N herbeizuführen. Wir transformieren die Matrix (23) mittels der Diagonalmatrix
. (t
D=DIag ~
auf
-p-
DTAD = Diag( 1 ... 1
insgesamt also
t
1
~'
Vc5
P +l
1
~'
-q; -1 ... - t
;O ... O)=N, -n-r-
(27)
(28)
(29)
und damit lautet die zu (28) gehörende Normalform
230
11 Quadratische Formen
mit x = RDy, y = D- 1R-1x. Wir verstehen jetzt auch, warum es nicht möglich war, bei einer Kongruenztransformation via Pivotregulierung die Vorzeichen der Hauptdiagonalelemente vorzuschreiben: Die einschränkenden Ungleichungen (6.28) sind nicht anderes als ein Indiz für die - uns damals noch unbekannten - Invarianz von Rang und Signatur.
• 11.5 Hermitesche Formen Die komplexe Verallgemeinerung quadratischer Formen sind die sogenannten hermiteschen Formen (31)
A =x*Ax
mit einer hermiteschen Matrix A = A * von symmetrischem Real- und antimetrischem Imaginärteil, vgl. Abschnitt 4.2. Die Form (31) stellt nun genau wie die reelle quadratische Form A (1) einen reellen Zahlenwert dar; denn es ist Ä
= A * = (x* Ax)* = x* A *x** = x* A * x = x* Ax = A
,
(32)
und Ä = A bedeutet eben, daß A reell ist. Genau so zeigt man für die schiefhermitesche Matrix mit A * = - A
8=S*=(x*Ax)*=x*A*x**=x*A*x=x*(-A)x= -x*Ax= -8, (33) daß 8 rein imaginär ist. Bei singulärer Matrix A kann sowohl A = 0 wie 8 = 0 sein. Die reelle Kongruenztransformation (21) ist jetzt zu verallgemeinern auf die hermitesch kongruente oder konjunktive Transformation
A=x*Ax=Z*R*ARZ=Z*Az mit A=R*AR,
(34)
wo nun alle Matrizen und Vektoren komplex sind. Insonderheit der Gaußsche Algorithmus führt auf (35)
mit - reellen! - Pivotelementen, denn es ist 1tj = r jA rj;
j = 1,2, ... , n
(36)
die mit der Spalte rj aus Ra gebildete hermitesche Form. Es sind daher auch die Hauptabschnittsdeterminanten (13), (14) ebenso wie die Hauptdiagonalelemente
11.6 Flächen zweiten Grades
231
der Matrix A reell. Bezüglich der Definitheit gilt wortwörtlich die Übersicht (15), und auch das Trägheitsgesetz von Sylvester (Satz 4) kann unverändert übernommen werden.
ajj
Dazu ein Beispiel mit n = 4.
A=
-1 i 0 0 ] -i -3 0 0 1 +i [ o 0 -2 o 0 l-i-4
(a)
Alle vier Elemente 0jj sind negativ, somit ist das notwendige Kriterium (15 a) erfüllt. Wir berechnen die Hauptabschnittsdeterminanten
und finden die Vorzeichenfolge - + - +, also ist nach (15d) die Matrix A negativ definit. Die Transformation auf die Pivotmatrix zerfällt hier in zwei getrennte Schritte. Man findet fast ohne Rechnung
n=
-1o -20 00 0J0 [ oo 00 -20-30
(c)
Alle Pivots sind negativ, und die Hauptabschnittsdeterminanten von n sind in der Tat mit denen von Aidentisch.
• 11.6 Flächen zweiten Grades
Die Gleichung (37) stellt in der Ebene, dem R 2 , bekanntlich einen Kegelschnitt dar, im anschaulichen reellen Raum R 3 allgemeiner eine Fläche zweiter Ordnung, und auch im Raum Rn von beliebiger Dimension fassen wir die Gleichung (37) als die einer Fläche zweiten Grades auf. Ist die Matrix A positiv definit, so handelt es sich um ein Ellipsoid, in allen anderen Fällen dagegen um schwer zu klassifizierende Mischflächen, deren Schnitte mit einer zweidimensionalen Ebene Kegelschnitte verschiedener Art sind, nämlich entweder Ellipsen, Hyperbeln oder Paare paralleler Geraden. Um auch indefinite Matrizen in die Betrachtung mit einzubeziehen, zieht man die zu A komplementäre Fläche A = x TA x = - r~ mit heran, schreibt also anstelle von (37) umfassender (38)
232
11 Quadratische Formen
Beispiel a) Die Matrix A ist indefinit. (a)
Das sind die beiden Hyperbeln der Abb. 11 Aa). b) A ist negativ semidefinit.
A
=
[
oJ01 ; A = -xr = r~
-1 0
bzw.
A
=
-xr = -r~
(b)
.
Im ersten Fall gibt es keine reelle Lösung, im zweiten Fall haben wir das reelle Geradenpaar der Abb. ttAb. IZ
IZ
/
/
I
I
I I
I,
-ra I I
o
I
I I I I I
a
Ir. la
I I
I I
I I I
b
Abb. 1l.4a, b. Komplementäre Kegelschnitte
-
Die Länge des Ortsvektors x = OP sei a, dann ist a 2 = x Tx. Erweitern wir damit die Flächengleichung, so geht sie über in (39)
mit dem sogenannten Rayleigh-Quotienten 1 Ra[x]
xTAx
=-T- ,
(40)
X X
dessen Zahlenwert von der Länge des Vektors x unabhängig ist. Setzt man dann
x=aw, 1
Nach dem englischen Physiker Lord Rayleigh 1842- 1919.
(41)
11.6 Flächen zweiten Grades
233
so kürzt sich der Skalar a in (40) heraus; es ist somit (42)
und diese Eigenschaft legt es nahe, die Flächengleichung (39) in w zu formulieren (43)
und dann erst nach a aufzulösen
a= ±
ra
-
VIRa[wll
-
; a = OP = OP'
(44)
Es handelt sich somit um eine Mittelpunktsfläche; die Parabel gehorcht demnach nicht der Gleichung (37) bzw. (39). Der Ortsvektor x selbst ist nach (41) zufolge a 2 = r~/(w TA w)
x=aw=
ra
VwTAw
·w,
(45)
und damit wird der Bildvektor
y=Ax=
ra VwTAw
·Aw.
(46)
Halten wir nochmals ausdrücklich fest, daß die Länge des Vektors w beliebig wählbar ist; seine Normierung erfolgt automatisch durch den Rayleigh-Quotienten. Der Bildvektor y hat ebenso wie der Ortsvektor x eine einfache geometrische Bedeutung. Schreiben wir nämlich das Differential der Funktion A nach den n Variablen Xj (47)
nach (3) als skalares Produkt
dA
= (8A)T. dx = grad A . dx , 8x
x
so besagt die Forderung dA gradA x
=
2Ax = y
=
(48)
0, daß der Gradient (49)
12 Einige Anwendungen quadratischer Formen
234
senkrecht zum Vektor dx steht und somit in die Normale der Fläche A = r~ fällt, siehe Abb. 11.5.
Abb. 11.5. Ellipse mit konjugierten Durchmessern und Hauptachsen
-
Wir bestimmen nun einen Vektor x = OQ so, daß er parallel zur Tangente und damit orthogonal zum Gradienten bzw. zum Bildvektor y ist:
-
-
(50)
Die beiden Vektoren x = OP und x = OQ (und wohl auch die Durchmesser PP' und QQ') heißen dann zueinander konjugiert. Stehen sie insbesondere aufeinander senkrecht, so fixieren sie die in Abb. 11.5 gestrichelt eingezeichneten Hauptachsen der Fläche zweiten Grades. Wie man deren Richtungen bestimmt, werden wir erst in Abschnitt 15.5 zeigen können.
12 Einige Anwendungen quadratischer Formen 12.1 Anwendung in der Ausgleichsrechnung
Die klassische Verwendung der Matrix A TA geht auf Gauß in der von ihm geschaffenen Ausgleichsrechnung zurück beim sogenannten Ausgleich vermittelnder Beobachtungen 1. Für n gesuchte Größen xk> die einer unmittelbaren Beobachtung nicht zugänglich sind, liegen Beziehungen in Form linearer Gleichungen mit gegebenen Koeffizienten aik vor, deren rechte Seiten ai durch Messung bestimmt werden. Da diese Messungen fehlerbehaftet sind, macht man zum Ausgleich dieser Meßfehler eine größere Anzahl m von Beobachtungen ai' als zur Bestimmung der nUnbekannten xk erforderlich wäre, stellt also m > n lineare Gleichungen mit m Beobachtungen ai als rechten Seiten auf, wobei das System genau n unabhängige Gleichungen enthalten muß. Infolge der Meßfehler sind nun diese m Glei-
1
Näheres findet man z.B. in R. Zurmühl: Praktische Mathematik [151 S.323ff.
235
12.1 Anwendung in der Ausgleichsrechnung
chungen nicht mehr streng miteinander verträglich: Aus verschiedenen Sätzen von je n unabhängigen dieser m Gleichungen würden sich jeweils etwas andere x-Werte ergeben. Um nun die Gleichungen wieder verträglich zu machen, bringt man an jeder von ihnen eine noch zu bestimmende Verbesserung Vi an und stellt an diese Vi die naheliegende Forderung (1)
die dem Verfahren den Namen Methode der kleinsten Quadrate gegeben hat. Anstelle des unverträglichen Gleichungssystems
Ax=a
(2)
operiert man also mit den sogenannten Fehlergleichungen
!Ax-a=v
I,
(3)
ausführlich
al1 x t + ... +atnXn-at
=
Vt }
~~l.~t.~.::: ~.~~n.~n.~.a.2 ..:
.V.2. amtXt + ... +amnxn am - vm
m>n.
(3')
Entsprechend der Forderung n linear unabhängiger Gleichungen ist die m n-Matrix A vom Range r = n, d. h. sie ist spaltenregulär. Einsetzen von Gleichung (3) in die Forderung (1) ergibt
Das führt in bekannter Weise auf die n Bedingungen
Q
8 =2eTA T Ax-2eTA T a=O, 8Xi
was wir zusammenfassen zu
236
12 Einige Anwendungen quadratischer Formen
oder schließlich
(4) mit der n-reihigen symmetrischen nichtsingulären und positiv definiten Koeffizientenmatrix A TA und den rechten Seiten A Ta. Diese sogenannten Normalgleichungen, die ein verträgliches Gleichungssystem für die Unbekannten Xk darstellen, ergeben sich aus den unausgeglichenen und daher unverträglichen Bedingungsgleichungen (2) auch rein formal durch Linksmultiplikation mit der Matrix A T, eine Operation, die man auch Gaußsehe Transformation genannt hat. Die eindeutigen - Lösungen xi der Normalgleichungen (4) sind die gesuchten ausgeglichenen Unbekannten, die sich den Meßwerten ai "möglichst gut" im Sinne kleinster Fehlerquadratsumme Q anpassen. Kürzen wir die Normalgleichungsmatrix A TA ab mit (5)
und lösen Gleichung (4) nach x auf, so ergibt sich ein Zusammenhang zwischen den ausgeglichenen Unbekannten Xi und den fehlerhaften Beobachtungen ak in der Form
(6) ausführlich:
(6')
Hier stellt die Matrix AT die in Abschnitt 8.5 eingeführte Halbinverse der mnMatrix A dar mit der Eigenschaft (7)
Die Matrix AT A aber ist gleich der Kehrmatrix von N: (8) Beispiel. Von einem Dreieck sind die drei Winkel a, ß, y mit gleicher Genauigkeit gemessen. Die Meßwerte seien 01' 02. 03' Da die drei Winkel die Bedingung
a+ß+y= 1800
(a)
237
12.1 Anwendung in der Ausgleichsrechnung
zu erfüllen haben, ist die Messung mit den drei Meßwerten überbestimmt, die Summe der 0i wird ein wenig von 180 0 abweichen: (b)
Unbekannte xi sind nur zwei der Winkel, z. B. a = x" ß = x2' womit y = 180 0 festliegt. Die Fehlergleichungen werden somit
-
x t - x2 nach (a)
(c)
wo die letzte Gleichung aus y - 03 = 180 0
, °=
[
~~
<5-0, -0
-
x, - x2 - 03 = v3 mit (b) hervorgeht. Damit wird
J'
(d)
(e)
Normalgleichungen nebst Lösung:
2X t +X2=20 t +02-<51
21- 1
x, +2x2 = 0, +202-<5 -1
(f)
2
3x, = 30,-<5 3x2=302-<5
(g)
Ergebnis:
}
a=xt=0,-ö/3
ß = x2 = 02 - <5/3 y=
(h)
03 = -<5/3
Der Winkelüberschuß <5 ist somit zu gleichen Teilen ö/3 von den drei Meßwerten Oj abzuziehen, gleiche Genauigkeit der Meßwerte vorausgesetzt. Verbesserungen vi also Vt = v2 = v3 = - ö/3. Sind etwa die beiden Messungen 02' 03 von doppelter Genauigkeit wie 0t' so läßt sich dies dadurch berücksichtigen, daß man die beiden letzten Fehlergleichungen mit 2 multipliziert. Dann wird anstelle von (d)
A=
[-201-20J2
, 0=
[Ot202
2<5-20, -202
J
'
(i)
und die Normalgleichungen sind:
(j)
238
12 Einige Anwendungen quadratischer Formen
Ergebnis:
a=
XI = 0, -
ß=
X2 = °2- 0/ 6
Y=
°3-0/6
40/6 } (k)
Die beiden genaueren Meßwerte erfahren also, wie zu erwarten, eine geringere Korrektur als der weniger genaue 01'
12.2 Vektorielles Produkt und Abstandsquadrat
Das vektorielle Produkt a x b zweier Vektoren a und b, bezogen auf ein kartesisches Koordinatensystem, läßt sich ausdrücken als Matrizenprodukt auf folgende Weise
(9)
oder kurz (10)
mit der schiefsymmetrischen Matrix Sa' welche die drei Koordinaten des Vektors a in der oben angegebenen Anordnung enthält. Das zweifache vektorielle Produkt wird demzufolge (11)
mit der leicht zu berechnenden reellsymmetrischen Matrix
(12)
die durch die Koordinaten ax' ay, az des Vektors a eindeutig festgelegt ist. Wir bemerken noch, daß Ha den Rang 2 hat, siehe dazu Abschnitt 11.2. Das Produkt Hab verschwindet für alle Vektoren b, die parallel zu a sind, somit die Form b = aa haben. In der Tat ist Haaa = ax(axaa) = 0 wie bekannt. Es sei nun nach Abb. 12.1 ein Punkt P mit dem Ortsvektor r und ein in der Achse xx gelegener Einheitsvektor x gegeben
(13)
239
12.3 Massen- und Flächenmoment zweiten Grades I
I
Pi
I
I
Abb. 12.1. Zum Abstandsquadrat
Abb. 12.2. Zum Massenmoment zweiten Grades
und gesucht ist das Abstandsquadrat A p 2 , wo A der Fußpunkt des von P auf die Achse xx gefällten Lotes ist. Nun gilt bekanntlich (14) oder in der Schreibweise (10) und nach der Transpositionsregel 2 T AP =(S,x) T (S,x)=x T S,S,x=x T S,x=x H,x.
-2
(15)
Das Abstandsquadrat in Abhängigkeit von der Achse xx wird damit die quadratische Form
A p 2 (x) = X T H,x mit x T x = 1 .
(16)
Will man sich von der Nebenbedingung x T x = 1 befreien, so rechnet man zweckmäßiger mit T
Ap2(x) = x :,x , x x
(17)
wo nun offenbar die Länge (der Betrag) von x beliebig sein darf, denn wird x ersetzt durch ax, so kürzt sich der Faktor a in (17) heraus. Quotienten der Art (17) heißen Formenquotienten oder auch Rayleigh-Quotienten und spielen in Theorie und Anwendungen eine bedeutende Rolle; wir werden in (13.29) noch ausführlich darauf zu sprechen kommen. 12.3 Massen- und Flächenmoment zweiten Grades Nun befinde sich im Punkte Pi der Abb. 12.2 eine Masse mi' dann heißt T
F
F -2 X Hix Bi = miAPi = mi--Tx x
(18)
240
12 Einige Anwendungen quadratischer Formen
das Massenmoment zweiten Grades der Masse mi bezüglich der durch den Punkt F gehenden Geraden xx. Handelt es sich um einen Massenpunkthaufen und/oder
einen mit Masse belegten starren Körper, so ist über alle Massenmomente zu summieren bzw. zu integrieren, das ergibt (19)
mit der sog. Trägheitsmatrix oder Massenmomentenmatrix zweiten Grades
(20)
mit den nichtnegativen Drehmassen (Trägheitsmomenten)
als Diagonalelementen und den Kippmassen (Deviationsmomenten) (22)
die auch negativ oder Null sein können. Die Abhängigkeit zweier Trägheitsmatrizen e Fund eS, wo S der Massenmittelpunkt ist, regelt der bekannte Steinersche Satz (23)
Das Trägheitsmoment bezüglich einer Achse xx wird damit (24)
wo der zweite Summand nichts anders ist als das Produkt mSF2, wie ein Vergleich mit (14) zeigt. Analog zu den Massenmomenten sind definiert die aus der Geometrie der Profilflächen bekannten Flächenmomente zweiten Grades, die entstehen, wenn in allen abgeleiteten Formeln mi durch Fi bzw. unter den Integralen dm durch dF ersetzt wird. Dazu ein einfaches Beispiel. Gegeben sei ein homogener Quader mit den Seitenlängen a = 3/, b = c = / und der Dichte {J. Gesucht ist das Trägheitsmoment (die Drehmasse) bezüglich der durch
die Punkte Fund G gehenden Achse xx, siehe Abb. 12.3.
241
12.3 Massen- und Flächenmoment zweiten Grades
Abb. 12.3. Homogener Quader
Einer Formelsammlung entnimmt man die Trägheitsmatrix bezüglich der durch Massenmittelpunktes (Schwerpunkt) S verlaufenden Koordinatenachsen als
(a)
Sodann wird der Vektor f = SF und mit diesem die Matrix Hf nach (12) berechnet
f
=
Si =
bl2 = -I [-3J 1 [-aI2J cl2
2
1
1 2
- Hf = S} = - [23 103 - 3J 1 , 4 3 -1 10
(b)
das gibt nach dem Steinerschen Satz (23) die Trägheitsmatrix bezüglich der Koordinatenachsen durch F
9 9J
40 -3 -3 40
.
(c)
Den Vektor von F nach G, der die Drehachse xx festlegt, lesen wir aus Abb. 12.3 ab
(d)
und da es auf einen Faktor bei x nicht ankommt, wählen wir x wie angegeben (auch jedes anderes Vielfache wäre erlaubt) und berechnen damit die Drehmasse (e)
oder mit m =
e V = eabc = e·3/·/·1 = e·3/ 3 in Zahlen
/5 146 73 gF(X) = e - · - = el 5 - = 0,9605e1 5
4 38
76
(I)
Sehr viel schneller kommt man zum gleichen Ergebnis mit Hilfe des Vektors g = SG; die Matrix e G wird dann diagonal, was die nachfolgende Rechnung beträchtlich verkürzt.
242
12 Einige Anwendungen quadratischer Formen
12.4 Die kinetische Energie eines starren Körpers
Die kinetische Energie eines Massenpunktes P nach Abb. 12.4 ist E = m v 212 oder in einer dem Matrizenkalkül (wenn auch hier nicht notwendigen) angepaßten Schreibweise
E=-}vmv,
s,
mit v =
(25)
wo s die Bogenlänge auf der Bahn von P ist.
F
,
1s~
2i
Zr
Abb. 12.4. Bewegung eines Massenpunktes
m
S
0
Abb. 12.5. Bewegung eines starren Körpers
Nun bewege sich nach Abb. 12.5 der beliebig wählbare, als Translationspunkt bezeichnete Punkt F eines starren Körpers auf seiner Bahn, während sich gleichzeitig der Körper dreht, dann ist die kinetische Energie die quadratische Form 1 (26) mit der aus dem Geschwindigkeitsvektor Drehvektor w bestehenden Kinemate kF =
VF
des Translationspunktes F und dem
[:J
(27)
und der symmetrischen Massenmatrix
_[mI mSj mSl e
MF -
F
•
(28)
Dabei ist m die Gesamtmass~es starren Körpers, I die dreireihige Einheitsmatrix, Sjdie durch den Vektor f = SF festgelegte schiefsymmetrische Matrix (9) und F die Trägheitsmatrix (20). Vollführt der starre Körper insbesondere eine reine Translation, so wird w = 0, und es verbleibt von (26) lediglich
e
1
Siehe etwa S. Falk: Technische Mechanik, Zweiter Band, S. 246.
12.5 Die potentielle Energie einer elastischen Feder
243
(29)
in Übereinstimmung mit (25). 12.5 Die potentielle Energie einer elastischen Feder Die potentielle Energie einer Feder (bzw. eines elastischen Stabes oder Seiles) ist bei Gültigkeit des Hookeschen Gesetzes
+
cw
2
(30)
,
wo c die Federzahl und w die Längenänderung bedeutet. Wird nun der Federendpunkt B der entspannten Feder um den Vektor x nach P verschoben, so ist w = BP = BD nach Abb. 12.6 oder näherungsweise gleich der Projektion (dem Skalarprodukt) von x auf a? TOT /,r-r-w"",BC=x ai =X ai vajai ,
(31)
-
wo ai ein Vektor beliebiger Länge in Richtung von Ai nach B sein darf, am einfachsten AiB selbst. Die potentielle Energie ist damit eine Funktion des Verschiebungsvektors x geworden 1 T 1 (x Tai)(aTx) 1 Ci T T
und dies ist eine quadratische Form, gebildet mit der Dyade aia dafür kürzer
1 T 2
mit
aa T
C=C·_ _I 1 1 'T ai ai
(32)
r. Wir schreiben (33)
B
;;v:~
A.
Ai
I
k
x
Abb. 12.6. Elastisches n-Bein
Die Gesamtenergie eines sogenannten elastischen n-Beines, das sich nach Abb. 12.6 aus n Federn bzw. Stäben zusammensetzt, ist dann
244
12 Einige Anwendungen quadratischer Formen n
C=
L Ci
(34)
i= 1
Mit Hilfe dieser Federdyaden lassen sich nun ebene und räumliche Fachwerke (Netzwerke) berechnen, und zwar mit um so geringerem Aufwand, je höher die statische Unbestimmtheit ist. 1
1
Siehe dazu S. Falk: Technische Mechanik, Band 3, S. 417ff.
IV. Kapitel
Die Eigenwertaufgabe
Kehren wir zurück zur Matrizenhauptaujgabe, dem linearen Gleichungssystem F(A)X = r
(A)
mit einem skalaren Parameter A. Gibt man diesen zahlenmäßig vor, z. B. A = 5,8 und bezeichnet die Matrix F(5,8) mit A, so geht (A) über in Ax = r, und diese Aufgabe haben wir im Abschnitt 7 in voller Allgemeinheit gelöst. Es sei nun r = 0, dann entsteht das homogene Gleichungssystem F(A)X =
0,
x*-o,
(B)
und damit kann es nichttriviale Lösungen nur geben für solche Parameterwerte Aj' welche die Matrix F(Aj) singulär machen, für die also die sogenannte charakteristische Determinante verschwindet: (C)
Jeder Wert, der dies leistet, d.h. jede Nullstelle der skalaren Funktionj(A) heißt ein Eigenwert zur Matrix F(A). Die dazugehörigen Eigenspalten heißen jetzt Eigen vektoren, genauer Rechtseigenvektoren und die Eigenzeilen Linkseigen-
vektoren. Die Hereinnahme eines Parameters A in das homogene Gleichungssystem (B) wirft zwei vorher nicht gekannte Fragen auf, nämlich die nach der Anzahl f1 der Eigenwerte und ihrer Lage innerhalb der komplexen Zahlenebene bzw. auf der reellen Achse und zweitens nach der Gesamtheit der linear unabhängigen Linksund Rechtseigenvektoren, die zu den f1 Eigenwerten gehören. Beide Fragen lassen sich vollständig allein beantworten für den Sonderfall des
linearen Eigenwertproblems F(A) = A -AB
(D)
mit einem Matrizenpaar A; B der Ordnung n. Hier und nur hier gelingt dann auch mittels der in den Matrizen Yand X zusammengefaßten Eigenvektoren die Äquivalenztransformation YF(A)X = Y(A - AB)X = N(A)
(E)
auf eine Normalform N(A), die im allgemeinen, wenn auch durchaus nicht immer, von Diagonalgestalt ist. R. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5_4, © Springer-Verlag Berlin Heidelberg 2011
246
13 Eigenwerte und Eigenvektoren
Während der Abschnitt 13 einige grundlegende Definitionen und Sätze über den Spezialfall (D) hinaus zum Inhalt hat, sind die Abschnitte 14 -16 im wesentlichen der bereits im Abschnitt 10 vorbereiteten gebundenen (das heißt simultanen) Transformation (E) gewidmet. Der Abschnitt 17 offeriert einige spezielle Matrizen, deren Eigenwerte und -vektoren sich explizit angeben lassen (wichtig für Testzwecke!) und ist daher getrennt von den übrigen Partien des IV. Kapitels zu lesen. Der Abschnitt 18 schließlich bringt einen Exkurs über Parametermatrizen. Hier wird das Eigenwertproblem vom Matrizenpaar A; B verallgemeinert auf Matrizentupel und der Übergang geschaffen zum mehrparametrigen Eigenwertproblem der Art (F)
F(A,a, ... )x=o,
wie es uns in der Mechanik zum Beispiel beim schwingenden Balken unter Druck begegnet. Für den Physiker und Ingenieur ist wohl das wichtigste Ergebnis dieses Kapitels die Lösung der Differentialgleichung von linearen ungedämpften Schwingungssystemen mit endlich vielen Freiheitsgraden, die im Abschnitt 15.5 in einer computergerechten Form dargeboten wird. Mehrere Beispiele vermitteln in Zahlen und Bildern einen Eindruck von der Kraft und der Ökonomie des Matrizenkalküls besonders jenem Leser, der schon einmal ein System von nur drei oder vier Freiheitsgraden auf "gewöhnlichem Wege" zu berechnen versucht hat.
13 Eigenwerte und Eigenvektoren • 13.1 Das allgemeine einparametrige Eigenwertproblem
Ist A eine n-reihige quadratische Matrix vom Range r< n, so besitzen die beiden homogenen Gleichungssysteme (1)
genau d = n - r linear unabhängige Eigenzeilen und d linear unabhängige Eigenspalten
-n-
-d-
(2)
wie wir in den Abschnitten 6.18 und 7.8 gezeigt haben. Notwendige Bedingung für die Existenz nichttrivialer Lösungen (3)
13.1 Das allgemeine einparametrige Eigenwertproblem
247
ist also die Singularität der Matrix A und damit das Verschwinden ihrer Determinante:
detA
=
°
(4)
Wir erweitern jetzt den Problemkreis, indem wir A durch eine Matrix F()") ersetzen, die einen skalaren (reellen oder komplexen) Parameter).. enthält; es gilt dann anstelle von (1) (5)
und die notwendige Bedingung (4) lautet nunmehr
Idet F()")
= j()..)
l °I·
(6)
Während in (1) die Entscheidung nur ja oder nein lauten konnte - die Matrix A ist singulär oder nicht - kann nun der Parameter).. - wenn auch keineswegs immer - so gewählt werden, daß die Matrix F()") singulär wird. Dabei sind drei Fälle zu unterscheiden. Fall a)
det F()")
=
const.
*°
(7)
Dann gibt es keine nichttriviale Lösungen der Aufgabe (5). Beispiele sind
F()") =
1-).. -4-HJ [ 4-2).. -2-6)"
,
detF()")=14*0
(7')
oder F()") =
Fall b)
[c~s A- sin AJ ' sm A
detF(A)
cos A
detF(A)=j(A)=O
--+
=
1 *0 .
Al,AZ, ... AIJ .
(7")
(8)
Diese f1. Nullstellen der charakteristischen Gleichung (oder auch charakteristisch(;m Determinante) (8) heißen die Eigenwerte der Matrix F(A). (Im Englischen latent roots oder eigenvalues, im Französischen valeurs propres.) Die EigenzeBen heißen jetzt Linkseigenvektoren und die Eigenspalten Rechtseigenvektoren, wobei diese neue Bezeichnung nur darauf hinweisen soll, daß es sich eben nicht wie im Abschnitt 7.8 um eine fest vorgegebene Matrix A handelt, sondern um die Parametermatrix F(A); inhaltlich sind beide Begriffe identisch. Befinden sich unter den insgesamt f1. Eigenwerten s verschiedene, d. h. von den übrigen getrennt (oder disjunkt) liegende, so besteht die Eingrenzung
248
13 Eigenwerte und Eigenvektoren
11
~S~f.J.~
00
I·
(9)
Ein Beispiel ist F(A}
=
[
1 + cos A sin AJ 1 ' COsA
und diese Gleichung hat
Fall c}
det F(A}
= f(A} = 1 + cos2 A-
.
sm A = 0 ,
(9')
f.J. = 00
viele Nullstellen als Eigenwerte der Matrix F(A}.
detF(A} =f(A}=O .
(10)
Hier ist jeder Punkt der komplexen Zahlenebene ein Eigenwert, was nicht ausschließt, daß unter diesen noch gewisse "Sonderwerte" Aj ausgezeichnet sind, für welche der Rang der Matrix F(A) kleiner ist als der von F(A}. Ein Beispiel ist F(A} =
fll~A} ~J
'
detF(A} =f(A}=O .
(10')
Der Rang der Matrix F(A} ist gleich 1 für jeden Wert von A. Sonderwerte sind jene, welche die Gleichungfll (Aj) = 0 erfüllen, denn für diese ist der Rang F(Aj} gleich Null. Eigentlich interessant für Theorie und Praxis ist allein der Fall b}. Für jeden der s verschiedenen Eigenwerte sind die beiden homogenen Gleichungssysteme (5) nach den Methoden des Abschnittes 7.8 zu lösen; es wird somit s mal die Äquivalenztransformation (11)
auf die Pivotmatrix n j durchgeführt. Sind dj Pivots gleich Null, so hat die Matrix F(Aj} den jetzt auch als Rangabfall bezeichneten Defekt dj , und in L j bzw. Rj stehen die dj linear unabhängigen Links- bzw. Rechtseigenvektoren. Bezeichnen wir die Vielfachheit des Eigenwertes Aj mit (Jj' so gilt, wie wir später noch zeigen werden, die Eingrenzung
11 ~dj~(Jj I.
(12)
Damit ist im Prinzip alles gesagt, aber auch nur im Prinzip; denn schon bei Matrizen mittlerer Ordnung, etwan = 10, wird der hier beschriebene "Dienstweg" so gar nicht durchführbar. Der Schwachpunkt dieser Vorgehensweise ist nämlich das Aufstellen und Lösen der charakteristischen Gleichung (6), weshalb in praxi nur solche Methoden zur Diskussion stehen, welche gerade diesen Teil der Problemlösung umgehen. Wir werden im Teil 2 des Buches noch ausführlich darauf zu sprechen kommen.
13.2 Reguläre Äquivalenztransformation. Invarianten
249
• 13.2 Reguläre Äquivalenztransformation. Invarianten In die Eigenwertgleichungen (5) führen wir mittels zweier regulärer Matrizen L und R
(13)
L= [
neue Zeilen und Spalten als Linearkombinationen der alten ein (14)
und multiplizieren die erste Gleichung (5) von rechts mit R und die zweite von links mit L, dann wird (15)
wo die transformierte Matrix
IFp.) = LF()")R I
(16)
als Elemente die Bilinearformen (17)
enthält. Gehen wir nun zu den Determinanten der Gleichung (16) über, so wird detF()..)
=
detF·detL()..)·detR ,
(18)
und damit unterscheidet sich die transformierte charakteristische Gleichung von der Originalgleichung nur um den konstanten Faktor c = det L· det R: J()..) =j()..)c .
°
Das Bestehen der Gleichung J()..) = nach sich. Es gilt somit der
j()..) =
°
zieht daher wegen c:j::O die Gleichung
Satz 1: Die Eigenwerte )..j einer Matrix F()") sind invariant gegenüber einer regulären Äquivalenztransjormation. Es sei ausdrücklich darauf hingewiesen, daß die Transformationsmatrizen (13) durchaus den Parameter).. enthalten dürfen, sofern nur ihre Determinanten von Null verschiedene Konstante sind,
250
13 Eigenwerte und Eigenvektoren
detL(A)
= const.
* 0;
detR(A)
= const.
*0 ,
(20)
siehe zu diesem Fragenkreis die Arbeiten [116] und (117].
• 13.3 Polynommatrizen Eine geschlossene Theorie existiert zur Zeit nur für die Polynommatrix (21) Hier und nur hier ist nämlich die charakteristische Determinante ihrerseits ein Polynom, was die mathematische Durchdringung gegenüber dem allgemeinen Fall außerordentlich erleichtert. Schreibt man die Matrix (21) in der homogenen Form (22) so wird die Determinante
und nun zeigt ein Vergleich (24)
(25) Wir unterscheiden zwei Fälle. t. Die Leitmatrix A e ist regulär. Dann folgt aus (25) f.J. = n'{J und alJ = detA e . Das Polynom det F(1, A) = det F(A) = p(A) ist somit vom Grad f.J. = {J' n und besitzt {J' n Nullstellen. Die Eingrenzung (9) lautet damit (26)
2. Die Leitmatrix A e ist singulär. Dann verschwindet zufolge detA e = 0 der Koeffizient aen , und es gilt
I0-5s-5f.J.<{J'n I·
(27)
Aus (23) folgt noch in jedem Fall ao = det A o. Ist A o singulär, so wird demnach mindestens ein Eigenwert gleich Null. Die Eigenwertaufgabe mit der Polynommatrix (21) wird in der Literatur zumeist über die im Abschnitt 23 besprochene Expansion angegangen, so etwa in [20], [21] und [22]. Direkte, an der Originalgleichung (5) orientierte Methoden gewinnen erst in jüngster Zeit an Boden, siehe dazu [116], [117].
13.4 Das lineare Eigenwertproblem (Matrizenpaare)
251
• 13.4 Das lineare Eigenwertproblem (Matrizenpaare) Im Sonderfall des linearen Polynoms (28) erschließen wir aus (26) und (27) mit () = 1 die Fallunterscheidungen:
1. Die Lei/matrix AI ist regulär.
11 s,ss,/1 = n
I.
(29)
Hier gibt es somit genau /1 = nEigenwerte. 2. Die Lei/matrix AI ist singulär.
1
Os,ss,/1
I·
(30)
Es gibt weniger als n Eigenwerte, unter Umständen auch gar keinen, siehe dazu das Beispiel (7'), wo AI singulär ist. Ein Sonderfall von (28) ist das sogenannte Ska/arpaar (31)
mit s = 1, denn a ist Eigenwert von der Vielfachheit a = n. Für (28) schreibt man zweckmäßiger mit den beiden neuen Bezeichnungen A o = A und AI = - B
F(A) = A - AB
(32)
und spricht dann von den Eigenwerten des Matrizenpaares A;B statt, was korrekter wäre, von den Eigenwerten der Matrix F(A). Mit der Notation (32) anstelle von (28) lassen sich die beiden Eigenwertgleichungen (33)
auch so schreiben (34)
Die beiden Bildvektoren yi A und y} B bzw. A x} und Bx} sind dann wie man sagt
kollinear (in eine gemeinsame Richtung fallend), siehe Abb. 13.1.
13 Eigenwerte und Eigenvektoren
252
Abb.13.1. Links- und Rechtseigenvektor und ihre Bilder für n = 2 im Reellen für den Eigenwert A = - 1,5
BI
Oft ist es zweckmäßig, mehrere Eigenwertgleichungen zu einer einzigen zusammenzufassen. Es seien m::5 n Eigenwerte zur Diagonalmatrix (35)
und die dazu gehörenden Links- und Rechtseigenvektoren y I bis ym und xl bis x m zur Blockzeile ym bzw. Blockspalte X m
_n_lf _n_
(36)
vereinigt, dann schreiben sich irgend m Gleichungen (34) kompakter als (37)
J
In der Tat: multipliziert man dies von links mit e bzw. von rechts mit ej, so ergibt sich gerade die Eigenwertgleichung (34). Ist B regulär, so faßt man alle n Eigenwerte zur Spektralmatrix Uetzt ohne den Index n) zusammen (38)
und für den Fall, daß dazu n linear unabhängige Links- und Rechtseigenvektoren existieren (was durchaus nicht immer zutrifft), werden diese analog zu (36) zu Links- bzw. Rechtsmodalmatrix Y bzw. X zusammengestellt
y= [
253
13.5 Orthogonalität der Links- und Rechtseigenvektoren
• 13.5 Orthogonalität der Links- und Rechtseigenvektoren Aus den Eigenwertgleichungen (34) folgen für zwei verschiedene Eigenwerte le1."* Ak die Gleichungen (40) und (41). Wir multiplizieren die erste von links mit yI und die zweite von rechts mit xk' (40) (41) und dies schreiben wir mit den Bilinearformen ajk = yi AXk und ßjk = yj BXk als zwei homogene Gleichungen
(42)
Da die Determinante LI nach Voraussetzung nicht verschwindet, existiert allein die Triviallösung (43) und damit auch (44) für jeden Parameterwert A. Beispiel. n
= 3, S = 2; f.I. = n = 3.
A = [-
i i =~J 2 4 -15
;
B
=
LIr~ ~2 -°olJ
*
' det B = 2 0 .
(a)
Die charakteristische Gleichung det (A - AB) = p(A) = 90+42). - 2).2 - 2A 3 = 0
(b)
hat als Nullstellen die Eigenwerte (Reihenfolge beliebig) (c)
Erster Eigenwert. Al = - 3.
F(Al)=A-(-3)B=A+3B=
[~5 10~ -15 =~J
.
(d)
254
13 Eigenwerte und Eigenvektoren
Es folgt der Gaußsche Algorithmus. Pivot 11 und Schluß.
1 0 0
tili -5 0 1
1
0
0
0
0
0
+-
0
0
0
+-
1 0 0
RI
(e)
rn rn
Die Links- und Rechtseigenvektoren sind durch Einrahmung hervorgehoben. Proben: yl A = - 3y l B; AXI = -3Bx, und y2 A = -3y 2B; AX2 = - 3Bx3' Natürlich sind auch die Linearkombinationen (f)
mit beliebig wählbaren Konstanten c', c 2; Cl' c2 wiederum Eigenvektoren, wovon man sich überzeugen möge. Dritter Eigenwert. .1. 3 = 5.
2-3J
-7 F(A3)=F(5)=A-5B=
3 -2
-1
.
[ -3 -6 -15
(g)
Reihenfolge der Pivots 23, 12.
1 -3 0
0
0
0
8 0 0 -1
0
0
1 0
I -3 -6
1
R3
I
[]
0 (h)
0 1
-2
0 0 1
Die Eigenvektoren sind eingerahmt. Zusammenstellung der Ergebnisse: Linksmodalmatrix Y, Spektralmatrix A und Rechtsmodalmatrix X.
, A=
[-~ _~ ~l o
0
;J
(i)
255
13.6 Das spezielle Eigenwertproblem
Wir überprüfen die für jeden Wert von Agültige Orthogonalitätsbedingung (44). Für A = 10 zum Beispiel wird F(10)=A-l0B=
-12 2 -3J [ -8 -16 -15
In der Tat ist y t F(1 0)x3
3
-7
4
.
= 0, y2 F(1 0)x3 = 0, y3 F(10)x 1 = 0,
y3 F(1O)x2
= O.
• 13.6 Das spezielle Eigenwertproblem
Ist insonderheit B = In (in der Literatur schreibt man zumeist B dem wir aber nicht folgen wollen), F()') =A-Hn ,
= I, ein Brauch, (45)
so spricht man vom speziellen Eigenwertproblem. Statt vom Matrizenpaar A;In spricht man dann auch wohl von der Matrix A schlechthin und demnach von den Eigenwerten der Matrix A, womit natürlich die Eigenwerte des Paares A; In oder noch korrekter der Parametermatrix (45) gemeint sind. Die Eigenwertaufgabe (34) lautet jetzt (46)
oder einfach (47) und die Orthogonalitätsbedingungen (43) gehen über in (48) Beispiel. n = 3,
A =
[-~ -3
S
;
8
= 2; p = n = 3. -
~J
(a)
1
Die charakteristische Gleichung (b)
hat als Nullstellen die Eigenwerte (die Numerierung ist willkürlich) (c)
13 Eigenwerte und Eigenvektoren
256
Erster Eigenwert. Al = O. Pivots auf den Plätzen 11 und 23.
1
0 0
1 0
0
2
1 0
0 0
-1
0 0
0
1-1 -2
1
RI
I
Im
o o
1 7
(d)
1 0 1
Der Rangabfall (Defekt) ist 1, es gibt zum zweifachen Eigenwert 0 somit nur ein Eigenvektorpaar, in (d) durch Einrahmung hervorgehoben. ProbeyIA=O·yl=oT,
Ax=O·xt=o.
Dritter Eigenwert. A3 = 5. Pivotfolge 23, 11.
I
1 1 0 1 0 0 -11/6 13/6 1
R3
I
-6 0 0 0 0 1 0 0 0
n
Im'
(e)
o
1 0 2 2 1
Den Linkseigenvektor multiplizieren wir mit 6 und bekommen y3 = ( - 11
13 6), x 3 =
[!J .
(f)
Probe: y3 A = 5y 3, AX3 = 5x3' Außerdem muß nach (48) gelten y3 xl = 0 und yl x3 = O.
Kommen wir zurück zum allgemeinen Eigenwertproblem, wie die Aufgabe (34) im Gegensatz zur speziellen (47) wohl auch bezeichnet wird. Ist B regulär, so läßt sich mittels der speziellen Äquivalenztransformation (13) mit L = B -I und R = In die Eigenwertaufgabe (34) auf folgende Weise transformieren: (14)-+yT=yT B -I;
x=Inx=x,
(49) (50)
mit den neuen Linkseigenvektoren vorgehen:
y T = Y TB.
Wir können aber auch umgekehrt (51) (52)
257
13.7 Die charakteristische Gleichung
mit den neuen Rechtseigenvektoren i = Bx. Wir fassen das Ergebnis zusammen zum Satz 2: Die drei Matrizenpaare (53) haben die gleichen Eigenwerte zu den verschiedenen Eigenvektoren (54). AB-I., I n
Matrizenpaar
A;B
Eigenvektoren
(53) (54)
• 13.7 Die charakteristische Gleichung Es sei zunächst B = Im dann lautet die charakteristische Gleichung (55)
oder faktorisiert (56)
Vergleicht man dies miteinander, so ergeben sich die bekannten Vietaschen Wurzelsätze
(57)
Andererseits hängen die Koeffizienten sammen, und zwar ist ao
= detA,
an-I
= -spA
av
mit den Elementen ajk der Matrix A zu-
(58)
Die erste Gleichung folgt aus det (A - O' In) = p(O), die zweite weniger einfach durch Entwicklung von det (A - AIn ) nach der ersten Spalte, wobei nur das Spitzenelement al1 - A zur Potenz An- I beiträgt. Fortgesetzte Entwicklung der Unterdeterminanten führt dann auf die zweite Beziehung (58). (57) und (59) zusammengenommen aber besagen nun (59) und
258
13 Eigenwerte und Eigenvektoren
(60)
Ist nun B regulär, so gehen wir nach (53) auf das Paar B -1 A; In über; dann wird zufolge det(B-IA) = detA/detB und nach (2.11) (61) und (62) Ein Beispiel.
A
= [- 223
'
i =~J 4 -15
= 90;
det A
B
=
[~ ~ - ~l , det B = 2 . I 2 oJ
(a)
Die Eigenwerte sind
Al
=-
3,
A2
= - 3,
AJ
=5
.
(b)
Wir überprüfen zunächst die Beziehung (62):
detA
90
detB
2
_ . =- = (- 3)( -
3)' 5 = 45 .
Sodann berechnen wir die Inverse B 1 B- =
[-~'5 ~ ~'5J - 0,5 - I 0,5
AB - 1 = [ -
'
(c)
-1
und daraus die Produkte B - 1A und AB -
B-1A = [ - ;
7 =~J 0
- I - 2
~:; ~ =~';J 7,5 15 -S:5
I:
' (d)
In der Tat ist sp B -
IA
= sp A B - I = - 1 = - 3 - 3 + 5
,
(e)
wie es nach (61) sein muß.
Sind A und/oder B komplex, so sind im allgemeinen (eine Ausnahme bilden die hermiteschen Paare) auch die Koeffizienten der charakteristischen Gleichung komplex, so daß über die Lage der Eigenwerte innerhalb der komplexen Ebene nichts ausgesagt werden kann. Sind aber A und B beide reell, so sind es auch die Koeffizienten 01 bis On; somit können komplexe Eigenwerte nur paarweise auftreten (63)
259
13.7 Die charakteristische Gleichung
iu
iu
u a
iu
i.u
u c
Abb. 13.2a - d. Zur Lage der Eigenwerte in einigen typischen Fällen
d
siehe Abb. 1302a. Dessenungeachtet läßt sich die ganze Rechnung im Reellen durchführen, wie wir im Abschnitt 13.10 noch zeigen werden. Zur numerischen Lösung algebraischer Gleichungen sei der Leser auf [15, S. 43 ff.] verwiesen. Zwei besondere Typen von algebraischen Gleichungen verdienen unsere Aufmerksamkeit. 1. Typ. Mit Aj ist auch - Aj eine Nullstelle (ein Eigenwert), Fall b) der Abbo 13.2. Die Gleichung besitzt dann die Form n n 2 0nll1 +On-21l1 - +
.. 0+021l12 +00
= 0
f ür gera des n ,
(64) (65)
Man setzt A2 = '7 und bekommt für die neue Unbekannte 1'/ aus (64) eine Gleichung vom Grad nl2 und ähnlich für (65), nachdem die Nullstelle A = 0 abgespalten wurde. 2. Typ. Mit Aj ist auch 1/ Aj eine Nullstelle (ein Eigenwert). Dazu gehört eine sogenannte reziproke Gleichung, bei welcher die Koeffizienten spiegelbildlich zur Mitte angeordnet sind 1n 1n - 1 00ll + 011l + 021l1 n - 2 +
.
0
0
+ 021l12 + 011l1 + 00 = 0
,
(66)
0
,
(67)
1n 1n - 1 1 n -2 1 00ll -011l +021l -.00 -021l12 +011l-00=
wobei die zweite Form höchstens für ungerades n in Betracht kommt. Ist n gerade, so dividiert man die Gleichung (66) durch An12 und führt die neue Unbekannte 1
(=A+-
A
(68)
260
13 Eigenwerte und Eigenvektoren
ein. Ordnet man anschließend nach Potenzen, so entsteht die Gleichung
deren m Nullstellen zu bestimmen sind. Ist aber n ungerade, so ist Aj = 1 eine Lösung. Spaltet man diese mittels des Horner-Schemas ab, so verbleibt eine Gleichung vom Grade n - 1, und nun verfährt man wie oben. Mit den Nullstellen (j folgt dann aus (68) 1 1 r;r--; k=-«(-+V(j-4) , J J J
2
1 1 r;r--; 1 A'=-«(--V(j-4)=-, J J J k
2
(70)
J
siehe Fall c) der Abb. 13.2. Solche reziproken Gleichungen treten beispielsweise auf bei der Matrix von Boothroyd/Dekker (17.63) oder bei der reellen orthonormierten Matrix A mit A TA = AA T = In' Da hier der Fall a) und der Fall c) gleichzeitig eintritt, resultiert der Fall d): das Wurzelpaar A, X liegt auf dem Einheitskreis der komplexen Zahlenebene. • 13.8 Kondensation. Der Formenquotient
Eine für Theorie und Praxis gleichermaßen bedeutsame Methode ist die Kondensation, worunter wir folgendes vestehen. Die für einen Eigenwert Aj erfüllten Gleichungen sind (71) Multipliziert man die erste von rechts mit entsteht das Kondensat
Xj
und die zweite von links mit
y< so (72)
eine skalare Gleichung, die von Aj ebenso erfüllt wird wie das Gleichungspaar (71). Ist beispielsweise F(A) die Polynommatrix (13.21), so wird (73) mit den Bilinearformen
a v = ~ AXj; v = 0,1, ... , {} als Koeffizienten. F(A) =A-AB
Speziell
beim
(74)
linearen
Eigenwertproblem
wird
mit (75)
261
13.9 Die Eigenwerte eines Matrizenproduktes
und unter der Voraussetzung, daß (76)
ist, folgt aus (75) durch Division der sogenannte Formenquotient (77) Ist aber ~ BXj = 0, so gilt auch ~ A Xj = 0; das Kondensat ist dann leer und liefert die nichtssagende Gleichung (78)
Der Formenquotient macht unter anderem besonders deutlich, daß es auf die Länge (den Betrag) der Eigenvektoren nicht ankommt; denn ersetzt man ~ durch e~ und Xj durch ßXj mit beliebigen von Null verschiedenen (auch komplexen) Skalaren e und ß, so kürzen sich diese in (77) heraus, und es bleibt nach wie vor qj = Aj.
Dennoch erscheint es bisweilen geboten, die Eigenvektoren auf eine geeignete Weise zu normieren, das heißt ihre Beträge festzulegen, siehe dazu Abschnitt 15.8. Weitere Ausführungen zur Kondensation als numerischer Methode folgen im Abschnitt 21. 13.9 Die Eigenwerte eines Matrizenproduktes Es sei B regulär, dann setzen wir in (53), (54) B -I = C und bekommen damit den Satz 3: Die drei Matrizenpaare (79) haben die gleichen Eigenwerte zu den Eigen-
vektoren (80). A; C- 1
Matrizenpaar Eigenvektoren
(79) (80)
Um diesen Satz auch auf nichtquadratische Matrizen zu erweitern, gehen wir aus von den Matrizen
n
(81)
262
13 Eigenwerte und Eigenvektoren
P sei spaltenregulär und Q zeilenregulär, dann gibt es, wie wir wissen, zu P genau d = n - r linear unabhängige Eigenzeilen und zu Q ebenfalls d linear unabhängige Eigenspalten, die wir uns normiert denken können, so daß also gilt
.=
PY
.
X Q = 0;
0;
YX
= Id
(82)
.
Wir bilden jetzt das Produkt PQ der Ordnung n und vollführen eine Äquivalenztransformation mit den Matrizen (83) wo Y, und X, zwei reguläre, aber sonst beliebige Normierungsmatrizen der Ordnung r sind, und bekommen nach leichter Rechnung zufolge (82) das transformierte Paar (84)
Mit den neuen Bezeichnungen
PQ=A n
,
QP=A,
(85)
schreibt sich dies übersichtlicher als (86)
Die noch frei wählbaren Normierungsmatrizen Y, und X, benutzen wir nun zu der strikten Ähnlichkeitstransformation
Y,A ,X, = 'I,;
Y,I,X,
=
I,
(87)
des Paares A,;I, auf die obere Dreiecksmatrix
'1,=
bzw.
A,=
[r?J . J] .
(88)
o
0
0 .. ,
}C,
Daß dies immer möglich ist, werden wir im Abschnitt 16 noch zeigen; im Normalfall ist sogar'!, gleich der Spektralmatrix A" wie in (88) angegeben. Zufolge
Y,A 2,X, = Y,A,X, Y,A,X, ='1,'1, ='I,2
(89)
263
13.9 Die Eigenwerte eines Matrizenproduktes
geht dann (86) über in YIx=["'lr n
Es seien nun die rEigenwerte Xj
* 0;
Xj
0
01. oj
(90)
des Paares Ar; Ir von Null verschieden
j = 1,2, ... ,r ,
(91)
dann ist die Matrix"'l r regulär, und wir können ihre Inverse zur Normierung der ersten Blockzeile Laus (83) heranziehen, während wir R unverändert übernehmen
yQ L N = "'l-l r yr ] ; R= [ PXr [
(92)
und damit wird endgültig (93)
womit nachträglich bewiesen ist, daß L und R regulär sind, man vergleiche dazu den Satz 1 aus Abschnitt 8.3. Auf der Hauptdiagonale der transformierten Matrix Ä n stehen nun die n Eigenwerte Aj der Produktmatrix An = PQ. Es sind dies die rEigenwerte Xj der Matrix Ar als erste oben links und dazu d = n - r Nullen unten rechts. Allerdings haben wir dies nur zeigen können unter der Voraussetzung (91) und der Spaltenbzw. Zeilenregularität von P bzw. Q. Läßt man diese Voraussetzungen fallen, so zeigt eine etwas kompliziertere Beweisführung das gleiche Resultat; es gilt somit ohne Einschränkung der Satz 4: Ist Q eine r-n-Matrix und P eine n-r-Matrix mit r
r
j= I
j= 1
L Aj = L Xj
Sind also d Summen r
L
j=l
=
.
(94)
n - j Eigenwerte A gleich Null, so besteht die Gleichheit der beiden r
Aj =
L Xj
j=l
,
(95)
264
13 Eigenwerte und Eigenvektoren
woraus zwar nicht folgt, daß Ä. j = Xj ist, doch macht es den unbewiesenen Satz 4 immerhin glaubwürdig. Diskutieren wir abschließend noch den Extremfall r = 1. Dann ist AI = qTp ein Skalar und somit einziger Eigenwert x I des Skalarpaares AI; 1, während An = pqT den Rang 1 hat. Damit sind n- 1 Eigenwerte Ä. gleich Null, und aus sp An = qTP folgt
spAn = sppqT = qTp + 0+ ... +0 "--r--I x\
(95a)
'---v----J n-l mal
Ein Beispiel mit n = 3 und r = 2.
~
(a)
=3I [ I
(b)
P= [
-2
mit
o
yT
Proben: yT P = 0 T, Sodann folgt Ar =
QP =
Qx = o.
9 1 5J; Lo -I
Xl =
9,
x2 = -
I
A = ,
[9 0J
(c)
0-1
mit den normierten Modalmatrizen
Y,=
G-:~~J ; G-:J ' X,=
G~J
Y,X,=
(d)
Die beiden Transformationsmatrizen (92) sind somit
L
=
A,-lY,QJ [
yr
=
[2/9 2/9 1 0
1/3
1/3
-1/18] 1/2; R
[
= PX,
2/3
;
j[ =
I -2/3]
3 - I
-2
0
3/3
. (e)
4/3
Nun berechnen wir die Matrix An = PQ und überzeugen uns von der Richtigkeit der Transformation (93).
An = PQ
=
[-i _~ =:] ,
LAnR =
[~ -! ~]
,
LInR =
G! n·
(0
13.10 Reelle Paare mit konjugiert-komplexen Eigenwerten Ist das Matrizenpaar A;B reell,aber der Eigenwert Ä.j komplex, dann sind auch Links- und Rechtseigenvektor y und Xj komplex. Gehen wir in den beiden Eigenwertgleichungen (96)
265
13.10 Reelle Paare mit konjugiert-komplexen Eigenwerten
zum Konjugiert-komplexen über, so wird zufolge Ä
= A und 11 = B (97)
und das bedeutet, daß auch Xj Eigenwert ist zu den Eigenvektoren yi und Xj. Um ähnlich wie im Abschnitt 4.3 alles im Reellen abzuwickeln, schreiben wir Äj
= Jj+iwj ,
Xj= uj+ivj
,
yi = sj +itj ,
Xj=Jj-iwj;
Xj
= Urivj
yj=sj-it j
Jj,Wj
reell ,
(98)
Uj,Vj
reell
(99)
reell
(100)
sj, t
j
Zunächst ist zu zeigen, daß Uj und Vj linear unabhängig sind. Anderenfalls nämlich wäre Uj = a Vj, somit Xj = Uj + i Vj = a Vj + i Vj = (a + i) Vj' Hier muß a + i * 0 sein, weil sonst Xj der Nullvektor wäre, was aber ausgeschlossen ist (Triviallösung). Also dürfen wir durch a + i dividieren, womit Xj = Vj reell wäre im Widerspruch zur Voraussetzung, und das gleiche gilt offenbar für die beiden Vektoren j sj und t . Mit anderen Worten, die Matrizen (101)
sind zeilen- bzw. spaltenregulär und besitzen somit mindestens eine reguläre Untermatrix der Ordnung 2. Mit den Matrizen (102)
und (103)
fassen wir nun die beiden konjugiert-komplexen Eigenwertgleichungen (96), (97) zu einer einzigen zusammen, yjA = A y j B ' J
'
AX=BXA· J
J
J
(104)
und nehmen mit der Normierungsmatrix (105)
266
13 Eigenwerte und Eigenvektoren
die folgende Erweiterung vor (106)
oder kurz (107)
wo, wie man leicht nachrechnet, alles reell ist mit
NAjN- t =N-IAjN=Aj= [Öj Wj! -Wj
(108)
ÖjJ
und den beiden Matrizen (101). Faßt man allgemeiner als in (96) gleich m komplexe Eigenwertgleichungen zusammen (109)
-n_ _m_
mit
Am = Diag (AI' und
..
Am>
(110)
]I
(111)
so läßt sich die Gleichung (109) zusammen mit ihrer konjugiert-komplexen ähnlich wie oben verdichten zu einer einzigen reellen Gleichung
ym A
= Am ym B ; AXm = BXmAm
(112)
mit der Block-Diagonalmatrix
Am = und
l:'~~:·JJ I
Aj =
l-gw
;l
(113)
SI (I
s2
ym =
(2
sm (m -+----:-- n -----..
2m
J
X m=
lUl ..
VI
U2 V2 ... Um 2m
m ]
v
•
1
(114)
13.11 Der Satz von Cayleigh-Hamilton
267
13.11 Der Satz von Cayleigh-Hamilton
Um zum Schluß des Abschnittes 13 einen der schönsten und tiefgründigsten Sätze des Matrizenkalküls herzuleiten, berechnen wir zur charakteristischen Matrix F(Ä) = A -Hn ,
detF(Ä) = p(Ä)
(115)
ihre Adjungierte, die nach (3.16) definiert ist durch (116) und deren Elemente als die (n - 1)-reihigen Unterdeterminanten von F(Ä) Polynome vom Grade n - 1 oder kleiner sind. Wir machen daher den Ansatz (117) mit noch unbekannten Koeffizientenmatrizen Co bis Cn _ l' dann geht (116) über in
und nun führt ein Koeffizientenvergleich bezüglich Ä auf beiden Seiten auf das System ACo +AC1 +ACz n
A An
1
=
ao
=al =
az
(119)
-Cn - 2 +ACn - 1 = an-l In -Cn - I = (-1) nI n
Multipliziert man diese n + 1 Gleichungen von links mit den Potenzen A 0 = In bis An wie in (119) angegeben, so heben sich links vom Gleichheitszeichen alle Glieder auf zur Nullmatrix. Rechts aber erscheint das Matrizenpolynom (120)
und damit haben wir den angekündigten Satz 5: (Cayleigh-Hamilton) Eine beliebige quadratische Matrix A genügt ihrer eigenen charakteristischen Gleichung: p(Ä)=O
-+
p(A)=O.
(121)
Diese bemerkenswerte Tatsache, zu der es im Bereich der gewöhnlichen Zahlen keine Parallele gibt, hat weitreichende Konsequenzen. Die Potenz An und somit
268
13 Eigenwerte und Eigenvektoren
auch alle höheren Potenzen von A lassen sich durch eine Linearkombination der Potenzen A 0 = In bis An - 1 ausdrücken. Ein beliebiges Matrizenpolynom läßt sich somit stets durch ein solches vom Grade ::;; n - 1 darstellen. Aber auch die Kehrmatrix A -I ist so darstellbar, wie aus (12ö) durch Multiplikation mit A- 1 folgt, A
-1 =
1
--(0IIn +02 A + ... +On_1 An - 2 +( _1)n A n - 1)
(122)
00
mit detA *0
00 =
(123)
und folglich auch jede negativ ganze Potenz, sofern nur A nichtsingulär ist. Somit lassen sich auch gebrochen rationale Funktionen der Matrix auf ein Polynom von höchstens (n -1)-ten Grades zurückführen. Wir werden später, im Abschnitt 20, zeigen, daß das sogar für beliebige Matrizenfunktionen zutrifft. Oft ist es zweckmäßiger, die Gleichung (121) in der faktorisierten Form zu schreiben (124) wo überdies die n Faktoren der rechten Seite untereinander beliebig vertauschbar sind. Ein Beispiel mit n = 2.
A
=
G:J '
det (A
A
2
=
e~ 2:J .
(a)
-H) =p(A) =A2+ 01A +00 =A2_7A +6'1
(b)
Hier ersetzen wir den Skalar A durch die Matrix A und bekommen 2
p(A) =A -7A
r
O +6/= (297 28J 8 -7 (51 41 2j +6 [10 01 d = lo oj01
(c)
Die Inverse folgt aus (122) mit n = 2
A
-1
1] =_~ [-2 41 =-~(A +0,/) =-~(A -7/) =_~ [(5 41 -7 [1 0 00 6 6 1 2j 0d 6 1-5j
Die Eigenwerte sind A,
(A-l'/)(A-6'/)=
= 1 und
(d)
A2 = 6. In der faktorisierten Form (124) wird somit
[- 11 -44 = [44J 1 1 J (00 0J0.
(e)
269
14.1 Die Diagonalmatrix für s = n
14 Diagonalähnliche Matrizenpaare • 14.1 Die Diagonalmatrix für s = n Es sei nun B regulär, und alle n Eigenwerte seien verschieden. Da es insgesamt nur n Eigenwerte Al' .. . ,A n geben kann, muß die Gaußsche Transformation (13.11) für jeden von ihnen genau einen Links- und einen Rechtseigenvektor produzieren. Wir fassen sie alle zusammen zu den Modalmatrizen
(1)
Daß beide regulär sind, wird sich im Abschnitt 16.3 noch zeigen. Vollführen wir nun mit L = Yund R = X nach (13.6) die Transformation der Matrix F(A) auf F(A) = YF(A)X
(2)
mit den Elementen
~dA)=yiF(A)xk; j,k=1,2, ... ,n,
(3)
so verschwinden zufolge der Orthogonalitätsbedingung (13.44) sämtliche Außenelemente. Es verbleibt daher die Diagonalmatrix F(A) = YF(A)X= Diag<.ijj(A»
(4)
mit den Hauptdiagonalelementen (5)
und damit wird in der getrennten Schreibweise
Ä
= YAX = Diag
(6)
jj
= YBX = Diag
(7)
Da Y, B und X regulär sind, muß es auch jj sein, folglich sind die n Diagonalelemente bjj von Null verschieden und können daher durch Normierung von yj und/oder Xj zu Eins gemacht werden, am einfachsten durch Multiplikation der Matrix Y von links mit jj - I, dann wird (jj-1Y)AX=A=Diag(A);
(jj-1Y)BX=In=Diag
(8)
270
14 Diagonalähnliche Matrizenpaare
Wir sprechen dieses Ergebnis aus als Satz 1: Ein Matrizenpaar A;B (B regulär) mit n verschiedenen Eigenwerten läßt sich mit Hilfe der heiden Modalmatrizen Y und X seiner Links- und Rechtseigenvektoren simultan auf das Diagonalpaar A;In transformieren: das Paar ist diagonalähnlich. Ein Beispiel mit n = 2,
A=
[ 54J
S =
2.
. B=
-4 - 2 '
[10J - 1 1
, detB = 1
(a)
(b)
Die beiden Modalmatrizen sind (c)
und damit wird das transformierte Paar
Ä=YAX=
[-5
01
0 30j; B=YBX=
[-5
01
0 5j'
(d)
Damit jj in die Einheitsmatrix übergeht, dividieren wir y 1 durch - 5 und y2 durch 5 und bekommen nunmehr mit der so normierten Linksmodalmatrix YN (e)
• 14.2 Die Block-Diagonalmatrix für s
= Uj;
j
= 1,2, ... , s ,
(9)
so heißt das Paar A;B von einfacher Struktur und erweist sich, wie wir gleich sehen werden, als diagonalähnlich. Genau dann und nur dann existieren nämlich zwei reguläre Modalmatrizen Y und X mit der Blockaufteilung
-n-
(10)
14.2 Die Block-Diagonalmatrix für s
271
(11 )
mit den transformierten Blöcken (12)
von denen zufolge der Orthogonalitätsbedingung (13.44)
yj F(J...)Xk
=
0 für j
*k
(13)
sämtliche Außenblöcke verschwinden. Es verbleibt somit die Block-Diagonalmatrix F(1) = YF(1)
XrF,~1) l =
~:<1)}
0
J
(14)
O . .. Fss(J...)
oder auch platzsparender geschrieben
F(J...)
=
YF(J...)X= Diag(ijj(J...»
(15)
mit den Diagonalblöcken (16)
gültig für jeden Parameterwert J..., also gilt auch getrennt
I YAX=Diag(Äj);
YBX=Diag(.Bj)
I
(17)
mit s Skalarpaaren (18)
Soll die Matrix .B in die Einheitsmatrix In übergehen, so ist dies durch die im Abschnitt 8.2 beschriebene Biorthonormierung leicht zu bewerkstelligen. Da aber in praxi zumeist die Rechtseigenvektoren allein interessieren (so zum Beispiel bei den Vektordifferentialgleichungen im Abschnitt 14.4), wird man diese erhalten wollen. Wir normieren daher die Matrix Y allein, indem wir sie von links mit den Blöcken Bjj 1 multiplizieren, während X bestehen bleibt:
272
[
YN=
B B
I
1
11 1yl2
ny
d, dz
[x,
, x=
J1
B-1 ys ss
•
14 Diagonalähnliche Matrizenpaare
•
n
d,
r
x'J j
-- -
ds
X 2 ...
(19)
n
ds
dz
Damit gelingt dann die Transformation auf das strikte Diagonalpaar (20)
mit der geordneten Spektralmatrix A, wo die Eigenwerte in s Gruppen zusammengefaßt sind. Ein Beispiel mit s = 2, n = 3. Zum Matrizenpaar
A=[-;;
A;B aus dem Abschnitt 13.5
=~J; B=r~LI 2~ -~J0
(a)
2 4 -15
fanden wir die beiden Modalmatrizen
Y=
[;:J [=~ :J 1 0 -6
=
X= [XI
x 2J=
[-! ~ jJ
(b)
In der Tat ist
YAX=
[ -21
-3~
30 36 0
mit
-8~J
[Alol
0
J
A22
[~ -120 -I~:J = [BI0 -10
YBX=
I
~J
(c) (d)
Nach (19) bekommen wir mit
-I_~ -
B I1
16
[-12 10J -10 7
,
-I B 22
__
-
~
(e)
16
die normierten Linkseigenvektorblöcke
YNI = B 11- 1 Y I = -1 [- 14 - 12 10J, YN2 = B22_ I Y2 = -1 (3 16
-5-10
7
16
6 - I) .
(f)
Damit wird dann endgültig (g)
Nun ist man an die Reihenfolge der Eigenwerte Aj innerhalb der Spektralmatrix A keineswegs gebunden. Ordnet man sie in beliebiger Weise um und numeriert
14.3 Die Spektralzerlegung eines diagonalähnlichen Paares. Eigenwerte und Eigenterme
273
sie neu, so unterliegen auch die n Zeilen der Matrix YN und die n Spalten der Matrix X derselben Umnumerierung; nach wie vor aber bleiben es jeweils n linear unabhängige Links- bzw. Rechtseigenvektoren. Wir haben damit den Satz 2: Istjür jeden der s< n verschiedenen Eigenwerte Ä.j der Dejekt dj gleich der Vieljachheit Gj, so ist das Paar A;B (B regulär) diagonalähnlich. Ein Extremfall ist das Skalarpaar A = aB mit s = 1. Hier ist jeder beliebige Vektor ein Links- bzw. Rechtseigenvektor. Insbesondere können wir L = B - 1 und X = In = (eI' .. en) wählen, dann fungieren die n Zeilen der Matrix B - 1 als Linkseigenvektoren, und es wird B - 1 A = B - laB = a In und B - 1 B = In' • 14.3 Die Spektralzerlegung eines diagonalähnlichen Paares. Eigenwerte und Eigenterme Rekapitulieren wir zunächst im Schnellkursus, was wir in den Abschnitten 10.1 bis 10.3 über gebundene Transformationen gelernt haben. Vorgelegt ist die B-ähnliche reguläre Äquivalenztransformation
LBR = In;
B regulär .
(21)
Da das Produkt LB zu R ebenso wie L zu RB reziprok ist und Reziproke vertauschbar sind, gilt
BRL=In=RLB,
(22)
und daraus wieder folgt (23)
Eine beliebige Matrix F(Ä.) - beispielsweise die Polynommatrix (13.21) werde nun unter der Nebenbedingung (21) transformiert auf
LF(Ä.)R = F(Ä.) .
(24)
Multiplizieren wir diese Gleichung von links mit BR und von rechts mit LB, so erhalten wir unter Berücksichtigung von (22) die Umkehrung der Transformation (24)
I F(Ä.) = BRF(Ä.)LB I'
(25)
ein grundlegender Zusammenhang, den man sich gar nicht fest genug einprägen kann.
274
14 Diagonalähnliche Matrizenpaare
Es seien nun insbesondere F(A) = A -AB sowie L Modalmatrizen, dann geht (24) über in
=Y
und R
YF(A)X=F(A) = Y(A-AB)X=A-Un ,
=X
unsere
(26)
womit die Umkehrung (25) lautet (27)
und dies läßt sich mit den Eigendyaden (Stützdyaden )
j = 1,2, ..
o,n
(28)
ebenso sinnfällig wie praktikabel schreiben als Spektralzerlegung n
L
F(A) =
j= 1
(Aj-A)Dj
,
(29)
gültig für jeden Wert von A; also gilt auch getrennt
A
=
n
L AjDj
; B
n
L
=
j= 1
(30)
1 Dj 0
j= 1
Die Orthogonalität der Eigenvektoren bezüglich F(A) (31)
und damit separat bezüglich A und B (32)
zieht nun gewisse Orthogonalitätsbedingungen für die Eigendyaden nach sich, und zwar gilt
yi D k =
DjXk =
0 T;
0
für j
=#;
k
(33)
und
Dß -1 D k =
0
für j
=#;
k ,
wie man durch Einsetzen von (28) leicht bestätigt.
(34)
14.3 Die Spektralzerlegung eines diagonalähnlichen Paares. Eigenwerte und Eigenterme
275
Für k = j dagegen gilt, wie ebenfalls leicht zu zeigen, (35) somit auch (36)
und ferner als Gegenstück zu (34) die Reproduktion (37) Die Eigendyade ist mithin ein B-Projektor. Das Paar A;B habe nun rs,n von Null verschiedene Eigenwerte AI'" An dann besteht die Summe A (30) aus r linear unabhängigen Dyaden, womit der Rang von A gleich r ist. Wir fassen diese Erkenntnis zusammen im Satz 3: Die Matrix A eines diagonalähnlichen Paares A;B mit regulärer Matrix B
läßt sich als Summe von dyadischen Produkten aufbauen. Deren Anzahl ist r, wenn das Paar A;B r von Null verschiedene Eigenwerte (auch mehrfache) besitzt. Überzeugen wir uns abschließend noch von der Richtigkeit der Spektralzerlegung (30), indem wir von rechts mit einem Eigenvektor xk zu einem einfachen Eigenwert Ak multiplizieren. In den Summen n
AXk =
L AjDjxk;
j=1
n
BXk =
L 1· DjXk
(30')
j=l
verbleibt dann wegen (33) nur jeweils ein Summand für j = k, somit wird nach (35)
also einmal die für xk und Ak erfüllte Eigenwertgleichung und ein andermal eine Identität, und das Entsprechende gilt, wenn man die beiden Gleichungen (30) von links mit yk multipliziert. Der Wert der dyadischen Zerlegung besteht vor allem in der strikten Trennung von Geometrie (dem Vektorgerüst) und dem Eigenwertspektrum, siehe dazu auch das Kästchen (18.27). Ferner bemerken wir: da sich auf Grund der Beziehungen (21) bis (23) jede der drei beteiligten Matrizen durch die beiden anderen ausdrücken läßt, nämlich Y = (BX)-l; X = (YB)-t und B = (Xy)-l, kann man zwei von ihnen willkürlich vorgeben (sie müssen nur regulär sein) und daraus die dritte berechnen, womit die Eigendyaden (28) festliegen. Sodann wählt man irgend n reelle oder auch komplexe Eigenwerte (darunter auch mehrfache) und hat in (30) die Matrix A zum Partner B gewonnen.
276
14 Diagonalähnliche Matrizenpaare
Beispiel. Man konstruiere das diagonalähnliche Matrizenpaar A;B mit vorgegebenen Eigenwerten und Eigenvektoren.
Mit Y und X liegt die Matrix B fest:
XY=
(32J
, B=(Xy)-1 =
1 1
( 1-2J -1
,
(b)
3
und damit berechnen sich die Stützdyaden (28) zufolge
y I BX I = y2 BX2 =
1 als (c)
womit schließlich die gesuchte Matrix A eindeutig festliegt: A = Al D 1 + A2 D 2 = - 2· (_:
-:J G-:J + 1.
= (-
~ ~J
(d)
In der Tat ist
YAX=A
YBX=I2
(e)
,
wie es sein muß.
Für gewisse Fragestellungen ist es zweckmäßiger, statt mit den Eigenwerten )..j mit den Eigentermen ~()..):=)..j-).. ;
j= 1,2, ...
,n
(38)
zu operieren; es ist dann YF()")X = F()") = Diag (~()..»
(39)
Im Reellen sind dies die unter 45° geneigten Eigengeraden der Abb. 15.6c. Bei singulärer Matrix B existieren Eigenterme ~ = const; dann verläuft die Eigengerade der )"-Achse parallel und schneidet diese nicht; zu einern solchen Term gibt es somit keinen Eigenwert, sofern man nicht sagen will, er läge im Unendlichen. Ist insonderheit ~ = 0, so ist dies die Gleichung der )"-Achse, und damit liegt der Fall c) von (13.10) vor. Eine Verallgemeinerung auf Polynommatrizen mit Polynomen als Eigentermen werden wir im Abschnitt 18.3 vornehmen. • 14.4 Eine spezielle lineare Vektordifferentialgleichung zweiter Ordnung Die skalare Differentialgleichung 2
bx(r)= - v ax(r);
b
*' 0,
x(r) = dx(r)/dr
(40)
277
14.4 Eine spezielle lineare Vektordifferentialgleichung zweiter Ordnung
mit den vorgegebenen Anfangsbedingungen x(O)
= xo,
x(O)
= Xo
(41)
hat bekanntlich die Lösung sinwr
mit w 2 =y2 alb.
x(r)=xocoswr+xo--
w
(42)
Sind alle vorkommenden Größen reell, so haben wir drei Fälle zu unterscheiden: sinwr
a)
y2>0: x(r)=xocoswr+xo--,
c)
y
(43)
w
2
_
. SIN wr
<0: x(r)=xoCOSwr+xo
w
mit
w2 =
-y
2 alb.
(45)
Das letzte folgt aus der bekannten Beziehung cos iß = COS ß und sin iß = i SIN ß zwischen Kreis- und Hyperbelfunktionen. Ist w 2 und damit auch w = u + i v komplex, so setzt man in (42) cos (u + i v) = cos u COS v-i sin u SIN v ,
(46)
sin (u + i v) = sin u COS v + i cos u SIN v
(47)
und hat damit auch die komplexe Lösung. Schließlich berechnen wir aus (42) noch die erste Ableitung x(r)
= -wxosinwr+xocoswr ,
(48)
und daraus folgt zusammen mit x(r) nach leichter Rechnung (49)
Wir verallgemeinern nun die skalare Differentialgleichung (40) auf die Vektordifferentialgleichung (oder, wie man auch sagt, auf das System von n skalaren Differentialgleichungen) B regulär,
Bx(r)= -y2 Ax(r);
x(r) = dx(r)ldr
(50)
mit den Anfangsbedingungen x(O)
= xo,
x(O)
= Xo
.
(51)
278
14 Diagonalähnliche Matrizenpaare
Um das System zu entkoppeln, führen wir mittels des Modulmatrizen (1) den Vektor w(r) ein gemäß Xw(r) = x(r),
Xw(r) = x(r),
(52)
Xw(r) = x(r)
und multiplizieren die Gleichung (50) von links mit Y, dann wird YBX w(r) = - v 2 YAX w(r)
'-----r--!
In
w(r) = _v 2
~
A
(53)
w(r),
(54)
und das sind n skalare Differentialgleichungen vom Typ (40) (55) mit den nEigenlösungen (56)
und den Eigenjrequenzen (57)
Nun zu den Anfangsbedingungen. Aus (52) folgt zunächst für r = 0 XWo=xo,
(58)
XWo=xo·
Multiplizieren wir dies von links mit YB, so wird zufolge (59) wo= YBxo,
(60)
wo= YBxo,
oder in Komponenten geschrieben (61)
Die erlaubte Division dieser Bilinearformen durch 1 = Quotienten
yi BXj nach (59) ergibt die (62)
und dies hat den Vorteil, daß die Eigenvektoren miert zu sein brauchen.
yi und Xj nun
nicht mehr nor-
279
14.5 Das Minimalpolynom
Die Gleichung (52) schreibt man üblicherweise in Summenform
x(r)
= Xw(r)
=>
x(r)
=
n
L xjwj(r)
(63)
j=t
mit den nEigenlösungen (56) und den Anfangsbedingungen (62); eine Formulierung, die auch als Überlagerungsprinzip bezeichnet wird. Als wichtigstes Ergebnis halten wir fest, daß auch bei mehrfachen Eigenwerten keine Eigenlösungen der Form rcos wr, r sin wr oder ähnlich auftreten, wie dies bei nichtdiagonalähnlichen Paaren der Fall ist, siehe dazu Abschnitt 20.6. Für die speziellen Anfangsbedingungen (64)
verschwinden zufolge der Orthogonalitätsbedingung yi BXk = 0 für j:l= k in (62) alle Quotienten bis auf einen, und es verbleibt wegen (65) von der Summe (63) allein die Eigenlösung (66) Bei beliebigen Anfangsbedingungen dagegen ist die Lösung x(r) im allgemeinen keineswegs periodisch. Halten wir schließlich noch fest, daß nicht nur einige oder alle Eigenwerte Aj komplex sein können, sondern auch die beiden Matrizen A und B sowie der Parameter v 2 , siehe dazu die Fallunterscheidung (43) bis (47). 14.5 Das Minimalpolynom
Der Satz von Cayleigh-Hamilton (13.121) läßt eine Modifikation zu für den Fall mehrfacher Eigenwerte, sofern das Paar A;/n diagonalähnlich ist. Wir definieren zunächst das Minimalpolynom (67)
Es besteht im Gegensatz zum charakteristischen Polynom aus nur s Faktoren; die sogenannte Minimumgleichung m (A) = 0 hat somit die s Eigenwerte als einfache Nullstellen.
280
14 Diagonalähnliche Matrizenpaare
Um den angekündigten Satz herzuleiten, transformieren wir die Matrix F(A) = A -Un
(68)
auf die Diagonalform (69)
und fassen wie schon in (20) die s verschiedenen Eigenwerte in Gruppen zusammen F(A) = Diag( Al-A ... ArA'" '-----v----J d, mal
'----.,---! dj mal
As-A ) .
(70)
'----.,---! ds mal
In der Hauptdiagonale der Matrix F(Aj) stehen demnach dj Nullen F(Aj) = Diag( Al-Aj ... '-----r----J d, mal
0
... As-Aj) ,
'--r-------J
~ ds mal
dj mal
(71)
und dies bringt uns auf eine einfache Idee. Bilden wir nämlich das Produkt der s Matrizen (72)
so ist dieses offensichtlich gleich der Nullmatrix, da die Hauptdiagonale von P lauter Nullen enthält, und das ist es schon, was wir haben wollten. Um dieses Resultat auf die Originalmatrix F(A) zu übertragen, multiplizieren wir die Gleichung (72) von links mit X und von rechts mit Y und nehmen innerhalb der Gleichung s-l Erweiterungen mit YX = In vor XPY= XF(AI) Y XF(Ai) y ... ~~
... XF(A s ) Y= 0 .
(73)
'--v--J
Mit den unterklammerten dreifachen Produkten (74)
wird daher (75)
und nun zeigt ein Vergleich mit (66) die Gültigkeit von
281
14.5 Das Minimalpolynom
Satz 4: Eine diagona/ähnliche Matrix A genügt der Minimumg/eichung: m(A)=O
-+
(76)
m(A)=O.
Natürlich kann man die Gleichung (66) auch ausmultiplizieren, (77)
dann gilt auch (78) Liegt nun das Paar A;B mit regulärer Matrix B vor, so ersetzt man in (75) bzw. (78) die Matrix A durch B - 1A oder AB - I und damit (79)
Es sei allerdings auf einen ganz wesentlichen Punkt hingewiesen: während die Gleichung von Cayleigh-Hamilton in der geschlossenen Form (13.120) p(A) = 0 allein die Kenntnis des charakteristischen Polynoms det (A - .1 In) = P (.1) voraussetzt, müssen zur Bestätigung der Minimumgleichung m (A) = 0 die Eigenwerte At, ... ,An bekannt sein. Erstes Beispiel mit s = 2, n = 3.
A = [-; ; -1 -2
=~J0
(a)
Da wir nicht wissen, ob das Paar A;/ diagonalähnlich ist oder nicht, machen wir den Versuch mit p(A)
= (A -Al/HA -,1.3/) = (A +3'/)(A -5'/)
,
(b)
in Zahlen p(A)=
[~ ~ =~J -1 -2 3
[-; -~ =~J -1 -2 -5
=
r~ 0~ ~l~j
L~
=0
(c)
und finden bestätigt, daß p (A) = m (A) = 0 die Minimumgleichung ist. Somit ist das Paar A; / diagonalähnlich. Zweites Beispiel mit s = 2, n = 3.
A=
[-~ -3
;
8
-:J
(a)
1
Hier ist p(A) = (A -O'/)(A -5'/)
*0 ,
(b)
282
15 Diagonalkongruente (normale) Matrizenpaare
sondern erst die Cayleigh-Hamiltonsche Gleichung p(A) = (A -O'/HA -O'/HA -5'/) = A
3-
5A 2 = 0 .
(c)
Das Paar A;/ ist demnach nicht diagonalähnlich.
15 Diagonalkongruente (normale) Matrizenpaare • 15.1 Die Normalitätseigenschaft
Ein Sonderfall der Diagonalähnlichkeit ist die im Abschnitt 10.4 abgehandelte Diagonalkongruenz eines Paares A;B mit der Transformationseigenschaft F(A)
=IX* F(A)X =A -Un 1= Diag (Ar A)
.
(1)
Ein solches Paar heißt normal bezüglich B oder einfach B-normal. Es erfüllt das äußere Kriterium (2)
und dies bedeutet, daß man ohne Kenntnis der Eigenwerte im vorhinein entscheiden kann, ob die Transformation (1) möglich ist oder nicht. Wie man die Definitheit von B überprüft, zeigt die Übersicht (11.15). Die Umkehrung der Kongruenztransformation (1), nämlich F(A) = BXF(A)X* B
(3)
läßt sich, da F(A) diagonal ist, als Summe schreiben n
F(A) =
L (Aj-A)Dj
,
(4)
j= 1
und das ist die schon oft mit Vorteil herangezogene Spektralzerlegung mit den Eigendyaden (Stützdyaden ) j = 1,2, ... ,n ,
(5)
wo der Nenner zufolge der in (2) vorausgesetzten Definitheit von B nicht verschwinden kann xjBXj=1=O;
j= 1,2, .. . ,n .
(6)
283
15.1 Die Normalitätseigenschaft
Da die Zerlegung (4) für jeden reellen oder komplexen Wert des Parameters A gültig ist, gilt auch n
A =
L
)=1
n
A)D)
B=
L J'D)
(7)
)=1
und diese getrennte Schreibweise ist zumeist vorteilhafter als die kompakte Darstellung (4). Schließlich ist noch der Formenquotient (13.77) x*Ax· q. = :J..:..:..::l. = A' J *B x) J x)
(8)
von Bedeutung und im Zusammenhang damit das mit einem beliebigen Vektor w * 0 gebildete Formenpaar A;B n
n
n
)=1
)=1
)=1
L A)D)w= L A)w*D)w= L A)m)
A=w*Aw=w*
n
L
B=w*Bw=w*
n
1'D)w=
)=1
L
(9)
,
n
J'w*D)w=
)=1
L
(10)
1'm)
)=1
mit den reellen als Gewichten (oder Massen) fungierenden Größen m)
= w *D) w
*0 ,
(11 )
die bei positiver (negativer) Definitheit von B positiv (negativ) sind. Setzen wir noch A) = u) + i v), so haben wir damit für A und B die SummendarsteIlung n
A=w*Aw=
)=1
n
n
L u)m)+i L v)m)
B= w*Bw=
)=1
L
)=1
m)
(12)
gewonnen. Darin sind die Größen (11) die Formenquotienten _ *D _ *Bx)xjB _ (w*Bx)(xjBw) m) - w )w - w wx* BxJ x*J Bx·J J
(13)
und dies können wir mit den verallgemeinerten Projektionen p)= w*Bx)
(14)
284
15 Diagonalkongruente (normale) Matrizenpaare
auch kürzer so schreiben (15) Die Konstruktion eines B-normalen Paares verläuft ähnlich wie im Abschnitt 14 für ein diagonalähnliches Paar beschrieben:
1. Wähle die Matrix X = (XI x2 ... x n ) regulär, aber sonst beliebig reell oder komplex. 2. Berechne B= (XX*)-I. 3. Wähle n Eigenwerte und berechne die Matrix A nach (7) mittels der Eigendyaden D j (5) oder direkt nach (3) (wo A = 0 zu setzen ist) als A = BXAX* B. Beispiel. Zu konstruieren ist ein normales Matrizenpaar der Ordnung n = 2 mit vorgegebenem Spektrum AI' A2 und der Modalmatrix (a). Wir berechnen die Matrix B in (b), mit dieser die Vektoren (c) und weiter die Stützdyaden (5) in (d).
x=
[Xl X2]
[:
1[1+2iJ 5 2+4i
BX t = -
,
_~]
:+] ,
(a),
1[ 2-i J 5 -1-2i
BX2 = -
(b)
(c),
DI
1[12J
= -
5
2
4
,
D2 =
1[li]
-
5
-i
. (d)
1
Die Matrix A wird damit nach (7)
1[12J +-2[1 iJ
A --
5
2 4
5
-i
(e)
1
Der Leser überzeuge sich von der Richtigkeit. Es ist AXt muß. Für At = - 5 und A2 = 5 zum Beispiel wird A =
[1 iJ [-2-1 -2J -4 -i 1 +
=
[0 -2+iJ -2-i -3
= AI BX t und AX2 = A2Bx2' wie es sein (f)
hermitesch, weil die Eigenwerte reell gewählt wurden. Man berechne die Matrix A für Al = 3 - i und A2 = - 1 + 2 i und überprüfe damit die Gültigkeit der Gleichung (2).
In den Anwendungen treten normale Paare mit komplexen Eigenwerten so gut wie niemals auf, ja nicht einmal hermitesche Paare als deren einfachste Vertreter. Um so bedeutsamer sind die reellsymmetrischen Paare, wie wir in den Abschnitten 15.5 und 15.6 anhand von Beispielen hinlänglich belegen werden. • 15.2 Hermitesche (reellsymmetrische) Paare Es sei nun A hermitesch,
A* =A ,
(16)
15.2 Hermitesche (reellsymmetrische) Paare
285
dann ist das Kriterium (2) in trivialer Weise erfüllt; doch ist das Paar A;B nur dann normal, wenn B definit ist. Daß diese Forderung nicht entbehrt werden kann, zeigt das folgende Beispiel. Beispiel. n = 2, hermitesches Paar. A
=
[~ -1
iJ '
0
det A
=-
I ; B
=
[0 I-i
I + iJ ' 0
det B
=-
2 .
(a)
Die charakteristische Gleichung lautet (b)
Da die Elemente b ll und b22 nicht beide positiv oder negativ sind, ist das notwendige Kriterium für Definitheit nach (11.15 a) verletzt. Das Paar ist somit zwar hermitesch, aber nicht normal; folglich brauchen die Eigenwerte auch nicht reell zu sein.
Da nun eine hermitesche Form reell ist, sind auch die Eigenwerte Aj als Formenquotienten (8) reell und damit die Hauptdiagonalelemente ajj und bjj von A und B als spezielle Formen, gebildet mit den Einheitsvektoren ej' wobei überdies die Elemente bjj zufolge der Definitheit von B alle positiv (negativ) sind. Damit werden auch die Spuren sp A und sp B reell, aber auch, wie sich zeigen läßt, die Koeffizienten der charakteristischen Gleichung det (A - AB) = p(A) = O. Komplex sind daher allein die Eigenvektoren Xj. Die Diskussion des Formenquotienten (8) führt nun unmittelbar auf den Satz 1: Sind die beiden hermiteschen Matrizen A und B gleichsinnig (gegensinnig ) definit, so sind die Eigenwerte des Paares A; B positiv (negativ) und von Null verschieden. Ist aber A indefinit, so können nicht alle Eigenwerte von gleichem Vorzeichen sein. Der Eigenwert Null tritt genau d = n - r mal auf, wenn A den Rang r< n besitzt. Wie schon eingangs erwähnt, kommen hermitesche Paare in praxi kaum vor, sondern dienen lediglich der theoretischen Abrundung. Um so wichtiger sind ihre reellen Vertreter mit (17)
Auch für sie gilt alles vorher Gesagte; es ist nur überall das Zeichen * durch T zu ersetzen. Im Gegensatz zu den hermiteschen Matrizenpaaren sind auch die Eigenvektoren reellsymmetrischer Paare reell, sofern sie nicht - aus welchen Gründen immer - mit einem komplexen Faktor multipliziert werden. Quadratische Formen reellsymmetrischer Paare spielen eine Rolle bei der schon in Abschnitt 11.6 diskutierten Geometrie der Flächen- bzw. Flächenpaare zweiten Grades, deren Theorie wir im Abschnitt 15.5 vertiefen werden. Ihre Bedeutung in der Physik haben sie als Formen der kinetischen und potentiellen Energie. Ist deren Summe konstant, so führen die Lagrangeschen Gleichungen zweiter Art auf eine gewisse Klasse von Bewegungsgleichungen, die wir im Abschnitt 15.6 in voller Allgemeinheit abhandeln werden.
286
15 Diagonalkongruente (normale) Matrizenpaare
15.3 Schiefhermitesche (schiefsymmetrische) Matrix Es sei nun A schiefhermitesch, A
*=
B* = B der.
- A;
(18)
und somit B-normal, wie aus dem Kriterium (2) in trivialer Weise hervorgeht. Da der Zähler S im Formenquotienten (8) nach (11.33) rein imaginär ist, gilt der Satz 2: Die Eigenwerte einer sehiejhermitesehen Matrix A zum definiten hermitesehen Partner B sind rein imaginär. Der Eigenwert Null tritt genau d = n - r mal auf, wenn A singulär vom Range rist. Da eine schiefhermitesche Form rein imaginär oder Null ist, sind die Hauptdiagonalelemente ajj von A als spezielle Formen zum Einheitsvektor ej rein imaginär oder gleich Null. Die Koeffizienten des charakteristischen Polynoms sind ebenso wie die Eigenvektoren komplex. Im Sonderfall der reellen schiefsymmetrischen Matrix A mit reellsymmetrischem und definitem Partner B A
T= _
B T = B der.
A;
(18')
ist die charakteristische Gleichung reell und vom Typ (13.64), (13.65) zufolge A = ±iP, somit A2 = _p2. Daraus folgt: ist n ungerade, so muß A singulär sein und hat damit mindestens einen Eigenwert A = O. Ein Beispiel. n = 3. AreeIl schiefsymmetrisch, B = 13, A verkörpert das vektorielle Produkt nach (12.9):
A
= [_
~z - ~z ay
ax
-
::J ' 0
a=
[::] ,
az
a Ta
=
a; + a; +
a~ .
(a)
Wir fragen, für welche Vektoren x die Gleichung
axx = Ax = AX
(b)
bestehen kann. Die charakteristische Gleichung
det(A-H)
= -A3_(a;+a;+a~)A =
-A 3-a TaA
=
0
(c)
liefert die drei Eigenwerte
Al =0, A2=
+iM,
A3=
-iM.
(d)
Wie leicht zu sehen, ist Xl = a, und in der Tat ist a x a = 0, wie bekannt. Die Eigenvektoren x2 und x3 sind komplex und ohne geometrische Bedeutung.
15.4 B-unitäres Matrizenpaar Ein B-unitäres Paar gehorcht über die Gleichung (2) hinaus der Bedingung (19)
wo die reelle Größe a beliebig vorgebbar ist.
15.5 Reelle Flächenpaare zweiten Grades. Das Hauptachsenproblem
287
Aus Ax = ABx folgt x* A * = Xx* B* = Xx* B. Multipliziert man die linken und rechten Seiten dieser Gleichung unter Zwischenschaltung der Matrix B - 1 miteinander, so wird (20)
und damit gilt der Satz 3: Die Eigenwerte eines B-unitären Paares A; B liegen auf dem Kreis um den Nullpunkt der komplexen Zahlenebene mit dem Radius a: (21) Auch die reellen Werte - a und + a können demnach zum Eigenwertspektrum gehören. Ist das Paar A;B reell, so geht (19) über in (22)
Auch die Koeffizienten der charakteristischen Gleichung sind nunmehr reell, somit gilt (23) und dazu gehört der Gleichungstyp (13.66) bis (13.70), denn mit aAj ist auch 1/(aAj) ein Eigenwert. Es sei nun speziell B = In und a 2 = 1, dann haben wir die strikte Unitarität bzw. im Reellen die strikte normierte Orthogonalität (Orthonormalität) A *A
= In = A A *
bzw.
A TA
= In = A AT.
(24)
Die Eigenwerte liegen jetzt auf dem Einheitskreis und sind im reellen Fall überdies konjugiert komplex, das ist der Fall d) in Abb. 13.2. Im übrigen sei dem Leser die Wiederholung der Abschnitte 2.8 und 4.2 empfohlen. • 15.5 Reelle Flächenpaare zweiten Grades. Das Hauptachsenproblem Im reellen Raum der Dimension n seien zwei konzentrisch gelegene Flächen zweiten Grades gegeben A
= xrAxa = ±r~;
B
= xbBxb = r~,
B pos. def.
(25)
Die Matrizen A und B sind reellsymmetrisch und dimensionslos, die Vektoren X a und xb haben ebenso wie die Größen ra und rb die Dimension einer Länge. Beide Flächen haben den gleichen Mittelpunkt 0, daher setzen wir x a = a w;
xb = ßw ,
(26)
288
15 Diagonalkongruente (normale) Matrizenpaare
ähnlich wie schon in (11.41). Mit den Rayleigh-Quotienten (27)
sind dann die Beträge (die Längen) der beiden Ortsvektoren x a und xb nach (11.44)
-
'a
(28)
OPa = a = rY1=R=a[=w=ll
für jede vorgegebene Richtung ww mit dem Richtungsvektor W beliebiger Länge. Wir fragen jetzt, ob die beiden Flächen gemeinsame konjugierte Durchmesser besitzen, dann muß nach (11.50) gelten (29)
oder in
W
formuliert (30)
Dies aber ist nichts anderes als die Orthogonalitätsbedingung für die n Eigenvektoren des Paares A;B. Zufolge AWj = AßWj wird dann Ra [wjl = Aßb[Wjl, und damit gehen die Gleichungen (28) über in
a.= J
,
a
'VI')J YRb[wjl
(31)
•
'
Die Eigenvektoren selbst sind nach (26) und (11.45) j = 1,2, ... ,n
(32)
und die dazugehörigen Bildvektoren j = 1,2, ... ,n
.
(33)
Es sei nun speziell B = Im dann ist B = xIBxb =,~ die Gleichung einer Kugel mit dem Radius 'b' Der Rayleigh-Quotient nimmt den Wert Eins an (34)
289
15.5 Reelle Flächenpaare zweiten Grades. Das Hauptachsenproblem
und damit wird aus (31)
(35)
J
Zufolge der strikten Orthogonalität W wk = 0 stehen die konjugierten Durchmesser aufeinander senkrecht; sie werden als Hauptachsen der Fläche A = r~ bezeichnet, und die Größen aj sind deren halbe Längen. An den Flächen zweiten Grades wurde Mitte des 19. Jahrhunderts die Theorie der reellsymmetrischen Matrizen weitgehend ausgerichtet, weshalb die Ausdrücke Eigenwertproblem und Hauptachsenproblem oft als Synonyme benutzt wurden. Für den berechnenden Ingenieur ist die Theorie der Flächen zweiten Grades keineswegs so wirklichkeitsfern, wie es auf den ersten Blick scheinen könnte. Es existiert nämlich in der Mechanik des starren Körpers eine Massengeometrie (siehe [54, S. 242 - 252]) und ebenso eine Geometrie der Flächenmomente zweiten Grades (siehe [55, S. 291 - 294]) in vollständiger Analogie zur "gewöhnlichen" Geometrie, was wir wenigstens in Umrissen andeuten wollen. Beginnen wir mit der Massenmatrix (12.20). Setzen wir F = m 12 B mit der Masse m des starren Körpers und einer beliebig wählbaren Vergleichslänge I, so wird das Massenträgheitsmoment bezüglich einer durch den Vektor w festgelegten Achse w w durch den Punkt F
e
(36)
womit der Anschluß an die Theorie der Flächen zweiten Grades erreicht ist. Da @F positiv definit ist, läßt sich dem starren Körper im Punkt Fein Trägheitsellipsoid w T Bw = const. zuordnen, das in groben Zügen die Gestalt des Körpers nachahmt und dessen Gradient der Drallvektor ist. Die Eigenwertaufgabe Bw = A. w legt daher die drei orthogonalen Hauptdrehachsen mit den zugehörigen Eigendrehmassen (Hauptdrehmassen) fest. Speziell für eine in der ~-I1-Ebene gelegene starre Scheibe verschwinden zufolge (= 0 zwei der Produkte (12.22), und es verbleibt die Massenträgheitsmatrix e F bzw. die Flächenträgheitsmatrix JF
B ebenso wie
e F = [ef~ 0 o
(37)
wo die Matrix JF aus e F entsteht, wenn die Masse m bzw. dm durch die Fläche F bzw. dF der starren Scheibe ersetzt wird. Die Matrix zerfällt somit in einen Skalar, der als polares Moment bezeichnet wird, und in die zweireihige Matrix
290
15 Diagonalkongruente (normale) Matrizenpaare
(37') mit den sogenannten axialen Trägheits- bzw. Flächenmomenten als Elementen. Auch die zu den Matrizen (37') gehörende Trägheitsellipse ahmt in groben Zügen die Gestalt der starren Scheibe nach. Die Abb. 15.1 zeigt ein gängiges Balkenprofil mit den Hauptachsen bezüglich des Schwerpunktes S.
Abb. 15.1. Flächenträgheitsellipse eines Balkenprofils
Ein Beispiel. n = 2, Kegelschnitte.
A -_
[-4 -3J
'
det A = - 25.
indef. Hyperbel ;
(a)
B --
[17 -6J
• det B = 100,
pos. def. Ellipse .
(b)
-3
-6
4
8
A) Hauptachsen der Hyperbel A = ± r~.
(c)
Die Halbachsenlängen sind nach (35) (d)
B) Hauptachsen der Ellipse B = r~.
(e)
(f) C) Gemeinsame konjugierte Halbmesser.
1 det(A-AB) = l00A 2 -25 =0 • AI = - - • 2
15.5 Reelle Flächenpaare zweiten Grades. Das Hauptachsenproblem
291 (g)
Die Rayleigh-Quotienten zu
Rb'
200
=-
25
Wj
und
8
= 4, R b2 = - = 8 1
w2
sind
,
(h)
und damit haben wir nach (31) die gemeinsamen konjugierten Halbmesser in
'a V4 I ,C V1I2' = 'alV 2;
Richtung w,:
0,
=
Richtung
02
= -'a- .- 1 =,a 12
w2:
b1 =
V1I2VS
Die Ergebnisse zeigt die Abb. 15.2 für die Werte
V4 = 'b
'b 12
(i)
'a = 1,5 und 'b = 1.
0.7 0.6
-0. 7
-0. 6
0.:;'
-0.5'·. -0. 4
~.,
0.3
O. 4
0.5'. 0.6
0.7
//
'.
. -0.6 -0.7
Abb. 15.2. Kegelschnitte mit Hauptachsen und konjugierten Durchmessern (Computerausdruck)
292
15 Diagonalkongruente (normale) Matrizenpaare
• 15.6 Lineare Schwingungssysteme Eine der wichtigsten Anwendungen reellsymmetrischer Matrizenpaare findet sich bei den linearen (besser linearisierten) Bewegungsgleichungen der Physik, speziell der Mechanik, deren Herk~nft auf der Existenz zweier reeller quadratischer Formen beruht. Das System habe n Freiheitsgrade und werde beschrieben durch n dimensionsgleiche Koordinaten Xj (Längen, Winkel, auch Flächen u.a.), die zum Vektor T (Xl x2'" x n ) = x zusammengefaßt werden. Stammen alle auf den Verband einwirkenden äußeren Kräfte aus Potentialfeldern, so gilt bekanntlich der Energiesatz (Erhaltungssatz) (38)
E(t)+
in Worten: die Summe aus kinetischer Energie E(t) und potentieller Energie
c 2
1
= -xT(t)Cx(t) = -xT(t)Ax(t) 2
,
(39)
(40)
wo mund c geeignet zu wählende Vergleichsgrößen sind. Die Division der Gleichung (38) durch ml2 führt auf den computergerechten Ausdruck
und zu diesem gehört, wie in der Mechanik gelehrt wird, die Bewegungsgleichung 2
I Bi(!) = - v Ax(t); B pos. deLI,
(42)
deren Lösung eindeutig wird durch Vorgabe von 2n Anfangsbedingungen zur Zeit to = 0, x(O) = xo,
x(O) = Xo .
(43)
293
15.6 Lineare Schwingungssysteme
Für diagonalähnliche Paare A;B wurde die Vektordifferentialgleichung (42) mit den Anfangsbedingungen (43) im Abschnitt 14.4 gelöst, und dieselbe Lösung gilt selbstredend auch im hier vorliegenden Sonderfall der Diagonalkongruenz: wir haben lediglich r durch t und yj durch x zu ersetzen. Ferner wollen wir f(t) statt w(r) schreiben, dann geht (14.63) über in
J
x(t)
= Xf(t)~
x(t)
=
n
L xJj(t)
(44)
j;\
mit den nEigenlösungen (45) deren Startwerte fjo und fjo aus den vorgegebenen Anfangswerten (43) als Formenquotienten (46)
zu berechnen sind. Der Typ der Eigenbewegung fj(t) wird durch den zugehörigen Eigenwert Aj nach (14.43) bis (14.45) bestimmt. Für Aj>O resultiert eine harmonische Schwingung mit der Kreisjrequenz Wj' für Aj = 0 eine Translation und für Aj
Abb. 15.3. Die von Sandensehe Wippe
Abb. 15.4. Dreirnassenschwinger
294
15 Diagonalkongruente (normale) Matrizenpaare
Fassen wir alles Gesagte nochmals übersichtlich zusammen zu folgendem
Programm 1. Wahl der n dimensionsgleichen Koordinaten (XI x2 ... x n ) = x T. 2. Aufstellen der kinetischen Energie E(x,x; t) und der potentiellen Energie l/>(x; t).
3. Quadratisieren dieser Ausdrücke, d. h. Verkürzen zu den quadratischen Formen (41). 4. Das charakteristische Polynom det (A -AB) = p(A) aufstellen. 5. Die n Eigenwerte als Nullstellen der Gleichungp(A) = 0 und damit die Eigenkreisfrequenzen Wj bzw. Wj berechnen:
6. Die Eigenvektoren (Eigenschwingungsformen) xi berechnen als Eigenspalten Ti zur Pivotmatrix ni gemäß
7. Anpassen an die Anfangsbedingungen (43) mittels der Bilinearformquotienten (46). 8. Die Lösung steht in (44). Dieses Programm läßt sich ohne Schwierigkeiten von einem Computer realisieren. Der Leser beachte besonders, daß die Bewegungsgleichung (42) selbst an keiner Stelle benötigt wird, ja deren Existenz braucht nicht einmal bekannt zu sein; sie liefert lediglich die theoretische Begründung für die Lösung (44), die allein auf der Kenntnis der beiden Energieformen beruht. Der Vollständigkeit halber sei noch erwähnt, daß bei der Quadratisierung der beiden Energieformen auch lineare Anteile verbleiben können; diese treten dann zur Differentialgleichung (42) hinzu, die damit inhomogen wird (erzwungene Schwingung). Für diese und weitere Fragen sei der Leser verwiesen auf das Lehrbuch von Müller und Schiehlen [39]. Erstes Beispiel. Die Wippe der Abb. 15.3 mit n = 2 Freiheitsgraden. Wir halten uns strikt an unser Programm. 1. Koordinatenwahl. Es sei
X=
C:J '
(a)
wo 1 eine beliebig wählbare Vergleichslänge ist. Beide Variablen sind dann in cm zu messen. 2. Das Massenträgheitsmoment der Wippe bezüglich des Drehpunkts 0, der zugleich Schwerpunkt (besser Massenmittelpunkt) ist, sei eo' Dann setzen wir e o = /i m 12 mit noch später zu bestimmendem Faktor /i und haben damit die (doppelte) kinetische Energie
2E= m(s2+ s 2ifJ2)+eoifJ2 = m(s2+ s 2ifJ2+/i/2ifJ2) . L-....J
(b)
295
15.6 Lineare Schwingungssysteme
Die beiden Federn mögen dem Hookeschen Gesetz genügen, dann ist die (doppelte) potentielle Energie von Feder- und Schwerkraft 2(/> = CtS2+c2s2+2mgssinqJ =
(Cl
+C2)s2+2mgs(qJ-qJ3/3! + ... ) I
.
(c)
I
3. Streichen aller in (b) und (c) unterklammerten nichtquadratischen Terme; es verbleibt 2 2 2 mg 2E=ms +/i(lip) ; 2(/>= (C I +C2)S +2-s(lqJ) /
(d)
oder nach Division durch m und mit den Akürzungen Cl +C2 2y=--, mg
g v 2 =/
(e)
(f)
und dies ist genau die quadratische Form (11.1') für n = 2 mit den Variablen Die dimensionslosen Matrizen aus (41) sind somit
Xl
= sund x2 = /qJ.
(g)
(h)
5. Die Eigenwerte und damit die Eigenkreisfrequenzen sind
At=y-V y 2+11/i <0;
WI=V~;}
A2=y+V y 2+1I/i >0;
W2=V~.
(i)
Nehmen wir die beiden Federn fort, so wird mit c t = c2 = 0 auch y = 0, und es verbleibt At
= -
~
< 0, wt = v ~; A2 = + ~ > 0, w2 = V~ .
(j)
6. Die Eigenvektoren berechnen wir nur für den Sonderfall (j): (k)
7. Das Anpassen an zwei vorgegebene Vektoren Xo und i o sei dem Leser überlassen. 8. Die Lösung ist nach (44)
x(t) =
[ -V;-J I I
1 (t)
+
[+ V;-J 1
12(t)
(I)
mit den beiden Eigenlösungen a) Fliehbewegung (m)
296
15 Diagonalkongruente (normale) Matrizenpaare
b) Harmonische Schwingung . sin wzt ,r-:: 1r-:!z(t)=!zocoswzt+!zo--, wz=Vgl /·V lltJ·
Wz
Abb. lS.Sa,b. Die beiden Eigenbewegungen der Wippe von Abb. 15.3 ohne Federn
•
a
(n)
Die Bewegungen verlaufen nach Abb. 15.5 um so langsamer, je größer die Drehträgheit der Wippe im Verhältnis zur Masse m ist. Sei die Masse des Brettes Sm, dann ist <9o =5m·/ zI3, somit tJ
= 5/3
und
V3I5 = 0,880.
Zweites Beispiel. Für die Schwingerkette der Abb. 15.4 ist
A
=
[-:
-;
o -1
-~J
z
c
v =-
1
m
(a)
Zu Beginn der Bewegung (t = 0) sei vorgegeben
Xo
=
GJ ' = [-!J Xo
a
(b)
wo der Faktor a aus Dimensionsgründen stehen muß. Die charakteristische Gleichung (c)
liefert die Eigenwerte (d)
und somit nach (40) die Eigenkreisfrequenzen (e)
297
15.6 Lineare Schwingungssysteme Die drei Eigenvektoren sind
(1)
Die drei Eigenbewegungen verlaufen demnach folgendermaßen: Wt
= 0: Translation der Schwingerkette.
w2> 0: Die mittlere Masse m2 ruht, die Masse m t schwingt nach rechts (links), die Masse m3 mit dem gleichen Ausschlag nach links (rechts).
w3> 0: Die Masse m2 schwingt nach links (rechts), und zwar um so weniger stark, je größer der Faktor p ist. Die beiden Massen m, und m3 schwingen nach rechts (links) mit dem gleichen Ausschlag. Für p~ 00 bleibt die mittlere Masse in Ruhe; man vergleiche damit die zweite Eigenschwingung. Mit den Anfangsbedingungen (b) und den Eigenvektoren (1) berechnen wir die Größen (46)
110 =
.
pa
110 = - -
1 ,
(g)
l+p
und daraus die drei Eigenlösungen (41)
1t (t) =
pa
1'1--t ,
(h)
l+p
1
h(t) = - cos w2 t ,
(i)
2
a sin w3t
1
13(t) = ---cosw3t+----4+2p
2+p
(j)
w3
Damit ist die angepaßte Lösung mit noch zwei freien Parametern p (mittlere Masse) und a (Geschwindigkeit) ermittelt:
x(t)
=
.f
J= 1
X/j(t)= [:] 1
1t (t)+
[
~J h(t)+ [-~/P]
-1
1
(k)
h(t)
Man berechne hieraus die Ableitungen x(t) und i(t) und überzeuge sich, daß die Differentialgleichung (a) identisch und die Randbedingungen (b) für t = 0 erfüllt sind.
Drittes Beispiel. Homogene (das heißt aus lauter gleichartigen Elementen aufgebaute) Schwingerkette nach Abb. 15.6 mit den drei Typen
Federkette II Dehnstab III Drillstab
Koordinaten
Federzahlen
Massenträgheit
[em] [em] [Rad]
e EF// Elil
m m e
Xj Xj IfJj
v2 elm EFlm/ Ellel
Aber auch die schwingende Saite mit Einzelmassen und andere Systeme gehören zu dieser Klasse.
298
15 Diagonalkongruente (normale) Matrizenpaare
::LA~A~~~ c ';;\19 v / '
'~AA:A~
m
~A~~~A/\ vw ';; vw
~--c~~~
~ v VW
m
m
m
•I •I ~
~ •I •I
+H
~
~ v
II
v
c
c
m
v
.
c
m c
m
m
m
•I •
~ • •I I
m
m
~
~
eR
b
a Abb. lS.6a, b. Gleichwertige homogene Schwingerketten
Die Lösungen lassen sich für beliebig viele Freiheitsgrade (z, B. n = 20000) explizit angeben. Fall a) Beidseitig eingespannt. Hier ist A Q die Matrix (17.57), B = In mit den Eigenwerten (17.58) und den Eigenvektoren (17.51). Fall b) Links eingespannt, rechts frei. Ab (17.59), B=In mit den Eigenwerten (17.61). Die beiden Federmatrizen cA Q und cA b unterscheiden sich allein durch das Element ann = 2 und ann = 2 -1 = 1, was gerade besagt, daß die letzte Feder rechts im Fall b) fehlt. Viertes Beispiel. Eine Punktrnasse m ist im Schnittpunkt P von drei gleichartigen elastischen Stäben nach Abb. 15.7a befestigt. Man diskutiere das Schwingungsverhalten.
Bahn von m
a Abb. lS.7a,b. Homogenes Dreibein mit Massenpunkt
Wir beschreiben die Bewegung durch den Vektor x(t) vom Punkt P zum Massenpunkt m; dann lautet die Bewegungsgleichung (a)
Mx(t) = - Cx(t)
mit der Massenmatrix M = mI3 und der Federmatrix C (12.34) mit den Federzahlen Cj = EF/lj (Quotient aus Dehnsteifigkeit und Länge des Stabes). Da die drei Vektoren aj in die Richtungen von X,Y,Z fallen, wird C = cI3 , und damit geht die Vektordifferentialgleichung (a) über in mx(t)
= -cx(t)
oder x(t)
= -w 2x(t)
mit w 2 = clm .
(b)
Die Lösung ist demnach io x(t) = Xo cos wt+- sin wt ,
w
(c)
und dies ist die Gleichung einer Ellipse in der von den Vektoren Xo und iolw aufgespannten Ebene, die in der Zeit T = 2111 weinmal durchlaufen wird. Die Vektoren Xo und iolw bilden ein Paar
299
15.7 Die hermiteschen Komponenten eines normalen Paares
von konjugierten Halbachsen. Stehen sie aufeinander senkrecht, so wird die Ellipse zum Kreis, fallen sie in die gleiche Richtung (oder ist einer von ihnen der Nullvektor), so entartet die Ellipse zu einem Geradenstück . Daß die Lösung in diesem Spezialfall ohne jede Rechnung gelingt, liegt darin begründet, daß das Matrizenpaar 13;/3 die drei Eigenwerte AI = A2 = A3 = 1 besitzt und damit v = w ist. Bei nicht gleichartigen Stäben ist die Federmatrix C vollbesetzt, und nun stellen sich komplizierte räumliche im allgemeinen nicht geschlossene Bahnkurven ein, wie in Abb. 15.5b angedeutet.
Kommen wir nochmals zurück auf den Energiesatz (38). Mit der Lösung x(t) = Xf(t) (44) schreiben sich die beiden quadratischen Formen v 2 A(t)
n
= v 2fT(t)X TAXf(t) = v 2fT(t)Af(t) = v 2 L AjfJ(t) = j=l
~
bzw.
= jT(t)X TBXj(t)
B(t)
= jT(t)lnj(t)
~
n
L wJfJ(t)
j=l
(47)
n
L jJ(t)
(48)
j=l
und damit geht die Gleichung (41) über in n
2
~
2 2
'2
n
~
2 2
'2
lJ>(t)=E(t)=v A(t)+B(t) = "'" [wJj(t)+fj(t)l= "'" [wJjo+fjol. j=1 j=l (49)
Hieraus folgt zunächst nicht ohne weiteres, daß jeder Summand für sich konstant sein müßte, doch hatten wir in (14.49) gezeigt, daß für die skalare Differentialgleichung bx(t) = -v 2 ax(t) mit den reellen Größen a, bund v 2 die Beziehung (50)
gilt, und damit zerfällt der Erhaltungssatz (49) in die n separaten Erhaltungssätze (51)
und dies gilt ebenso für negative Eigenwerte (Fliehbewegung) und für die Translation mit Wj = O. 15.7 Die hermiteschen Komponenten eines normalen Paares
Wie schon in (4.8) gezeigt, läßt sich jede quadratische Matrix A eindeutig zerlegen in (52)
mit den beiden hermiteschen Komponenten
1
H 1 = - (A
2
+ A *), H 2 =
-
1
2i
(A - A *) .
(53)
300
15 Diagonalkongruente (normale) Matrizenpaare
Zerlegen wir auch die Eigenwerte (54)
in Real- und Imaginärteil, so wird nach (7) n
A
=
L
j=l
n
AjDj =
n
L (uj+ivj}Dj = L
j=l
j=l
n
ujDj+i
L
j=l
vjDj
(55)
Nun ist die Dyade D j hermitesch und sie bleibt es, wenn sie mit einem reellen Skalar Uj oder Vj multipliziert wird. Damit erweisen sich zufolge der Eindeutigkeit der Zerlegung (52) die beiden hermiteschen Komponenten als H1=
n
L
j= 1
ujDj , H 2 =
n
L
j= 1
(56)
vjDj
Als nächstes betrachten wir die konjugiert-transponierte Matrix
A
*=
n
L Aj D j
=
j= 1
n
L XjDj
j=
(57)
,
1
und dies Ergebnis besagt, daß das Paar A *;B die konjugierten Eigenwerte Xj zu den Eigendyaden D j und damit zu den Eigenvektoren Xj des Paares A;B besitzt. Drittens schließlich bilden wir das dreifache Produkt
A*B- 1A =
n
L
j=l
XjDjoB-1o
n
L
j=l
AjDj =
n
L
j=l
XjDß-1DjAj
(58)
Hier verschwinden alle gemischten Produkte zufolge der Orthogonalitätsbedingung (14.34), weshalb die Doppelsumme in eine einfache Summe übergeht, und diese vereinfacht sich weiter nach (14.37) zu
A*B- 1A
n
=
L n= 1
n
XjAjDß-1Dj =
L
j= 1
XjAjDj
(59)
Das hermitesche Paar A * B - 1A; B (und ebenso natürlich das Paar AB - 1A *; B) hat somit die Betragsquadrate XjAj als Eigenwerte zu den Eigendyaden Dj und damit zu den Eigenvektoren Xj des Originalpaares A; B. Wir beobachten hier eine allein den normalen Paaren eigentümliche Korrespondenz zwischen den Eigenwerten und zugehörigen Matrizen, ein Ergebnis, das wir in der folgenden Übersicht nochmals zusammenfassen.
301
15.8 Fragen der Normierung
Matrix zum Partner B
Eigenwerte
Eigenvektoren
A A*
Aj Xj
'""'
Hj
1
= -(A +A *)
2 1 H 2 = -(A-A*) 2i A*B- 1A 1
AB- A*
Uj Xj
(60)
Vj
}
-
2
2
AjAj=Uj+Vj
~
Aus dieser Eigenschaft folgt offenbar noch mehr, nämlich: Hat die hermitesche Komponente H 2 den Defekt d 2 = n - r2' so sind d 2 Eigenwerte des Paares A;B reell. Und analog: hat die hermitesche Komponente H 1 den Defekt d 1 = n - r1> so sind d j Eigenwerte des Paares A; B rein imaginär. Im Extremfall gilt: Ist H 2 = 0, so ist A = H j hermitesch mit n reellen Eigenwerten, ist H j = 0, so ist A = i H 2 schiefhermitesch mit n rein imaginären Eigenwerten. Auf Grund des Trägheitsgesetzes von Sylvester aus Abschnitt 11.4 lassen sich noch weiter gehende Aussagen machen; wir kommen im Abschnitt 21 darauf zurück.
15.8 Fragen der Normierung Die Normierung eines Eigenvektors Xj' d. h. die Festlegung seines Betrages kann auf mannigfache Weise geschehen. Betrachten wir daraufhin die hermitesche Form des normalen Paares A;B, (61)
Ist nun A hermitesch, so sind die Eigenwerte Al' ... , An reell. Sie seien der Größe nach numeriert wie in Abb. 15.8, dann begrenzen sie ein Stück der reellen Achse,
a keine Normierung
b B-Normierung
Abb. 15.8a-c. Die Eigengeraden der Matrix F(,l,)
cF-Normierung
302
15 Diagonalkongruente (normale) Matrizenpaare
das als Wertebereich des hermiteschen Paares A;B bezeichnet wird. Die hermitesche Form (61) stellt dann eine zum Eigenwert Aj gehörige Eigengerade dar (62) Wir sehen: die Steigung tan Yj ist abhängig von der Länge (dem Betrag) des Vektors Xj, weshalb bei fehlender Normierung jede Eigendyade im allgemeinen eine andere - negative - Steigung besitzt, wie in Abb. 15.8 veranschaulicht. Wie bringen wir nun in das regellose Gewirr der Eigengeraden eine Ordnung? Im einfachsten Fall setzt man (63) womit die Länge des Vektors festgelegt, der Vektor selbst wie wir sagen B-normiert ist; es wird tan Yj = - 1, alle nEigengeraden schneiden die A-Achse unter dem gleichen Winkel Y = 135° und sind damit einander parallel, siehe Abb. 15.8b. Wählen wir dagegen anstelle von B eine zunächst beliebige hermitesche und definite Normierungsmatrix N und dividieren die Gleichung (61) durch die Form xj NXj, so wird x*Bx· tan y. = __ J_ _ J J
*
(64)
Xj NXj
wo nun die Steigung tang Yj der Geraden ebenfalls unabhängig von der Länge des Vektors Xj geworden ist; denn ersetzt man Xj durch eXj, wo e ein beliebiger reeller oder auch komplexer Skalar ist, so kürzt sich dieser in (64) heraus. Dessenungeachtet sind natürlich nach wie vor die Steigungen der Eigengeraden voneinander verschieden, was jedoch kein Nachteil zu sein braucht. Im Gegenteil, wählen wir speziell
!N=t5-
I
F(A);
t5,Areell,
N=N*def.l,
(65)
so wird aus (52) nach Division durch xj NXj = t5 -I xj F(A )Xj
(66)
und da gF(Xj, A) = t5 unabhängig von Xj gilt, muß jede Eigengerade durch den Knotenpunkt P mit der Abszisse A und der Ordinate t5 gehen. Während also die B-Normierung (63) die Eigengeraden gleichrichtet, bewirkt die F-Normierung mittels der Matrix (65) eine Bündelung im Punkte P; ein Sachverhalt, auf dem eine Reihe leistungsstarker Algorithmen wie etwa die iterative Einschließung [178) sowie weitere Einschließungssätze beruhen. Die Abb. 15.8c zeigt zugleich, daß die
15.9 Die singulären Werte eines allgemeinen Matrizenpaares
303
positive (negative) Definitheit der Normierungsmatrix N (65) gesichert ist bei Wahl von
<5>0, A
oder
<5<0,
An
--+
N pos. def. ,
(67a)
<5<0, A
oder
0>0,
An
--+
N
(67b)
neg. def.
Auf jeden Fall also muß A außerhalb des Wertebereiches liegen, während 0 beliebig wählbar ist. Nur der Vollständigkeit halber erwähnen wir noch, daß sich die Normierungsmatrix (65) auch in der Form (68)
schreiben läßt mit (69)
15.9 Die singulären Werte eines allgemeinen Matrizenpaares
Es sei A eine beliebige quadratische Matrix, dann besitzen nach Satz 3 aus Abschnitt 13.9 die Paare A *A;/n und AA *;In die gleichen Eigenwerte bei im allgemeinen verschiedenen Eigenvektoren. Es bestehen mithin die beiden Gleichungen (70) (71)
Die Werte xJ heißen die singulären Werte des Paares A;/n' Sie sind reell und nichtnegativ , xJ~o;
j= 1,2, .. . ,n
,
(72)
da H u und H v hermitesch und positiv (halb-)definit sind, und damit gilt auch (sofern A nicht die Nullmatrix ist, was wir ausschließen wollen) n
spHu=spHv =
L xJ>O
(73)
j=l
und det H u = det H v =
n
TI x J~ 0
(74)
j=t
Ist Anormal, A * A = AA *, so wird nach (59), (60) (75)
304
15 Diagonalkongruente (normale) Matrizenpaare
Für beliebige, nichtnormale Matrix A dagegen können die Differenzen LI j beachtliche Werte annehmen. Erstes Beispiel. Wir setzen zur Abkürzung 1 +äa = f.l. Dann wird
A =
G:J '
A*=
C~J
; Hu = A • A
=
[1 J a
ä 1 +f.l
, Hu=AA*=
[
1 +äf.l a] 1 (a)
Die charakteristische Gleichung
(b)
schreiben wir in der Form (c)
und erkennen aus Abb. 15.9, daß die singulären Werte von 1 ausgehend gegen Null und unendlich rücken, wenn die Steigung f.l der Geraden gegen unendlich geht.
),
Abb. 15.9. Zur Lage der singulären Werte
Die Eigenwerte von A sind ebenso wie die von A * (d)
Die Differenz (75) L!.=x L l·1 . J'= 1,2 J
J
(e)
'
kann damit fast 1 bzw. fast
00
groß werden.
Es sei nun die allgemeine Eigenwertaufgabe
yTA=yTB ; Ax=Bx; Bregulär
(76)
vorgelegt. Dann transformieren wir unter Einführung neuer Vektoren
y T =y-TL 0; x= R Ox-
(77)
305
15.9 Die singulären Werte eines allgemeinen Matrizenpaares
die Matrix B auf die (im allgemeinen nicht diagonale) Pivotmatrix
LoARo = A, LoBRo = II ,
(78)
wozu La und Ra explizit gar nicht benötigt werden (Gaußscher Algorithmus). Anschließend geht man entweder auf n - I A oder A ll- I über und bekommt als Verallgemeinerung der beiden Gleichungen (70) und (71) (79) (80)
mit der reellen und positiven Diagonalmatrix (81) Zweites Beispiel
A = [2 lJ ; B = [1 lJ, 2 3 1 -1
det B = - 2 .
(a)
Wir addieren in beiden Matrizen die erste Zeile zur zweiten und anschließend die mit - 1 multiplizierte zweite Spalte zur ersten, das gibt die transformierten Matrizen (b)
Nach (79) wird nun
Ru = /FA
-1
Ä
=
[:
:]
(c)
,
und daraus folgt (d)
Nach (80) hingegen wird A-ÄT =
[2 4J 4
,
A=
16
G:J '
(e)
(f)
wie in (d). Die singulären Werte als Lösungen von (d) bzw. (f) sind
xf=3-V5=0,763932 ,
x~=3+V5=5,256068.
(g)
f
Die Eigenwerte des Paares A; B (a) sind AI = - 1, A2 = 2, somit wird A = 1 und A~ = 4. Daß kleiner ausfällt als Af, aber x~ größer als A~, paßt übrigens gut zur Abb. 15.9.
xf
306
15 Diagonalkongruente (normale) Matrizenpaare
Die singulären Werte eines Matrizenpaares spielen unter anderem eine Rolle in der Numerik der Fehleranalyse, wo sie ein Maß für die Empfindlichkeit der numerischen Lösung gegenüber (kleinen) Störungen in den Elementen ajk und bjk der Matrizen A und B darstellen. • 15.10 Die Struktur eines Matrizenpaares Die Matrix F()") = A -)"B heißt von einfacher Struktur, wenn sie mittels zweier Modalmatrizen Y und X auf Diagonalform transformiert werden kann. Fassen wir nochmals die wichtigsten Ergebnisse aus den Abschnitten 14 (Diagonalähnlichkeit) und 15 (Diagonalkongruenz) zusammen: Diagonalähnlichkeit B regulär
Diagonalkongruenz (Normalität) B* = B def.
YBX=In BXY=In=XYB XY=B- 1
X*BX=In BXX* =In=XX*B XX* =B- 1 pos. def.
F()")
= YF()")X = A - U n fehlt
F()")
(82)
= X* F()")X = A -Un
äußeres Kriterium A*B-1A =AB-1A*
I
Bei nichtnormalen Paaren ist das größte Handicap das Fehlen eines äußeren Kriteriums, und dies bedeutet, daß erst nach Kenntnis aller n Eigenwerte eine Aussage über die Struktur des Paares möglich ist. Die Diagönalform ist indessen nicht aller Weisheit Schluß. Für die meisten Fragestellungen der Praxis genügt es vollauf, wenn die Matrix F(J..) äquivalent auf obere (oder auch untere) Dreiecksform transformiert werden kann, (83)
denn auch dann erscheint die charakteristische Determinante faktorisiert (84)
als Produkt ihrer nEigenterme. Ist
5jj * 0,
so ist der zugehörige Eigenwert (85)
Bei regulärem B gibt es somit n solcher Quotienten als Eigenwerte. In der nachfolgenden Übersicht sind nochmals die wichtigsten Transformationen zusammengestellt, wo die Spektralmatrix A als Sonderfall von "\l A und die Einheitsmatrix In als Sonderfall von"\l B anzusehen ist.
307
16.1 Zielsetzung
B-Ähnlichkeit B regulär
B-Kongruenz B beliebig
B-Normalität B* = B def.
LAR=~A
, LBR =In
PAQ=~A ; PBQ =~B mit Q*Q=In . P*P=In , (Bolzano-Weierstraß 1920 [86])
X*AX=A ; X*BX=In (Falk 1964 [173])
(86)
(87)
(88)
Es gelingt somit nach (87) mittels zweier strikt unitärer Matrizen P und Q das Paar A;B simultan auf ein Paar von oberen Dreiecksmatrizen zu transformieren. Für das spezielle Paar A;In wurde dies von Schur 1909 [115] gezeigt; es ist dann P=Q. Halten wir aber als für die Anwendung wichtigstes Ergebnis fest: auch wenn das Paar A;B nicht normal ist, so ist es doch zumindest diagonalähnlich, wenn alle n Eigenwerte einfach sind, und da in den Anwendungen mehrfache Eigenwerte so gut wie niemals vorkommen, ist der Inhalt des nachfolgenden Abschnittes 16 für den Praktiker von rein akademischem Wert, während es für den Mathematiker eigentlich erst interessant wird. Zum Verständnis der im V. Kapitel behandelten Matrizengleichungen und Matrizenfunktionen ist allerdings auch für den Nichtmathematiker das Studium der Abschnitte 16.1 bis 16.3 unerläßlich.
16 Die Block-Diagonalmatrix. Strukturfragen • 16.1 Zielsetzung
Das Matrizenpaar A; B mit regulärer Matrix B habe s sn verschiedene Eigenwerte Aj mit den - im allgemeinen unbekannten - Vielfachheiten aj' Es liege also die folgende Liste vor Eigenwert (1)
Vielfachheit und wir planen eine Transformation
(2)
YAX=A mit det Y= (detB)-t
detX = 1
(3)
308
16 Die Block-Diagonalmatrix. Strukturfragen
auf ein Paar von Block-Diagonalmatrizen
YAX=A =
r~l . ~~ . : : . .:l lo ~s J 0
li YBX=l,
= : [
...
:l
o
h
o
(4)
wobei auch die beiden Transformationsmatrizen in passender Weise zu unterteilen sind
Y=
[
y1 y2 ys n
4
u!
J •
U
z
x=
[Xl
X2
'"
Us U
U!
z
'"
x,J 1
(5)
Us
Die s Hauptdiagonalblöcke ~j der Ordnung Uj der Matrix A heißen Eigenmatrizen oder Eigenb/öcke. Sie sind von oberer Dreiecksform
j = 1,2, ... ,s
(6)
und können mit der strikten oberen Dreiecksmatrix Fj auch so geschrieben werden
~j=Ä.jlj+Fj
mit Fj =
[~ ~~2 ~~l ..
o
••
0
...
0
J
(7)
u)
Es erweist sich als vorteilhaft, die Transformation (2) bis (5) in zwei getrennten Schritten vorzunehmen. 1. Schritt. Die B-ähnliche Transformation LAR=~
; LBR=In
überführt die Matrix A in eine obere Dreiecksform tegie
(8) ~
nach folgender Stra-
309
16.1 Zielsetzung
n
A=A= (9) n
8=8=
Es sind somit n Transformationen zu vollziehen. Der letzte Schritt von von 1 nach I
o dient allein dazu, das Element unten rechts in B zu Eins zu machen; das letzte Paar Ao;Bo ist ein Skalarpaar mit A o = As und Bo = 1. Dieser Schritt entfällt für den Sonderfall B = In' siehe das zweite Beispiel im Abschnitt 16.3 mit B = 16 , Zur Erläuterung führen wir das Schema (9) für n = 3 vollständig vor:
2 [AI0
A=
o
[jJ (9a)
2
B=
:l ocbJ
B= r~ ~ L~
BI
r1
0 0 ]
L~[8]
B~ G!~] Bo
Da mit jeder Transformation das in (9) gekennzeichnete Matrizenpaar Am;Bm unten rechts von kleinerer Ordnung ist, wird diese Vorgehensweise als sukzessive Ordnungserniedrigung bezeichnet, und zwar heißt sie exogen, wenn die Eigenwer-
16 Die Block-Diagonalmatrix. Strukturfragen
310
te von außen an das Problem herangetragen werden, mit anderen Worten bereits in der Datenliste (1) vorhanden sind, und endogen, wenn gleichzeitig mit der Ordnungserniedrigung die numerische Ermittlung der Eigenwerte Äj einhergeht, wie dies beispielsweise bei den Transformationsalgorithmen L R, QR, QZ und Velocitas geschieht, die wir im Abschnitt 40 ausführlich schildern werden. Die so konstruierte Dreiecksmatrix (8), (9) formulieren wir nun ihrerseits in Blöcken
(10)
2. Schritt. Durch eine strikte Ähnlichkeitstransformation in Blöcken beseitigen wir in der Matrix (10) die Blöcke oben rechts, womit schon die Block-Diagonalmatrix A vor uns steht:
(11 )
und nun zeigt ein Vergleich mit (2), daß die beiden Gesamttransformationsmatrizen sich auf folgende Weise zusammensetzen (12)
Für die numerische Durchführung ist wesentlich, daß fast ausnahmslos normierte Block-Dreiecksmatrizen verwendet werden, deren Inversen sich mit minimalem Aufwand berechnen lassen. Mit der Block- bzw. Blockstreifeneinteilung (wo R 2 gleich R 12 gesetzt wurde)
R=
11 R 12 R l3 0 Iz R 23 0 0 h
R 1,s-1 R 2,s-1 R 3,s-1
R 1s
1o1 C&J~ Iz R 3
R 3s
0
0
h
0 0
0 0
0 0
R2s
......................... .
0 0 0 0
0 0 ...
IS-
0
1
Rs -
Is
1,s
•..
...............
El I s-
0
1
Rs Is
(13)
entsteht nämlich wie im gewöhnlichen Fall (5.7) die Inverse auf einfachste Weise durch Ausmultiplizieren der Elevatormatrizen in umgekehrter Reihenfolge, also zum Beispiel für s = 4
16.2 Die Transformation auf obere Dreiecksmatrix
[,o -Rh 00 12
R- I =
o o
h
0 0
:J ~
0
0 14
0
h
0 0
311
:J ~
-R 13 -R23
h
0
14
0
0
0 0 -R24 13 -R34 0 14
-R14J
h
0 0
(14)
oder in Block-Elevatoren formuliert
R- I =
['E!U o o o
12 0 0
oo h o
0J
0 0 14
[I' ~:J [~ o 0
0 0 0
h 0 0
h
0 14
0 0
0
0 0
h
h
0 0
0
Bj. 14
(14a)
Nur am Rande vermerken wir, daß Block-Diagonalmatrizen auch als direkte Summen bezeichnet und dann so notiert werden A=~I(jJ~2(jJ···(jJ~s ;
In
=
I 1 (jJ h (jJ ... (jJ 15
(14b)
,
eine Schreibweise, von der wir jedoch kaum Gebrauch machen werden. Als Gegenstück zu (14b) existiert auch ein sogenanntes direktes Produkt zweier (oder auch mehrerer) Matrizen der Art (14c)
E=A®B
• 16.2 Die Transformation auf obere Dreiecksmatrix Es seien bereits einige Eigenwerte At bis Aj_ t aus der Liste (1) verarbeitet, somit mindestens j - 1 Ordnungserniedrigungen vollzogen, dann steht unten rechts in (9) das Paar Am; B m, das es nun weiter zu transformieren gilt, und dies geschieht in drei Etappen: 1. Ermittlung eines Rechtseigenvektors Tj zum Eigenwert Aj nach dem Gaußschen Algorithmus. m
m
m
(m)
(m)
m- I
2. Spaltenkombination der aktuellen Matrizen A, B, R zu A, B, R. m
(m)
(m)
m-I
m-I
m-I
3. Zeilenkombination der aktuellen Matrizen L, A, B zu L , A, B Wir schildern nun den dazu erforderlichen Algorithmus im einzelnen.
1. Transformation auf die Pivotmatrix. Die singuläre Matrix
Fjv=A-Aß;
v=m
(15)
312
16 Die B1ock-Diagonalmatrix. Strukturfragen
wird nach dem Gaußschen Algorithmus auf die Pivotmatrix (16) transformiert, und zwar spaltenweise fortschreitend von rechts nach links, wobei die Wahl der Pivots innerhalb der Spalte beliebig ist. Wir setzen fürs erste voraus, daß die Pivotmatrix nur eine einzige Nullspalte der Nummer k besitzt, dann ist rk Eigenspalte zur singulären Matrix Fj und damit Rechtseigenvektor des aktuellen Paares Am; B m zum Eigenwert }...j; der Rangabfall (Defekt) ist folglich gleich eins. Man sagt dann, der Eigenwert}...j ist total defektiv oder nicht-derogatorisch (derogatorisch = ein Gesetz (zum Teil) aufhebend). Bezüglich der Eigenspalte rk hatten wir im Abschnitt 6.15 unterschieden: 1a) Regelfall 1
1b) Ausnahmefall 0 0
Zeile Il
* * * *
r/.1-
rk=
0 1
*
*
*
Zeile k>1l
I
m
(17)
j
In beiden Fällen wird der Vektor nach oben vervollständigt durch n - m Nullen zu einem Vektor mit n Komponenten und damit passend gemacht zur Transformationsmatrix R der Ordnung n. Diese ist im Regelfall 1a) mit k = m
;k
v
R m = (eI'" em-I rm em+l'"
(18)
im Ausnahmefall 1b) dagegen (19)
m m m 2. Spaltenkombination, d. h. Multiplikation der drei aktuellen Matrizen A, B, R von rechts mit R m : START
m (m) m (m) m m- 1 ARm = A , BRm = B , RRm = R
R=In
(20)
Was bedeutet dies aber?
m m m m m m 2a) Regelfall. Die drei Spalten a, bund r von A, Bund R werden ersetzt durch die Bildvektoren mv
Arm'
mv
mv
Brm , Rrm
313
16.2 Die Transformation auf obere Dreiecksmatrix m m
m
2b) Ausnahmefall. Die an der Position k>m stehenden Spalten von A, Bund R m m m werden ersetzt durch die Spalten - a, - bund - r, dann erst erfolgt 2a). m
(m)
3. Zeilenkombination. Gauß-Jordan-Algorithmus an den drei Matrizen L; A (m)
und B.
START L =/n'
~~!
~~~+,
und hier sind zwei Fälle zu unterscheiden. (Es ist 3a) Das Hauptdiagonalelement
(m)
bJ1J1
f.1
(21)
= n - m + 1).
ist von Null verschieden. Dann werden die
m (m)
(m)
(m)
drei Zeilen der Nummer m von L, A und B durch b/1/1 dividiert. 3 b) Das Hauptdiagonalelement ist unten so, daß
(m)
bJ1J1 =
(m)
bJ1J1
= O. Dann erfolgt Pivotregulierung von
1 wird. (m)
Sodann wird via Gauß-Jordan mit der Eins in der Hauptdiagonale als Pivot in B (m)
nach unten und oben reduziert. Dabei gehen alle Elemente in A unterhalb der Hauptdiagonale in Nullen über, und es ist m aJ1~ = Aj. Ende der Transformation der Nummer v = m. Da uns die Vielfachheit des Eigenwertes Aj nicht bekannt ist, wird im nächsten Durchgang wiederum Aj in die Matrix Fj,m-l (15), jetzt von der Ordnung m-l, eingesetzt und die Transformation (16) bis (21) durchgeführt. Dieses Spiel wird so lange fortgesetzt, bis die Pivotmatrix (16) regulär wird; dann gibt es keine weitere Eigenspalte mehr, und die Prozedur bricht damit ab. Die Vielfachheit aj des Eigenwertes Aj ist gleich der Anzahl der Ordnungserniedrigungen und wird in die Datenliste (1) eingetragen. Ist schon beim zweiten Mal die Pivotmatrix regulär, so heißt dies, daß Aj ein einfacher Eigenwert ist. Sodann wird der nächste Eigenwert Aj+ 1 aufgerufen und mit diesem eine Anzahl von aj + 1 Transformationen durchgeführt bis schließlich hin zum letzten Eigenwert As ' womit dann die obere Dreiecksmatrix ~ gewonnen ist. Wir werden im Abschnitt 18.4 noch zeigen, daß der Defekt dj von Ordnungserniedrigung zu Ordnungserniedrigung nicht anwachsen kann; bei einem nichtderogatorischen Eigenwert Aj ist somit dj = 1 für jede Matrix F jv (15). Erstes Beispiel
'
B=~= r~L~ ~ ~J ~ I 1 0
(Jj
(a)
? ?
Erste Ordnungserniedrigung Wir beginnen mit AI = 4. (Natürlich wäre auch A2 möglich, der Leser führe dies anschließend zur Übung durch!)
314
16 Die B1ock-Diagonalmatrix. Strukturfragen
1. Mit der singulären Matrix F Jn = Fn(A J) = A - 4B (t 5) führen wir die Transformation LFlnR = fl ln (16) durch, beginnend mit der letzten (hier dritten) Spalte, und gewinnen den normierten Rechtseigenvektor 'k ='J
[ 1-1-;~;-6J -+', [-:/31J ' -;
F'n=
(b)
Probe: Fln'J = o!
=
3
2. Wir berechnen die drei Bildvektoren (beim Start ist R = I)
(c)
3
3
3
und führen sie als erste Spalten in A, Bund R = I ein, das gibt (3) A =
[G -6J -1 -5 4/3 -5 -4 9 12
,
(d) (3)
3. Gauß-Jordan, durchgeführt an der Matrix B. Da oben links eine Eins steht, entfällt (3)
die Division. Wir bekommen mit L = I 3
L 1 -1/3 1
1 0 0
(3)
(3)
A
B
-1 -6 4 0 0 1 0 4/3 -5 -5 0 1 -4 9 12 2
1 0 0 1/3 0 1 -1 1 0 2 B
2
L
A
4
0 0 1 - 1/3 1 0 0 1 1
-1
o - 14/3
0
8
-6
1 0 0
-3
6
0 0 0 1 1 0 2
(e)
2
Die erste Ordnungserniedrigung ist damit vollzogen. In B ist die erste Spalte b J = eJ, und links 2
oben in A steht der Eigenwert AJ = 4, wie es sein muß. Zweite O,dnungserniedrigung 2
2
1. Wir gehen nochmals mit AJ = 4 in das Paar A 2;B2 der Ordnung 2 (das unten rechts in A;B (e) steht) ein und erhalten F2 (4)=A 2 -4B2 =
[
- 1413 - 3J -4 [0
8
6
lJ = [- 14/3 -7J , 1 0 4 6 (f)
16.2 Die Transformation auf obere Dreiecksmatrix
315
Der Eigenvektor '2 ist normiert und wird vervollständigt zu 2. Die drei Bildvektoren
v
'2.
(g)
rn - rn 222
werden als zweite Spalten in A, Bund Reingeführt:
(2) A
=
[4
0
o
- 8/3 4
6J
- 3 6
;
(2) B
=
[1
0 0
- 2/3 1
0J 1 0
,
RI =
2
[1
1 1/3
-
(2)
Cd 0J 1 - 2/3
(h)
1
(2)
3. Zeilenkombination. Division der zweiten Zeile von L (e), A und B durch - 2/3 ergibt 1 0 0 1 0 0 4 3 -6 112 -312 0 0 4 912 0 1 -312 1 0 4 6 0 1 0 1 0
(i)
und weiter nach Gauß-Jordan I
I
L
I
A
B
1 0 0 0 0 4 3 -6 0 1 1 112 -3/2 0 0 4 912 0 1 -312 -1 112 312 1 0 0 3/2 0 0 3/2
(j)
O.
Wir setzen ein drittes Mal AI = 4 ein, das gibt F t = A I -4B t = 3/2-4(312) = -912 *" Die "Pivotmatrix" (hier ein Skalar) ist somit regulär, der Eigenwert At hat folglich ausgedient, und es ist der nächste Eigenwert der Liste (a) an der Reihe. Da wir hier aber bereits am Ende angelangt sind, folgt als I
I
1
D,itte Transformation. Division der letzten Zeile von L, A und B durch 312 und anschließend ein Gauß-Jordan-Schritt
o
o
L
o
A
0 1 0 0 3/2 1 0 1 1 1/3 1 2/3
B
4 3 -6 1 0 0 0 4 6 0 1 0 0 0 1 0 0 1
(k)
Ende der Gesamttransjormation. Die Transformationsmatrizen sind
OOJ o 1 1 2/3
I
v
, R = R = (rl '2 r3)
= [1 -1
o 1
(I)
1/3 -2/3
Die Matrix R ist nichts anderes als die Folge der drei Vektoren (b), (f) und'3 = ohne Rechnung an, wie bereits im Text erwähnt. Probe: LAR=A ="\1; LBR=I!
e3
und fällt somit
316
16 Die Block-Diagonalmatrix. Strukturfragen
Zur numerischen Durchführung noch folgendes. Liegt bei jeder der n Ordnungserniedrigungen der Regelfall (17, 1a) vor, so braucht die Transformationsmatrix R gar nicht mitgeführt zu werden, da einfach gilt R=(rl
v
v
r2 ... r n_1
(21 a)
en ) .
Besondere Vereinfachungen ergeben sich beim speziellen Eigenwertproblem B = In' Hier wird nach jeder Ordnungserniedrigung die Einheitsmatrix In wiederhergestellt, so daß im Programmpunkt 3c) nur nach unten und nicht auch nach oben reduziert werden muß. Außerdem kann man auf die Mitführung der Matrix L verzichten, da sie als Inverse von R nachträglich leicht zu gewinnen ist. Es sei nun der aufgerufene Eigenwert Aj derogatorisch, dann weist die Pivotmatrix (16) djl > 1 Nullspalten auf, mithin gibt es auch djl linear unabhängige Rechtseigenvektoren, die im Regelfall nach dem Muster (6.58) erscheinen
1
1 0 0
I
m
rjl =
0 1 0
Zeile fJ
0
rj2 =
Zeile fJ - 1
0
rj3 =
0 0 1
Zeile fJ- 2
0
, usw.
* *
* *
* *
*
*
*
mit fJ=m-n+1
(21 b)
Die Vektoren rj2,rj3,' .. werden dann für die nachfolgenden Ordnungserniedrigungen aufgehoben (gespeichert); ansonsten verläuft der Algorithmus normal wie im nicht-derogatorischen Fall mit der Besonderheit, daß jetzt oberhalb der Hauptdiagonale in A ebenfalls Nullen erscheinen. Wieder ist der aktuelle Eigenwert Aj so lange in (15) einzusetzen, bis die Pivotmatrix (16) regulär wird. Der Eigenblock ~j hat dann (im Unterschied zu dem bereits besprochenen Fall (22a» die Struktur (22b) angenommen, wobei die Ordnung der einzelnen Diagonalblöcke nicht anwachsen kann, wie wir im Abschnitt 18.4 noch zeigen werden.
•
a) nicht-derogatorisch oder total defektiv
b) semi-derogatorisch oder beschränkt defektiv
•
•
•
•
•
•
(22)
•
•
c) strikt derogatorisch oder nicht defektiv
317
16.2 Die Transformation auf obere Dreiecksmatrix
Im Fall 22c) ist der Defekt block diagonalähnlich, "lj = Zweites Beispiel. n L=R- 1 •
= 6, B = 16,
d j1
gleich der Vielfachheit
(Jj'
mithin ist der Eigen-
Ajlj.
Eigenwert A = 5. Wir verzichten auf die Mitführung der Matrix
Die Transformation der singulären Matrix F(5) = A - 5/6 auf die Pivotmatrix, beginnend mit der letzten Spalte, liefert drei Rechtseigenvektoren in der Normalform.
~
=A = [ ' ;
-8 -6
(a)
Wir führen mit diesen die ersten drei Ordnungserniedrigungen durch und bekommen
~
=
5 0 0 050 0 0 5 000 000 000
=35 =4 4 32J -11 -7 6 3 - 4 0 ' -1 7 0 -5 10 5
t
3
sp A
= 30.
3
R
=
0 000000] [0110 0 0 0 1 0 0 0 2 1 - 1 1 0 0 0 0 -1 0 1 0 2 3 -3 0 0 1
(b)
3
wo der dreireihige Block oben rechts in A zufolge der Normalform von R unverändert geblieben 3 3 3 ist. In das Paar A 3; 13 der Ordnung 3 unten rechts in A; 1 = A; 16 setzen wir ein zweites Mal den Eigenwert A = 5 ein und erhalten mit der wiederum singulären Matrix F3 (5) zwei weitere Rechtseigenvektoren (c)
die zu vervollständigen sind. Die vierte Ordnungserniedrigung ergibt somit
~ [j =
0 5 0 0 0 0
-7 -4 -5 -4 - 14,5 -7 5 4 0 5 0 10
0 0 5 0 0 0 v
~]
2
, sp A = 30 .
k=
~
0 0 1 0 0 1 1 -1 0 -1 3 -3
0 0 0 1 0,5 0 2
2
0 0 0 0 1 0
~] 2
(d)
Mit dem Vektor '5 = e6 liegt der Ausnahmefall vor. Es wird deshalb in A, 1 und R die mit - 1 multiplizierte fünfte Spalte mit der sechsten vertauscht
318
16 Die Block-Diagonalmatrix. Strukturfragen
(2)
A=
[j
0 5 0 0 0 0
[1
0 0 1 0 0 1 1 -1 o -1 3 -3
1
R=
-7
0 0 5 0 0 0
3 2 6 0 0 5
-5 - 14,5 5 0 0 0 0 0 1 0,5 0
4
(2)
7 4J -4
1=
-5 -10
[1
0 1 0 0 0 0
0 0 1 0 0 0
0 0 0 o 0 o 1 o 0 o 0 1
']
0 0 0 -1 0
~] ~R
0 0 0 0 0 1
(e)
-1 0
Anstatt nach der Vorschrift 3a) bis 3c) vorzugehen (der Leser führe dies aber zur Kontrolle (2)
(2)
durch), ist es hier natürlich einfacher, wenn wir die beiden letzten Zeilen von A und I vertauschen und anschließend die sechste Zeile mit - 1 multiplizieren. Es wird dann nach (10) 5 0 0 0 0 0
0 5 0 0 0 0
-7
0 0 5 0 0 0 I
1
0
2
4 4
6 0 5 0
-4 -10 5
3
-5 - 14,5 5 0 0
7
(f)
0
1
Der Schritt von A; I nach A; I gemäß (9a) ist hier nicht erforderlich, da unten rechts in I eine 1 steht. Kontrollen: sp"l = spA = 30. AR = R"l.
• 16.3 Die Transformation auf Block-Diagonalmatrix Wir kommen jetzt zu der in (11) angekündigten zweiten Transformation, die wir zweckmäßig in der Form '\IQ = QA
(23)
schreiben. Zu ihrer Durchführung ist die Partitionierung der Matrix'\l mit den rechteckigen Blöcken C 2 = C 12 , C3, .•• ,Cs nach dem Muster
~C12 '\1=
0
C 13 C 23 '\1 3
CI,s-1 C 2,S-1 C 3,s-1
CIs C 2s
0 0
0 0
'\I s- I
Cs-l,s
0
'\I s
0 0
'\12
0 0
..........................
C 3s
16.3 Die Transformation auf Block-Diagonalmatrix
~1@J[;]
o
~2
3
0
0
~3
0 0
0 0
0 0
...
...............
319
D~
(24)
~s-1
0
~s
erforderlich, und auch die gesuchte Transformationsmatrix Q muß in dazu passender Weise unterteilt werden
11~~'" o h ... Q=
0
0
13
0 0
0 0
0 0
..............
B~ Is-
0
1
(25)
Is
In der Matrix~ (24) wurden außerdem die Hauptabschnittsmatrizen oder Hauptminoren H1 = ~ l'
H2 =
[~10 ~C2J 2
, ... ,
(26)
Hs = ~
hervorgehoben, die im folgenden in den Algorithmus eingehen. Denn multipliziert man die Gleichung (23) aus und setzt die einzelnen Blöcke auf beiden Seiten einander gleich, so entstehen die Relationen Ordnung ml = al Ordnung m2 = al + a2
......................................................
}
(27)
Ordnung ms-l=al+a2+ ... +as-1 oder auch
(28)
und das sind s - 1 zweigliedrige lineare Matrizengleichungen in der Normalform (19.37) für die gesuchten Blockstreifen Q2 bis Qs aus Q (25). Wir greifen eine beliebige heraus und lassen der Übersichtlichkeit wegen die Indizes fort HQ-Q~
= -C ,
(29)
320
16 Die Block-Diagonalmatrix. Strukturfragen
dann entsteht, wie im Abschnitt 19.7 gezeigt wird, mit der Spaltenaufteilung (30)
und den Elementen OliV des Eigenblockes (6) ein gestaffeltes Gleichungssystem für die Spalten ql bis qm aus Q ql } q2
{H-U)qt = -Cl {H-U)q2 = -C2+q\OI2
---+ ---+
(~~.~~~~~.~.~~~~.~~~~3.~.~2.~2~
~.~3
(H-AI)qm = -C m +qIOlm+q2 02m+··· +qm-IOm-l.m
---+
.
(31)
qm
Zufolge der Verschiedenheit der Eigenwerte Aj in den einzelnen Eigenblöcken ist die Matrix der linken Seite regulär und überdies von oberer Dreiecksform, was die Auflösung des Systems (31) in willkommener Weise vereinfacht. Sie kann für alle s - 1 Matrizengleichungen (28) gleichzeitig und unabhängig voneinander durchgeführt werden (Parallelrechner!), womit die Transformationsmatrix Q und nach (14) auch die Inverse Q -I und weiter nach (12) auch das Paar Y;X bekannt ist. Zur Kontrolle bestätigt man YAX = A und YBX = In nach (2). Zerlegen wir nun die Matrizen Y und X in Blockstreifen
_n_J y1 y2
(32)
ys
so haben wir die bereits im Abschnitt 10.2 - in etwas anderer Bezeichnungsweise - durchgeführte Spektralzerlegung auch faktisch gewonnen (damals noch unter der unbewiesenen Voraussetzung, es gäbe eine solche Transformation), und zwar ist s
s
A =
L
(BXj)"lj{yj B)
j=1
B=
L (BXj)Ij{yj B)
(33)
j=1
somit auch s
F{A)=A-AB= ~ (BXj)Fj{A)(yjB)
mit Fj=""lrUj
j=l
und daraus resultieren die beiden Eigenwertgleichungen
für jeden Parameterwert A.
(34)
16.3 Die Transformation auf Block-Diagonalmatrix
321
Sind alle Eigenblöcke diagonal, ~j = lt.jIj , Fall (22c), so läßt sich der mittlere Faktor aus dem dreifachen Produkt in (34) herausziehen, somit wird zufolge Fj = (lt.rlt.)Ij F(lt.)
= A -lt.B =
s
s
j=l
j=l
L (lt.rlt.)(BXj)(yj B) = L (lt.rlt.)Dj
(36)
mit den von den Eigenwerten unabhängigen Eigendyaden (eigentlich Eigen-Blockdyaden) (37)
und die Eigenwertgleichungen (35) gehen über in (38) Sind alle n Eigenwerte voneinander verschieden, so entarten die Blockstreifen (32) zu den jeweils n Links- bzw. Rechtseigenvektoren, und es wird F(lt.)=A-lt.B=
n
n
j=l
j=l
L (lt.rlt.)(BXj)(yjB) = L (lt.rlt.)Dj
(39)
mit den echten Dyaden (40)
während die s Gleichungen (38) zufolge s = n zerfallen in (41)
Kommen wir schließlich zum Rechenaufwand. Es seien zunächst alle s Eigenwerte Aj nichtderogatorisch, dann ergibt eine einfache Auszählung der erforderlichen Operationen die folgende Bilanz
Transformation
Anzahl der Operationen A vollbesetzt; B = In A und B vollbesetzt
LAR=~
1 4 +_n 5 3 _n 12
1
Q-l~Q=A
-n
3
Y= Q-1L ; X=RQ
-n
5
3
Summe
1 12
11
6
3
6
-n+-n 12
3
6
1
n3
6
4
17
-n
6
1
4
-n+-n
6
3
(42)
322
16 Die B1ock-Diagonalmatrix. Strukturfragen
Im derogatorischen Fall kann dies erheblich weniger sein, da ja die Pivotmatrix (16) mit einem Schlage gleich mehrere Rechtseigenvektoren (21 b) für den gleichen Rechenaufwand liefert. Vorausgesetzt wurde von Anfang an - siehe die Datenliste (1)1 -, daß alle Eigenwerte bekannt seien. Dies trifft in praxi natürlich fast niemals zu, und wir werden später noch sehen, daß gerade in der Auffindung der Eigenwerte das Hauptproblem liegt und daß der dazu benötigte Rechenaufwand die Bilanz (42) um ein Mehrfaches übertreffen kann. Erstes Beispiel. Wir greifen auf das erste Beispiel aus Abschnitt 16.2 zurück. Es war
A
=[-75-,-~ -6J ~;
B=
(' OOJ 0 0 1 010
,
$Uj
2
(a)
1
ferner nach (I)
J
0 0 1 1/3 1 2/3
o
L= [:
LAR
='l =[:1
0
R= [-:
1J -
~~ =G -~J
LBR=I3
. '
1 1/3 -2/3
3
4
0
·
(b)
Es ist s = 2, somit bleibt nur eine einzige Matrizengleichung (29) zu lösen mit
und daraus folgt die Transformationsmatrix (25)
(d)
Die beiden Gesamttransformationsmatrizen (12) sind daher mit L und Raus (a)
(e)
und damit wird in der Tat
YAX=A
=
r'lt 0J r6 ~
L0 'l2 Lb
0
~l
d
Zum Zwecke der Spektralzerlegung berechnen wir nun die Matrizen
1[3 0J
BXt =-
3
1 -2 -3 3
1[ 12J
, BX2 =3
11 -18
;
16.3 Die Transformation auf Block-Diagonalmatrix
yIB=~
[-1 -8 -12J '
3
5
7
6
y2B=~(1
323
2
(g)
3)
3
und finden mit
~
1
=
G:] , ~ = 2
1 ;
11 =
G~] ,
(h)
12 = 1
nach (33) A = (BXj)I1 (yl B)+ (BX2)I2(y 2B) =
~ [-;~ 9
27
-33 -90J
1 [12
- 67 - 78
+-
117 162
9
11
24 22
36J 33
- 18 - 36 - 54
(i)
(j)
Schließlich überprüfen wir noch die Eigenwertgleichungen (35). Es ist
(k)
wie es sein muß, und ebenso richtig ist yl A zeugen möge.
Zweites Beispiel. n = 5,
S =
=~ I yl B,
y2 A
=~ 2 y2 B,
3 mit
0 0 0 0 0
0 0 0 0 0
4 -4 2 0 0
3 0 0 -1
wovon man sich über-
l
0 0 4 5
0 -1
(a)
324
16 Die Block-Diagonalmatrix. Strukturfragen
Die beiden Matrizen C] (d) und Q] (gesucht) werden in ihre Spalten zerlegt, und damit wird das gestaffelte System (31) mit der oberen Dreiecksmatrix (e) gelöst:
Zusammen mit Q2 aus (c) haben wir damit die gesuchte Transformationsmatrix
1 0 0 0 0
]
-2 2
0 1 0 0 0
-3 -29/3 o -16/3 0 -413 1 0 1 0
1 0 0
(g)
und, falls gewünscht, nach (14a) auch die Inverse
Q-I = [11~
-Q2 12 0
Probe: Q-1'lQ =A!
:J [~ :, ~J "l!
I]
0
0
13
33713]
0 2 1 -2 o 8/3 0 1 o 4/3 0 0 1 0 0 0 o 1
.
(h)
16.4 Die Struktur der Eigenmatrix. Natürliche Charakteristik
Der Eigenmatrix (bzw. dem Eigenblock )
o o
o
o
o o
o o
(43)
ordnen wir jetzt die Folge der Defekte als natürliche Charakteristik [;]
d jl d j2 ... dj,Pj
(j)
I
(44)
zu. Diese gibt uns erschöpfende Auskunft über die Eigenschaften der Matrix Fj bzw. "'lj' deren Gesamtheit als ihre Struktur bezeichnet wird. Es sind dies im einzelnen: 1. Die Summe der Defekte ist gleich der Vielfachheit des Eigenwertes (45)
325
16.4 Die Struktur der Eigenmatrix. Natürliche Charakteristik
Anmerkung: in der klassischen Literatur wird bisweilen unterschieden zwischen der algebraischen Vieljachheit Gj und der geometrischen Vieljachheit djl • 2. Durch die Defekte dj sind die Formate aller
PI Blöcke festgelegt.
3. Es gibt djl Nullspalten in Fj und damit djl linear unabhängige Rechtseigenvektoren Xj zum Eigenwert Äj • 4. Pj ist der Index der Nilpotentheit, das heißt, es gilt
FPj = 0, }
F1!r 1 *- 0 . J
aber
(46)
Um die letzte Aussage zu beweisen, potenzieren wir die Matrix Fj . So wird beispielsweise für Pj = 4
[ 9" 9 9'1 13
F = }
0 0 8 23 8 24 0 0 0 8 34 o 0 0 0
FJ= mit
~
0 0 0 0
8 13 = 8 12 8 23
0 0 0 0
8J1o
,
F2
j -
' FJ=
0
8 24 = 8 23 8 34
[~ [~
oo o o 0 0 0 0
8 ~'~J 13
0 8 24 0 0 0 0 0 0 0 0
'
n
8 14 = 8 12 8 23 8 34
(46a)
(46b)
Wie man leicht bestätigt, steht für beliebige Blockordnung Pj oben rechts in der das Produkt Matrix
F?-t
(47)
und da nach Satz 1 (51) die Kodiagonalblöcke sämtlich spaltenregulär sind, ist nach Satz 6 aus Abschnitt 9.6 auch ihr Produkt spaltenregulär und kann damit nicht gleich der Nullmatrix sein. Folglich ist auch die Potenz von Fj mit dem Index Pr 1 nicht gleich Null, womit (46) bewiesen ist. Wir beweisen als nächstes eine grundlegende Eigenschaft der Kodiagonalblöcke der Matrix (43). Es seien die ersten beiden Ordnungserniedrigungen nach der Strategie (9) vollzogen und es liege der semi-derogatorische Fall (22 b) mit djl > 1 und dj2 > 1 vor; dann haben wir die Situation
(48)
326
16 Die Block-Diagonalmatrix. Strukturfragen
mit der im allgemeinen vollbesetzten Matrix 8 12 , Diese muß nun spaltenregulär sein; denn wäre sie es nicht, so würde nach einer Äquivalenztransformation von 8 12 auf die Pivotmatrix fl 12 , bei welcher der Rang der Gesamtmatrix ~ und damit die Anzahl ihrer Nullspalten ungeändert bleibt, in fl12 mindestens eine Nullspalte vorkommen, und diese wäre zugleich eine Nullspalte von ~, da ja unterhalb von 8 12 bzw. fl12 lauter Nullen stehen. Dies ist aber ein Widerspruch, da ~ laut Konstruktion genau djl Nullspalten (und nicht etwa mehr) besitzt. Folglich ist 8 12 spaltenregulär, und diese Schlußweise setzt sich induktiv von Block zu Block fort. Wir haben damit den für die Transformationstheorie bedeutsamen Satz 1: Die Pr 1 Kodiagonalblöcke der daher nicht von Querformat:
Eigenmatrix~j
sind spaltenregulär und
(49)
Aus dieser Ungleichung folgt trivialerweise sogleich der Satz 2: Die Defekte djv bilden eine nicht aufsteigende Folge: (50)
und dies heißt im nicht-derogatischen Fall, daß djl
=
1 die Gleichheit (51)
nach sich zieht, eine Eigenschaft, die wir bereits im Abschnitt 16.2 behauptet hatten. Da im allgemeinen jeder der sEigenblöcke seine eigene Struktur besitzt, hat es wenig Sinn, von der Struktur des Paares A; B schlechthin zu sprechen, mit einer Ausnahme: Sind alle sEigenblöcke Skalarmatrizen (52)
so wird auch das transformierte Paar A;In als Ganzes diagonal (53)
Das Paar ist somit diagonalähnlich oder wie wir sagen wollen von einfacher Struktur. Sind alle n Eigenwerte voneinander verschieden, s = n, so liegt dieser Fall eo ipso vor.
327
16.5 Die Normierung der Kodiagonale
Damit könnte man die Eigenmatrix~j auf sich beruhen lassen, und in der Tat gibt es in praxi nicht mehr von ihr zu wissen. Nichtsdestoweniger werden wir in den folgenden drei Abschnitten die schon in (10.100) angekündigte Jordan-Form herleiten, der sich ein knapper Exkurs über die Hauptvektoren anschließen wird. Der Leser, der uns über den Abschnitt 18.3 hinaus bis hierhin gefolgt ist, kann aber das folgende überschlagen, ohne daß der Anschluß an die beiden getrennt zu studierenden Abschnitte 19 und 20 dadurch beeinträchtigt wird. 16.5 Die Normierung der Kodiagonale
Der im letzten Abschnitt angekündigten Transformation auf die Jordan-Matrix dient als erstes die Ähnlichkeitstransformation der Matrix Fj auf die gleichstrukturierte Matrix N 1P
, J
_1
N 2p -I , J N 3p -I , J
o o
0 0
0 0
(54)
o o
(j)
gemäß (55)
mittels der Block-Diagonalmatrix (56)
wodurch die Blöcke von Fj übergehen in (57)
dabei aber nach Satz 2 aus Abschnitt 9.1 ihren Rang behalten: RangNvk = Rang8vk
für
v,k= 1,2, .. "Pj .
(58)
Wir benutzen nun die Matrix Dj zur Normierung der Kodiagonale, indem wir verlangen, daß die Pj - 1 spaltenregulären Kodiagonalblöcke aus Fj nach der Transformation die
Normal'orm N v,v+1 = J'
~ D
=
[::::ll 0
d v>dv+l
v=1,2, ... ,Pj (59)
328
16 Die B1ock-Diagonalmatrix. Strukturfragen
annehmen. Da nur Pj-1 solcher Blöcke vorhanden sind, die Matrix (56) aber Pj Blöcke enthält, können wir über einen von ihnen frei verfügen, und zwar wählen wir Dj,p gleich der Einheitsmatrix und beginnen die Normierung unten rechts. J (Man könnte ebenso gut mit der Einheitsmatrix D j1 oben links beginnen.) Schreitet man die Kodiagonale hinauf bis in die erste Blockzeile, so ist damit der Algorithmus festgelegt. Es seien zunächst alle Kodiagonalblöcke quadratisch, dann lautet die Rekursionsvorschrift zur Bestimmung der Blöcke aus D j (60)
wo mit der Tilde der aktuelle (bereits von rechts transformierte) Kodiagonalblock bezeichnet werde. Im nicht-derogatorischen Fall (22a) ist alles skalar, und es wird (61)
womit die Kodiagonalelemente in Einsen übergehen. Im allgemeinen sind die Kodiagonalblöcke nicht alle quadratisch; sie müssen daher zu quadratischen regulären Matrizen ergänzt werden, was auf vielfache Weise möglich ist, und zwar am einfachsten so, daß ihre Determinante den Wert eins annimmt, also zum Beispiel
[::J ~
,
[a:J ~ [a:l -~J
mit
falls
all
a21
*0
bzw.
*0 (62)
und ähnlich nach diesem Muster. Bei großen Ordnungszahlen kommt auch eine vollständige Orthonormierung nach den Methoden aus Abschnitt 8 in Frage. Erstes Beispiel. Nichtderogatorischer Block F der Ordnung (J = 4. Die Kodiagonalelemente 5, - 3 und 2 werden in dieser Reihenfolge zu 1 gemacht
F=
0 0 -3 ["o 2 0 80 o 0 0
-"J 10 5 0
---l
[1
- [1
2
40
0 0
0 0
o -15
-":] 10 1 0
-3040 "] o 1-213 001 o 0 0
---l
1/2]
1 -4/3 ["0 0 1 -213 1 0 0 0 0 0 0 0
= N
.
(a)
329
16.5 Die Normierung der Kodiagonale Mit der Diagonalmatrix D=
<- 30 -15 5 1)
wird dann D - , F D = N.
(b)
l
:]
Zweites Beispiel. Wir führen das zweite Beispiel aus Abschnitt 16.2 fort mit der nilopotenten
~::([~=~~~J =
(gi
Erster Schritt. Wir ergänzen Block @23 zu einer regulären quadratischen Matrix D z @23 =
[ -4J
-+
-10
D2 =
[-4 O,lJ
,
-10 0
D 2-1 =
[0 -O,IJ 10 -4
(h)
und multiplizieren die zweite Blockspalte von F von rechts mit D2 und die zweite Blockzeile von links mit Di', womit @23 in N23 übergeht:
0 0 0 0 0 0
0 0 0 0 0 0
-2
0 0 0 0 0 0
-0,7 -0,5 -1,45 0 0 0
0
-2
0 0 0
4 4 7 1 0 0
(i)
Zweiter Schritt. Der Block 6'2 wird zu einer regulären quadratischen Matrix ergänzt
6 12 =
J
-2 -0,7 0 - 0,5 [ - 2 - 1,45
-+
D, =
[-2 -0,7 0J [-0,5 0,7 0 - 0,5 0 , D ,I = 0 - 2 - 2 - 1,45 1 - 1 - 1,5
(j)
sodann die erste Blockspalte der Matrix F (i) von rechts mit D 1 multipliziert (was aber zufolge der Nullen gar nichts bringt) und die erste Blockzeile von links mit D 1- 1, das gibt die normierte Matrix
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
1 0 0 0 0 0
0 1 0 0 0 0
0,8 -8 -3
=
1 0 ] 0
0 N12 N 13]
[
0
o
0 N 23 0 0
.
(k)
0 0 0 0 0 1
(I)
Mit der Block-Diagonalmatrix
-2 -0,7 o -0,5 -2 -1,45 0 0 0 0 0 0 ist dann D - , FD
=
0 0 1 0 0 0
N, was zur Kontrolle dient.
0 0 0 -4 -10 0
0 0 0 0,1 0 0
330
16 Die Block-Diagonalmatrix. Strukturfragen
Zur Übung: Man ergänze die Blöcke 8 23 (h) und/oder @12 U) auf andere Weise zu regulären quadratischen Matrizen; dann ändert sich sowohl die Matrix D wie der Block N l3 oben rechts in N.
16.6 Die Transformation auf die Strukturmatrix
Nach der ersten Ähnlichkeitstransformation (55) erfolgt eine zweite (63) Insgesamt haben wir somit (64)
wo Sj eine normierte obere Block-Dreiecksmatrix ist
(65)
deren Inverse sich wiederum nach (14) mühelos berechnet; wir beseitigen nunmehr o
die Blöcke rechts oberhalb der Kodiagonale der Matrix Nj (54) und bekommen damit die Strukturmatrix
o o
o
o o
o
o
o
0 0
o
o
o
K j = Kj+Ajlj ,
(66)
o Np -lp.
... 0
J
0
'J
U)
die nur noch Nullen und Einsen enthält, womit das Höchstmaß an Vereinfachung erreicht ist. Wie finden wir nun die Blöcke der Transformationsmatrix (65)? Aus der zweiBlöcke auf beiden Seiten der Zuten Gleichung (63) folgt durch Vergleich der sammenhang (wir lassen den Index j im folgenden fort)
PI
(67)
und ähnlich für p>4.
16.6 Die Transformation auf die Strukturmatrix
331
Sind Kodiagonalblöcke quadratisch, so sind es Einheitsmatrizen, mithin wird einfach p = 3:
S12
=
N l3
p = 4:
S13 =
N 14
,
(67a)
usw. für p>4. Ist der Eigenwert Aj nicht-derogatorisch, Fall (22a), so wird alles skalar p = 3:
S12 = n13 '
(67b)
usw. für p>4. Für nichtquadratische Kodiagonalblöcke hingegen sind die Gleichungen (67) überbestimmt und somit nicht eindeutig lösbar; am einfachsten wählt man sie nach dem Muster NZ3
(68) Wir führen das erste Beispiel aus Abschnitt 16.5 fort. Mit der normierten Matrix
N=
[~o ~ ~~:] [~ ~ n
o
J13
0 0 0 0
=
1 0
wird nach (67b) für p
=
-4/3
0 0 0 0
1
(c)
o
o
4 (d)
und damit ist die gesuchte Transformationsmatrix
S=
['0 o '"1 '" 0J 0 _ ['0 -2I - 2/3 1/2 010-001 S23
0001000
Probe:
NS = SK mit K=
[1
1 0 0 0
l] 0 1 0 0
!]
(e)
332
16 Die Block-Diagonalmatrix. Strukturfragen
Mit der Matrix D berechnen wir noch das Produkt DS und machen mit F die Kontrolle (64)
D=
-30 0 0 0J [-30 60 -15 0 -15 0 0 DS= 0 -15 10 0050' 005 [ 0001 000
o2 -38 o 0 o 0
-15J 10 5 . 0
(f)
In der Tat ist F(DS) = (DS)K, wie es sein muß. Zweites Beispiel aus Abschnitt 16.5, Formel (k). Gegeben ist N und gesucht wird S
N =
0Nl2 N [1 [0o 00 0, S00 13]
1
=
N 23
Sl2
12
0J 0
.
(m)
0 13
Nach (67) ist mitp = 3 die einzige Gleichung Sl2N23 = N 13 zu lösen, und dies gibt nach (68) ohne jeglichen Rechenaufwand
(n)
Nun wird mit
S=
[~o ~220 1~J 3
'
S- I =
lI [
0
-Sl2
o
12 0
0J 0 13
, 13 = 1 ,
(0)
>,
D = Diag , D-I=Diag(D,1 Di l 13
(p)
und den Matrizen aus (h) und (j) das Produkt
-2 -0,70 o -0,50 -2 -1,45 0 0 0 0 0 0
4 4 7 -4 -10 0
0 0 1 0 0 0
0 0 0 0,1 0 0
0 0 0 0 0 1
(q)
und seine Inverse
-0,5 0,7 0 -2 -1 -1,5 0 0 0 0 0 0
0 0 1 0 0 0
0 0 0 0 10 0
0,08 -0,80 -0,30 -0,10 -4 0
0 0 0 0 0 1
(r)
Kontrolle (DS) -I F(DS) = K mit
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
-7 -5 -14,5 0 0 0
3 2 6 0 0 0
4 4 7 -4 -10 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
1 0 0 0 0 0
0 1 0 0 0 0
0 0 0 1 0 0
(s)
333
16.7 Die Jordan-Matrix
16.7 Die Jordan-Matrix o
Unsere hiermit erreichte Normalform K bzw. K hat den Vorteil, daß sie in augenfälliger Weise die nicht-derogatorische Matrix (22a) in Blöcken nachahmt, was besonders deutlich wird, wenn wir die Kodiagonalblöcke mit dem Symbol] kennzeichnen 0 1 0 0 0 1 0 0 0
0 0 0 0 0 0
.............. .
0 0 0 0
o ... o ...
0 1 0 0
a) nicht-derogatorisch
0 1 0 0 0 ] 0 0 0
0 0 0 0 0 0
...............
(69)
0 0 o ... 0 ] 0 0 o ... 0 0 b) semi-derogatorisch
dafür besitzt sie den Nachteil, daß sie nicht blockdiagonal ist, ein Schönheitsfehler, der indessen leicht zu beheben ist durch eine gleichsinnige Umordnung der Spalten und Zeilen oder, was dasselbe ist, durch eine Ähnlichkeitstransformation mit einer Permutationsmatrix Pj gemäß (70)
Dies bedeutet nach (64) die Gesamttransformation (71)
oder mit der neu eingeführten Transformationsmatrix (72)
endgültig (73)
Natürlich existiert die Permutationsm~trix Pj nur auf dem Papier; de facta werden die Spalten und Zeilen der Matrix Kj (auch in der Maschine) lediglichoumgestellt, und zwar durch Auflösung der geschlossenen Blockspalte~ von Kj in Sequenzen nach folgender Maßgabe: Greife aus den Blockspalten K j1 bis Kj,p die jeweils erste, zweite usw. Spalte heraus und belasse jede dieser Pj Sequenzen in der vorgefundenen Reihenfolge. Damit liegt die Permutation fest, und nun werden auch die Zeilen von Xj in der gleic~en Weise umgeordnet. Dur~h diese Maßnahme rücken alle Einsen der Matrix K j in die Kodiagonale von Jj , und es entsteht die Block-Diagonalmatrix als die klassische Jordan-Form des Eigenblockes Fj bzw. "lj = Fj+Ajlj
334
16 Die Block-Diagonalmatrix. Strukturfragen
-aj.wr
l-aj1-+--<x.jz-1 .,.
I
01
I
I I
I
I I
(74)
-------0--I I I II-'--~Oj
0.wj
- - - - . ',
mit den sogenannten Jordan-Kästchen oder Jordan-Zellen J jt bis Jj,Wj-l' die alle die nicht-derogatorische Form (69a) besitzen, während der letzte Block der Ordnung (75)
a·J,W j ==d'1-d'2~1 J J
(falls vorhanden) die Nullmatrix bzw. Diagonalmatrix Jj,W
J
== 0,
JJ',w
J
(76)
== Diag (),)
ist, weshalb wir die Größe (75) geradezu als die Diagonalität der Eigenmatrix bezeichnen wollen. Ihre besondere Bedeutung wird uns bei den mehrdeutigen Funktionen im Abschnitt 20.7 klar werden. Man erkennt übrigens leicht, daß auf Grund der Ungleichungen (52) auch die Ordnungen der ersten wj-l Jordan-Zellen nicht anwachsen können, (77)
siehe dazu das Schema (74). Werfen wir abschließend nochmals einen Blick auf die Ausgangssituation (22). Von hier aus gesehen bieten die dort aufgeführten drei Fälle sich so dar: a) nicht-derogatorisch, Wj == 1. Jj besteht aus einer einzigen Zelle. b) semi-derogatorisch, Wj> 1. Jj enthält mindestens eine Zelle, dazu die Diagonalmatrix (76), falls djt > dj2 ist. c) strikt derogatorisch, Wj == 1. J j ist gleich der Diagonalmatrix (76). Dazu ein einfaches Beispiel mit (44).
(Jj
= 11 = 5 + 2 + 2 + 1 + 1 nach der natürlichen Charakteristik
+---- 5
Numerierung
2
1. Sequenz 2. Sequenz
6
•(
.4
5
2~2---.+-1---++----1
6
7
2
3. Sequenz 4. Sequenz 5. Sequenz Permutation
3
8
9
9 7
10
11
4
5
3
8 10 11
6
8
10
11
2
7
9
3
4
5
-(a)
16.8 Die Jordan-Spektralzerlegung
335
In dieser Reihenfolge werden die Spalten und Zeilen umgeordnet, das gibt
1 2 3 4
5 Kj = 6 7 8
9 10 11
1 6 8 10 11 2
7 9 3 4
5
1 0 0 0 0 0 0 0 0 0 0 0
2 0 0 0 0 0 0 0 0 0 0 0
3 0 0 0 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0 0
6 1 0 0 0 0 0 0 0 0 0 0
7 0 1 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 1 0 0 0 0 0
9 0 0 0 0 0 0 1 0 0 0 0
10 0 0 0 0 0 0 0 1 0 0 0
11
O~
0 0 0 0 0 0 0 0 1 0
1681011279345 0 1 0 0 0 0 0 0 0 0 O~ 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
(b)
mit
Oj = d jJ - d j2 = 5 - 2 = 3. Potenziert man die Matrix Kj blockweise wie in (46), (47), soostellt man fest, daß alle von Null verschiedenen Blöcke von Normalform sind. In der Matrix Jj dagegen potenzieren sich die Hauptdiagonalblöcke (hier drei an der Zahl, davon der dritte ein Nullblock) unabhängig voneinander, wobei der erste Block als letzter zu Null wird, natürlich mit der gleichen Potenz Pj = 5 wie bei der Matrix Kj .
16.8 Die Jordan-Spektralzerlegung
Kommen wir endlich zur Gesamttransformation. Faßt man die s Transformationsmatrizen Tj zur Block-Diagonalmatrix (78)
zusammen, so wird (79)
oder
Y
A
X
=J;
B X-
=In
-+
- I XY=B-
(80)
mit der Jordan-Matrix (81)
336
16 Die Block-Diagonalmatrix. Strukturfragen
und damit lautet die Spektralzerlegung der charakteristischen Matrix s
F(A):=:A-AB:=:
1:
j=
(82)
(BXj)(Jj-Uj)(yjB) . 1
Diese Darstellung läßt sich verfeinern durch Unterteilung der Transformationsmatrizen Tj (72) und ihrer Inversen (die wir aus Gründen der Indizierung mit f j bezeichnen) in zur Jordan-Matrix Jj (74) passende Blockstreifen
-\
Tj
:=:
[
~
Tj :=:
l l r Ia
rlj
[ r"
Tj2
ajl
aj2
jl
aaj2
fj,wj
•
Tj :=:
I
fjt fj2
J,Wj
~
1
-- --
(83)
J'Wj
T
aj,Wj
und Einführung der Produktmatrizen f
jk
yj
:=:
I yjk !ajk
I
XjTjk :=: X jk
n
,S}
j:=:1,2, ... [ k:=:1,2""'Wj
In
ajk
(84)
,
womit (82) übergeht in die s
Jordan-Spektralzerlegung
mit
F(A):=:
L
f
W·
j=tk=t
(BXjk)Gjk(A)(yjkB)
(85)
(86)
Außerdem bestehen die Wt + w2 + ... + Ws "Eigenwert"-Gleichungen j :=: 1,2, [ k:=: 1,2,
,S
}
,Wj
(87)
für beliebige Werte von A. Speziell für A :=: 0 geht F(A) in A und Gjk(A) in Jjk über. Wir können unsere Betrachtungen zur Jordan-Matrix nicht beschließen ohne die Frage nach der Eindeutigkeit. Zunächst die Reihenfolge der Eigenmatrizen.
337
16.8 Die Jordan-Spektralzerlegung
Diese ist völlig willkürlich und hängt ab vorn Aufruf der Eigenwerte Aj der Liste (1). Aber auch innerhalb der Jordan-Matrix Jj ist die Reihenfolge der Zellen beliebig. Selbst wenn man auf der Anordnung (77) besteht, sind bei gleicher Ordnung benachbarter Zellen diese untereinander vertauschbar, ohne daß sich das Bild ändert, und dies alles findet seinen Ausdruck in der dyadischen Zerlegung (85), denn auch hier sind selbstredend die WI + W2 + ... + Ws Summanden vertauschbar. Eindeutig sind somit allein die s natürlichen Charakteristiken (44), und dies hat seinen Grund darin, daß der Rang und damit der Rangabfall oder Defekt dje invariant ist gegenüber einer Äquivalenz- bzw. Ähnlichkeitstransformation. Daß die Transformationsmatrizen Yund X aus (80) nicht eindeutig sind, haben wir auf Schritt und Tritt erlebt, so bei der Blockdiagonalmatrix (56) (Djl = I jl oder Dj,p = Ij,p?), der Überbestimmtheit der Matrizen Sv.v+ I (68) und anderenorts. In ein~m ge~issen Sinn eindeutig sind die Transformationsmatrizen Yund X nur dann, wenn alle n Eigenwerte verschieden und damit A und B diagonalähnlich sind; aber noch nicht einmal das ist richtig, da zwar die jeweils n Linksund Rechtseigenvektoren der Richtung, nicht aber der Länge nach festgelegt sind, somit beliebig normiert werden können. Fazit: Es gibt unendlich viele Matrizenpaare Y;X mit YBX = In' die das Paar A;B auf J;In transformieren. Wir führen unser Beispiel aus Abschnitt 16.6 mit n = 6 zu Ende. Die Strukturmatrix K (s) wird nach der Vorschrift (t) permutiert, das gibt die Jordan-Matrix J (u) mit zwei Zellen und einem Diagonalteil der Ordnung I, somit ist a t = 3, az = 2 und a3 = 1. Daß dies mit der Defektfolge d l = 3, dz = 3, d3 = 1 übereinstimmt, ist Zufall. Alte Reihenfolge
2 3 4
Neue Reihenfolge
4 6
5 6 (t)
2 5
3
5 0 0 0
1 5 0 0
0 1 5 0
0
0
0
0 0 0
0 0 0 5
0 0 0 1 0 5 0 0
0 0 0 0
(u)
0
5
Auf die gleiche Weise ordnen wir die Spalten von DS (q) und die Zeilen von (DS)- I (r) um und bekommen mit der angegebenen Aufteilung in Blockstreifen
T= (DS)P=
[~~ ~ ~ o -4 o -10 o 0
0 0 1
o
0
o
0
Tz
TI
T- 1 = f=
-0,70 0 -0,50 0 -1,45 0 o 0,1
7- - : !- =-!-~_!: -:-=-: :- : :01]
---::-!0-,5-_-=-1-' [
o
0 10-4 ----:'1-----:'1--:,5::--1:----:0:-'-....,0,..,,3=-=0,.---;:0
::
f3
(v)
338
16 Die Block-Diagonalmatrix. Strukturfragen
Folglich besteht mit den drei Jordan-Anteilen
(w)
~ ~~ ~ ~ =t~ ~] l~ 1~'5 o~ -~L I~:: ~]
l
o
0 0 0 2 -4 + 0 0 0 0 0 5 -10 0 0 00000500
o
5 0 0
o o
o
{~+ ~ !+!] ~ [!
-2 0 0
0 5 0
o
o o o
-7 -5 .s -14,5 0 5 0 0 0 0
0 0 0
1 1].
(x)
~ -1~
In der Tat ergibt die Addition dieser drei Matrizen die Matrix~, Formel (f), zweites Beispiel aus Abschnitt 16.2, und dies ist gleichbedeutend mit der Ähnlichkeitstransformation T J T - I = ~ , wovon man sich durch Ausmultiplizieren mit den Matrizen (v) überzeugen möge. Nun greifen wir zurück auf die Transformationsmatrix (e) (zweites Beispiel aus Abschnitt 16.2)
[Io 0 0 1
X=R=
0 0 2 I o 0 2 3
0 0 0 I 0 -I I -I 0,5 -3 0
0 0 0 0
!]
o ' r ' X0
'0
0 -I I o
und erhalten damit die Gesamttransformationsmatrizen
[-'
o
X=XT=
-2 -2 2 2
4 0 4 0 7 0 1 0 -9 -I 0 -:..11
-0,7 -0,5 -1,45 -0,45 1,45 1,45
X-I =
y=
-I
1,6 [ -12 -0,4
0,46 0,3 -05 0:4 2 -0,6
0,24 - 0,3 -0,5 -2,4 -2 0,1
0 0
o
0 0 0 I 0 0 o 0 I 0,5 -I 0
o
OOJ
(y)
X und Y (= X -I, weil B = 16 ist)
J]
,
-I
-3
X3
X2
XI
- 0,66 0,20
0 0 0 0,1 0,05 0
[
0 0 I 0 0 1 -2: -I I -2 -3 3 -1 -0,5 -0,5
o
o
0,5
(z)
o
10
o
Damit haben wir endgültig YF(.I.)X=G(.I.)
mit F(.I.)=A-H6
,
G(.I.)=J-H6 .
(A)
16.9 Ein Rückblick von höherer Warte Die Spektralzerlegung (85) wird mit B s
F(.1) =
= 16, S = 1 und
wt
=3
3
wj
L L
339
XjkGjk(.1) yjk =
j=lk=l
L
(B)
XkGk(.1) yk
k=l
mit den Blockstreifen (z) und den drei Jordan-Zellen nach (w)
für beliebige Werte von .1, wovon der Leser sich überzeugen möge.
16.9 Ein Rückblick von höherer Warte
Halten wir eine Weile inne und schauen zurück auf das bis hierhin Erreichte. Worum ging es in Wirklichkeit? Ausgangspunkt war die B-ähnliche Transformation (2). (Dort wurde speziell A = "\l verlangt, was in diesem Zusammenhang aber nicht wesentlich ist) YAX=Ä;
YBX=B=In
(88)
Subtrahieren wir in der ersten Gleichung auf der linken Seite den Term l YBX und auf der rechten den Term l In (= l YBX), so erhalten wir YF(l)X = F(l)
(89)
mit F(l)=A-lB,
F(l)=Ä-lB=Ä-Un
(90)
für beliebige (im allgemeinen komplexe) Werte des Parameters .Ä.. Die Gleichung
(89) schreiben wir auf dreifache Weise um YF(.Ä.)=F(.Ä.)X- t ; F(l)= y-1p(l)X- t ; F(.Ä.)X= y-1p(l)
(91)
und gewinnen mit den aus YBX = In (88) resultierenden Inversen y-1=BX,
X-1=YB
(92)
die drei grundlegenden Beziehungen YF(l) = F(l) YB ; F(.Ä.)=BX P(l)YB; linksseitig beidseitig
F(l)X=BXF(.Ä.) rechtsseitig
(93)
Bis hierhin verlief alles rational, d. h. unter Anwendung der vier Grundrechnungsarten. Nun aber verlangen wir, daß A in die Block-Diagonalmatrix
340
16 Die Block-Diagonalmatrix. Strukturfragen
Ä = Diag<Ä 11 Ä 22
(94)
und damit F(Ä) in (95) übergeht, was einer Faktorisierung des charakteristischen Polynoms det F(Ä) gleichkommt, und dies ist im allgemeinen auf rationale Weise nicht durchführbar; insofern besteht ein fundamentaler Unterschied zwischen den Transformationen (88), (89) und (94), (95). Um der Auflösung der charakteristischen Gleichung zu entgehen, hatten wir denn auch in der Datenliste (1) die Eigenwerte Äj als bereits ermittelt vorausgesetzt. Als nächstes unterteilen wir die beiden Transformationsmatrizen Y und X zeilen- bzw. spaltenweise passend zur Block-Diagonalmatrix (94), dann schreiben sich die Gleichungen (93) als yj F(Ä) = F)(Ä) yj B; }=1,2, ... ,x
F(Ä)
x
L BXjF)(Ä) yj B;
=
j;l
F(Ä)Xj = BXjF)(Ä) }=1,2, ... ,x
,
(96) wo die Blockmatrizen Ä jj aus (95) im allgemeinen vollbesetzt sind; auch kann jede der Gleichungen det F)(Ä) = 0 durchaus verschiedene Eigenwerte als Lösungen besitzen. Jetzt endlich besinnen wir uns auf die gestellte Aufgabe, nämlich die spezielle Transformation auf x = s Eigenblöcke"lj bzw. Jj und, falls gewünscht, die nochmalige Unterteilung in insgesamt x = Wt + W2 + ... + Ws Jordan-Unterblöcke (Zellen und/oder Diagonalanteile), womit sich die Summe aus (96) als Doppelsumme (85) schreiben läßt, was aber grundsätzlich nicht sein muß; man könnte ebenso gut sämtliche Jordan-Anteile von J I1 bis Js,w s durchnumerieren. Damit haben wir mit noch nicht einmal zehn Formeln gewissermaßen im Schnellkurs die Folge (1) bis (87) durcheilt, was dem Verständnis auf dem jetzt erreichten Niveau sicherlich förderlich ist, weil allein in solcher von allem Beiwerk befreiten Gedrängtheit die Schlüssigkeit des Konzepts klar hervortritt und nicht in dem - wenn auch unvermeidlichen - Formelwust untergeht. 16.10 Eigen- und Hauptvektoren
Wir kommen jetzt zur Ermittlung der Eigenvektoren der singulären Matrix F(Ä) = A - ÄB, das sind die nichttrivialen Lösungen der homogenen Gleichungs-
systeme
t
·=1,2, ... ,S
{!=1,2"",Pj
k
=
}
1,2, ... , djll
(97)
341
16.10 Eigen- und Hauptvektoren
als wohlbestimmte Zeilen bzw. Spalten der beiden Blöcke yj bzw. X j aus den Gesamttransformationsmatrizen yl y=
yj
X=
X, ...
yS
B..
x,
(99)
Um das folgende besser verstehen zu können, schreiben wir ähnlich wie bei der Gaußschen Transformation LAR = n die analoge Gleichung YAX = A bzw. Y(A - Ä.jB)X = A - Ä.jln im Generalschema an;. dann steht links neben jeder Nullzeile von A - Ä.jln ein Linkseigenvektor in yJ und unter jeder Nullspalte ein Rechtseigenvektor in X j . ---dill----
T
O'j
f
(A-A'jI0
yl
T l1j
n
1 yi
•
OS
i
dill
yS
0
o
Xl
(100) I--O'j-J I-I"'~-----
n - - - - - -..-11
wo wir aus sogleich verständlichen Gründen die Blockzeilen von yj von unten nach oben (und nicht von oben nach unten) durchnumeriert haben. Nun zeigt ein Blick auf das Schema (100), daß in der Matrix A - Ajln unterhalb der d j1 Pfeile lauter Nullen stehen, somit besteht die Blockmatrix X jl aus d j linear unabhängigen Rechtseigenvektoren, womit unsere Frage nach den Eigenvektoren (97) zur Hälfte beantwortet ist. Bevor wir jedoch nach den Linkseigenvektoren fahnden, wenden wir uns einer bedeutsamen Verallgemeinerung des Eigenvektorbegriffes zu. Und zwar werden nach Weyr [121] die jeweils dj{l linear unabhängigen Spalten des Blockstreifens Xj{l aus (101) als (Rechts- )Hauptvektoren der Stufe {! zum Eigenwert Aj bezeichnet
{!
= 1,2, ... ,Pj .
(102)
Es gibt somit insgesamt (103) Rechts-Hauptvektoren (und wie wir noch zeigen werden, auch Links-Hauptvektoren) der Stufe {! zum Matrizenpaar A;B. Rechtseigenvektoren sind in diesem Sinne Hauptvektoren der Stufe {! = 1, mithin existieren insgesamt d 1 = d ll +d21
+ ... +ds1
(104)
Rechts- (und ebensoviele Links-)Eigenvektoren. Aufgrund der Ungleichungen (52) folgt übrigens noch (105)
343
16.10 Eigen- und Hauptvektoren
Die Gesamtzahl der Hauptvektoren kann demnach mit wachsender Stufe e nicht zunehmen, weshalb es im allgemeinen mehr Eigen- als Hauptvektoren einer festen Stufe e gibt. Um nun eine grundlegende Eigenschaft der Hauptvektoren aufzudecken, potenzieren wir die Matrix A - Ajln, wobei sich auch die s Hauptdiagonalblöcke potenzieren. Wie wir bereits in (46a) erkannten, entsteht dann im Block der Nummer j das Nullenmuster
(Aj-Ajl.i)e =
dj1 dj2 dje 0 0 0 0 0 ... 0 0 0 ... 0
dj,p
* * 0 * ............................ 0 0
0 0 0 .. . 0
*
0 0
0 0
* *
0 0
., .
(106)
0 0
und das bedeutet, da auch die Matrix A - Ajln (100) im Außenfeld mit Nullen besetzt ist, daß die beiden Gleichungen j = 1,2, .. .
,s}
[ e=I,2"",Pj
(107)
besteh~n, wo in Eje bzw. Eje die jeweils je Einheitsvektoren in gleicher Position wie yJe bzw. X je vereinigt sind. Im Originalsystem lauten diese Gleichungen
j = 1,2, ... , s } [ g=I,2"",Pj ,
(108)
wie mit den Ergebnissen aus Abschnitt 5.10 unschwer herzuleiten. Wir vermerken noch, daß die Gleichungen (107), (108) auch für jede höhere Potenz als e, nicht aber für eine niedere gültig sind, das heißt, es ist (109)
da ja beim Index e-l (und niedriger) in der Blockzeile bzw. Blockspalte der Nummer je noch nicht alle Elemente durch Potenzierung getilgt sind. Da der Block X je laut Definition aus lauter Rechts-Hauptvektoren der Stufe e besteht, besagt die zweite Gleichung (108): jeder Hauptvektor der Stufe eist Rechtseigenvektor zum Paar [B -I Fjle;ln (und damit trivialerweise auch zum Paar [B- t Fj]e+ v mit v> 1). Die analoge Aussage gilt aber im allgemeinen nicht für die erste Gleichung (108), da im Block yJe keineswegs nur Links-Hauptvektoren gleicher Stufe vereinigt sind außer in Ausnahmefällen, so zum Beispiel bei nicht-derogatorischem Eigenwert Aj nach (22a). Hier nämlich entsteht bei Poten-
344
16 Die Block-Diagonalmatrix. Strukturfragen
zierung anstelle von (106) eine Folge regelmäßig hervortretender Nullspalten und -zeilen: Zum Beispiel wird für Gj = 4 1
1 2
~
~
J~ ~J * *
0 * 0 0 0 0
1 2 3
~
3 2 -> 1 ->
~
~
0 0 0 0 0 0
0 0 0 0
[~
21 ->
[~
~
0 * 0 0 0 0 0 0 0
~J
1 2 3 4
4T ~J ~J ~
3 2 1
-> -> ->
~
~
0 0 0 0 0 0 0
0 0 0 0
~
(109a)
Der Block yj der Breite Gj enthält somit fortschreitend von unten nach oben eine Sequenz von Linkshauptvektoren aufsteigender Stufe (deshalb die Numerierung in (101)!), beginnend mit dem Linkseigenvektor yil, und diametral dazu enthält der Block X j eine Sequenz von Rechtshauptvektoren aufsteigender Stufe, beginnend mit dem Rechtseigenvektor Xjl' Das Analoge trifft zu, wenn alle Pj Defekte der Eigenmatrix 'lj einander gleich sind, dj1 = dj2 = ... = dj,Pj = dj. Dann nämlich sind alle Blöcke quadratisch von der Ordnung dj , und damit besteht die gleiche Situation wie in (109a), wo die Elemente durch Blöcke und jeder Pfeil durch ein Bündel von dj Pfeilen zu ersetzen sind, und dies wiederum heißt, daß die Blockzeilen bzw. Blockspalten (101) aus jeweils dj Links- bzw. Rechtshauptvektoren gleicher Stufe bestehen. Im allgemeinen semi-derogatorischen Fall (22b) aber müssen zunächst einmal im Eigenblock'lj ebenso viele Nullzeilen erzeugt werden wie !'l"ullspalten vorhanden sind, und dies geschieht durch die Transformation von 'lj auf die Strukturmatrix Kj (66); die Zeilen der Matrix Yj = Sj-I D j- l 1j sind dann - wenn auch in unregelmäßiger Anordnung - die gesuchten Linkshauptvektoren. Kommen wir schließlich zur Jordan-Matrix. Zufolge
pJ
(110)
überträgt sich alles Gesagte vom Transformationspaar Y;X auf Y;X. Da jede Jordan-Zelle nicht-derogatorisch ist, gehört zu ihr eine Sequenz nach Art von (109). Bei von Null verschiedener Diagonalität (75) werden diese Sequenzen ergänzt durch je einen Satz von Links- und Rechtseigenvektoren. Ist der Eigenblock diagonalähnlich, 'lj = Ajlj, so existiert keine Zelle, folglich gibt es zum Eigenwert Aj genau Gj Links- und Rechtseigenvektoren. Trifft dies für alle s Blöcke zu, so ist das Paar A;B als ganzes diagonalähnlich, und allein mit diesem Fall hatten wir uns in den Abschnitten 13 bis 15 eingehend beschäftigt.
345
16.10 Eigen- und Hauptvektoren
Unser Exkurs über die Hauptvektoren wäre nicht vollständig ohne den Hinweis, daß es mit Hilfe der Gleichungen (108) gelingt, auf einem völlig anderen als dem hier beschriebenen Weg die Jordan-Matrix aufzubauen. Der Algorithmus zu diesem seit Weyr klassischen Verfahren der Hauptvektorketten wird für B = In ausführlich beschrieben in [48, S. 260 - 279]. Da zu seiner Durchführung mehr als 4n 4 /3 Operationen erforderlich sind, bedeutet dies nach der Bilanz (42) einen rund sechzehnfachen Aufwand. Wir greifen zurück auf das erste Beispiel aus Abschnitt 16.3. Es war
(a)
P(4)=
[-~1 =;5 =~J 12
'
1
B- p(4)= [
: -;
~~J
-2 -5 -9
'
1
P(4)B- =
[ 1-6 -IJ
-2 -9 -5 , 1 12 5 (b)
y=
~J
YAX=
1 [-1 -12 -8J 5 6-7 3 1 3 2
=-
[~ ~J 3 4
X=
[" I i J [-; Xl Xl
2
0
3 1 -2
3
YBX=13 •
0
Der zweifache Eigenwert AI
=
l~J
-18 11
,
(c)
4 ist somit nicht-derogatorisch; es gibt mithin einen Rechtseigen-
I
2
"
vektor, nämlich XI' und den Rechtshauptvektor zweiter Stufe Xl' Uberzeugen wir uns: (den unwesentlichen Faktor 1/3 lassen wir der Einfachheit halber fort) I
2
[-LJ U:,J HJ
B- I F(4)
Es ist also B
[ 1-1 -6J [ ~ J [-~ 1 5 12 -2 -5 -9
-1
2
(d)
J [~J
I
F(4)XI = 3 XI' Frage an den Leser: Woher kommt der Faktor 37
Nun zu den Linksvektoren zum Eigenwert Al = 4.
Linkseigenvektor
I
Y2( I
Linkshauptvektor 1. Stufe YI (
5
6
7)
12
8)
( -15 -18 -21)
[-~ 0
-6 - ] -9 -5 F(4)B- 1 12 5 0
0)
( -15 -18 -21) 0
0
0)
(e)
346
16 Die Block-Diagonalmatrix. Strukturfragen
16.11 Zusammenfassung. Historisches
Es war ein langer Weg. Die Transformation eines Matrizenpaares A; B mit regulärem B auf das Jordan-Paar J;In wird nach Egervary [122] von vielen Autoren als Grundstein der Matrizentheorie angesehen. Es hat deshalb nicht an Versuchen gefehlt, über die in der Originalarbeit von Jordan (1870) mit Hilfe der charakteristischen Matrix F(J..) erbrachte Beweisführung von rein theoretischer Natur hinaus auch konstruktive Methoden zu ersinnen, die selbst für große Ordnungszahlen n numerisch realisierbar sind. Ein Fortschritt in dieser Richtung waren die von Weyr 1890 eingeführten Hauptvektoren (108), die sich zum Aufbau der JordanMatrix heranziehen lassen, doch ist der Algorithmus ebenso aufwendig wie kompliziert. Eine gänzlich neue Idee brachte erst nach fast sechs Jahrzehnten Egervary (1959), der nicht die Gleichungen (108), sondern nur noch die Nilpotentheit der Eigenblöcke Fj(J.. j ) benutzt und mit Links- und Rechtseigenvektoren gleichzeitig operiert, während wir hier die Linkseigenvektoren von vornherein aus dem Spiel ließen. Es ist aber festzuhalten, daß die Eigenrnatrix - selbst wenn sie nicht dreiecksförmig, sondern zufolge einer aus welchen Gründen immer durchgeführten Ähnlichkeitstransformation (111) vollbesetzt ist - ihre wichtigste Eigenschaft, nämlich die Nilpotentheit zu einem wohlbestimmten Index Pj nicht einbüßt. Außerdem darf der Anwender sich damit trösten, daß mehrfache Eigenwerte in praxi fast niemals auftreten, mit Ausnahme vielleicht bei großen Systemen von Vektor-Differentialgleichungen, zu deren Lösung aber, wie wir im Abschnitt 20.6 zeigen werden, die Transformation auf Jordan-Form entgegen einer weit verbreiteten Ansicht gerade nicht erforderlich ist. Mehr über den ganzen Fragenkreis findet der interessierte Leser in der Polemik [123] sowie in den Abschnitten 30 und 35. Halten wir abschließend jedoch fest, daß die ganze dem Problem innewohnende und durch nichts zu behebende Schwierigkeit allein in der Voraussetzung begründet liegt, daß die Transformationsmatrizen L und R bzw. Y und X den Parameter J.. nicht enthalten sollen. Gibt man diese Fixierung auf konstante Matrizen auf und läßt Transformationen der Art L(J..)F(J..)R(J..) = F(J..)
(112)
mit det L(J..)
= const. *- 0, det R(J..) = const. *- 0
(113)
zu, so eröffnet sich eine Reihe ganz anderer Möglichkeiten, siehe dazu die grundlegende Arbeit [116]. Kommen wir in diesem Zusammenhang nochmals zum Ausgangspunkt unseres Eigenwertstudiums, der Polynommatrix (13.21) zurück. Für diese gilt das Fun-
damentallemma
17.1 Spaltensummenkonstante und stochastische Matrizen
347
(114)
j wo der Vektor w (A) bzw. Zj(A) Elemente. vom Grade (! - 1 oder kleiner besitzt. Im linearen Fall F(A) = A - AB ist wJ = yJ B bzw. Zj = BXj vom Parameter A unabhängig, und es wird (115)
wie leicht zu sehen. Genau diese Besonderheit ist es, welche das lineare Eigenwertproblem aus der übergeordneten Klasse der polynomischen und transzendenten Eigenwertaufgaben (116) heraushebt.
17 Eigenwerte spezieller Matrizen 17.1 Spaltensummenkonstante und stochastische Matrizen In der Wahrscheinlichkeitsrechnung treten Matrizen A auf, bei denen die Spaltensummen (1)
für alle Spalten k gleich sind,
(1k
=
(1.
Für derartige Matrizen gilt
Satz 1: Eine spaltensummenkonstante quadratische Matrix A mit der Spaltensumme (1 hat den Eigenwert (1. Die Matrix A m mit positiv ganzem Exponenten mist wieder spaltensummenkonstant mit Spaltensumme und Eigenwert (1m. Ist A nichtsingulär, so ist auch A - 1 spaltensummenkonstant mit Spaltensumme und Eigenwert 1/(1. Summe und Produkt zweier spaltensummenkonstanter quadratischer Matrizen A, B sind wieder spaltensummenkonstant, und für die Spaltensummen der einzelnen Matrizen gilt
(1A+B=(1A+(1B
(2)
(1AB
(3)
= (1BA = (1A • (1B
Die erste Aussage folgt mit einem Vektor sT = (1,1, ... ,1), der sich als Eigenvektor von AT erweist beim Eigenwert (1:
348
t 7 Eigenwerte spezieller Matrizen
all + [
~~2.~
+anlJ
~~.n~
al n +'" +ann
(4)
a ist also Eigenwert zu AT und damit auch zu A. Dann folgt a 2 als Eigenwert und Spaltensumme bei gleichem Eigenvetkor für A 2 usf. Ebenso folgt aus (4a)
Während nun die Richtigkeit der Gleichung (2) unmittelbar einzusehen ist, beweisen wir die Gleichung (3) folgendermaßen. Mit den Zeilenvektoren a j von A und den Spalten bk von B wird AB = (a j bk ) und damit die k-te Spaltensumme von AB: n n n aAB = L ajb k = L atjbjk +··· + L anjbjk j=l j=l j=l n
=aA
L bjk = aA'aB
j=l
.
(5)
Die in der Wahrscheinlichkeitsrechnung [119] auftretenden spaltensummenkonstanten Matrizen sind reell und nicht negativ mit Spaltensumme 1: die Elemente jeder Spalte stellen Wahrscheinlichkeiten ajk~O dar, deren Summe 1 ergibt. Die Matrix besitzt, wie sich zeigen läßt, die Maximalwurzel .Al = a = 1 als einfachen Eigenwert. Von besonderem Interesse ist hier nun der Fall, daß die Matrizenpotenzen A v mit wachsendem v gegen eine Matrix A 00 konvergieren, die lauter gleiche Spalten besitzt. Wir zeigen dazu den folgenden Satz 2: Ist A eine nicht-negative unzerlegbare Matrix konstanter Spaltensumme a = 1 und sind sämtliche Eigenwerte .Aj von A mit Ausnahme der Maximalwurzel .Al = 1 dem Betrage nach kleiner als 1: (6)
so konvergiert die Folge der Matrizenpotenzen A V mit wachsendem v gegen eine wiederum spaltensummenkonstante Matrix, deren Spalten sämtlich miteinander übereinstimmen:
IA IA
v -+
00
A
00
I für
= (aa ... a)
v
I·
-+ 00
(7)
(8)
349
17.1 SpaItensummenkonstante und stochastische Matrizen
Die Spalte a dieser Grenzmatrix ist gleich dem zu At summe 1 normierten Eigenvektor von A :
=
1 gehörigen auf Spalten-
(9)
Die letzte Gleichung ist wegen (8) gleichbedeutend mit
AA"'=A"'.
(10)
Die Matrix A '" besitzt außer dem Eigenwert Al = a = 1 als Matrix vom Range 1 den (n - l)-fachen Eigenwert ,1. = O. - Wir gehen nun aus von dieser durch Gleichung (9) definierte Matrix A '" und bilden mit ihr die Matrix
C=A-A'" ,
(11)
für die wegen Gleichung (10) gilt
(12)
Dann läßt sich zeigen, daß C die Eigenwerte (13)
also die der Matrix A mit Ausnahme von At = 1 besitzt, d. h. aber lauter Eigenwerte vom Betrage< 1. Die Eigenvektoren der transponierten Matrizen A T, A ",T und C T sind die gleichen. Zunächst ist nämlich mit dem Vektor ST = (11 ... 1) (14)
'*
Ist nun ,1. At ein Eigenwert von A und y zugehöriger Eigenvektor von AT, yTA = AyT, so erhalten wir durch Rechtsmultiplikation mit A'" wegen (10) (15)
'*
und wegen ,1. 1 folgt hieraus y TA'" = 0 T, das heißt: y ist auch Eigenvektor zu A '" mit einem Eigenwert ,1. = O. Dann aber folgt durch Subtraktion
yT A =AyT yTA"'=OT
(16)
17 Eigenwerte spezieller Matrizen
350
Die Matrix C besitzt also die Eigenwerte (13), deren Beträge sämtlich< 1 sind. Für eine solche Matrix aber konvergiert, wie wir später noch zeigen werden, die geometrische Matrizenreihe (17) das heißt es geht
CV = A v - A
00
....
0 für
v....
00
,
(18)
womit unser Satz bewiesen ist.
17.2 Schachbrettmatrizen Hierunter verstehen wir Matrizen, deren Plätze schachbrettartig von Nullelementen und von im allgemeinen nichtverschwindenden Elementen besetzt sind. Dabei sind zwei Fälle zu unterscheiden, je nachdem die Diagonalelemente von Null verschiedene oder Nullelemente sind.
I. Diagonalelemente nicht durchweg Null, Abb. 17.1 Durch Vertauschen der Zeilen und entsprechendes Vertauschen der Spalten, wobei die Eigenwerteigenschaften erhalten bleiben, geht die n-reihige Ausgangsmatrix A über in die Form (19)
mit der s-reihigen quadratischen Untermatrix AI und der (n - s )-reihigen Untermatrix A 2 • Dabei ist
n
s=n-s=-
2
n+l
s=-- , 2
n-l n-s=--=s-l 2
für gerades n ,
(19a)
für ungerades n .
(19b)
Abb. 17.1. Schachbrettmatrix, Fall I
17.2 Schachbrettmatrizen
351
Hier zerfällt die charakteristische Gleichung in
IA -AII : IA~-Ä~ll'IAz-Ähl = Pt (Ä)Pz(Ä) = Pt(Ä)-O pz(Ä)=O
Ä-Ä1>Ä z,···,Äs -+
O}
(19c)
Ä=Äs+1,Äs+Z,···,Ä n
Al besitzt die s-reihigen Eigenvektoren Yl,Y2," "Ys ' A
z die (n-s)-reihigen
Eigenvektoren Zs+ 1> Zs+ 2, ... , Zn' von denen nicht alle linear unabhängig zu sein brauchen. Die Gesamtmatrix A hat dann die n-reihigen Eigenvektoren
Xj A
_
°j ,
[Yj!
J. _- 1, 2, ... , s,
[OJ J.-- s + 1, ... , n ,
Xj A
Zj
-
,
(20)
die linear unabhängig sind, soweit es die Yj und die Zj sind. Die zur Ausgangsmatrix A gehörigen Vektoren Xj erhält man dann aus den Xj durch entsprechendes Umstellen der Komponenten, womit auch diese Eigenvektoren abwechselnde Nullkomponenten haben, soweit nicht unter den zu Al und A z gehörigen Eigenwerten Äj gleiche Werte vorkommen, wobei dann auch Linearkombinationen der zu At und A z gehörigen Eigenvektoren möglich sind, deren sämtliche Plätze besetzt sind. Beispiel
A =
[-'~
0 5 0 1 -6 0
1 [-'-1
1 0 4 0 0 o -5 0 2 0 2 o 6
o
Ä"
1
2
2 0 0
6 0 0
o -5
o o OOJ 0 0 5 4 1 2
(a)
(b)
(c)
Zur Doppelwurzel A = 2 gibt es nur einen linear unabhängigen Eigenvektor y.
IA 2 -HI = (A-I)(A-6) = 0, A4 = 1 , AS = 6
Z4
=
x,"
(-:J '
HJ '
Z5
=
GJ .
x,," [-
(d)
(e)
tJ ' UJ ' [lJ X,"
X,"
(I)
352
17 Eigenwerte spezieller Matrizen
Hier sind aber auch x = OXt + bX4 Eigenvektoren zur gemeinsamen Wurzel A = 1, zu der also das zweidimensionale lineare Vektorgebilde
(g)
x Probe: Ax = AX
-1
0 1 0 2 0 5 0 4 0 8 0 0 o -5 0 1 0 2 0 -6 0 2 0 6 A=
1
1
0 -2 0 2
0
1
0 -2 0 2 1
-1
0 2 2 0 -2 0 4 2
0 1 0
0 4 0
-1
1
-b
0 0
20 0
0
0 0 24 0
-20
-1
6
-b
0
0
1
6
20 1
1
0
b -20
b
(h)
II. Diagonalelemente sind Null, Abb. 17.2
Durch Zeilen- und entsprechende Spaltenvertauschung geht hier A über in
(21) mit zwei quadratischen s- und (n - s )-reihigen Nullmatrizen. Ein Zerfallen der charakteristischen Gleichung findet hier nicht mehr statt, wohl aber wieder für die aus A durch Quadrieren entstandene Matrix (22) mit den Eigenwerten )(j = AJ bei gleichen Eigenvektoren Xj. Diese Matrix ist also wieder von der Form Gleichung (19), jedoch mit der Besonderheit, daß
Abb. 17.2. Schachbrettmatrix, Fall II
353
17.2 Schachbrettmatrizen
(23)
Beide Matrizen, von denen St s-reihig, S2 (n - s )-reihig ist mit sund n - s wie unter I, besitzen nun, wie sich zeigen läßt, die gleichen Eigenwerte Xi bis auf Xo = 0 im Falle ungerader Reihenzahl n als zusätzlichem Eigenwert von SI- Man rechnet dann (24)
und, falls Al z:j::
0
(25)
wozu im Falle ungerader Reihenzahl n noch
I A2yo = 0 1-+ Yo
zu
Xo = 0
(26)
kommt. Es sei nun zunächst x:j:: 0, d. h. A 2 A 1 ist nichtsingulär, und es ist Z = y:j:: o. Damit folgt dann
At
(27)
Macht man nun für den Eigenvektor i von
x=
[:~J
'
A den
Ansatz (27a)
so erhält man durch Einsetzen in die Eigenwertgleichung
Ax= [0 At] [aYJ = [bAlZ] = [b Y ] =A [aYJ A2 0 bz aA 2y xaz bz für die Konstanten
a, b die
Bedingung
Aa = b, Ab = xa,
(27b)
woraus (28)
folgt bei beliebigem a. Insbesondere für a = 1 erhalten wir als zu zwei Eigenvektoren
Xj
* 0 gehörige
17 Eigenwerte spezieller Matrizen
354
(29)
mit A.j = +~, wozu im Falle ungerader Zahl n noch
(29a)
kommt. Die endgültigen Vektoren x und A ergeben sich aus x durch Umstellen, z.B. für n = 5: (29b)
Ist nun aber einer der Eigenwerte Xj = 0, so sind A t A 2 und A 2 A t singulär. In diesem Falle sind, wie man sich auf ähnliche Weise wie oben durch Ansatz für i klarmacht, nur solche Vektoren y, z zulässig, die die homogenen Gleichungen (30)
erfüllen, von denen wenigstens eine einen von Null verschiedenen Lösungsvektor besitzt. Damit wird dann
i=
° [~J
+b
[:J
[:~J
(31)
bei beliebigen Konstanten 0, b. Ist nur einer der Vektoren y, z von Null verschieden, so enthält i nur diesen einen Vektor und bzw. b kann 1 gesetzt werden.
°
17.3 Zyklische Matrizen
Unter solchen mit den Differenzenmatrizen verwandten versteht man Matrizen, deren Zeilen aus ihrer ersten durch zyklische Vertauschung hervorgehen. Lautet die erste Zeile der n-reihigen Matrix (32)
mit n beliebigen Elementen 00 0n-l
A= [
01 00
02 01
~n.~~ .~n.~I. •~o 01
02
03'"
0k'
so wird die Matrix
on_t] 0n-2
~~.-.3 00
(33)
17.3 Zyklische Matrizen
355
Mit den n-ten Einheitswurzeln Gk =
eik (2n/n l
k = 0, 1, ... , n-1
(34)
sind dann die Eigenvektoren und Eigenwerte
Xk
:i] ;
=[
k
= 0, 1, ... ,n - 1 ,
(35)
n-l
Gk
(36)
oder kurz
I
Ak
I;
= a 1Xk
k
= 0, 1, ... ,n -
(37)
1 .
Daß diese Ausdrücke Eigenvektoren und Eigenwerte sind, also die Gleichung erfülJen, ist mit G'k = 1 leicht zu verifizieren. Die lineare Unabhängigkeit der n Vektoren xk folgt aus der Eigenvektormatrix X = (Xk), deren Determinante als Vandermondesche Determinante zu den n verschiedenen Zahlen Gk von NulJ verschieden ist.
AXk = AkXk
Ein Beispiel mit n = 4. Wir ermitteln die vier Einheitswurzeln (34) und daraus die Eigenvektoren (35) in (b) und die Eigenwerte (36) in (c).
A=[;-~-~~] o -1
X,"
3 0
m'
AO= 4 ,
2 -1 3 2
X,"
{:~:: 1;2
= -1
1;3
i
=-
[J ' [J ' X,"
Al=2-4i,
(a)
X,"
[=1]
(b)
(c)
Zur Kontrolle berechnen wir nach (13.9a) (d)
Eigenwerte und Eigenvektoren können auch reelJ ausfalJen, z. B. bei der reelJ symmetrischen Matrix zyklischer Bauart
356
17 Eigenwerte spezieller Matrizen
A= mit
AI
b a b
G
= a+2b
x, ~
:] , AZ = A3
=a-
b ,
m'X2~ H] , x,~ U] ,
wo sich die aus (35) errechneten komplexen Vektoren xz, x3 durch Linearkombination in reelle Form überführen lassen. 17.4 Spezielle dreireihige Bandmatrizen
Eine wichtige Rolle in den Anwendungen spielt die Eigenwertaufgabe F(a)x = (K -a/)x =
(38)
0
mit der speziellen Tridiagonalmatrix
K=
0 1 0 1 0 1 0 1 0
0 0 0 0 0 0
(39)
...............
0 0 0 1 0 0 0 ... 1 0
0
deren Eigenwerte aj und Eigenvektoren hörige kote Eigenwertgleichung
Xj
sich explizit angeben lassen. Die zuge-
(40)
ist eine sogenannte (homogen-lineare) Dijjerenzeng/eichung zweiter Ordnung; hinzu treten die beiden Randg/eichungen (Randbedingungen ) für k = 1 und k = n, die besagen, daß als Ausdruck der Verstümmelung XO=O,X n +l=O
(41)
sein muß. Erinnern wir uns der aus dem Additionstheorem für Kreisfunktionen stammenden Identität sin (k-l)/pr 2 cos /pj·sin k /Pj+ sin (k+ 1)/Pj = 0 ,
(42)
357
17.4 Spezielle dreireihige Bandmatrizen
so erkennen wir, daß mit Gj = 2 cos rpj
(43)
als Eigenwert und den jeweils drei aufeinanderfolgenden Sinusfunktionswerten
;k'~: .~'s~~(k'~ i)~;'} xk
= sm krpj
(44)
xk+l =sin(k+1)rpj
..................
die n - 2 Differenzengleichungen (40) identisch erfüllt sind ebenso wie die erste Randbedingung (41) wegen Xo = sinOrpj = 0 ,
(45)
während die zweite (46)
verlangt, daß (n+1)rpj=jn;
(47)
j= 1,2, ... ,n
sein muß, wodurch die nEigenwerte (43) festgelegt sind: j
Gj = 2 cos rpj = 2 cos - - n
n+1
j = 1,2, ... ,n .
(48)
Sie sind reell, sämtlich voneinander verschieden, begrenzt durch -2
j = 1,2, ... ,n
(49)
und verdichten sich an den Rändern des Spektrums, wie aus Abb. 17.3 abzulesen ist. Nun zu den Eigenvektoren. Ihre Komponenten sind nach (43), (44)
Xkj=
. k'J sm--n n+1
k = 1,2, .. . ,n
(50)
oder mit Hilfe eines leicht zu berechnenden Faktors normiert und zur Modalmatrix zusammengefaßt
358 2
17 Eigenwerte spezieller Matrizen
~I\
2 cos 'P
'\ /
\
~A
1r
7~
'P
\
-/
\ 2
Sin ß sin 2ß X == v
[
\
Abb. 17.3. Spektrum der Eigenwerte
sin 2 ß sin 4ß
sin 3 ß sin 6ß
sin n ß ] sin 2nß
S.i~.3.~ .. ~i.~~~ ~i~.~~
s~~ ~~ .
sin 2 n ß
sin n 2 ß
sin n ß
sin 3 n ß
V
{
Gj
der Matrix K
== V2I(n +
ß==_7r_ n+1
1)} .
(51)
Diese Matrix ist ersichtlich reellsymmetrisch, und da sie als Modalmatrix eines reellsymmetrischen Matrizenpaares K;I orthogonal sein muß, ist sie involutorisch, X 2 == I, siehe die Eigenschaftstafel Abb. 4.1. Ist nun mit den beiden speziellen Matrizen
A==eK+aI; B==bI
(52)
die Eigenwertaufgabe
(A -AB)x == (eK +aI-AbI)x ==
0
(53)
vorgelegt, oder umgeordnet und durch e =1= 0 dividiert
Ab-a) ( K--e-I X==O,
(54)
so zeigt ein Vergleich mit (38), daß Gj
==
kb-a
_J_ _ ;
e
j == 1,2, ... ,n
(55)
ist; folglich sind die gesuchten Eigenwerte des Paares A;B 1. __ I\,
J
a+2ecos qJj b
•
qJ'
'J
j
== - - 7r; j == 1,2, ... ,n . n+1
(56)
359
17.4 Spezielle dreireihige Bandmatrizen
Beispielsweise für e = - 1, a = 2, b = 1 wird B = I und
A=
o o o o o o
2 -1 0 -1 2-1 o -1 2
o o
0 0
o o ...
(57)
2 -1 -1 2
und diese spezielle Differenzenmatrix hat die Eigenwerte
~ n; n+1
(58)
j = 1,2, ... , n
zu den Eigenvektoren der Modalmatrix (51). Als nächstes betrachten wir die Matrix 1 -1 0 -1 2 -1 2 0 -1
A=
0 0 0
0 0 0
(59)
...................... 0 0
0 0
0 0
2 -1 2
... -1
die sich von der Matrix A (57) nur durch das Element Hauptabschnittsdeterminanten sind Ht
att
unterscheidet. Ihre
= H 2 = ... = H n _ 1 = H n = 1 mit H n = det A ,
(60)
und ihre Eigenwerte lassen sich analog zu (58) explizit angeben 2j-1 Xj = 2 - 2 cos - - n; j 2n+ 1
= 1,2, ... , n
.
(61)
Sie sind reell, voneinander verschieden und begrenzt durch O<Xj<4; j= 1,2, ... ,n .
(62)
Die normierte Modalmatrix ist
g = v .. [
cosa
cos3a
cos5a
~:::
~~s:s~
~: ~~~
cos(2n-1)a cos3(2n-1)a cos5(2n-1)a
COS(2n-1)a]
:~::~;:~ :;:.. cos(2n-1)2 a
(63)
17 Eigenwerte spezieller Matrizen
360
v und
mit dem Normierungsfaktor
der im Argument auftretenden Größe a
7C ~ 2 a==--v==lhn+l' 2(2n+ 1)
(64)
Auch X ist involutorisch ebenso wie die Matrix X (51). Die Inverse der Matrix A läßt sich explizit angeben
n n-l n-2 n-l n-l n-2 n-2 n-2 n-2 2 1
2
2
1
1
2 2 2
(65)
2 ... 1
Zu ihr gehört ebenfalls die Modalmatrix (63); ihre Eigenwerte sind die Kehrwerte von (61). Schließlich sei noch die von Sylvester angegebene Matrix
)(j-l
Sn ==
0 n-l 0 0
1 0 0 0 2 0 n-20 3 n-30 0
0 0
0
0
0
0
0 0 0 0
0 0 0 0
(66)
............................
0 0 n-l 0 ... 1 0
angeführt. Ihre Eigenwerte sind reell und ganzzahlig; sie bilden eine arithmetische Folge mit der Differenz L1 == 2, und zwar ist für nungerade:
- (n - 1)
n gerade:
- (n -1)
024
-2
-4
-3
-1
3
n-l , (67a) n-l
(67b)
Links- und Rechtsmodalmatrix sind identisch, das heißt, es gilt (68)
mit
n [Xl Xz ... Xj ... xnJ
X ==
[;' .;' : Xnl
XnZ
...
(69)
361
17.5 Die Matrix von Boothroyd/Dekker
Die Elemente von X n sind ganzzahlig; die letzten Elemente xnl bis X nn sind + 1 und -1 bzw. -1 und + 1 alternierend. Um die Spalte Xj zu berechnen, beginnt man mit den beiden Komponenten 1 und Aj und ermittelt die noch fehlenden Komponenten X3j' ... ,Xnj aus dem Gleichungssystem (Sn- Ajln)xj = o. Zum Beispiel wird für n = 4
X4 =
[-l
1
1
-1 1 -1 -1 -1 1 -1
1]
, A4 =
n
0 0 -1 0 0 1 0 0
~]
(70)
17.5 Die Matrix von Boothroyd/Dekker Diese in (141] beschriebene Testmatrix Tn besitzt als Elemente die positiven ganzen Zahlen T3 =
[
3 31J
6 8 3 10 15 6
,
(71)
und die Inverse K n = T;; 1 hat die Elemente
Die Vorzeichen sind somit schachbrettartig verteilt, die Hauptdiagonalelemente positiv; die Zeilensummen der Inversen sind abwechselnd + 1 und - 1. Die Eigenwerte sind reell, positiv und voneinander verschieden (73)
und es gilt für n gerade mit
n
V=-.
2
(74)
Mit Aj ist somit auch 1/ Aj ein Eigenwert, und dies wiederum heißt, daß die charakteristische Gleichung von dem in (13.66) bis (13.70) besprochenen Typ ist. Für n ungerade wird
n A,u=l; .u=-+1 2
(75)
Da die Determinante das Produkt aller Eigenwerte ist, folgt aus (74) und (75) det Tn = det Kn = 1 .
(76)
362
18 Parametermatrizen
Außerdem gilt: Die von oben rechts und unten links angeordneten Nebenabschnittsdeterminanten von Tn und K n sind (77)
Zum Beispiel ist für T3 und K 3 (78)
18 Parametermatrizen 18.1 Problemstellung
Nachdem wir in den Abschnitten 16.4 bis 16.10 die Struktur von Matrizenpaaren studiert haben, wollen wir uns nunmehr mit den aus mehr als zwei Matrizen bestehenden Matrizentupeln befassen. Dabei zeigt es sich, daß es die Betrachtung in keiner Weise kompliziert, wenn man noch allgemeiner von vornherein Parametermatrizen F(A) bzw. 0(0"0,0"1'" .,O"u) heranzieht, die in beliebiger Weise vom Parameter A bzw. von mehreren Parametern 0"0,0"1> ... ,0"U abhängen. Von den Elementen .!jk(A) bzw. gjdO"o, 0"1' ... , O"u) solcher Matrizen ist lediglich zu fordern, daß sie eindeutige Funktionen der Parameter sind, also etwa gebrochen rational oder als einfache Transzendente wie cos A, e). usw. auftreten. Das mit diesen Matrizen aufgestellte Gleichungssystem (1)
bzw. im homogenen Fall (2)
ist dann, wie man sagt, äußerlich algebraisch (Matrizenkalkül), dagegen innerlich analytisch. Der Parameter A darf dann zum Beispiel auch die Zeit t bedeuten, und es können durchaus Ableitungen und/oder Integrale über der Zeit vorkommen. Aus dem Begriff der Diagonalähnlichkeit bzw. der Diagonalkongruenz (Normalität) solcher allgemeiner Parametermatrizen und den daraus folgenden Sätzen und Kriterien lassen sich ohne Schwierigkeiten als Sonderfall die entsprechenden Folgerungen auch für Matrizentupel ableiten. 18.2 Spektralzerlegung einer diagonalähnlichen Parametermatrix
Wie in (14.39) gehen wir aus von der Diagonalmatrix der Eigenterme
363
18.2 Spektralzerlegung einer diagonalähnlichen Parametermatrix
I.]
[~Cff,~l)ff,t)
Diag<S5"(A» =
o
0
0
(3)
~(A)
und die Frage entsteht, welche Gestalt diese Matrix nach einer Transformation mit den beiden regulären Modalmatrizen Y und X annimmt. Für den Sonderfall der linearen Parametermatrix F(A) = A - AB wurde dies in Abschnitt 14.3 bereits beantwortet, und da es auf die Beschaffenheit der Eigenterme S5"(A) gar nicht ankommt, können wir alles dort Gesagte auch für nichtlineare Parametermatrizen übernehmen. Wir wollen lediglich, um Verwechslungen zu vermeiden, anstelle von B fortan N schreiben, dann gilt mit den neuen Bezeichnungen
(4) (5)
INXY=I;
XYN=II,
X Y =N -
IN = (X Y) - I'
I --+
(6)
I
und wir haben den Satz 1: Die Links- und Rechtseigenvektoren y.i bzw. Xj einer diagonalähnlichen Parametermatrix F(A) oder allgemeiner G(ao,at, ... ,al!) sind bezüglich der durch sie selbst determinierten Normierungsmatrix N = (X Y) - t im verallgemeinerten Sinn biorthonormal. Mit den in (14.28) definierten Eigendyaden (Stützdyaden)
i
=
1,2, . .. ,n ,
(7)
die nach (14.31) bis (14.37) den drei folgenden Gesetzen gehorchen
IDjXk =
0
Iyk Dj =
OT ;
;
i*k
I
J*k
k = 1,2, ... , n
I'
(8)
; k= 1,2, .. . ,n
I'
(9)
jDkXk=NXk;
I
IDjN-1Dk=O; i*kl
I yk Dk =yk N
I DkN-tDk=Dk
; k= 1,2, .. . ,n
I,
(10)
18 Parametermatrizen
364
wird dann die Spektralzerlegung (14.29) des Paares F(A); N n
F(A)=
L
j=1
n
§j(A)Dj
;
N=
L
j=1
l'Dj
,
(11 )
ein Resultat, das wir aussprechen wollen als
Satz 2: Eine diagonalähnliche Parametermatrix F(A) ist darstellbar durch die Spektralzerlegung (11) mit Hilfe ihrer n linear unabhängigen Eigendyaden Dj und ihrer n Eigenterme ~(A), und dasselbe gilt für die mehrparametrige Matrix G(aO,al'" .,ag ) mit den Eigentermen ~(aO,al'" .,ag ). Kommen wir nun zur Eigentermaufgabe. Multipliziert man die beiden Gleichungen (11) von rechts mit einem Rechtseigenvektor xk bzw. von links mit einem Linkseigenvektor yk, so wird zufolge der Orthogonalitätseigenschaften (8) bzw. (9) der Eigendyaden (12)
F(A)Xk = ~(A)Nxk
bzw. yk F(A)
= ~(A)yk N;
yk N
= yk N
,
(13)
womit sich die Eigenterme ~(A) als Lösungen der Eigentermaufgaben (12) bzw. (13) erweisen; nebenher entsteht eine Identität. Multiplikation von (12) mit yk von links ergibt ebenso wie die Multiplikation von (13) mit xk von rechts (14)
somit k=1,2, ... ,n,
(15)
womit der Kreis geschlossen ist; denn in (3) gingen wir ja gerade aus von der auf die Diagonalform L1 (A) transformierten Matrix mit den Eigentermen ~(A) als Diagonalelementen. Setzt man diese der Reihe nach gleich Null, ~(A) =
0,
§i(A) = 0 ,
... , g;; (A) = 0 ,
(16)
so sind dadurch n Sätze von Eigenwerten definiert, soweit die Eigenterme nicht konstant und von Null verschieden sind, siehe dazu Abb. 18.1 für n = 4 im Reellen. Doch gilt alles Gesagte natürlich auch für komplexe Matrizen und Eigenterme; auch die Eigendyaden (7) sind ja im allgemeinen komplex.
365
18.2 Spektralzerlegung einer diagonalähnlichen Parametermatrix
Abb. 18.1. Reelle Eigenterme einer Parametermatrix F(;') der Ordnung n = 4
Alles von (11) bis (16) Gesagte überträgt sich sinngemäß auf die mehrparametrige Matrix G(ao,a\> .. . ,ae) mit der Spektralzerlegung n
G(aO,al,···,ae )=
j
L
= 1
n
~(ao,al,···,ae)Dj;
N=
L
j=
1
1'Dj ,
(17)
wie leicht einzusehen. Der Vollständigkeit halber vermerken wir noch, daß Parametermatrizen im Zusammenhang mit einer Eigentermaufgabe (Eigenwertaufgabe) als charakteristische Matrizen bezeichnet werden, eine Ausdrucksweise, von der wir früher auch stets Gebrauch gemacht haben. Um nun eine für diagonalähnliche Parametermatrizen kennzeichnende Beziehung von größter Bedeutung aufzudecken, wählen wir irgend zwei verschiedene Parameterwerte A, und AU, bekommen damit die beiden konstanten Matrizen n
F(A,) =
n
L §j(A,)Dj
;
j=1
ff(AU) =
L §j(Au)Dj
j=1
(17 a)
und bilden das dreifache Produkt
n
=
L §j(A,) §j(Au)Dj
j=
,
(18)
1
wo infolge der Beziehung (10) von den n 2 dreifachen Produkten die n(n -1) gemischten Produkte herausfallen. Ebenso folgt 1
F(AU)N- F(A,) =
n
L §j(AU) §j(A,)Dj
j=
,
(19)
1
und nun zeigt ein Vergleich von (18) und (19), daß infolge der Vertauschbarkeit (20)
366
18 Parametermatrizen
der skalaren Eigenterme auch die dreifachen Matrizenprodukte (21)
bzw.
(22)
vertauschbar sind. Wir haben damit den fundamentalen
Satz 3: Ein diagonalähnliches Matrizenpaar F(Ä); N bzw. G(uo,Ul>'" ,ue ); N genügt der Vertauschbarkeitsrelation (21) bzw. (22)jür jeden beliebigen Parameterwert Ä bzw. jür jedes beliebige Parametertupel uo, U I' ... ,Ue' Der Leser studiere dazu die Abb. 18.1, die für zwei verschiedene Parameterwerte Ä1 und Än die jeweils vier Elemente der Diagonalmatrizen L1 (Ä 1) und L1 (Ä n ) zeigt. Um die gewonnenen Einsichten abzurunden, schreiben wir die n Eigentermgleichungen (12) mit der Diagonalmatrix L1 (Ä) der Eigenterme gemeinsam mit der Einheitsmatrix In L1 (Ä)
= Diag ( ~(Ä»; In = Diag (1)
(23)
in der kompakten Form
F(Ä)X=NXL1(Ä);
NX=NXIn
,
(24)
oder nach Multiplikation von rechts mit X-I = YN nach (6) und weil die unterklammerte Matrix ebenfalls wegen (6) gleich N - 1 ist
F(Ä) = NXL1(Ä)YN ; N=N XIY N=N,
(25)
'--.,--!
und dies ist, wenn man es richtig liest, nichts anderes als die Spektralzerlegung, was besonders deutlich wird, wenn man die Eigendyaden (7) in Produkte zerlegt und die Gleichungen (11) so formuliert (26)
wo die Nenner nach (4) gleich 1 sind. Man beachte aber, daß der Vorteil der dyadischen Zerlegung mit den Eigendyaden (7) gerade darin besteht, daß diese nicht normiert sind, ein Sachverhalt, der vor allem die Dimensionsechtheit aller hier abgeleiteten Formeln und Beziehungen garantiert; denn multipliziert man die Vekto-
367
18.2 Spektralzerlegung einer diagonalähnlichen Parametermatrix
ren Xj' yi und die Matrizen F(A) und N mit jeweils beliebigen skalaren Faktoren, so kürzen diese sich alle wieder heraus, wie es bei einer an der Praxis orientierten Darstellung sein muß. Halten wir abschließend fest, daß der eigentliche Wert der dyadischen Zerlegung in Form von n Summanden gegenüber der kompakten Schreibweise (24) in der strikten Trennung der Eigenterme ~(A) von den Modalmatrizen Y und X und der durch sie definierten Normierungsmatrix N besteht; ein für die praktische Nutzanwendung nicht hoch genug einzuschätzender Vorzug, welchen die folgende kleine Übersicht nochmals verdeutlichen möge.
Geometrie (Metrik)
Spektrum
(27)
F(A)
-+
~(A)
Beispiel. Gegeben ist das Matrizenpaar F(A); N F(A) = [ -
2
9j(A)-2
-4 9j(A)-3
~(A)
~(A)
mit
9j(A)+2
2 9j(A)+3
~(A)I
~(A)j
; N=
[-4 3J -7 5
(a)
A
9j(A) = cOsA + (I-A)-2,
~(A) = e A + Jt 2dt = e A +A 3/3
o
(b)
Um nachzuprüfen, ob Diagonalähnlichkeit vorliegt, wählen wir einen speziellen Wert für A, etwa AI = 0 und bekommen mit (c)
die nun konstante Matrix F(O)
=
[-11-6 4J7
(d)
.
Die Rechtseigenwertaufgabe (F(O) - c,N)x = 0 ergibt nun aus det (F(O)- c,N) = c,2 - 3c, + 2 die beiden Eigenwerte c,\ = 2 = 9j (0) und C,2 = 1 = ~(O), wie es sein muß, dazu die Modalmatrix (e)
Die dazugehörige Linkseigenwertaufgabe (FT(O)-c,NT)y = Modalmatrix
0
gibt dieselben Eigenwerte und die
(f)
In der Tat geht mit diesen beiden Modalmatrizen die Matrix F(A) gemeinsam mit N über in YF(A)X= [9j(A)
o
0 J; YNX= [1 01 ,
~(A)
0
lj
(g)
18 Parametermatrizen
368
und dies ist nun ganz unabhängig davon, wie die Eigenterme ~ (A) und S'2 (A) gewählt werden. Man setze All = 1 und überzeuge sich von der Richtigkeit der Vertauschbarkeitsrelation (21).
18.3 Diagonalähnliche Matrizentupel Wir spezialisieren jetzt unsere Ergebnisse auf Matrizentupe/ der Art (28)
die in den linearen Gleichungssystemen (1) bzw. (2) auftreten entweder als die schon in (10.6) betrachteten Polynommatrizen (29) oder allgemeiner mit der mehrparametrigen Matrix (30)
die mit alJ =).IJ in (29) übergeht, doch kommen in den Anwendungen auch Mischformen zwischen Potenzen von). und weiteren Parametern ao, ab ... vor, so zum Beispiel bei auf Knicken gefährdeten gedämpften Schwingungssystemen mit den Parametern). und ).2, ferner aO,al"'" [111]. Grundlegend und charakteristisch für das Tupel ist ebenso wie für das Matrizenpaar A;B bzw. A o; AI sein Verhalten gegenüber Transformationen der Art (31)
wieder unter der ausdrücklich getroffenen Voraussetzung, daß die beiden regulären Matrizen Y und X konstante Elemente besitzen. Grundsätzlich dürften ihre Elemente auch Funktionen des Parameters). sein, wenn sie nur für jeden Parameterwert ). regulär bleiben, doch ist es gerade typisch und wesentlich für die folgende Fragestellung, daß Y und X konstant sein sollen, somit nur zwei mal n 2 (und nicht mehr) Elemente bereithalten, über die man geeignet verfügen kann. In die für jede diagonalähnliche Parametermatrix F()') gültige Spektraldarstellung F()')
=
n
L
§j()')Dj
j= I
;
N
=
n
L
l'Dj
(32)
j= I
setzen wir nun die Polynommatrix (29) ein, und da das Ergebnis für jeden beliebigen Parameterwert ). richtig ist, gelten die (} + 1 separaten Spektralzerlegungen n
AIJ =
L ~jDj
j=1
,u=0,1,2, ... ,(} .
(33)
369
18.3 Diagonalähnliche Matrizentupel
Die Eigenterme sind hier die Eigenpolynome j = 1,2, .. . ,n
(34)
mit den konstanten Koeffizienten
... , d g}.=yjAgxj jN y
(35)
Xj
als Quotienten von je zwei Bilinearformen, gebildet mit den Eigenvektoren ; und Xj. Auch die für jeden beliebigen Parameterwert A gültige Vertauschbarkeitsrelation (21) kann nur richtig sein, wenn sie für alle Koeffizientenmatrizen At/ einzeln gilt:
IAt/N-1Av=AvN-1At/!; ,u,v=O,1,2, ... ,{!,
v>,u,
(36)
wo,u = v eine nichtssagende Identität erzeugen würde und durch Vertauschen von ,u und v jeweils dieselbe Gleichung entstünde; deshalb die in (36) gemachte Einschränkung v>,u. Wir haben damit den Satz 4: Die {! + 1 Koejjizientenmatrizen At/ einer zu N diagonalähnlichen Polynommatrix (29) genügen den {! ({! + 1)/2 Vertauschbarkeitsrelationen (36). Mit diesen Relationen stehen uns nun äußere Kriterien zur Verfügung, die eine Entscheidung darüber erlauben, ob, wenn irgend ein Paar At/; N diagonalähnlich ist, (37)
auch das gesamte Tupel sich mit den gleichen Modalmatrizen Yund X auf Diagonalform transformieren läßt: Y{A JX = {(\) (\) (\) ... (\)J
YNX= (\) .
(38)
Um diesen Test durchzuführen, genügt es, für eine {! + l-reihige Indexpaarfolge, etwa Ao;A I' A o;A 2, ... , Ao;A g zu prüfen, ob für sie alle die Vertauschbarkeitsrelationen (36) erfüllt sind oder nicht. Beispiel. Gegeben ist ein singuläres Matrizenpaar A;B und eine Normierungsmatrix N:
A=a
[-1-lJ o
; B=ß
0
[2 1J 2
1
, N=
[1 0J 2
(a)
1
Das Paar A;N läßt sich, wie man leicht nachrechnet, mit Hilfe der beiden Modalmatrizen
y=
[ O-IJ -1
1
;
x=
[1-1J -1
2
(b)
370
18 Parametermatrizen
simultan auf Diagonalform transformieren. Da nun die Vertauschbarkeitsrelation (c)
erfüllt ist, geht auch das Paar B;/n mit den gleichen Modalmatrizen Yund X auf Diagonalform über:
YAX=
G:] ;
YBX=
GojoJ
,YNX=
[-1 ojtJ . 0
(d)
18.4 Selbstnormierende Tupel
Halten wir nochmals fest: die beiden Modalmatrizen Yund X determinieren nach (6) die Normierungsmatrix N = (Xy)-t. Gibt man daher die Matrix Nvor, so ist damit umgekehrt entweder Y oder X festgelegt, und dies ist der in den Anwendungen eigentlich interessierende Fall. Ja mehr noch, im allgemeinen sind N und F(Ä) gegeben, und gesucht sind die Modalmatrizen Y und X sowie die Diagonalmatrix LI (Ä) der Eigenterme ~(Ä) des Paares F(Ä); N. Wenn nun das vorgelegte Tupel selbst eine oder mehrere reguläre Matrizen enthält, so kann man eine von diesen, etwa Aq> als Normierungsmatrix N wählen. Solche Tupel nennen wir selbstnormierend. Die Vertauschbarkeitsrelationen (36) sind dann für J.I. = ' der nun die Rolle von N übernimmt, verkleinert oder aber man beläßt ihn im Tupel, was zur Folge hat, daß in den Eigentermgleichungen (12) bzw. (13) sich zwei Terme herausheben. Im linearen Fall F(Ä) = A - AB beispielsweise wird mit N = B
(38a) In der Tat fällt der Term ABxk heraus, und übrig bleibt die erfüllte Eigenwertgleichung A xk = ÄkBxk' wie es sein muß oder vielmehr, wie wir dies so zu sehen gewohnt sind. Von hier aus betrachtet verstehen wir auch, weshalb bei den Matrizenpaaren von einer Vertauschbarkeit von A und B niemals die Rede war, einfach deshalb, weil B selbst die Rolle von N innehatte. Dies ist aber nicht so selbstverständlich, wie es erscheinen mag. Bei den sogenannten singulären Büschein zum Beispiel, das sind Paare A; B, deren beide Partner singulär sind, ist dies gar nicht durchführbar, wohl aber findet sich unter Umständen eine Normierungsmatrix (man vergleiche dazu (15.68»
N=aA+ßB
(39)
wo die Skalare a und ß so zu wählen sind, daß N regulär wird, und dieses Vorgehen läßt sich auf Tupel verallgemeinern, indem man (40)
18.5 Über die Eigenwerte von Matrizenprodukten
371
setzt und die Parameter afl so bestimmt, daß N regulär wird, und dies ist gegebenenfalls sogar dann möglich, wenn sämtliche Matrizen Afl des Tupels singulär sind! 18.5 Über die Eigenwerte von Matrizenprodukten
Schon im Abschnitt 13.7 hatten wir festgestellt, daß die beiden Eigenwertaufgaben (41)
dieselben Eigenwerte Aj zu im allgemeinen verschiedenen Rechtseigenvektoren Vj und Wj besitzen. Die Frage nach dem Zusammenhang mit den beiden Eigenwertaufgaben (42) und Fc
= (C-yIn)z = 0
-->
Yl'YZ,·· ·,Yn
(43)
hatten wir dabei offengelassen. Ist nun eines der Paare (42), (43) diagonalähnlich - was, wie wir wissen, gesichert ist, wenn unter den Eigenwerten aj bzw. Yj keine mehrfachen vorkommen - und erklären wir B = In zur Normierungsmatrix N, so garantiert die erfüllte Vertauschbarkeitsrelation AC= CA ,
(44)
daß die Matrizen A, C und In und damit auch die Produkte A C und CA gemeinsam auf Diagonalform übergehen. Dies bedeutet aber ersichtlich, daß die Eigenwerte Aj von (41) die Produkte (45)
aus (42) und (43) sind zu denselben Links- und Rechtseigenvektoren der Paare A C;In und CA;In ebenso wie C;In und A;InJa, wir können nun sehr viel mehr zeigen. Die Eigenwertaufgabe (fl- nN)x =
0
(46)
mit fl = AoAiA z '" A Q
(47)
besitzt als Eigenwerte die Produkte (48)
372
18 Parametermatrizen
der Eigenwerte aus den
e + 1 separaten
Eigenwertaufgaben (49)
zu den gleichen Links- und Rechtseigenvektoren yi und Xj' sofern von den Vertauschbarkeitsbedingungen (36) e + 1 voneinander unabhängige erfüllt sind und gesichert ist, daß mindestens ein Paar A; N diagonalähnlich ist. Dazu ein einfaches Beispiel. Gegeben seien die beiden Paare A;I2 und C;I2 mit
A=
[1 -1J ' C= [ 9 5J; 24
-10-6
somit sind A und C bezüglich N =
h
AC=CA=P=
[19 I1J
-22-14'
(a)
vertauschbar. Nun ist (b)
Da die beiden Eigenwerte verschieden sind, ist das Paar A;I2 diagonalähnlich, somit gehen zufolge der erfüllten Vertauschbarkeitsbedingung auch die Paare C;h und P;I2 gemeinsam mit diesem auf Diagonalform über, wobei sich die Eigenwerte multiplizieren. In der Tat wird (c)
und weiter (d)
somit 8 = 2· 4 und - 3 = 3· ( - 1), wie es sein muß, aber nur unter strenger Beachtung der Reihenfolge, die allein durch die zugehörigen gemeinsamen Eigenvektoren Xl und x2 festgelegt wird. Die erforderliche kleine Rechnung möge der Leser durchführen.
18.6 Parameternormale Matrizen
Wir kommen nun, sozusagen als Krönung aller bisher angestellten Überlegungen zu der vollständigen und abgeschlossenen Klasse der parameternormalen Matrizen, indem wir ebenso wie im Abschnitt 16.3 verlangen, daß die Parametermatrix F()") (1) bzw. 0(0'0,0'1>" "O'e) (2) nicht nur diagonalähnlich, sondern darüberhinausgehend diagonalkongruent, oder wie wir sagen wollen, normal bezüglich N sei, eine Einschränkung, die gleichbedeutend ist mit der Forderung, daß die Linkseigenvektoren yi gleich den konjugiert-komplexen Rechtseigenvektoren Xj sind, zwischen den Modalmatrizen Y und X somit die Beziehung (50)
besteht. Welche Folgerungen zieht diese Bedingung nun nach sich? Zunächst wird die Normierungsmatrix N nach (6) N = (XX*) -1 = N*
pos. der.
(51)
373
18.6 Parameternormale Matrizen
hermitesch und überdies positiv definit, weil das Produkt XX* es ist - man vergleiche dazu alles in Abschnitt 16.3 Gesagte - und dies wiederum bedeutet, daß an die Stelle der Biorthonormalität (4) die N-Unitarität (52)
tritt. Auch die Eigendyaden (7) werden nun hermitesch und positiv semidefinit (53) und damit gehen die Eigenterme (15) über in die mit den Eigenvektoren deten Rayleigh-Quotienten
Xj
gebil-
(54)
oder allgemeiner für die mehrparametrige Matrix (2)
Um nun auch äußerlich zum Ausdruck zu bringen, daß die Eigendyaden (53) hermitesch sind, bilden wir die beiden Matrizen F()')
=
n
L ~()')Dj;
F*().)
j=l
=
n
L
j=l
ffj*()')Dj ,
(56)
- wo sich das Zeichen * selbstredend immer auch auf den Parameter bezieht, ). * = X - und berechnen wiederum die dreifachen Produkte
n
=
L
j=
ffj*()')~()')Dj
(57)
~().)ffj*()')Dj'
(58)
1
bzw. n
F().)N-1F*().)=
L
j=l
woraus folgt
I F*().)N- 1F()') =
F().)N- 1F*().)
I
(59)
18 Parametermatrizen
374
und entsprechend
(60)
ein Ergebnis, das wir aussprechen wollen als
Satz 5: Eine parameternormale Matrix F()') bzw. 0(0'0,0'1> ... , O'{!) genügt außer den beiden Vertauschbarkeitsrelationen (21), (22), welche die Parameter-Diagonalähnlichkeit sicherstellen, den die Parameter-Diagonalkongruenz garantierenden Relationen (59), (60)jür jeden beliebigen Parameterwert ). bzw. jedes beliebige Parametertupel 0'0,0'1> ... 0'{!' Speziell für Matrizentupel (A l; N (28) folgt daraus nach der gleichen Schlußweise wie in Abschnitt 21.3, daß für jedes Paar separat gelten muß (61)
und damit gilt der
Satz 6: Die Koejjizientenmatrizen A/l eines parameternormalen Paares F()');N bzw. 0(0'0,0'1"" ,O'{!); N genügen außer den Vertauschbarkeitsrelationen (36) den weiteren Relationen (61). Diese neu hinzugekommenen und nur für normale Tupel (A l; N gültigen Bedingungen unterteilen wir in zwei Gruppen. Zunächst die {} + 1 Gleichungen (62)
welche besagen, daß zu jedem der {} + 1 normalen Paare A/l; N eine N-unitäre Modalmatrix X/l gehört, und zweitens die {} ({} + 1) Relationen
IAZN-1Ay=AyN-1AZ
I;
,Ll,v=0,1,2, ... ,{} ,
v>,Ll,
(63)
von denen nur die Hälfte wesentlich ist, denn durch Übergang auf das KonjugiertKomplexe folgt wegen (N - 1)* = N- 1 (64)
und das sind die gleichen Bedingungen (63), wo nur ,Ll und v vertauscht wurden, weshalb wir uns, wie dort durch die Nebenbedingung v>,Ll angedeutet, auf {}({} + 1)/2 Bedingungen beschränken können. Jede von ihnen besagt nun, daß die zu den beiden Paaren A/l;N und Ay;N gehörigen N-unitären Modalmatrizen die
18.6 Parameternormale Matrizen
375
gleichen sind: X/1 == Xv' Um daher ein vorgelegtes Tupel {A J;N auf Parameternormalität zu testen, braucht man nur eine einzige der Bedingungen (62) und dazu {l + 1 geeignet ausgewählte Bedingungen (63) heranzuziehen. Sind nun insbesondere die Eigenterme ~(..1.) bzw. ~(ao,al>" .,al?) reell, was nur möglich ist bei Beschränkung auf reelle Parameterwerte, so ist F*(..1.) == F(..1.) bzw. G*(ao,a), ... ,al?) == G(ao,at,· .. ,al?)' und dies bedeutet, daß die Vertauschbarkeitsrelationen der Parameter-Diagonalkongruenz von denen der Parameter-Diagonalähnlichkeit sich nur noch durch den Zusatz N == N* pos. der. unterscheiden. Die Gleichungen (62) gehen dann über in die nichtssagende Identität (65)
(die wir bei Parameter-Diagonalähnlichkeit schon in (36) ausgeschieden hatten!), und dies ist auch klar; denn daß die hermiteschen Paare A/1;N je eine N-unitäre Modalmatrix X/1 besitzen, muß nicht eigens durch eine Vertauschbarkeitsbedingung gezeigt werden; dies wurde auf direktem Wege bereits im Abschnitt 15 bewiesen. Die Relationen (63) (66) dagegen behalten ihre Aussagekraft durch den Zusatz N* == N pos. der., der gegenüber einer nicht-hermiteschen Normierungsmatrix N garantiert, daß das Tupel (A J; N parameter-hermitesch ist. Für selbstnormierende hermitesche Matrizentripel wurde dies zum ersten Mal von Caughey [127 e1 gezeigt. Betrachten wir abschließend als einfachsten Sonderfall die in . 1. lineare Matrix
F(..1.)==A o+A t ..1.;N,
N*==N pos. der. ,
(67)
dann haben wir zunächst die beiden Kriterien (62) (68) und eine Vertauschbarkeitsbedingung (63) (69) Nun sei eine der beiden Matrizen, etwa At selber hermitesch und positiv definit, dann kann sie als Normierungsmatrix dienen und werde At == N == B genannt; A o heiße einfachheitshalber A. Die Vertauschbarkeitsrelation (69) ist dann in trivialer Weise erfüllt ebenso wie die zweite Gleichung (68), und übrig bleibt (70)
und dies ist das bereits in (15.2) zitierte äußere Kriterium für die B-Normalität eines Matrizenpaares .
18 Parametermatrizen
376
Zum Schluß ist es nicht überflüssig, auf einen grundlegenden Unterschied hinzuweisen. Während die Bedingungen (62) der Parameter-Normalität die Existenz einer dem Tupel {A};N gemeinsamen N-unitären Modalmatrix X garantiert, gibt es ein entsprechendes äußeres Kriterium für parameterdiagonalähnliche Matrizen nicht! Aus diesem Grunde mußten wir für diese uns durch Rechnung immer erst überzeugen, ob für mindestens ein Paar Ap;N bzw. für festgewählte Parameterwerte die Paare F(AI);N oder 0(0-0 ,0- 1" , .,0-1.'); N Diagonalähnlichkeit vorlag; erst dann konnten die Vertauschbarkeitsrelationen in Kraft treten. Daß dies nicht anders sein kann, macht schon der allereinfachste Fall der linearen Matrix F(A) == A - AB klar: Diagonalähnlichkeit ist stets gesichert bei lauter verschiedenen Eigenwerten Aj. Sind einige von ihnen mehrfach, so entscheidet der Rangabfall der Matrix F(A) über die Struktur, und das heißt über die Frage Diagonalmatrix oder Jordan-Matrix (19.1). Gäbe es dafür ein äußeres Kriterium, so würde dies gleichzeitig darüber entscheiden, ob Eigenwerte mehrfach sind oder nicht. Dies aber ist unmöglich, weil damit auf rationale Weise über die durch die algebraische Gleichung det F(A) == 0 festgelegten und somit algebraisch-irrationalen Eigenwerte etwas ausgesagt werden könnte. Beispiel. Gegeben ist das Matrizentupel (A I;N mit
0 -2+i! [ -2-i -3
J'
A = [2+i
A 1 -- [2+i
o
4+2ij AJ = [ 4+2i 8+4d '
2
N=
~ [2 5
2+iJ 2-i 5
= N*
J
4i 2+4i
(a)
,
1. iJ . 1
(b)
-1
pos. def.,
-2-2+i 2
N-1 = [ 5
l
i
J
(c)
Es ist zu verifizieren, daß die folgenden Relationen erfüllt sind: a)
b) c)
e(e + 1)/2 = 3(3 + 1)/2 = 6 Vertauschbarkeitsbedingungen (36), } e + 1 = 4 Normalitätsbedingungen (62), e(e + 1)/2 = 6 Vertauschbarkeitsbedingungen (63).
(d)
Um die dem Tupel [A};N gemeinsame N-unitäre Modalmatrix X zu ermitteln, greifen wir irgendein Paar heraus, etwa A 2 ;N und bestimmen aus der Eigenwertgleichung (A 2 -aN)x = 0 zunächst die Eigenwerte und weiter die Eigenvektoren (e)
In der Tat gehen alle vier Matrizen All gemeinsam mit N in die Diagonalformen X* AIiX und X* N X über, wovon der Leser sich überzeugen möge. Auch ist X X* = N - 1, wie es nach (51) sein muß.
18.7 Lineare Abhängigkeit von einem Leitpaar
Wir greifen aus dem Tupel (28) irgendeine geeignete Matrix A k heraus, und das so bevorzugte sogenannte Leitpaar Ak;N sei diagonalähnlich bzw. diagonalkon-
377
18.7 Lineare Abhängigkeit von einem Leitpaar
gruent, somit N-normaI. Die erste Eigenschaft ist nur durch Nachrechnen zu bestätigen (falls nicht physikalische Gründe dies sicherstellen, was oft der Fall ist), die zweite wird durch das Erfülltsein der Bedingung (62) (71)
garantiert. Nun seien alle übrigen Matrizen des Tupels Linearkombinationen der Art (72) dann gehen sie alle bei der Transformation mit den durch das Leitpaar Ak;N festgelegten Modalmatrizen Y; X bzw. X*; X gemeinsam mit N auf Diagonalform über, was infolge der Voraussetzung selbstverständlich ist. Der Leser überzeuge sich dennoch durch Einsetzen von (72) in (36) bzw. (63), daß diese Gleichungen identisch erfüllt sind. In praxi dagegen hat man lediglich aus den beiden Eigenwertaufgaben (73)
die Modalmatrizen Yund X bzw. X* und X zu berechnen und transformiert damit sämtliche Matrizen zusammen mit N gemeinsam auf Diagonalform:
YAvX=evDiag~Akxj>+avDiag(yjNxj>; v=0,1,2, ... ,{!,
v*k (74)
Die lineare Abhängigkeit (72) liegt in den Anwendungen bisweilen vor. Sie vereinfacht die Rechnung besonders dann, wenn auch die Normierungsmatrix N aus dem Tupel selbst stammt oder zumindest aus einigen oder allen Partnern des Tupels nach (40) linear kombinierbar ist. Dieser Fall tritt in allereinfachster Weise auf bei der Polynommatrix - in jetzt etwas anderer Bezeichnungsweise als in (29) -
F(A) = C+DA+MA 2
,
(75)
wie sie uns in der Theorie der gedämpften Schwingungen, aber auch in der Statik I, somit zur Selbstnormierung geeignet. Als Leitpaar wählen C;M, und es werde sog. modale Dämpfung vorausgesetzt, d. h. es gelte wie in (72) D=eC+aM,
(76)
1 Stumpf, H.: On the linear and nonlinear stability analysis in the theory of thin elastic shells. Ing.-Arch. Bd. 51 (1981) S. 195 - 213.
378
18 Parametermatrizen
Im
A
Re
Abb. 18.2. Koordinatenverschiebung
eine Beziehung, die in der technischen Praxis als Bequem/ichkeitshypothese [127 g] bezeichnet wird, da sie oft nicht exakt, sondern nur annähernd erfüllt ist. Führen wir jetzt nach Abb. 18.2 die neue Koordinate ~ = A- A ein, so wird nach leichter Rechnung (77)
oder mit (76)
F(O= [C(1+eA}+MA(a+A)] + [eC+(a+2A)M]~ +
Me
(78)
Über A verfügen wir nun so, daß der Inhalt der geschweiften Klammer verschwindet, wählen somit A = - 1/e und bekommen
(79)
Das Paar C; M habe die Modalmatrizen Y und X, dann wird YCX = Diag (vj CXj) =: Diag (c) YMX
= Diag <.vi MXj) = : Diag (mj)
; (80) ,
und damit geht die Parametermatrix F(~) über in die Diagonalmatrix ihrer Eigenterme (81)
Diese gleich Null gesetzt führen auf n quadratische Gleichungen, deren jeweils zwei Wurzeln ~jI und ~jII die insgesamt 2n gesuchten Eigenwerte sind.
V. Kapitel
Matrizengleichungen und Matrizenfunktionen
Wiederholen wir kurz: Diagonalähnliche (im Sonderfall diagonalkongruente oder normale) Matrizenpaare lassen sich simultan transformieren auf YAX=A = Diag(.A) ;
YBX=In = Diag(l)
(A)
mit der Spektra/matrix Ader n Eigenwerte. Sind jedoch einige oder alle Eigenwerte defektiv, so tritt an die Stelle von (A) allgemeiner die Transformation auf die beiden B/ock-Diagona/matrizen YA X
= A = Diag 09;
Y BX = In
= Diag (/)
,
(B)
und diese Transformation haben wir im Abschnitt 16 ausführlich beschrieben. Das Thema des V. Kapitels sind die mit den Fortschritten von Physik und Technik für den Anwender immer wichtiger werdenden Matrizengleichungen (Abschnitt 19) und Matrizenfunktionen (Abschnitt 20) und hier wieder insonderheit die Lösung der Vektor-Differentialgleichung mit konstanten Koeffizienten Bi(r) = Az(r);
z(O) = zo,
B regulär,
(C)
die deshalb im Abschnitt 20.6 in der nötigen Breite behandelt wird. Matrizengleichungen und Matrizenfunktionen (die übrigens kaum Gemeinsamkeiten aufweisen) sind weder rationell darstellbar noch vom Lernenden zu verstehen ohne die vollständige begriffliche wie numerische Beherrschung der (bereits in den Abschnitten 10.2 und 10.3 vorbereiteten) Transformation (B), weshalb das vorherige Studium der Abschnitte 16.1 bis 16.3 unerläßlich ist. Der Rest des Abschnittes 16 ist Theorie und kann, falls erforderlich, bei Gelegenheit nachgeholt werden.
19 Matrizengleichungen • 19.1 Problemstellung
Man unterscheidet skalare Gleichungen, Vektorgleichungen und Matrizengleichungen, je nachdem, ob die Unbekannte ein Skalar x, ein Vektor x oder eine Matrix X ist. Solche Gleichungen heißen linear, wenn die Unbekannte nur in der ersten Potenz vorkommt, sonst algebraisch oder transzendent nichtlinear. Die skalare lineare Gleichung ist trivial und bedarf keines Kommentars. Lineare VektorR. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5_5, © Springer-Verlag Berlin Heidelberg 2011
380
19 Matrizengleichungen
gleichungen haben wir im Abschnitt 7 ausführlich behandelt; es sind dies Gleichungssysteme der Art (1)
die sich mit der rechten Seite (2)
und der unbekannten Matrix (3)
zur Matrizengleichung A X == C zusammenfassen lassen. Insofern ist uns der Begriff nicht allzu neu; die eigentliche Schwierigkeit liegt indessen woanders, wie wir alsbald erkennen werden. • 19.2 Die Matrizengleichung AXB = C Einfachster Vertreter einer echten (eigentlichen) Matrizengleichung ist die eingliedrige Matrizengleichung m
n
AXB==C;
n
A
n
X AX
m
B
m m
AXB
(4)
mit den beiden quadratischen Matrizen
wo A, Bund C gegeben und die Matrix X gesucht ist. Wir beschreiben zunächst einige grundlegende Methoden und Vorgehensweisen, die sich auch auf die mehrgliedrige Matrizengleichung übertragen lassen, und zwar sind dies Transformierbarkeit, Spaltenschreibweise, Expansion, Staffelung und Entkopplung, fünf Techniken, die am Beispiel der Gleichung AXB == C am einfachsten zu erläutern sind.
19.2 Die Matrizengleichung AXB = C
381
1. Transformierbarkeit
Wir multiplizieren die Gleichung A X B = C von links mit La und von rechts mit Rb (beide regulär) und nehmen innerhalb des nun fünffachen Produktes eine geeignete Erweiterung vor; damit entsteht die transformierte Matrizengleichung (6)
mit den neuen Matrizen (7)
und damit die Rücktransformation (8)
2. Spaltenschreibweise Multipliziert man die Gleichung AXB = C von rechts mit den Einheitsvektoren
et bis em oder, was dasselbe ist, setzt man die n Spalten auf der linken Seite dieser Gleichung einander gleich
(9)
so entsteht ein Gleichungssystem für die gesuchten Spalten Xj der Matrix X Ax1btl +Axzbzt
+ ... +Axmbmt
=
Ct}
.~~I.~I~~~.~Z.~~Z.~.'.'.' .~~~~.~~~ ~~ .:.
(10)
AXt btm+Axzbzm + ... +Axmbmm - c m
oder abgekürzt m
L Axjbjk=Ck;
k= 1,2, ... ,m ,
(lOa)
j=t
wo die Elemente bjk von B in transponierter Anordnung erscheinen, worauf unbedingt zu achten ist!
3. Expansion Mit den expandierten Spalten (2), (3) der Länge m' n
i
m'n
~
(11 )
382
19 Matrizengleichungen
und der quadratischen Expansionsmatrix der Ordnung m' n
(12)
schreibt sich das Gleichungssystem (10) kompakter als
El
(13)
Diese Operation wird als direktes Produkt der beiden Matrizen A und B erklärt und nach einer von Kronecker eingeführten Schreibweise mit dem Symbol @ bezeichnet
E=A@B bzw.
E=B@A,
(14)
wo in verschiedenen Nationen und von verschiedenen Autoren die eine oder andere Schreibweise verwendet wird, worauf beim Literaturstudium zu achten ist. Wir bleiben deshalb bei der unmißverständlichen Schreibweise (13), denn selbstverständlich läßt sich innerhalb der Matrix E (sogar von Block zu Block wechselnd) entweder A bjk oder bjkA schreiben. Wieder ist darauf zu achten, daß die Elemente von B in transponierter Anordnung auftreten, weshalb als Faktor bei A die Matrix (bk) und nicht (b)k) steht! 4. Staffelung
Ist die Matrix B von oberer Dreiecksform
B
~ rb~l:;::;~]
lo
0
(15)
... b mm
so entfällt in (10) der rechte obere Teil, und es verbleibt das gestaffelte System AXt b l1
~~.t ~.l~ .~~~~~~~
= Ct } . . . . . . • . . . . . . . . •:
~~
(16)
AXtbtm+Ax2b2m+'" +Axmbmm - c m
wo die Vektoren Xl bis x m in dieser Reihenfolge von oben nach unten rekursiv zu berechnen sind.
19.2 Die Matrizengleichung AXB = C
383
5. Entkopplung A und B seien Block-Diagonalmatrizen
A==
[AJ'.~~ ..••.. :J o 0
(17)
... A vv
mit quadratischen Diagonalblöcken A jj und B kk . Werden die Matrizen X und C in dazu passender Weise unterteilt
X==
[~::. ~:: ~~J Xvi
X v2
(18)
XVII
so zerfällt die Matrizengleichung A X B == ein /1' v < m' n getrennte Matrizengleichungen kleinerer Ordnung
j:l,2, [ k - 1,2,
,V} ,/1
(19)
Dazu einige Sonderfälle. 5a. A beliebig; B strikt diagonal, somit /1 == m. Die Matrizengleichung A X B == C zerfällt in m gewöhnliche Gleichungssysteme (20)
für die Spalten XI bis X m der Matrix X mit den Spalten Ck aus C (Spaltenentkopplung). 5b. A strikt diagonal; B beliebig, somit v == n. Die Matrizengleichung A X B == C zerfällt in n gewöhnliche Gleichungssysteme ajj~ B == c j
für die Zeilen lung).
;
XI
j = 1,2, ... , n
(21)
bis x n der Matrix X mit den Zeilen c j aus C (Zeilenentkopp-
5c. A und B strikt diagonal, somit v == n und /1 == m. Die Matrizengleichung A X B == C zerfällt in die m' n skalaren Gleichungen
j:l,2, [ k - 1,2, totale Entkopplung.
,n} ,
,m
(22)
384
t 9 Matrizengleichungen
Fragen wir schließlich nach der Lösbarkeit unserer Matrizengleichung. Sind A und B regulär, so folgt in trivialer Weise (23)
doch ist uns mit dieser Art der Auflösung nicht gedient, da sie sich nicht auf mehrgliedrige Matrizengleichungen übertragen läßt. Dagegen führt die expandierte Gleichung Ex = C (12) immer und unter allen Umständen zum Ziel, und es gilt bezüglich Eindeutigkeit, Verträglichkeit und Widersprüchlichkeit alles im Abschnitt 7.10 Gesagte, weshalb wir im folgenden auf die Lösbarkeitsbedingungen selbst nicht mehr zurückkommen werden.
• 19.3 Die mehrgliedrige lineare Matrizengleichung Die natürliche Verallgemeinerung der eingliedrigen Matrizengleichung A X B = C ist die folgende a
1122 aa vv AXB= AXB+AXB+". +AXB= C .
L
(24)
v= I
Da von dieser Summierung die Matrizen X und C aus Gleichung (4) gar nicht betroffen werden, können wir alles aus dem letzten Abschnitt übernehmen, wenn v
v
wir nur über die Matrizen A und B summieren. Gehen wir also der Reihe nach durch: 1, Transformierbarkeit. Es bestehen die 2mal I
LaARa=A I 1
LbBRb = BI'
Transformationsgleichungen
a
2
,
(J
LaA Ra = A a , Ordnung n , (25)
L aARa =A 2 ,
a
2
LbBRb = B 2 ,
LbBRb = Ba'
Ordnung m. (26)
als Verallgemeinerung von (7) (in etwas anderer Schreibweise), wovon die Gleichungen (8) nicht berührt werden. 2. Spaltenschreibweise. Mit den Matrizensummen Skj
I I
2 2
a a
= A bkj+A bkj + .. , +A bkj
; j,k = 1,2"" ,m
(27)
haben wir anstelle von (10) das Gleichungssystem Sl1 X I +S21 X 2 + , .. +Smlxm =
CI
~l,2~1. ~.~~2~2, ~, " " " ~,~~~~~ . : ~~ SlmXI
+S2m X 2+'" +Smmxm - cm
}
(28)
385
19.4 Die zweigliedrige lineare Matrizengleichung
3. Expansion. Es besteht das Gleichungssystem Ex = c (13) der Ordnung m'n mit der quadratischen Expansionsmatrix I
I
2
2
E = A@(bkj)+A@(bkj )+ ...
a
a
+ A x (b kj )
(29)
v
4. Staffelung. Sind alle (1 Matrizen B von oberer Dreiecksform (15), so geht das System (28) über in
(30)
und dieses wird aufgelöst in der Reihenfolge xI' ... ,xm • v
v
5. Entkopplung. Sind alle Matrizen A und B in gleicher Weise partitioniert gemäß (17), so zerfällt auch jetzt die Matrizengleichung (24) in V·IJ. < m· n Gleichungen kleinerer Ordnung I
I
2
a
2
AjjXjkBkk+AjjXjkBkk+'"
a
+ AjjXjkBkk = v
Cjk ;
j : 1,2, [ k-l,2,
,v
1. (31)
,IJ.J
v
Sind insonderheit alle 2(1 Matrizen A und B strikt diagonal, so zerfällt die Matrizengleichung (24) in m' n skalare Gleichungen, wo nun der Skalar Xjk sich nach rechts (oder links) aus dem dreifachen Produkt herausziehen läßt I
I
2
2
(ajjb kk + ajjb kk +
a a
... + ajjbkk)Xjk = Cjk ;
[j:
1,2,
k-l,2,
1, ,mJ ,n
(32)
totale Entkopplung. Zwischen diesen beiden Extremen liegen wieder die Sonderfälle 5a und 5b aus Abschnitt 19.2. Weitere Einzelheiten über die mehrgliedrige Matrizengleichung findet der interessierte Leser in den grundlegenden Arbeiten von Wimmer und Ziebur [124] sowie Lancaster [125]. • 19.4 Die zweigliedrige lineare Matrizengleichung
Für (1
=
1
2 geht die Matrizengleichung (24) über in I
2
2
(33)
AXB+AXB=C,
dann stehen uns nach (25), (26) die beiden Transformationsgleichungen I
LaARa = AI' I
LbBRb = BI ,
2
LaARa = A 2 , 2
LbBRb = B 2
'
Ordnung n ,
(34)
Ordnung m
(35)
386
19 Matrizengleichungen
sowie die beiden Gleichungen (7) und (8) (36) zur Verfügung, und die Besonderheit der Gleichung (33) gegenüber der allgemeinen Matrizengleichung (24) mit mehr als zwei Summanden besteht gerade darin, daß durch geeignete Wahl der beiden Transformationspaare La;Ra und Lb;Rb zahlreiche Sonderformen der transformierten Paare A 1;A 2 und B 1;B2, darunter die zur Staffelung und Entkopplung erforderlichen, fast ausnahmslos erreichbar sind, während dies bei Matrizentupeln nur unter recht einschränkenden Bedingungen möglich ist, siehe dazu die Ausführungen im Abschnitt 18.3, speziell die Bequemlichkeitshypothese (18.76). 1 2 Es seien nun die beiden inneren Matrizen Bund A regulär (oder die beiden 1
2
äußeren A und B, dann vertauschen wir in (33) die Summanden), dann heißt die Matrizengleichung regulär. Dies hat zur Folge, daß sich stets die
Normalform
I Ä X Im + InX Ji == C I
(37) 2
herbeiführen läßt, und zwar durch die spezielle Wahl La == A
-1,
Ra == In und
1
L b == Im' Rb == B - 1, das heißt also durch Multiplikation der Gleichung (33) von 2
1
links mit A - 1 und von rechts mit B - 1, wobei die Matrix X unverändert bleibt. Die in der Normalform auftretenden Matrizen sind somit (38) Natürlich werden die Inversen nicht explizit hergestellt, sondern die Produkte Ä,
Ji und C, wie im Abschnitt 6.6 beschrieben, nach Gauß-Jordan in zwei Stufen berechnet. Wir interessieren uns jetzt für die Eigenschaften der Expansionsmatrix (29). Sie besteht aus nur zwei Summanden (39) 2
1
1 2
und wir denken uns das Paar A; A auf untere und das Paar B; B auf obere Dreiecksform transformiert
387
19.4 Die zweigliedrige lineare Matrizengleichung
dann ist das System (28) und damit auch die Expansionsmatrix E von unterer Dreiecksform. Auf der Hauptdiagonale steht zum Beispiel oben links in der ersten Zeile das Element (41)
und allgemein wird
)'J:
1,2, .. .
,n} .
(42)
(k-1,2, .. _,rn
Das expandierte System Ex = c ist somit singulär, wenn auch nur einer der Summanden aj+ ßk gleich Null wird, oder anders ausgedrückt, wenn die beiden Paare 1
2
2
I
A; A und ( - B); B mindestens einen Eigenwert gemeinsam haben. Wir berechnen nun die Determinante von E. Zunächst gilt, da alle vier Trans-
formationsmatrizen aus (40a), (40b) die Determinante Eins besitzen, 2
°11°22'"
0nn = detA 2 = det A;
611 622 '" 6kk =
I
detB 1 = det B ,
(43)
und da E Dreiecksform hat, ist die Determinante gleich dem Produkt der rn' n Hauptdiagonalelemente. Mithin wird nach (42) unter Beachtung von (43)
rr rr n
detE=
m
j=lk=1
rr rr n
ejk =
m
ajjbkk(aj+ßk)
j=lk=1
2 I = (detA)m(detB)n
rr rr n
m
(44)
(aj+ßk)
j=lk=1
oder auch mit den rn-fachen Produkten v = 1,2, .. _, n
(45)
so geschrieben 2
I
an (det A)m (det B)n
Speziell in der Normalform (37) ist somit zufolge det Im
(46)
= det In = 1 (47)
Schließlich ist es nicht unwichtig zu bemerken, daß die vorgelegte Gleichung (33) transponiert werden kann auf (48)
388
19 Matrizengleichungen
und dies erweist sich unter Umständen dann von Vorteil, wenn m * n ist und nur 1
2
2
1
eines der beiden Paare A; A oder B; B transformiert werden soll. Man wird dann von den Gleichungen (33), (48) jene heranziehen, bei welcher das zu transformierende Paar von kleinerer Ordnung ist als das nicht transformierte. Sonderformen der zweigliedrigen Matrizengleichung mit m = n sind die in der Normalform (37) auftretenden Gleichungen von Ljapunov B*Xln+lnXB= C,
kurz B*X+XB= C
(49)
kurz X+B*XB=C.
(50)
und von Stein
InXln+B*XB=C,
Sofern eine eindeutige Lösung X existiert, folgt die Wechselbeziehung
C= C*
**
(51)
X=X* ,
wie man durch Einsetzen in (49) bzw. (50) leicht bestätigt. Ist also die rechte Seite C hermitesch, so ist es auch die Lösung X der Gleichung von Ljapunov bzw. Stein. Ein Beispiel. Expansion der Ljapunov-G1eichung (49) mit hermitescher rechter Seite C.
B=
iJ
2 1+ [o i
1 + 4ij , B* = [2 , C= [8 I -4i 2 I-i
(a)
1
Nach (39) wird mit A = B* die Expansionsmatrix
J
B*+/2 '2 0 ( h(1+i) B*+/ i 2
(b)
und wenn wir B * und 12 einsetzen
_[~-i Li
E-
I +i 0 o I+i
o o
8 1-4i I +4i
I-i
2
2+i
(c)
Die Matrix E ist singulär. Ohne Rechnung erkennt man die Eigenspalte ce und daraus die Eigenmatrix Ce
(d)
Die Frage ist nun, ob die rechte Seite c aus (c) verträglich ist. Dies trifft in der Tat zu, und man findet eine Partikularlösung
19.4 Die zweigliedrige lineare Matrizengleichung
,
389
Xgesamt =
J
i 2 [ -i l+y
(e)
Man überzeuge sich durch Einsetzen, daß damit die Gleichung B* X + X B = C erfüllt ist. Die Gesamtlösung ist nur hermitesch, wenn man y reell wählt. Wir bestätigen noch die Formel (47). Die Eigenwerte der Paare (A;I2) = (B*;h) und B;h lassen sich leicht angeben, da beide von Dreiecksform sind, wobei die Numerierung der Eigenwerte belanglos ist: (f)
Damit werden die Produkte (45) (g)
(h)
und weiter nach (47) (i)
Der an den technischen Anwendungen und weiteren Methoden zur Lösung der Gleichungen von Ljapunov und Stein interessierte Leser sei verwiesen auf die Bücher von Müller [127 b] und Müller-Schiehlen [39] ferner Lancaster [21, S.261-277]. Ein stets anwendbares und ohne vorherige Transformation auf die Normalform zum Ziel führendes Verfahren ist die Lösung des expandierten Gleichungssystems Ex = c mittels des Gaußschen Algorithmus, doch ist der Rechenaufwand für m = n der sechsten Potenz von n proportional (und ähnliches gilt für m *- n), weshalb es erforderlich wird, andere Verfahren bereitzustellen, deren Rechenaufwand mit der vierten bzw. dritten Potenz von n anwächst. Die wichtigsten dieser Verfahren zur Lösung der Gleichung (33) werden wir in den folgenden vier Abschnitten beschreiben; sie sind in Tabelle 19.1 mit ihren speziellen Eigenschaften übersichtlich zusammengestellt. Tabelle 19.1 Rationale Transformation
Nicht-rationale Transformation
19.5 Elimination Kreisseimeier 1972 [1271 Transformation auf die Hessenbergmatrix oder Kodiagonalmatrix
19.7 Rekursion Kenntnis der Eigenwerte aj oder ß k eines der beiden Paare erforderlich
19.6 Dekomposition Falk 1988 (126) (Entflechtung) Kenntnis der charakteristischen Gleichung eines der beiden Paare erforderlich, auch ohne Transformation durchführbar
19.8 Entkopplung Kenntnis der Eigenwerte aj und ßk beider Paare erforderlich
390
19 Matrizengleichungen
19.5 Elimination
Vorgelegt sei die Normaljorm (37) (53) Der Grundgedanke des Verfahrens besteht darin, die Matrix A (oder auch B) ähnlich zu transformieren auf die Kodiagonalmatrix (10.143) (hier in etwas anderer Bezeichnungsweise)
K=
0 k 2t 0
0 0 kn
0 0
0 0
0 0 0
0 0 0
ktn k 2n k 3n
kv,v-t*O, v = 2,3, ... ,n ,
.............................. 0 0 ...
0 kn,n-t
k n- 1,n kn
(54)
wonach (53) übergeht in
KXIm+InXB = C
(55)
mit
LaARa=K,
LaInRa = In ; C=LaC,
X=RaX
(56)
gemäß (34) bis (36), wo L b = Rb = Im zu setzen ist, da Bungeändert bleibt. Die Gleichung (55) wird nun transponiert und umgestellt, das gibt (57)
mit
y=X T , G=C T ,
(58)
und damit lautet die Spaltengleichung (28)
BTYt
+ ktnImYn
= gt
T k 21 I mYt +B Y2
+ k 2n l mYn
=
g2
(59)
Auf dieses fast gestaffelte Gleichungssystem wenden wir nun den Algorithmus von Gauß-Jordan in Blöcken an und beseitigen mit den Kodiagonalmatrizen als
19.5 Elimination
391
Pivots, beginnend mit der letzten Zeile und fortfahrend von unten nach oben, die Hauptdiagonalblöcke. Es wird dann mit neuen Matrizen K vn und neuen rechten Seiten h v
k:,I~Y~
+
~~;:
.. ::; .. }
+ Kn-t,nYn
kn-t,n-2ImYn-2
kn,n-t1mYn-t +KnnYn
(60)
- hn- t =gn
Die erste Blockzeile aus (59) ist damit übergegangen in (61) womit Y\ eliminiert ist, daher der Name des Verfahrens. Der Algorithmus ist denkbar einfach. Wir reduzieren zunächst die rechten Seiten
1 T Start h n = gn ; hv-t=gv-t---B h v ; v=n,n-1, ... ,2 kv,v-t
(62)
und sodann die Matrizen der letzten Blockspalte 1
T
T
(63) Start Knn=B +knnlm ; Kv-t,n=kv-t,vlm---B K vn kv,v-t Aus dem Gleichungssystem (61) wird der Vektor Y n berechnet; die übrigen Vektoren Y n -1 bis Yt folgen dann aus (59), wobei die erste Blockzeile als Kontrolle dient. Ein Beispiel mit n
= 3, m = 2.
Zu lösen ist die Matrizengleichung (55) (a)
mit K
= [-
~o ~ ~J 2
1
'
B
= [- t
1
3J ' (; = [- ~ 2~J ' 1
5
(b)
11
(c)
Erster Schritt.
v=n=3. BTh3=[2:] , g2-LBTh3=[-~]-;[2:]=[_~:]=h2'
(d)
392
19 Matrizengleichungen
Zweiter Schritt.
v=
2.
B Th2 = [
-7J
-23
C:J -~1 [-~:J [=:J [-: :J G~J' G~J +
Erster Schritt. Berechnung der Matrix K 23 B T K 33 =
[31J 3 5
I
k 23 12 - - B T K 33 = k 32
,
(e)
=
[1 01 _~ [3 0 d 2 3
Zweiter Schritt. Berechnung der Matrix K 13
(f)
1=
IJ 5
- 0,5 - 0,5J .
[
-1,5 -1,5
(g)
(o3013j -~I [-I-IJ -3 -3 [2 -3 -0 =
lJ . (h)
(61): Auflösung des Gleichungssystems (i)
Elimination beendet. Auflösung der Gleichungssysteme (59)
n = 3. k 32Y2 + K 33 Y3
= g3'
in Zahlen
2Y2 +
o rl315-11 [5J lJ
[IJ -
(k)
Aus
U> und (k) folgen nun nach leichter Rechnung (I)
Nur zur Probe rechnen wir noch
n= 1 . B
Y, +k 13 Y3 = g" T?
in Zahlen
[-
1 1 1 4 3 llJ (2J+ 3[5J (20J
(m)
Die zwei Spalten (i) und (I) stellen wir zur Matrix Y zusammen. Diese transponiert ergibt die gesuchte Matrix X
Y=
~l Y3J G_~ ~J ' Y2
=
T
y =
G-D X. =
Einsetzprobe nach (a).
(n)
Das Verfahren wird noch effizienter, wenn man auch die Matrix B auf Kodiagonalform transformiert; die Anzahl der Operationen für die Lösung der Matrizengleichung ist dann für m = n proportional zu n 3 und bleibt ähnlich gering auch für m"* n.
19.6 Dekomposition (Entflechtung)
393
19.6 Dekomposition (Entflechtung)
Wieder gehen wir aus von der Normalform (53). Diese Matrizengleichung wird umgewandelt in ein gewöhnliches Gleichungssystem (64)
mit einer quadratischen Matrix H der Ordnung n und der Matrix R der rechten Seiten, so daß unabhängig voneinander die m Gleichungssysteme HXj.l=rj.l;
f.,l=1,2, ... ,m
(65)
zu lösen sind. Die Determinante der Systemmatrix H ist (66)
mit den Produkten Qv aus (45). Der Beweis der Methode ist nicht ganz einfach und erfordert mathematische Hilfsmittel, die uns hier nicht zur Verfügung stehen. Der Algorithmus sei deshalb einfach nur mitgeteilt. Algorithmus Dekomposition
1. Ermittlung der Matrix H 1a. Berechne die Koeffizienten qm bis qo des Polynoms in a (67)
1b. Bilde die Folge der n-reihigen Matrizen Tm = O+qm1n ,
Tm-I =ATm+qm-lIn, .. ·,To=AT1+qoln=H. (68)
2. Ermittlung der Matrix R 2a. Bilde die Folge der m-reihigen Matrizen
,
Kontrolle qolm - BPo ';" 0 (Cayleigh-Hamilton). 2b. Berechne die Matrizenprodukte der Höhe n und der Breite m (70)
394
19 Matrizengleichungen
2c. Bilde die Folge der Matrizen der Höhe n und der Breite m Sm-t=o+Pm- t , Sm-2=ASm-t+Pm-2,···,So=ASt+Po=R
(70a) 3. Berechnung der Lösungsmatrix X Mit Hilfe des Gaußschen Algorithmus wird die Äquivalenztransformation (71)
LHR=ll
auf die leicht zu invertierende Pivotmatrix II durchgeführt. Dann ist gemäß (64)
(71 a)
IX=Rll-tLI·
Wir vermerken noch, daß der Algorithmus von (67) bis (70a) divisionsfrei verläuft. Sind A, Bund C ganzzahlig, so sind es demnach auch Hund R; es kann somit nach den Methoden der Abschnitte 6.12 bis 6.15 die Lösung ganzzahlig und folglich fehlerfrei gewonnen werden. Die Dekomposition läßt sich verallgemeinern auf die nicht normierte Matrit
2
t
zengleichung (33) unter der Voraussetzung, daß entweder A und A oder Bund 2
B miteinander vertauschbar sind, siehe dazu die Originalarbeit [126]. Die eigentliche Schwierigkeit besteht in der Aufstellung der Polynomgleichung (67) (und das ist mit a = - A nichts anderes als das charakteristische Polynom des Paares B;Im). Man wird deshalb das Paar B;Im vorweg auf Km;/m mit der Kodiagonalmatrix Km transformieren, dann ergibt sich das Polynom quasi von selbst. Transformiert man darüber hinaus auch das Paar A;In auf Kn;Im so ist der Gesamtaufwand zur Lösung der Matrizengleichung proportional zu m' n . (m + n), somit für m = n proportional zu n 3. Erstes Beispiel. n = 2, m = 3.
AX+XB= C mit A = [ :
t a.
det
(B+aI
3) =
det
[~:a
B = [-:
o
~:J0 C [44 00J2 =
(a)
t
2
a 1
(c)
19.6 Dekomposition (Entflechtung)
395
[ ~J [ -] 1 0 0
0 1 0
o -2
1 -1 1
1
o -1
[-~
1 0 -1 -1
Probe: qoI 3 -BPo = -2I3 -BPo = [
0 0 0
[:
CP t =
2b. CP2 = CI3 =
0
= P2
:J
,
0 0 0
(d)
-~J
~J
!
e
-8 -4J =Pt , 1 -9 -3
4 CPo = [-4 =Po · -6 2 I:J 2c. S2
SI
=0
[:
+P2 =
0 :J
=AS +P = G-~J 2
:J + [
[:
G-~J
-~J -9 -3 -8
0
I
So =ASt +Po =
(e)
-8
0
-4J + [-4 -6 [: -10 -5
4 2 108J
[:
-8
-4J -10 -5
=C9 -12 2 -12
:J
(f)
=~;
3. Die Gaußsche Transformation lohnt hier nicht. Wir berechnen die Inverse von H direkt nach (3.19) und bekommen aus der Gleichung HX= R (64) mit H (c) und R (g) die Lösung
Zweites Beispiel. Die Ljapunov-Gleichung (49) mit B*
BX+XB=2B 2
= Bund C = 2B 2 , also (a)
•
Die Lösung- ist X = B, wie man durch Einsetzen leicht bestätigt. Der Algorithmus wird auf dem Computer durchgeführt und liefert eine durch Rundungsfehler verfälschte Matrix Z anstelle der exakten Lösung X = B. Die Matrix LI = BZ+ZB-2B 2
(b)
ist deshalb von Null verschieden. Ihre Elemente 0jk sind um so größer, je höher die Ordnungszahl n ist. Um sich einen Einblick in die Genauigkeit der Rechnung zu verschaffen, läßt man die Werte
I0jk Irnin'
°
1
= -;
n
n
n
L LI j=lk=1
0jk
I, I0jk Irnax
(c)
19 Matrizengleichungen
396
ausdrucken, wo öder Betragsmittelwert aller n 2 Elemente von LI ist. Allerdings darf man aus der Kleinheit der Werte (c) nicht voreilig auf die Genauigkeit der Näherungslösung Z schließen; wir kommen auf solche Fragen im Teil 2 des Buches noch ausführlich zurück. Speziell sei B die Differenzenmatrix (17.57) (dort A genannt), dann liefert die Maschine die folgenden Ergebnisse Ö
IÖjklmin
1,1'10- 15
Iöjkl max
5,5 '10- 15
n=5 n = 10 n = 15 n = 20
0 1,8'10- 12 3,3 '10- 8 9,6'10- 8 9,5'10- 5
1,4'10- 14 3,8'10- 11 1,6'10- 7 3,7'10- 4
n= n= n= n=
4,0'10- 7 1,2'10- 5 1,2'10- 5 4,7'10- 4
5,3 '10- 3 1,4'10- 2 4,4'10- 2 9,1'10- 1
1,0'10- 11
(d)
21 22 23 24
7,9'10- 4 3,1,10- 3 1,1'10- 2 1,7'10- 1
Schon ab n = 20 werden danach die Ergebnisse absolut unbrauchbar. Wir werden später noch sehen, wie sich durch geeignete Modifikation des Algorithmus die Resultate verbessern lassen.
Wir betonen nochmals, daß die Dekomposition divisionsfrei verläuft. Sind A, Bund C ganzzahlig, so sind es demnach auch Hund R. Dies ist einerseits ein Vorteil, doch entstehen auf diese Weise bei hoher Ordnung n sehr große Zahlen, weshalb der Algorithmus durch Überlauf gefährdet ist. 19.7 Rekursion
Dieses Verfahren setzt das gestaffelte Gleichungssystem (30) voraus. In der Matrizengleichung (33) I
1
2
2
AXB+AXB= C
(72) 2
1
muß deshalb das Paar B; B nach (34) bis (36) transformiert werden auf (73)
Damit werden die Matrizensummen (27) I I
2 2
Skj= Abkj+Abkj
I
=
2 _
(74)
Aokj+Abkj ,
womit das gestaffelte System (30) mit (36) übergeht in I
2 _
(A ·1 + A bll)xI 2 _
I
= CI }
2 _
A b l2 XI + (A -1 + A b22 )X2 2
AblmXI +
2
Ab2m X2+'"
= C2 I
2
+(A-1+Abmm )xm =Cm
(75)
397
19.8 Entkopplung
und daraus können die Vektoren Xl bis
xm rekursiv berechnet werden. EntscheiI
2 _
.
dend für die Lösbarkeit sind die Matrizen A + A bjj in der Hauptdiagonale. Sind sie alle regulär, so ist das System eindeutig lösbar, sonst aber widersprüchlich oder verträglich mit dann unendlich vielen Lösungen. Um den Aufwand gering zu halten, empfiehlt sich eine ÄhnlichkeitstransforI
2
mation des Paares A; A auf Kn;/n mit der Kodiagona/matrix K n I
2
LaARa = K n ; LaARa = In .
(76)
Das System (75) vereinfacht sich damit zu
(Kn+lnbI1)XI .......
=
~.I~~~ ~.~~~~.~n.~2.2~~~
blmXI +
CI }
~.~2.
(77)
b2m X2+'" + (Kn +Inbmm)xm = Cm
Die Auflösung der m Gleichungssysteme aus der Hauptdiagonale erfordert dann statt jeweils n 3/3 Operationen nur deren 3 n. 19.8 Entkopplung I
2
2
1
Das Paar A; A habe sn und das Paar B; B sm verschiedene Eigenwerte; dann transformieren wir nach den Methoden aus Abschnitt 16.3 beide Paare auf die Block-Diagonalmatrix mit dreiecksförmigen Eigenblöcken I
I
LaARa = Diag('\jj)' 2
2
LbBRb=Diag('\jkk),
2
LaARa = Diag(ljj) = In
(79)
J=1,2"",sn
I
LbBRb=Diag(lkk)=Im ; k= 1,2,oo"sm,
(80)
und damit zerfällt nach (19) die Matrizengleichung (33) in eine Anzahl von Gleichungen kleinerer Ordnung (wo X und C aus (36) folgen)
[J:
1,2, ..
"Sn
1
k-1,2"",smj (81)
die alle nach (75) rekursiv gelöst werden. Sind beide Paare diagonalähnlich, so liegt totale Entkopplung vor, und es wird noch einfacher
[J:
1,2, .,n k -1,2, ... 00
1.
,mj
(82)
398
19 Matrizengleichungen
Der Aufwand für die beiden Transformationen (79), (80) ist beträchtlich und zahlenmäßig nicht angebbar, auch sind sie nicht fehlerfrei durchführbar. Man begnügt sich daher mit einer Näherung dergestalt, daß außerhalb der Hauptdiagonalblöcke betragskleine Elemente stehenbleiben und wendet dann das bekannte Iterationsverfahren von Gauss-Seidel an. Näheres dazu wird beschrieben in [126, S.66-68].
19.9 Algebraisch nichtlineare Matrizengleichungen Die skalare algebraische Gleichung (83) läßt sich mit einer Produktzerlegung ihrer Koeffizienten auch so schreiben (84)
P/J(x) = a+bxc+dxexf+··· +kxlxmx'" vxw = 0
(mit a = Po), wodurch sich gegenüber der Ausgangsgleichung (83) natürlich nichts geändert hat. Nicht so, wenn wir hier Matrizen einsetzen
P/J(X) = A +BXC+DXEXF+ ... + KXLXM· .. VXW= 0 ;
(85)
denn da diese im allgemeinen nicht vertauschbar sind, gelingt eben nicht die Zurückführung von (85) auf die entsprechende Polynomgleichung (83). Die Gleichung (85) stellt eine eingliedrige algebraische Matrizengleichung vom Grade /-l dar. Summierung über mehrere Matrizen ergibt dann analog zu (24) die mehrgliedrige Gleichung
p/J(X)=A+
at
j
j
az j
j
j
ap
j
j
j
j
j
L BXC+ L DXEXF+ ... + L KXLXM.. · VXW=O, j = I
j = I
j= 1
(86)
wo die Summationsindizes I1 v im allgemeinen voneinander verschieden sind. Der einfachste Vertreter dieser Spezies ist die quadratische Matrizengleichung mit 111 = 2 und 112 = t vom Riccati-Typ (87)
Schreiben wir diese etwas um, (88) oder in anderer Bezeichnungsweise (89)
399
19.9 Algebraisch nichtJineare Matrizengleichungen
so erkennen wir im unterklammerten Anteil unsere normierte Gleichung (37) wieder. Diese Tatsache legt es nahe, die Gleichung iterativ zu lösen nach der Vorschrift v:: 0, 1,2,.
(90)
beginnend mit einer ersten Näherung X o, zum Beispiel X o =' 0, sofern keine bessere Näherung bekannt ist. Das Verfahren konvergiert allerdings nur für betragskleine Elemente der Matrix A \2 und ist sehr aufwendig, da ja für jeden Iterationsschritt die lineare Matrizengleichung der linken Seite von (90) gelöst werden muß. Nun hatten wir schon in (10.23) gesehen, daß bei einer linearen Ähnlichkeitstransformalion ein quadratischer Term auftritt, und zwar gerade von der Art (87), wo damals nur alles skalar war. Dies legt den Gedanken nahe, die Riccati-Gleichung über eine Ähnlichkeitstransformation in Blöcken auf folgende Weise zu lösen
(91)
Verlangt man hier A21 :: 0, so ist dies identisch mit (87). Die Transformation verläuft wie im Abschnitt 16.2 geschildert. Benötigt werden irgend m Eigenwerte (unter ihnen auch gleiche) aus dem Spektrum des Paares A; I mn , die in die Ähnlichkeilstransformation eingehen
EEl' m
n
(92)
wo R 11 im Regelfall eine normierte untere Dreiecksmatrix ist. Eine zweite Ähnlichkeitstransformation macht daraus mit
(93)
400
19 Matrizengleichungen
wobei der Nullblock unten links erhalten bleibt und der Rest nicht weiter interessiert. Die Gesamttransformation ist somit (94)
und damit ist, wie ein Vergleich mit (91) zeigt, die gesuchte Lösung der RiccatiGleichung (95)
oder besser gesagt eine der zahlreichen Lösungen, die es gibt. Daß es nicht nur eine geben kann, zeigt schon die skalare quadratische Gleichung P2(X)
= a21-xall +a22x-xa12x= a21 +(a22-alt)x-aI2x2 = 0 ,
(96)
die genau zwei Lösungen besitzt. Literatur zur Riccati-Gleichung: die Lehrbücher von MüllerlSchiehlen [39] und Schwarz [16], sowie die grundlegenden Arbeiten von Laub [127 c] und BunseGerstner/Mehrmann [127d]. Ein Demonstrationsbeispiel mit
A =2.A =[0 ll
12
1J.
lJ
oo -1 1
[-8J
[0 -lJ
• A 22 = 412
A 21 =
• R=
2
[1
XI
x2
o1 o
0J0
.
•
X=
[xJ x
•
(a)
(b)
1
Die drei Rechtseigenvektoren des Paares A; 13 sind (c)
Damit sind die eingerahmten Spalten die drei Lösungen der Riccati-Gleichung. wovon man sich durch Einsetzen in (87) überzeugen möge.
19.10 Zusammenfassung. Ausblick
Mit den hier angeführten Sätzen und Methoden ist das große Gebiet der Matrizengleichungen nicht annähernd erschöpft. So fehlen das Matrizen-Eigenwertproblem mit gesuchten Eigenmatrizen X j , die Systeme von linearen Matrizengleichungen mit den unbekannten Matrizen Xt>X2, . .. ,XI? und vor allem die transzendent nichtlinearen Matrizengleichungen wie beispielsweise 5 j(X) =XA sinX+XBX+aX = 0
mit einer oder auch mehreren Unbekannten.
(97)
20.1 Der Austausch von Eigenwerten. Deflation
401
Schwierigkeiten ganz anderer Art tun sich auf, wenn die Koeffizientenmatrizen A, B usw. nicht wie bisher vorausgesetzt quadratisch, sondern rechteckig sind. Schon der einfachste Fall A X B = C ist hier problematisch; wir kommen im Abschnitt 46 noch darauf zurück.
20 Matrizenfunktionen • 20.1 Der Austausch von Eigenwerten. Deflation Zum Matrizenpaar A;B mit regulärer Matrix B gehöre die Datenliste (18.1) Eigenwert (1)
Vielfachheit und es werde nach der Vorgehensweise von Abschnitt 18.3 die B-ähnliche Transformation auf die Diagonalmatrix der Eigenblöcke durchgeführt YAX=Diag(~)=A; YBX=Diag(l)=In
--+
B- 1 =XY;
(2)
dann bestehen die Spektra/darstellungen B-1A =
s
L Xj~/yjB)
AB- 1 =
s
L
(BXj)~jyj
j=l
j= 1
s
B=
L (BXj)~(yj B)
(3)
j= 1
und daraus abgeleitet die Eigenwertgleichungen
(4) Wir ersetzen nun nach Abb.20.1 einige oder alle Eigenwerte durch beliebig vorgebbare Ersatz-Eigenwerte Xj
I
Aj
--+
Xj
I;
Aj
der Liste (1)
(5)
j = 1,2, ... ,s .
Dann gilt für die so modifizierte Matrix A mit denselben Matrizen B, yj und X j anstelle von (3) und (4) B-1A
=
s
L Xj~j(yjB), j= 1
AB-I
=
s
L
(BXj)~jyj ,
(6)
j= 1
(7)
402
20 Matrizenfunktionen tU
X'" AZ
Aj
AI
0
U
u
11=0
Abb.20.1. Austausch der Eigenwerte Aj gegen die Werte }(j in der komplexen Zahlenebene
Abb. 20.2. Zur Deflation
wo nun die Eigenmatrix~j den neuen Eigenwert )(j besitzt. Hat der Eigenwert Aj die Vielfachheit Gj> 1, so ist prinzipiell ein mehrdeutiger Ersatz mit Gj verschiedenen Werten gemäß (8)
möglich, doch stellt dies im allgemeinen einen schwerwiegenden Eingriff in die Struktur der Matrix dar. Ist nämlich der Eigenblock nicht-derogatorisch, so verliert er diese Eigenschaft, da er nun zufolge der Verschiedenheit der Eigenwerte
Xj
mehr als einen Eigenvektor besitzt. Soll also die Struktur (und das heißt die Charakteristik) des Eigenblocks erhalten bleiben, so ist folgendes zu verlangen: Fall a) Ist ~j nicht-derogatorisch, so wird Aj eindeutig durch )(j ersetzt. Fall b) Ist ~j derogatorisch und zerfällt daher in Pj nicht-derogatorische Jorv
dan-Zellen, so darf in jeder dieser Zellen Aj gegen einen anderen Wert )(j ausgetauscht werden, mehrdeutiger Ersatz. Zwar geht im Fall b) die Vielfachheit des Eigenwertes Aj verloren, doch bleibt der Index der Nilpotentheit ebenso wie die Gesamtheit der Eigen- und Hauptvektoren erhalten, wenn auch zu jetzt verschiedenen Eigenwerten Xj, wie man sich anhand der Jordan-Form leicht klarmacht. Ersetzt man speziell den Grfachen Eigenw.ert Aj durch lauter Nullen, so geht die Matrix ~j in die strikte Dreiecksmatrix ~j über. Geschieht dies für alle s Blöcke, so hat das modifizierte Paar A;B den n-fachen Eigenwert Null, sogenannte Deflation nach Abb. 20.2. War insonderheit das Paar A;B diagonalähnlich, so ist dadurch A in die Nullmatrix A = 0 übergegangen. Schließlich erinnern wir noch an die bekannten Beziehungen sp(B-1A)=sp(AB- 1)=
n
L j=l
Aj,
det(B-'A)=det(AB- 1)=
n
TI j=l
Aj. (9)
20.1 Der Austausch von Eigenwerten. Deflation
403
Nach dem Austausch der Eigenwerte gilt daher
sp (B -
A) = sp (A B - I) =
1
n
L Xj
,
det (B -
1
A) = det (A B - 1) =
rr n
Xj ,
j= 1
j=l
(9a)
und diese beiden Gleichungen stellen eine nützliche Kontrolle der Ersetzung dar. Ein Beispiel. Das spezielle Paar A; h mit
A =
Y=
[
-4 -12 12J 5 12 - 8 , 2 4 0
[111 22-1-2-IJ [ Y1J y2
(a)
=
:J
Damit wird
YAX=A =
[:1
[~ -~
=
o0J , 4
YI3 X = 13
,
Datenliste
~j 24 . Gj
(b)
2 1
1. Eindeutiger Ersatz gemäß der Liste (c) führt auf die beiden Matrizen (d). (Die zweite ist hier ein Skalar).
2
2
4 (c) ,
4711
4711 -10
"'1 ~ -- [4711
o
-3J, ~2=-10, 4711
(d)
und nun folgt nach (6) mit B = 13
A =Xl~ 1 y l +X2~2y2 =
=
[
[
-12 0 4705 12J + [ -100 -20 -4708 -4705 4705 -4711 -9422 9422 -10 -20
I~J
10
3 -12 4705 12J , spA=9412= -4718 -4725 4715 -4721 -9442 9432 j=l
L)(j'
(e)
2. Mehrdeutiger - verbotener! - Ersatz gemäß der Liste (f) führt auf die Matrizen (g).
2 2 4
o
(f) ,
5 0
- rLoo -
"\1 1 =
3J 5 ,"\1 2 = 0 .
(g)
(h)
besitzt drei linear unabhängige Eigenvektoren, womit die Struktur zerstört wurde.
404
20 Matrizenfunktionen
• 20.2 Was ist eine Matrizenfunktion? Sagen wir zunächst, was sie nicht ist: eine Funktion einer Variablen, die man differenzieren oder integrieren könnte - solche echten Funktionen besprechen wir im Abschnitt 20.6 -, sondern gemeint ist eine Matrix f(B- 1A) bzw. f(AB- 1) mit konstanten Elementen, deren Eigenwerte Jej mit denen des Paares A;B nicht willkürlich, sondern durch eine vorgegebene Funktion f, anstelle von (5) also durch die Beziehung
I
Jej
= f()..j)
I;
j
= 1,2, ... ,s
(10)
verknüpft sind. Treffender wäre deshalb zu sagen: f(B -I A) bzw. f(A B - I) ist die Funktionswertematrix zum Paar A;B, doch bleiben wir der Tradition folgend bei der obigen Ausdrucksweise. Die Abb. 20.3 zeigt die Funktion Je = f(A) = A2 in der komplexen Zahlenebene, die Abb. 20.4 zwei Funktionen im Reellen. i,v
I o
u
Abb.20.3. Austausch gemäß der Funktion
Xj =
Al
Ersetzen wir in den Formeln des Abschnittes 20.1 die Größen B - 1 A, ~j und -I A), fr'J. j) und f(A) , so bekommen wir der Reihe nach
Jej durch f(B
s
(6)
-+f(B-1A)=
L XJ(~j)(yjB);
f(AB- 1)=
j=1
s
L (BXj)f(~j)yj,
j=l
j = 1,2, ... ,s , s
(9a)
-+
spf(B - 1A) = spf(A B
-I)
=
L f(Aj) j = 1
detf(B-1A)
t
= detf(AB- ) =
s
II f(Aj)
j=
1
}
(11)
(12)
(13)
Ist nun das Paar A;B diagonalähnlich (insonderheit normal), so gilt für alle sEigenblöcke (14)
405
20.3 Die skalare Taylor-Entwicklung
JtlQ------------j
Abb. 20.4. Reelle Matrizenfunktionen
womit sich der Skalar f(),) aus dem Produkt in (11) herausziehen läßt s
f(B-1A}=
L f(A)Xj(yjB}
s
L f(Aj)(BXj}yj
, f(AB- 1}=
j=l
,
(15)
j=l
und die Eigenwertgleichungen (12) lauten zufolge (14) (16) ein Ergebnis, das wir seiner Wichtigkeit wegen aussprechen wollen als Merksatz: Bei diagonalähnlichen (insonderheit normalen) Paaren A;B sind die s Eigenwerte Aj durch die Funktionswerte Xj = f(Aj} zu ersetzen. Beispiel. Daß der bloße Ersatz der Eigenwerte Aj durch f(Aj) im allgemeinen nicht genügt, zeigt die Matrix A mit den Funktionen cos A und sin A. A= (A
o
012J, A
Damit wird (cosA)2 =
[
cosA: (COSA 012J 0 cos A '
2 COS0 A
und weiter (COSA)2+(sinA)2=
20
COS AJ ' cos 2 A 12
SinA:
2 (sin A)2 = (sin A 0
G
2012(COSjA+sinA>]"*
rL
sinA 0
OI2J sin A
20
G~J
12 sin AJ sin2 A
=/2 ,
(a)
(b)
(C)
Soll also der Satz des Pythagoras auch für Matrizen gelten, (cos A)2 + (sin A)2 = In> so sind die Matrizen (a) nicht zulässig außer für 012 = O. Dann aber ist A diagonalähnlich (sogar selbst diagonal), und es gilt unser Merksatz.
• 20.3 Die skalare Taylor-Entwicklung Wir beschränken uns im folgenden auf analytische Funktionen; das sind solche, die eine Taylor-Entwicklung an einer - nicht immer frei wählbaren - vorgegebenen Stelle (J zulassen
406
20 Matrizenfunktionen
f(x)=f(a)+f'(a)~+~f"(a)e+ ... +~fV)(a)C+ ... 2!
V!
;
~=x-a
(17)
und führen diese Reihe an drei Musterbeispielen exemplarisch vor. 1. Die Exponentialfunktion eX oder exp x: Die Reihe exp x = exp a
[
1 + ~ + -1
2!
~2+
... + -1 v!
~ v +...
J
;
~ =
x- a
(18)
konvergiert in der ganzen komplexen Zahlenebene für beliebige Werte von a. 2. Der natürliche Logarithmus (Hauptzweig): 1 2
In x = In a + 11- - 11 + ... + ( - 1)
2
V+l
x-a a*O, 11=-. (19)
1 v - 11 + ... v
a
3. Die Hyperbelfunktion: 2 (1) v 11+··· v ) x - I =a - 1 (1 -11+11+·.·+-
x-a a*O,1'{=--. a
(20)
Beide Reihen konvergieren für
1111 <1 ..... Ix-al <1'l a l .
(21)
Die Größen a, x und damit auch ~, 11 dürfen komplex sein. Die Abb. 20.5 zeigt die drei Funktionen (18), (19) und (20) im Reellen. Man erkennt hier deutlich, daß infolge der Asymptote im Nullpunkt bei den Funktionen In x und x -1 die Umgebung von x = ausgespart werden muß, wie es die Bedingung (21) verlangt.
°
u = In,1,
Abb. 20.5. Die reellen Funktionen x
= e A, x = In;' und x = 1/;'
407
20.4 Die Taylor-Entwicklung im Gesamtraum
• 20.4 Die Taylor-Entwicklung im Gesamtraum Wir übertragen nun die skalare Taylor-Entwicklung (17) auf das Paar A;B, indem wir den Funktionswert x durch die Matrix B - I A bzw. AB - 1 ersetzen, und dies kann im Gesamtraum der Dimension n pauschal erfolgen oder auch separat, d. h. in den sEigenräumen jeweils für sich. Wir schildern zunächst den ersten Fall. Hier gilt nach (17)
f(B
_ 1
, 1 (v) v A)=f(a)]n+f(a)~+··.+-f(a)~+
v!
...
Speziell unsere drei Musterfunktionen (18), (19) und (20) gehen damit über in
1.
eXP(B-1A)=expa[]n+~+~e+ 2!
2.ln(B - I A)=lna]n+
a*O,
[
... +-.!...C+ ... ] ; v!
"-2"1 ± ... +(-1) 2
v+ I
~=B-IA-a]n' (23)
1
v
.~" + ...
]
1
(24)
,,=-~
3. (0-' A)-'
a
= u-'
[I,_q+q2~ ... +( -1)"q' + ... ]
1 ,,=-~.
a
(25)
Ferner folgt auf Grund der wechselseitigen Beziehungen zwischen den Summen und Produkten
(25)
aus (13) für die Exponentialfunktion
(26)
und für den Logarithmus
sp
)J =ln [det (B - IA )J = In (detA)-ln (detB)
ln (B - IA I [ In (AB - )
I
det(AB - )
(27)
Nun zur Konvergenz. Eine Potenzreihe für ein Matrizenpaar A;B konvergiert, wenn für alle s Eigenblöckef(~j) Konvergenz eintritt. Auf deren Hauptdiagonalen stehen die Elemente f(}...); diese konvergieren somit für
408
20 Matrizenfunktionen
IAjl
(28)
wenn r der Konvergenzradius der skalaren Potenzreihe f(O ist. Nun treten nach (34) auch noch die Ableitungen der Funktionf(Aj) auf, doch läßt sich zeigen, daß auch jetzt (28) gültig ist, siehe [48, S. 280 - 282]. Für 11 = (~ - a)/a geht die Konvergenzbedingung (28) über in
A--al
l11jl:s ~
(29)
!
oder, was dasselbe besagt, (30)
Speziell für die beiden Funktionen In x und X-I ist r = 1, und das bedeutet: Jeder Kreis K mit dem Mittelpunkt a und dem Radius g, der alle s Eigenwerte des Paares A;B, aber nicht den Nullpunkt 0 der komplexen Zahlenebene enthält, garantiert die Konvergenz (siehe Abb. 20.6), und zwar ist sie um so besser, je kleiner das Verhältnis g/ Ia I ist, weshalb es optimal erscheint, für a den geometrischen Mittelpunkt des Eigenwertspektrums zu wählen a
1
1
n
n
= - sp (B - 1A) = - sp (A B - 1)
•
-+
sp ~
= sp 11 = 0
(31)
•
Lv
o
• • Divergenz
u
u
u schlectile Konvergenz
gute Konvergenz
Abb.20.6. Zur Konvergenz einer Matrizen-Taylor-Reihe mit dem Konvergenzradius , = 1
Da in praxi die Eigenwerte nicht bekannt sind, ist man bei der Reihenentwicklung auf sein Glück angewiesen. Werden die Reihenglieder im Laufe der Rechnung nicht kleiner, sondern stagnieren oder wachsen gar an, so wird die Rechnung als ergebnislos abgebrochen. Kommen wir schließlich zu den einfachsten Funktionen, den Polynomen. Diese sind dadurch ausgezeichnet, daß ihre Taylor-Entwicklung an einer beliebig
20.5 Die Taylor-Entwicklung im Eigenraum (Hauptunterraum). Quasipolynome
409
wählbaren Stelle a abbricht, und dies läuft auf eine Koordinatenverschiebung mit ~ = x- a hinaus, die im vollständigen Horner-Schema durchgeführt wird. Der Polynomwert selbst, also das Matrizenpolynom (2.37) (32)
erscheint in der ersten Zeile des Horner-Dreiecks. Es wird rekursiv berechnet nach der Vorschrift
,~"."-1.....1.0 }
START P Il + 1 =O P v =avln+APv+ 1 ZIEL Po = p(A)
.
(33)
und ähnlich berechnen sich auch die Ableitungen, siehe dazu [15, S.49 bis 51]. 1
1
Ein Beispiel. B = 13 , Wir wählen gemäß (38) a - sp A = - 8 = 8/3. n 3
1 1f =- ~
a
J
3 [- 20/3 - 12 12 5 28/3 - 8 8 2 4 -8/3
=-
.
(a)
Damit wird sp ~ = sp 1f = O. Mit ~ bzw. '1 berechnen wir die Reihen (23), (24), (25). Die Spuren dieser Näherungsmatrizen zeigt die Tabelle (b), wo m die Anzahl der Summenglieder ist. Nur die gültigen Stellen sind eingetragen. m
sp(expA) sp (InA) sp(A -I)
10
20
69,376 69,376262231005 2,772 2,7725887 1,25 1,249999
30
40
wie m = 20 2,7725887222 1,250000000
wie m = 20 2,7725887222397 1,249999999999
(b)
Für m = 40 wurde noch zur Kontrolle berechnet sp A = 8, exp (sp A) = exp 8 = 298,0957987041728 und det (expA) = 298,0957987041686, vergleiche (27). Der Leser wiederhole die Rechnung mit anderen Werten von a.
• 20.5 Die Taylor-Entwicklung im Eigenraum (Hauptunterraum). Quasipolynome Wir führen nun die Taylor-Entwicklung getrennt für die sEigenblöcke durch, indem wir jeweils an der Stelle a = Aj entwickeln. Der Spektralradius (! aus Abb. 20.6, der alle (hier also nur den einen) Eigenwerte enthält, ist dann gleich Null; mithin bricht die Reihe exakt ab (wir schreiben deshalb Fj anstelle von ~j) 1
f(~j) = f(Aj)In + f'(Aj)Fj +- f"(Aj)FJ + ... + 0
2!
(34)
410
20 Matrizenfunktionen
mit der nilpotenten strikten Dreiecksmatrix
Fj="'4j-AjIj=~j; FljJ=O,
(35)
deren Index Pj wir nicht zu kennen brauchen, da die Rechnung selber den Abbruch der Reihe anzeigt. Ist der Block diagonalähnlich, "'4 j = AjIj , so wird Fj = 0, und es bleibt von der Entwicklung (34) allein das erste Glied stehen, ff.'!. j) = f(Aj)Ij , wie es sein muß. Zum besseren Verständnis vermerken wir noch, daß die zweite Gleichung (35) nichts anderes ist als die Minimumgleichung des Eigenblockpaares"'4 j ;Ij , j= 1,2, ... ,s. Kommen wir nun zu unseren drei Musterreihen (23) bis (25): (36)
2. In"'4 j
3. "'4 j-
= In AjIj + ['lr+'lJ+
1 = Aj-l [Ij-'lj+'lJ-
+0] = In AjIj+Pj ; ±o] = Aj-l Pj ;
Aj*O,
'lj = Fj 1Aj(37)
Aj * 0, 'lj = FjlA j .
(38)
Wir gewahren hier eine strikte Trennung zwischen den funktionalen Anteilen exp Aj, In Aj und Aj-l und den gewöhnlichen Polynomen Pj' Pj und Pj' welche allein die Geometrie, will heißen die Struktur des Eigenblocks "'4 j repräsentieren; die Gesamtlösung wird deshalb nach Arnold [51] als Quasipolynom bezeichnet. Halten wir außerdem ausdrücklich fest, daß bei dieser Art der Entwicklung von Konvergenz im eigentlichen Sinne des Wortes gar keine Rede sein kann; es handelt sich ja auch keineswegs um eine Näherungsrechnung wie bei der Reihe (22), weIche die transzendenten Funktionswerte im Gegensatz zur Reihe (34) explizit gar nicht enthält, wenngleich wir in beiden Fällen ursprünglich von derselben skalaren Gleichung (17) ausgegangen sind. Die s Quasipolynome werden nun parallel und unabhängig voneinander berechnet und nach (11) zur Gesamtlösung zusammengesetzt
L expAjXjPj(yJB)
1
S e .
1. exp(B- A)=
,
(39)
j; 1
2. In(B- 1A)=
3. (B- 1A)-1
S
S
j;l
j;1
L InAjXj(yjB)+ L XjPj(yjB) S
=
L Aj-1 Xj P/yjB)
j;1
,
,
(40)
(41)
und dies bleibt richtig, wenn die Eigenblöcke der Transformation (2) in (35) nicht von Dreiecksform, sondern vollbesetzt sind; siehe dazu das Beispiel im Abschnitt 20.6.
20.5 Die Taylor-Entwicklung im Eigenraum (Hauptunterraum). Quasipolynome
'
411
Erstes Beispiel. n = 3, B = 13 ,
A=
[-~ -:; ~~J 2
4
0
detA=16,
1=2,
spA=8;
1
1=4
;,=2,
(a)
2
Die Transformationsmatrizen sind
Y = [ yt y2
J [:
~ =~J
(b)
1 2-1
und es gilt
A = YAX= 'l'
Lo
0J
'l2
2 3 [0 -2 0 0
1. Exponentialfunktion Erster Eigenblock.
F,='l,-A,/ t =
°oJ
(c)
4
G-~J '
;1=1,+F,+O=
G-~J
(d)
e
Zweiter Eigenblock (hier ein Skalar).
F2='l2-A2'/2=4-4'1=0,
(e)
P 2 =1
Mit den beiden Dyaden
e
Pt
Xt
[ ~ -0
[ -IJ [-7 -0 1 2 -2
-'J [-; o
[ -12
0 -1
y' e
-5 2
-12 5 -5 12J -1 -2 2
P2 e
X1P,Y'
x2
(l
(1)
(1
2 -1) 2 -1)
[00 0] m 1 2-1 1 2-1
y2
e
x2P2Y
2
(f)
wird dann nach (39) e e 2 5 - 5 + exp 4 [00 1 2 - 0J 1 , (g) expA = exp 2'X j P, Y' + exp 4'X2P2y2 = exp 2 [-5-1212J -1 -2 2 1 2-1
und das ist in Zahlen mit exp 2 = 7,38905609893064 und exp 4 = 54,5981500331442
expA=
- 36,9452804946530 69,3762622310051 [ 47,209093934213 3
- 88,668673187167 3 88,6686731871674J 146,141580560941 -91,5434305277971 . 94,4181878684267 - 39,8200378352827
Probe nach (27): exp (spA) = 298,0957987041728, det (exp A) = 298,0957987041686 .
(h)
(i)
2. Natürlicher Logarithmus Erster Eigenblock. Aus (d) folgt (j)
412
20 Matrizenfunktionen
und damit
Xtp,yl=
[-~'5 -~ _~l , X,y'=
° °
~J
-~ ~J
[-: -1 -2 2
.
(k)
1 1 Zweiter Eigenblock. Nach (e) gilt 172 = - = - (4 - 4) = 0, folglich }.2
P2=X2'0'y2=
m~ ~] ,
4
X2y2= [ :
~ =:]
(I)
Nach (40) wird somit
=ln2
=
[=: =! !J
+ln4 [:
~ =:]
+ [-1'5
-! -!]
+
[~ ~ ~]
- 2,30685281944005 - 6,00000000000000 6,000000000000OOJ 2,19314718055994 5,07944154167983 - 3,69314718055994 [ 0,693147180559945 1,38629436111988 0,00000000000000
(m)
Die Probe (27 a) sp (In A) = In (det A) gibt hier sp (In A ) = 2 In 2 + In 4 = In 2 + In 2 + In 4 = In 2·2· 4 = In 16 = In (det A) ,
(n)
In (16) = 2,772588722239781 3. Inverse von A. Erster Eigenblock. Wie in (j) ist (0)
Zweiter Eigenblock. 172 = 0, somit (p)
Damit wird
XIP, y'
=
[-~'5 -1
-:
0J [011 °2-1 2-1
-2
(q)
und weiter nach (41)
°22 -1-10J sp(A -I) = 1,25.
~
~,5 -~'75J 0,75
[ -0,25 -0,5
'
(r)
20.5 Die Taylor-Entwicklung im Eigenraum (Hauptunterraum). Quasipolynome
413
Der Leser vergleiche die Ergebnisse (i), (n) und (r) mit denen der Tabelle (b) des Beispiels aus Abschnitt 20.4. 4. Ein Polynom. Gegeben ist (s)
Erster Eigenblock.
FI=~l-A,/,= [:
-:] ,
(t)
Fi=o,
somit nach (34) (u)
und das gibt mit f(2) = 5073 und f' (2) = 25504 die Matrix
f~l)
= 5073
1 0J +25504 [0 -3J [o 1 0 0
=
[5073 -76512J 0 5073
(v)
Zweiter Eigenblock. Hier ein Skalar F 2 =~ 2-A2/2 = 4-4·1 = O. Damit wird f(~ 2) =
f(A2)·1 + f' (A2)· 0 = f(A2) = f(4) = 5242113
Die Summe (11) ist mit s
(w)
= 2 und B = 13 (x)
und dies wird mit (b), (v) und (w)
f(A) =
-147951 5313 552 [ 5237040
-306048 306048J 10632177 - 5390064 10474080 -5231967
Probe: f(A) = 13 - 3A 4 + 5A
10
(y)
nach (s).
Zweites Beispiel. Die Potenz (B -I A)k ist indirekt über die Spektralzerlegung zu berechnen. Gegeben A
= [-
22 0IJ ; B = [ -11-2J3 '
Y=
x=
Damit wird
Das Paar ist diagonalähnlich, da es zwei verschiedene Eigenwerte besitzt. Wir berechnen mit x" aus (a), ferner mit den beiden Zeilen der Matrix Y B die Dyaden
x2
(c)
20 Matrizenfunktionen
414
dann ist nach (15) mit f(x) = x k
= (- 2)k
O (1-IJ + rlo llJ -0
0
1k
-(-2 1J 1 )k+
[(-02)k
(d)
Zur Kontrolle berechnen wir einige Potenzen von B - I A explizit:
(e)
20.6 Lineare Differentialgleichungen mit konstanten Koeffizienten Die skalare Differentialgleichung erster Ordnung bz(r) == az(r);
Z(O) = Zo,
b =1= 0,
Z = dz/dr
(42)
mit einer dimensionslosen Veränderlichen r hat bekanntlich die eindeutige Lösung z(r) = exp (b -[ ar)zo ,
(43)
und man zeigt leicht, daß die entsprechende Vektor-Differentialgleichung Bi(T)~Az(T);
z(O) = zo,
B regulär,
Z = dz/dr
(44)
analog zu (43) die angepaßte Lösung z(r) = exp (B -1 A r)zo
(45)
besitzt. Zu ihrer Berechnung bieten sich daher wiederum die Taylor-Entwicklung im Gesamtraum oder getrennt in den sEigenräumen an. 1. Die Taylor-Entwicklung im Gesamtraum liefert nach (23) den Lösungsvektor z(r) = exp(ar)
[
1 22 1 In+~r+-~ r + ... +-~
2!
v!
vv r + ... ] Zo (46)
und dies formulieren wir bei fest gewähltem Wert von r mit der Vektorfolge ... ,
v
Zo=~
[r v-tl ~ Zo
, ...
(47)
415
20.6 Lineare Differentialgleichungen mit konstanten Koeffizienten
als Z( r) = exp (a r)
[
I 2 Zo + Zo + Zo + . . . + Zov + ... ]
(48)
Die Folge (47) wird so lange fortgeführt, bis die Rechnung im Rahmen der gewünschten Genauigkeit zum Stehen kommt. Die Konvergenz ist um so besser, je kleiner der Wert r gewählt wird. Für große Werte von r sind besondere Maßnahmen erforderlich; wir kommen im Abschnitt 45 noch darauf zurück. 2. Die Taylor-Entwicklung im Eigenraum. Hier ist nach (39)
e
S
L
j:1
mit
(49)
exp ()"jr}XjPjzjO
(50)
Wieder bilden wir die Vektorfolge Getzt aber im Gegensatz zu (47) ohne die Veränderliche r) ZjO,
I = FjZjo , ZjO2= Fj [12 ZjOI ]
ZjO
v , ... , ZjO
= Fj
[1 V-I] ~ ZjO
, ... ,
(51)
bis der Nullvektor erscheint. Nach (36) ist dann (52) und damit wird die Gesamtlösung nach (49) S
z(r} =
L
exp ().'jr}X)Jj(r)
(53)
j: I
Halten wir an dieser Stelle einen charakteristischen Unterschied fest: während sich die s Quasipolynome (52) in dieser Form explizit angeben lassen, ist dies bei der Reihenentwicklung (46) im allgemeinen nicht möglich, da die Koeffizienten innerhalb der eckigen Klammer zu groß werden. Die Funktion z(r} kann deshalb nur für fest vorgegebene (und zumeist nur für kleine) Werte von r berechnet werden. Ist das Paar A;B diagonalähnlich (insonderheit normal), so wird Fj = 0, und es treten somit keine Terme mit Potenzen von r auf; die Lösung lautet dann
416
20 Matrizenfunktionen
z(r)
=
s
s
j=l
j=l
L exp (Ajr)X/yjBzo) = L exp (Ajr)XjzjO
(54)
.
Zur Kontrolle der Lösungen (53) bzw. (54) setzt man einen möglichst kleinen Wert von r ein, etwa r = 0,001 und vergleicht damit das Ergebnis der nun rasch konvergierenden Reihe (48). Abschließend sei nochmals betont, daß der Eigenblock A j nicht notwendig von Dreiecksform sein muß; grundlegend für alle abgeleiteten Formeln und Gesetze ist seine Nilpotentheit, und diese ist invariant gegenüber einer Ähnlichkeitstransformation des Eigenblocks und damit invariant gegen seine äußere Erscheinungsform, siehe dazu das nachfolgende Beispiel und die Arbeit [123]. Erstes Beispiel. Zu lösen ist das Differentialgleichungssystem
(a)
oder kurz i(r)
= A z(r)
z(O)
,
= Zo
(b)
mit A=
32 -6 18 -27 -19 24 -68J [
10 19
8
- 2
4
16 -24
16
_
, Z (r) -
[Zl(r)] z2(r) Z3 (r) Z4(r)
_
,zo -
[
IJ
0
0
.
(c)
-2
a) Lösung im Gesamtraum mittels der Reihe (46) mit B = 14 und der Matrix ~ (<7) = A - <714 , Die Tabelle (d) zeigt den Lösungsvektor z(r) für r = 0,01 und sechs verschiedene Werte von <7. <7=0
<7 = 10
v = 11
v=2
<7 = 100 v = 18
1,171923241527416 - 0,077140930081680 0,022545486728743 - 2,133200906069614
1,171923241527416 - 0,077140930081680 0,022545486728743 - 2,133200906069615
1,171923241527416 - 0,077140930081680 0,022545486728743 - 2,133200906069614
<7 = 500 v = 38
<7 = 1000 v = 58
<7 = 1500 v = 76
1,171923241527733 - 0,077140930081687 0,022545486728752 - 2, 133200906069066
1,171923239958751 - 0,077140929865146 0,022545486768025 - 2, 133200907579613
1,171962113049128 - 0,077142076675555 0,022543861920890 - 2,133130758075068
(d)
20.6 Lineare Differentialgleichungen mit konstanten Koeffizienten
417
Der Index v aus (46) bis (48) zeigt die Länge der Teilsumme an; die Rechnung bricht ab, weil v+l
der Vektor Zo = 0 wird. Die Lösung ist für a = 10 auf 16 Stellen genau, während für a = 1500 nur noch 6 Dezimalen gültig sind. Der Leser überzeuge sich, daß für noch größere Werte von a (auch negative, etwa a = - 1000, a = - 10000 usw.) die Resultate immer unbrauchbarer werden. b) Lösung im Eigenraum. Hierzu ist die Kenntnis der n = 4 Eigenwerte erforderlich. Man findet den vierfachen Eigenwert 1
2
3
4
(e)
Al = Al = Al = Al = 10 , mithin existiert nur eine einzige Eigenmatrix, so daß (53) mit X = 14 übergeht in e
z(r) = exp (A r)p(A)
(f)
Mit der Matrix 22 18 -27 -19 -16 24 F=A-l014 = 10 8 -12 [ 19 16 -24
spF= 0
,
(g)
liefert die Vektorfolge (51)
zo=-Fz 2 1 I= [
2 und damit ist die Lösung (53)
'('i = "p
(IO,)[~+~,+i.,'
+ Q) = "p (10,) {
~J
(h)
_~
U] i] U]"} + [-
H
(i)
Für den speziellen Wert r = 0,01 bekommen wir daraus den Lösungsvektor 1,171923241527416 ] -0,07714093008168017 z(O,OI) = 0,02254548672874321 [ - 2, 133200906069615
.
Man vergleiche dies mit den Werten der Tabelle (d). Wir erkennen nachträglich, warum für
a = 10 mit v = 2 die Reihe (46) abbrechen muß, was wir oben natürlich nicht wissen konnten, da uns die Eigenwerte (e) unbekannt waren.
Zweites Beispiel. Gegeben ist das Differentialgleichungssystem (44) mit
A =
~~ [ 1-1 -6J -; -;
;
B=
[1~ 00J ~ ~
,
Zo =
(a)
418
20 Matrizenfunktionen
Wir rechnen im Eigenraum nach (49) bis (53). Danach wird
y=[Y1J y2
YAX=
3
[-~-I~-~J 1
[:':J
3
2
JJ
[~~
Die beiden Eigenwerte sind somit A,
X= [Xl
YBX=
x 2J
=~ [-~ j I-:~J
[~~J [~! ~J
= 0 (zweifach) und
A2 =
=/3 .
- 3.
(b)
(c)
(d)
Mit den Anteilen (50) ZIO
= Y' (Bz o) =
~3 [23J -7
'
Z20 = y 2(Bz o) =
-~3
(e)
lauten dann mit s = 2 die beiden Teillösungen: 1. Ft(A,)="I:l1-AI/I="I:l1-0'], ="I:l 1 =
ZIO
=
'i
~ [~:J
lO
= F, ZIO =
somit Zl (A)
G~J
[-:J '
1
(f)
[1
= exp (A, ,). [ZIO+ ZIO') = exp (0,)' 3"
(g)
2. Hier wird alles skalar, also Z2 (,) = exp (A2')' Z20 = exp ( - 3,)' [ -;] = exp ( - 3')';2 ,
(h)
e
wo P2 konstant ist. Mit den Vektoren
69J
X,ZIO=-1 [ -90 9 37
,
7 X1Z1IO =-
3
[-_3;J '
[ -:~J
(i)
-11
lautet die Gesamtlösung (53)
1[69J +-7[-3J
z(,)=9
-90 37
3 -1
3
T+ -5
9
[-12J 18' exp ( - 3,) . -11
(j)
Erste Kontrolle. Stimmt die Anfangsbedingung? Wir setzen, = 0 ein und bekommen
9[69J + [OJ +-95
z(O)=-1
-90 37
0 0
9 9J [IJ
[-12J 18 =-1 [ 0 -11 -18
=
0 -2
=zo
nach (a)!
(k)
Zweite Kontrolle. Einsetzen in die gegebene Differentialgleichung. Wir bilden die erste Ableitung z(,) und damit das Produkt Bz(,)
419
20.7 Mehrdeutige Funktionen 3 - -15 [-12J 18 [°°OJ +-7[-3J 3 -1 9 -11 r~l 7[-3J 15 [-12J Bi(r)=L~J+3 -~ -9 -:~
i(r)
exp (- 3r) , (I)
exp(-3r),
ferner das Produkt aus der Matrix A (a) und dem Vektor z(r) (j)
1[-63J -21 + [OJ ° r+-5[ 36J 33 exp(-3r), 63 ° 9 - 54
Az(r)=9
(m)
und in der Tat ist Bz(r)=Az(r) für alle Werte von r, wie es sein muß.
20.7 Mehrdeutige Funktionen Es sei nunf(A) eine mehrdeutige Funktion, zum Beispiel die Umkehrfunktion von Abb.20.4, siehe Abb. 20.7. Ist der Eigenwert Aj einfach, so hat man die Wahl zwischen endlich oder auch unendlich vielen Werten )(j als Austauschpartnern, womit eine große Vielfalt von Matrizenfunktionen entsteht.
Abb.20.7. Polynom als Umkehrfunktion
Abb. 20.8. Die Funktion )( = are eos A im Reellen
Ist der Eigenblock 'lj nicht-derogatorisch, so darf der O"rfache Eigenwert Aj nur durch einen der Werte )(j ersetzt werden, damit die Charakteristik erhalten bleibt. Im derogatorischen Fall aber gilt wieder alles im Abschnitt 20.1 Gesagte, denn selbstredend ist es für den Ersatz unerheblich, ob er willkürlich oder gebunden an eine Funktion erfolgt.
420
20 Matrizenfunktionen
Eine Besonderheit liegt vor, wenn die Diagonalität (18.75) der Jordan-Matrix größer als Eins ist,
a"J'Wj
(55)
d",-d"2> 1 J J
=
In Jj (18.74) steht dann unten rechts die Skalarmatrix Jj,w = Ajlw ' Unterwirft man diese einer Ähnlichkeitstransformation J J (56)
so ändert dies die Struktur der Gesamtmatrix nicht, denn es gehören zum Diagonalanteil ausschließlich Links- und Rechtseigenvektoren, keine Hauptvektoren. Ist nun die Funktion f(A) eindeutig, so bleibt die transformierte Matrix (57) diagonal mit dem neuen Eigenwert }(j = f(A). Ist aber f(A) mehrdeutig und ersetzt man Aj durch verschiedene Eigenwerte }(j' so wird die transformierte Matrix vollbesetzt, und da Tbeliebig wählbar ist, gibt es unendlich viele Matrizenfunktionen f(Jj,w)' J Erstes Beispiel. Die zweite Wurzel Waus A ist zu ziehen. (a)
Wir wählen etwa (b)
und bekommen
W= ±a
[ 2 2J [-1 -2J -1 -1
±a
1
2
(c)
,
das gibt die vier Lösungen W+ + =
a
W_+=a
rLo1 01, tJ
W+ _ =
- 3 - 4J , [ 2 3
a
[3-2 -3j41,
W __ =a [- 1 0J 0 -1
Probe W 2 =
wie es sein muß. Da L und R bis auf die Bedingung L/2 R = lich viele Lösungen der Gleichung W 2 = A.
h
[ao a0J 2
2
=
A
(d)
frei wählbar sind, gibt es unend-
20.7 Mehrdeutige Funktionen
421
Zweites Beispiel. Die zweite Wurzel Waus der Jordan-Matrix 1 ist zu ziehen.
(e)
a) Die Wurzeln der Zelle 1 1 findet man durch den Ansatz mit dem unbekannten Element x
W 1 -- [±a x
o
J
2
a ± 2ax] ( o a2
,
±a
(a
2
J
1
---+
±2ax= 1 , X= ±ll2a, (f)
-a -ll2aJ . Probe! o -a
(g)
=
0 a2
das gibt die beiden Lösungen I
1/2 1 +
,
=
[a0
1/2aJ a
,
I
1/2
1 -
'
=
[
b) Die Wurzeln der Diagonalmatrix 12 hatten wir bereits im ersten Beispiel berechnet. Mit der speziellen Lösung (d) wird also zum Beispiel
[~
a
o o
-~; a ~ 0 0
~J
3a 4a -2a -3a
~~
' Probe WW=I .
Eine interessante Frage: Was passiert bei a = O?
(h)
VI. Kapitel
Ergänzungen
In diesem Kapitel bringen wir einige Ergänzungen zu den ersten fünf Kapiteln des Buches, gegliedert in drei voneinander unabhängige Abschnitte. Der Inhalt des Abschnittes 21 ist die in ihren Grundzügen bereits in Abschnitt 13.8 eingeführte Kondensation, jetzt erweitert zu einem nach Rayleigh und Ritz benannten Verfahren, dessen Wirksamkeit an einigen Beispielen bis zur Ordnung n = 30 demonstriert wird. Diese knapp gehaltene Einführung dient gleichzeitig als Vorbereitung auf den Abschnitt 26, wo wir den gleichen Themenkreis von einem allgemeineren Standpunkt aus wieder aufgreifen und erweitern werden. Im Abschnitt 22 behandeln wir die Blockmatrizen, von denen wir schon immer Gebrauch gemacht haben (erstmals in (4.32) bei den komplexen Matrizen) unter einem einheitlichen Gesichtspunkt. Von besonderem Interesse für die Auflösung eines Gleichungssystems A x = b sind dabei sogenannte abgeänderte (gestörte, benachbarte) Gleichungssysteme sowie abgeänderte Bilinearformen und schließlich die Theorie der singulären Matrizenpaare. Die wohl wichtigste Anwendung findet die Blockmatrixschreibweise in den Eigenwertgleichungen (A)
mit dem Eigenblock (der Eigenmatrix) A j , der aber keinesfalls von Dreiecksform sein muß, wenn dies für die Numerik auch zweckmäßig ist. Speziell für den Diagonalblock A j = Ajlj gehen diese Beziehungen über in (B)
wobei die zweite Gleichung zumeist AXj = AjBxj geschrieben wird, was aber nicht korrekt ist; denn der Skalar Aj der Breite 1 kann nicht links von einem Block der Höhe n stehen; man müßte ihn eigentlich ersetzen durch Ajln = Diag (Aj . .. Aj). Der Abschnitt 23 schließlich beinhaltet die Expansion von Polynomen und Polynommatrizen, die in vielerlei Hinsicht von Bedeutung ist, insbesondere für das nichtlineare Eigenwertproblem, das den Parameter A nicht allein in der ersten Potenz wie in F(A) = A - AB, sondern auch höhere Potenzen von A enthält. Von den zahlreichen Möglichkeiten der Expansion werden die drei wichtigsten ausführlich dargestellt, wobei die Diagonalexpansion von geringerer Bedeutung ist als die Expansion von Günther und die Expansion mit Defekten. R. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5_6, © Springer-Verlag Berlin Heidelberg 2011
21.2 Der Rayleigh-Quotient eines normalen Paares. Der Wertebereich
423
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich • 21.1 Was ist ein Kondensat? Wie im Abschnitt 13.8 gehen wir aus von den beiden erfüllten Eigenwertgleichungen (1)
Anstatt diese wie dort mit den Eigenvektoren selbst zu kondensieren, wählen wir irgend zwei von Null verschiedene Vektoren z und w und berechnen damit die
Kondensate (2)
und das sind ebenfalls zwei skalare Gleichungen, welche vom Eigenwert Aj ebenso erfüllt werden wie die beiden homogenen Gleichungssysteme der Ordnung n in (1). Für die in A lineare Matrix F(A) = A - AB sind natürlich auch die beiden Kondensate linear (3)
wobei nicht auszuschließen ist, daß eines von ihnen oder beide in der Form 0- AjO = 0 erscheinen, die Kondensate somit, wie wir sagen wollen, leer sind. • 21.2 Der Rayleigh-Quotient eines normalen Paares. Der Wertebereich Es sei nun das Paar A;B normal, dann ist Gleichungssysteme (1)
yi = xj,
und damit lauten die beiden
(4)
Das Eigenkondensat ist damit, einerlei, ob wir die erste oder die zweite dieser Gleichungen heranziehen, (5)
und daraus folgt der schon in (13.77) eingeführte Formenquotient (6)
dessen Nenner zufolge der vorausgesetzten Definitheit von B von Null verschieden ist. Bei indefiniter Matrix B jedoch kann das Kondensat durchaus leer ausfallen; anstelle von (5) steht dann
424
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich
(7)
als nichtssagende Banalität. Beispiel. n = 2, reellsymmetrisches Paar.
A=
G~J ; G~J' B=
2
det(A-AB)=-A -1=O .... Al=i,
A2=-i.
(a)
Mit den Eigenvektoren (b)
erhalten wir die leeren Kondensate (c)
da B entgegen der Voraussetzung indefinit ist, denn die Hauptabschnittsdeterminanten sind H 1 = 3 und H 2 = det B = - 1. Das Paar A; B ist mithin wohl reellsymmetrisch, aber nicht normal, weshalb Versagen eintritt.
Die Idee von Rayleigh besteht nun darin, den Formenquotienten (6) statt mit einem Eigenvektor mit einem beliebigen von Null verschiedenen Vektor w zu bilden; der nach ihm benannte Rayleigh-Quotient wird damit R[w] = w*Aw . w*Bw
(8)
Zunächst halten wir fest, daß diese im allgemeinen komplexe Zahl von der Länge (dem Betrag) des Vektors w unabhängig ist; denn ersetzt man w durch ew, so kürzt sich der Faktor e in (8) heraus, der Rayleigh-Quotient hängt somit nur von der Richtung des Vektors w ab. Läßt man nun w die Gesamtheit aller n-dimensionalen komplexen Vektoren durchlaufen, so überstreicht der Quotient R [w] in der komplexen Zahlenebene einen bestimmten, dem normalen Matrizenpaar eigentümlichen Bereich, den sogenannten Wertebereich (field of values), der auch die Eigenwerte Aj enthalten muß, denn auch die nEigenvektoren Xj sind ja in der Gesamtheit der Testvektoren w enthalten. Man darf daher vermuten, daß die Differenz Oj = R [w] - Aj klein ist, wenn der Vektor w nur wenig vom Eigenvektor Xj abweicht, was in der Tat zutrifft, wie wir bald erkennen werden. Um nun einen Einblick in Topologie und Ausdehnung des Wertebereiches zu erlangen, stützen wir uns auf die dyadischen Zerlegungen (15.7) n
w*Aw=
L Ajw*Djw;
j=l
n
w*Bw=
L l'w*Dj w
(9)
j=l
und bekommen mit den reellen nichtnegativen hermiteschen Formen (10)
21.2 Der Rayleigh-Quotient eines normalen Paares. Der Wertebereich
425
den Rayleigh-Quotienten in der Summenform
(11)
R[w]
Denkt man sich die im allgemeinen komplexen Eigenwerte Aj mit den Massen mj (10) belegt, so stellt der Rayleigh-Quotient R [w] (11) nichts anderes dar als den Massenmittelpunkt (Schwerpunkt) eines ebenen Massenpunkthaufens. Dieser aber kann bekanntlich nur innerhalb, allenfalls auf dem Rande des Polygonzuges von Abb. 21.1, der sogenannten konvexen Hülle liegen. Wir haben damit den
Satz 1: Der Wertebereich eines normalen Matrizenpaares A;B besteht aus der konvexen Hülle seiner nEigenwerte Aj einschließlich des Randes. Im An
A u + iu 0
iV;B
rf 0
U;B
-WB
A*;B
~z
n
A*B''A;B
Re
Än Abb. 21.1. Wertebereiche normaler Matrizenpaare und ihrer Komponenten
Für das spezielle normale Paar A;In mit A * A = AA * wurde dieser Satz bereits von Bendixson [127j] und Hirsch [127k] ausgesprochen. Berechnen wir nun mit demselben Vektor w den zum Paar A *;B gehörigen Rayleigh-Quotienten
R[w] = w*A*w , w*Bw
(12)
so zeigt der Vergleich n
w*Aw= i.. ~ A-w*D-w J J j=l
n
w*A*w= i.. ~ X-w*D-w J J j= 1
(13)
426
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich
daß
I R[w] = R[w] I
(14)
gilt, und das bedeutet, daß der Wertebereich des Paares A *;B gleich dem an der reellen Achse gespiegelten Wertebereich des Paares A;B ist, siehe dazu Abb. 21.1, die auch die Wertebereiche der in der Übersicht (15.51) zusammengestellten Matrizenpaare zeigt. Nicht dagegen gilt etwa R [w] = R [w], außer wenn das Paar A; B bzw. A; I reell ist, wie man sich leicht klarmacht. Dazu ein Beispiel. Gegeben ist das reelle Matrizenpaar
A
= [-
;
~ ~; I~J
8 -12 26
B
=
r~ ~ ~l L~
0
mit B - J =
~J
rL~~ ~ ~ J 0
(a)
1/2
Man weise nach, daß dieses Paar normal ist und berechne Eigenwerte und Eigenvektoren, ferner einige Rayleigh-Quotienten. Es ist ATB-JA =AB-1AT =
;
[4~ 30~ 13~l 132
0
54~J
BT =B pos.def. ,
(b)
somit ist A normal bezüglich B. Die beiden hermiteschen Komponenten sind
1
U=-(A+A T)= 2
[-I 0 8J 0 8
15 0 0 26
Damit lassen sich die Realteile
Uj
;
1
V=~(A-AT)=
[0
-3i 0
21
und die Imaginärteile
Vj
3i 0 12i
(c)
nach (15.60) getrennt berechnen:
det(U-uB)=2(15-u)(u 2-12u-45)=O->u\=15,
u2=15,
det(V-vB) = -2v(v 2 -81) = 0
u3=-3
(d)
(e)
Die eindeutige Zuordnung gewinnt man natürlich nur durch Kenntnis der Eigenvektoren, die sich am einfachsten aus (V - vjB)xj = 0 ergeben. Man erhält die Modalmatrix
(f)
und damit AX=
-9+ 15i -9-15i -12J Li -i . 45+27i 45-27i 0 ; BX= 3 3 [ -36+60i -36-60i 6 4i -4i
(g)
Aus AX = BXA ergeben sich dann als Quotienten die Eigenwerte AJ =15+9i,
A2=15-9i,
A3 =-3.
(h)
427
21.3 Der Einfluß einer Störung Im lOi
).,0
.
u' iv
)."
• R, -5
10
5
/5
Re
• R,
-5i
.
-lOi
Abb.21.2. Wertebereich und Rayleigh-Quotienten für ein reelles normales Matrizenpaar der Ordnung n=3
).,;
w,
Wir bilden nun den Rayleigh-Quotienten zum Vektor = (1 i O)T und bekommen R I = 7 - 3i, dagegen wird zum Matrizenpaar AT;B mit dem gleichen Vektor R, = 7 + 3i, wie es nach (14) sein muß. Ein zweiter Vektor w2 = (3 - i O)T ergibt den Rayleigh-Quotienten R 2 = 0,6 + 1,8i, und dieser liegt nach Abb. 21.2 auf der Verbindungslinie von A3 = - 3 und AI = 15 + 9i. Wie ist dies zu erklären? Wir berechnen die Massen (10) (w* Bx)(x* Bw)
m.=w*D.w= J
J
und bekommen c,
ml =
J
* Xj BXj
J
= 6i,
(6i)( -6i) 18
c2
= 0,
ce·
=...LJ.. N
c3
= 12,
= 2, m2 = 0 ,
(i)
j
ferner die Nenner N,
= N 3 = 18
12'12
m3=--=8,
18
und daraus weiter (j)
somit nach (11) (k)
wie oben. Da m2 = 0 ist, muß der Schwerpunkt auf der Verbindungslinie von AI und A2 liegen und teilt diese im Verhältnis 1:4 der Massen, also R 2A, = 4'R2A3' wie leicht nachzuprüfen.
J
Kondensiert man insbesondere mit einem Einheitsvektor w = ej, so wird = ajj und e Bej = bjj ; die Hauptdiagonalquotienten
J
e A ej
qj = ajj / bjj ;
j = 1,2, ... , n
(15)
eines normalen Paares liegen somit innerhalb oder auf dem Rande des Wertebereiches. 21.3 Der Einfluß einer Störung
Es sei
Xj
ein Eigenvektor und wein Näherungsvektor (16)
428
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich
dessen Länge OP wir nach Abb. 21.3 so wählen, daß der Differenzvektor c auf dem Vektor Bx senkrecht steht (17)
p Tl!
Tl!
I
Abb.21.3. Zur Normierung des Vektors w
errechnen wir damit die hermitesche Form
A = w *A w = (Xj + c)* A (Xj + c) = x jA Xj + x jA c + c *A Xj
+c*Ac
wo zufolge der Normierung (17) nur zwei Summanden verbleiben (19)
und eine ähnliche Rechnung ergibt (20)
Der Rayleigh-Quotient wird damit (21)
und dies können wir mit den beiden Quotienten
c*Ac
R[c] = - - = { }
c*Bc
c*Bc
ß=xjBxj
(22)
nach Division von A und B durch xlBXj kürzer so formulieren R[w) = Aj+{}ß 1+ß
(23)
21.4 Der Wertebereich eines nichtnormalen Paares
429
oder schließlich mit Aj = R [Xj] als Beziehung zwischen den drei zu den Vektoren (21) gehörenden Rayleigh-Quotienten in der prägnanten Form R [w]- R [Xj] = R[w]-R[cj]
ß.
(24)
Aus der Gleichung (23) berechnet sich nun die Differenz
ß
(25)
o·=R[w]-k=«(J-A·)- . J } J l+ß
Sie ist proportional dem Faktor ß, und dieser ist nach (22) quadratisch klein mit dem Längenverhältnis der beiden Vektoren c und Xj, und das bedeutet in praxi: Selbst ein grob gewählter Näherungsvektor w kann eine brauchbare Näherung R[w] für den Eigenwert Aj liefern. Wir werden im Abschnitt 26 noch ausführlich auf diesen für die Numerik wichtigen Sachverhalt zurückkommen. 21.4 Der Wertebereich eines nichtnormalen Paares Es sei nun das Paar A; B beliebig, dann bestehen mehrere Möglichkeiten, den Rayleigh-Quotienten zu definieren. Das nächstliegende ist natürlich, an die Kondensation (2) anzuknüpfen und mit zwei Näherungsvektoren (26) den Quotienten R[z,w]
ZT Aw
(27)
=-T-
z Bw
zu bilden. Sind die Störungen d und c klein, so darf man erwarten, daß die Differenz (28)
ebenso wie in (25) quadratisch klein wird, was in der Tat zutrifft. Ein Beispiel.
A=
[-;2 ; =~J 4 -15
;
B=
[~1 2~ 0~J -
(a)
Zum Eigenwert A = 5 gehören die Eigenvektoren
yT=(_3 -61).
x=[jJ.
(b)
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich
430
Mit dem Vektor
s=
[lJ
(c)
wird der Rayleigh-Quotient
zTAw R[z,w]=-zTBw
(d)
für die folgenden vier Fälle berechnet:
a)z=y+es, b) z=y+es c) z=y-es d) z=y-es
w=x+es} w=x-es w=x+es . w=x-es
(e)
Die Abb. 21.4 zeigt den Rayleigh-Quotienten als Funktion von e für O~e~ 1. Man erkennt an der horizontalen Tangente im Nullpunkt deutlich die quadratische (und nicht etwa lineare) Abhängigkeit R(e). R 7.0
a 6.5 6.0 5.5 5.0 4.5 4.0 3.5
b
3.0 2.5 2.0
L _ _-'--_ _-'--_ _--'-_ _--'-_ _-'-_ _--'--_ _--'--_ _--'--_ _--'-_ _--'-_ e 0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Abb. 21.4. Die Abhängigkeit des Rayleigh-Quotienten R von einer Störung e
Eine - in der Praxis übliche - Vergröberung besteht nun darin, die Kondensation mit dem Näherungsvektor wallein vorzunehmen und damit den RayleighQuotienten wie im normalen Fall einzuführen als
431
21.4 Der Wertebereich eines nichtnormalen Paares
w*Aw
(29)
R[w]=--
w*Bw
Läßt man auch hier den Vektor w die Gesamtheit aller komplexen Vektoren mit n Komponenten durchlaufen, so wird der Wertebereich des Quotienten (29) nicht mehr geradlinig begrenzt, sondern durch eine geschlossene Randkurve j(u, v), welche das durch die Eigenwerte Aj festgelegte Vieleck nach Abb. 21.5 im allgemeinen von außen umfaßt; eine Ausnahme zeigt die Abb. 21.6. Ist das Paar reell, so liegt ebenso wie der Polygonzug auch der Wertebereich spiegelbildlich zur reellen Achse. Einzelheiten zu diesem Fragenkreis findet der interessierte Leser in den Arbeiten von Kippenhahn [127h] und Toeplitz [127i]. tU
tU
o
I------E~--+------o>_____t___,=_--
2(2
u
u
Abb. 21.5. Der Wertebereich eines nichtnormalen Paares (schematische Darstellung)
Abb. 21.6. Der Wertebereich eines nichtnormalen reellen Paares für n = 3 (zweites Beispiel)
Wenn es im allgemeinen auch nicht gelingt, die Randkurve j(u, v) des Wertebereiches explizit zu ermitteln, so läßt sich doch immerhin durch ein achsenparalleles Rechteck nach Abb. 21.5 der Wertebereich einschließen, wie wir jetzt zeigen wollen. Es sei zunächst B hermitesch und definit (insonderheit B = In), aber A beliebig. Dann berechnen wir die beiden hermiteschen Komponenten 1
H, = - (A + A *), 2
Hz
1
= - (A - A *) 2i
(30)
und haben damit den Rayleigh-Quotienten aufgespalten in Real- und Imaginärteil
w*Aw w*H,w . w*Hzw ;: . R[] +1· =u+1W w =---= w*Bw w*Bw w*Bw
(31)
Ordnen wir die reellen Eigenwerte des Paares H,; B der Größe nach (32)
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich
432
und ebenso die reellen Eigenwerte des Paares H 2;B (33) so führt das nach (31) auf die beiden Einschließungen (34) Der Wertebereich liegt somit innerhalb des achsenparallelen Viereckes der Abb. 21.5. Jede seiner vier Seiten wird von innen einmal in einem Punkt (in Ausnahmefällen auch entlang einer Strecke) berührt, wie leicht einzusehen. Ist das Paar A;B reell, so ist auch das umschließende Rechteck (ebenso wie Polygonzug und Wertebereich) spiegelbildlich zur reellen Achse gelegen. Es sei nun B regulär, aber nicht hermitesch, dann multiplizieren wir die Eigenwertaufgabe
Ax = ABx; B regulär
(35)
von links mit B* und bekommen
B* Ax = AB*Bx
(36)
oder kurz
AX=ABx
(37)
mit
B=B*B
A=B*A wo nun
B hermitesch
-
R[w] =
(38)
und positiv definit ist. Mit dem Rayleigh-Quotienten
w*Aw - . = ~+lW w*B w
(39)
A
A
verläuft dann alles wie in (31) bis (34) beschrieben. Die hermiteschen Komponenten (30) sind somit zu ersetzen durch 1
H t = -(B*A +A *B), 2
1
H 2 = -(B* A -A*B) 2i
(40)
Erstes Beispiel. Die Eigenwerte des Paares
A = [-;
° °ZJ , ° -1
B=
[1Zi _OZi 1
sind in ein Rechteck einzuschließen.
~!J
(a)
433
21.4 Der Wertebereich eines nichtnormalen Paares Wir berechnen die beiden hermiteschen Komponenten 1
[
°
-1,5
0,5 -0,5iJ ° °0,5i 2 -0,5i
(b)
-1,5i 3 0,5 -0,5iJ -0,5 1,5i 0,5 + 0,5i - 0,5
(c)
-1,5 0,5+0,5i
H j =-(B*A+A*B) 2 1 H 2 =-(B*A-A*B)=
[
2i
°
°
und die Partnermatrix 6 -5i 5i 5 [ 3 -2i
B*B=B=
(e)
Die Eigenwerte des Paares
H,;B sind (t)
und die des Paares H 2;B
ß,= -2,475877,
ß2
=
0,184045 , ß3 =3,291832
(g)
tu tß3 -<3 <Xl
.1,1 7
<X3
Al
lßI
U
Abb. 21.7. Das umschließende Rechteck zum ersten Beispiel, Formel (a)
Das umschließende Rechteck zeigt die Abb. 21.7. Die Eigenwerte des Paares A;B (a) sind (h)
Die Einschließung ist somit recht grob und praktisch kaum zu gebrauchen. Wir werden im Abschnitt 36 noch Einschließungssätze kennenlernen, die sich mit allerdings beachtlichem Aufwand beliebig verfeinern lassen. Zweites Beispiel. n = 3, B
A
=
° -° J [0-I ° 1
1
1
2y'2
=I
aus der Dissertation von Kippenhahn.
,
H1=
[0° °
° °oiJ .
(a)
-i
Die Eigenwerte des Paares H1;I sind (b)
434
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich
und die des Paares H 2;1 (c)
und damit liegt das umschließende Rechteck der Abb. 21.6 fest. Die Eigenwerte des Paares A;I sind
Al = 2,481772,
A2.3 =
O,173328± I,053394i ,
(d)
die Einschließung ist damit etwas besser als im ersten Beispiel. Da A reell ist, liegt der Wertebereich symmetrisch zur reellen Achse. Er besteht aus einem Stück (was durchaus nicht die Regel ist) und besitzt eine Spitze. Jede der vier Rechteckseiten wird genau einmal von innen berührt, siehe Abb. 21.6. Die Randkurve läßt sich hier explizit angeben; sie ist von 4. Ordnung in u und v.
21.5 Kondensation höherer Ordnung Das Verfahren läßt sich verallgemeinern und damit verbessern durch einen Ansatz mit jeweils m < n linear unabhängigen Näherungsvektoren, zusammengefaßt zu den Matrizen
(41)
Mit zwei Vektoren ym und Zm wird dann zunächst (42)
und weiter, wenn wir die erste dieser Gleichungen von rechts mit Z und die zweite von links mit W multiplizieren, (43)
mit dem Kondensat der Ordnung m K(J..) = WF(J..)Z ,
(44)
dessen Eigenwerte aus der charakteristischen Gleichung (45)
zu berechnen sind. Die Differenzen (46)
sind dann um so kleiner, je besser die Näherungsvektoren (41) gewählt wurden.
21.5 Kondensation höherer Ordnung
435
Es sei nun speziell F()') == A -). B, dann wird das Kondensat K()') = WF()')Z= WAZ-). WBZ=Am-).Bm ,
(47)
somit sind die beiden Ersatzeigenwertaufgaben (48)
aufzustellen und zu lösen. Bei normalen Paaren (und in praxi zumeist auch anstelle von (47) im nichtnormalen Fall) setzt man ebenso wie in (29) detK()') ==det(W*A W-).W*BW)=O
-+
Xt ,X2,
.",X m
(49)
Dieses auch als Verfahren von Rayleigh-Ritz bezeichnete Vorgehen ist besonders dann angebracht, wenn die Eigenvektoren eines Paares A; B bekannt sind und die Matrizen A und/oder B abgeändert werden in Ä;ii. Die Eigenvektoren des Originalpaares A;B stellen dann um so bessere Näherungen dar, je kleiner die Änderungen waren. Erstes Beispiel. Beidseitig eingespannte Schwingerkette nach Abb. 15.6a mit der Federmatrix cA (17.57) und der Massenmatrix m/no Wird eine Feder ck,k+ 1= C zwischen den Massen m k und mk+ 1 ersetzt durch yc, so sind in den Zeilen und Spalten der Nummern kund k+ 1 der Matrix A die folgenden Ersetzungen vorzunehmen
[ 2-IJ [1 + -1
2
=>
YJ
Y -y l+y
(a)
Soll dagegen eine Masse mj = m ersetzt werden durch f.1mj' so ist in der Einheitsmatrix In das Element ijj = 1 zu ersetzen durch f.1. Es werde nun die Federzahl clO,11 = C um 5010 und die Masse m20 um 10% vergrößert, somit ist y = 1,05 und f.1 = 1,10. Um möglichst gute Näherungswerte zu gewinnen, machen wir mit den ersten m Eigenvektoren (17.51) Ritz-Ansätze steigender Ordnung von m = 1 bis m = 5. Auch die exakten Eigenwerte der gestörten Schwingerkette wurden berechnet und sind zum Vergleich mit den Näherungswerten angegeben. Man erkennt an dem Maschinenausdruck auf Seite 436 das typische Verhalten: Jeder der Näherungswerte wird durch Hinzunahme weiterer Vektoren zwar mit jedem Schritt kleiner und damit besser, aber erst in der 6. oder 7. Dezimale, was indessen praktisch ohne Belang ist. Bei jeder Erhöhung der Ordnung m auf m + I wird ein weiterer Eigenwert Am + I recht gut angenähert.
Schließlich erwähnen wir noch die sogenannte "primitive" Kondensation mit m < n Einheitsvektoren; es sind dazu lediglich aus der Matrix F()') m Zeilen und Spalten gleicher Nummer herauszuschneiden, womit das Kondensat ohne Rechnung vor uns steht. Wählt man insbesondere die ersten m Einheitsvektoren, so wird nach Abb. 21.8 die Hauptabschnittsmatrix K()') der Ordnung m herausgeschnitten.
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich
436
EIGENWERTE DER VERAENDERTEN DIFFERENZENMATRIX N = 30 1 4 7 10 13 16 19 22 25 28
0.0102155656 0.1612066574 0.4796489996 0.9366240091 1.4909338501 2.0924894397 2.6864953934 3.2182745723 3.6383746338 3.9074050683
0.0408106384 0.2508747995 0.6218482116 1.1200400802 1.6995029278 2.3062799479 2.8836031254 3.3774621885 3.7419770716 3.9460012525
2 5 8 11 14 17 20 23 26 29
0.0919779187 0.3591859307 0.7763967435 1.3045867435 1.8949832745 2.4938584308 3.0474666814 3.5067319304 3.8317607549 4.0011649772
3 6 9 12 15 18 21 24 27 30
R!TZ ANSAETZE: EIGENWERTE DES KONDENSATS
M
0.0102691491 2
0.0102691397
2
0.0409770790
0.0102691117
2
0.0409768653
0.0920168458 0.0920164186
4
1 4
0.0102691065 0.1621862454
2
0.0409768347
5
1 4
0.0102690981 0.1621859425
2 5
0.0409767888 0.2515721726
3
0.0920159299
6
1 4
0.0102690729 0.1621853528
2 5
0.0409766581 0.2515693524
3 6
0.0920146734 0.3596224694
1 4 7
0.0102690689 0.1621852769 0.4827286226
2 5
0.0409766383 0.2515690795
3 6
0.0920144930 0.3596202001
8
1 4 7
0.0102690596 0.1621851130 0.4827272933
2 5 8
0.0409765917 0.2515685528 0.6228237784
3 6
0.0920140810 0.3596169163
9
1 4 7
0.0102690353 0.1621847158 0.4827252659
2 5 8
0.0409764723 0.2515673501 0.6228117694
3 6 9
0.0920130473 0.3596102401 0.7782566825
10
1 4 7 10
0.0102690323 0.1621846692 0.4827250737 0.9424461781
2 5 8
0.0409764577 0.2515672139 0.6228109215
3 6 9
0.0920129231 0.3596095296 0.7782511188
11
1 4 7 10
0.0102690219 0.1621845107 0.4827244961 0.9424428970
2 5 8 11
0.0409764070 0.2515667621 0.6228086521 1.1207641164
3 6 9
0.0920124946 0.3596072589 0.7782400239
12
1 4 7 10
0.0102689984 0.1621841625 0.4827233259 0.9424387657
2 5 8 11
0.0409762935 0.2515657862 0.6228043376 1.1207304418
3 6 9 12
0.0920115422 0.3596024786 0.7782213258 1.3094989790
Computerausdruck zum ersten Beispiel
21.5 Kondensation höherer Ordnung
437
I--m--J
1 m 1
KrA)
FOJ=
n
I
'--
---'1
1---- n-----l
Abb.21.8. Das primitive Kondensat für die ersten m Einheitsvektoren
Zweites Beispiel. Die dreireihige Bandmatrix A (17.59) für n = 30 wird mit den ersten m Einheitsvektoren kondensiert gemäß Abb. 21.8. Es sind somit 30 Eigenwertprobleme zu lösen: m = 1 gibt den einzigen Eigenwert 2, m = 30 gibt die exakten Eigenwerte (17.61), die nach (17.62) zwischen o und 4 liegen müssen. Nach dem sogenannten Trennungssatz (26.21) liegt jeder der m Eigenwerte einer Kondensationsstufe zwischen zwei Eigenwerten der nächst höheren Stufe m + 1, wie der Computerausdruck 21.9 sehr schön verdeutlicht. Die Symmetrie zur Mittellinie für m = 1 bis m = 29 (aber nicht m = 30!) beruht auf der Besonderheit der Matrix A und ist nicht etwa typisch.
10
IS ••
20
2S ••• • •
30 .....
•
•
•
_~_~~~~~.
__
~ _ ~
~
~
o Abb.21.9. Die primitive Kondensation der Matrix A (17.59)
22 Blockmatrizen
438
22 Blockmatrizen • 22.1 Die Matrizenmultiplikation in Blöcken
Jede quadratische oder rechteckige Matrix läßt sich durch Ziehen von senkrechten und waagerechten Trennungslinien in Blöcke aufteilen,
(1)
wobei die Matrix A selbst als Über- oder Hypermatrix dieser Blöcke bezeichnet wird. Die Multiplikation zweier zueinander passenden Matrizen A und B
..
t[ B" B" B"J B 2! B22 ... B 2r
·1 B~; .jje~' jje~ i ~;:~~~~J [ ~;:.~;:.:::.~;:J
[ ..
A
•
r
Cl
t
:::.
e
A a! A a2 ... A ae
B
(2) C=AB
Ca! C a2 ... C aT
geschieht nach dem gleichen Schema von Abb. 2.1. Auch hier übernimmt die Produktmatrix C = AB wie stets die Höhe (J vom linken Faktor A und die Breite r vom rechten Faktor B. Die Produktmatrix C selbst läßt sich ebenso wie im Skalaren auf zweierlei Weise gewinnen, entweder, indem die (J' r Blöcke C ik einzeln berechnet werden C ik = Ai! B 1k + A i2 B 2k + ... + AieBek =
e
L AirBrk
(3)
r=!
als Verallgemeinerung von (2.4) oder aber indem wie in (2.33) die Blockdyaden
(4)
berechnet und anschließend summiert werden C=A 1B!+A 2B 2 + . .,+A e Be=
e
L AsB s s=!
(5)
22.2 Die reduzierte Blockmatrix
439
Wir wollen ausdrücklich festhalten, daß durch eine Unterteilung in Blöcke die Anzahl der erforderlichen Multiplikationen und Additionen nicht etwa verringert werden kann, doch ergeben sich mitunter Rechenvorteile in organisatorischer Hinsicht, so zum Beispiel, wenn einige Blöcke einander gleich sind, was in den Anwendungen (besonders in der Baustatik infolge der Gleichartigkeit genormter Bauelemente) häufig der Fall ist. Beispiel. Die beiden Matrizen A und B werden nach dem Schema (2) in Blöcke unterteilt
[-1
B
A
[-:
5 -1 t
-1 3 0
2
10
J
[."
B 21
][+Jc,[A"
2 0 0 1
..
2
3
..
A'~ [c"
A 21
A2
C2t
·"l c"J B 22
(a)
C22
und sodann blockweise multipliziert. Nach (3) bekommen wir die vier Blöcke (b)
(c)
C21 =A2tBl1+A22B21 =(-3 -7)+(2 4)=(-1 -3).
(d)
1)+(20 -2)=(30 -I).
C22=A21B12+A22B22=(l0
(e)
dagegen nach (5) die beiden Blockdyaden 0
B 11 Alt
A 21
2
[ b0 (-I
3
~J 1)
5J [-1
-1 -I 0 1 -2 3 0 1 -3 -7
3
3 1 0 1 5 0 1
10
5
B 12
B 21
A 12 A 22
[:] (H (2)
2 4
)(
B 22 10 -1)
0]
o -1 10
.
(I)
20 -2
Beide Male ist das Ergebnis C=AB=
[-7 ; I~ -1 -3
30 -
~l.
d
(g)
• 22.2 Die reduzierte Blockmatrix
Die Aufteilung einer Matrix in Blöcke ist besonders bei der Lösung linearer Gleichungssysteme
Ax=r
(6)
440
22 Blockmatrizen
angebracht. Im einfachsten Fall unterteilt man die Matrix A in vier Blöcke und die Vektoren x und r in je zwei Anteile in passender Weise
X=
[:J ; GJ r=
(7)
und hat damit anstelle von (6) die beiden Blockgleichungen (8)
(9) Sind nun insbesondere die Diagonalblöcke quadratisch, nl = ml und nz = mz, und ist der Block A zz zudem regulär, so läßt sich die mit - A lzA 2Z 1 multiplizierte Gleichung (9) zur Gleichung (8) addieren, wodurch oben rechts eine Nullmatrix entsteht. Damit haben wir mit der reduzierten Matrix (auch Schur complement genannt) (10)
und dem reduzierten Vektor (11) das in Blöcken gestaffelte Gleichungssystem (12)
= 'l,red ,
(13) oder kompakter geschrieben
[
All,red
A ZI
0J. [XII
Az
xJ
l ,
= [rl,red
'z j
(14)
und hier berechnet man aus der ersten Blockgleichung (12) den Teilvektor XI und sodann aus der zweiten Blockgleichung (13) den Teilvektor xz. Ist die Blockmatrix All regulär, so entsteht auf analoge Weise mit (15)
(16)
22.2 Die reduzierte Blockmatrix
441
das gestaffelte Block-Gleichungssystem
[
All
o
Al2J A 22 •re
[XII [r l J xJ
(17)
r2.re
In den technischen Anwendungen ergibt sich eine solche Aufteilung meist von der Sache her, beispielsweise, wenn der Vektor X teils aus Längen, teils aus Winkeln bzw. teils aus Kraftgrößen, teils aus Weggrößen besteht. Bei zweckmäßiger Aufteilung gewinnt man dann die Längen bzw. Kraftgrößen usw. für sich und kann anschließend, falls erforderlich, die Winkel bzw. Weggrößen berechnen und umgekehrt. Noch wichtiger wird ein solches Vorgehen, wenn einige, nicht alle Elemente der Matrix A einen Parameter A (bzw. mehrere Parameter ao, al' ... , ae; man vergleiche Abschnitt 18.1) enthalten, den man eliminieren möchte. Oft läßt sich durch Umordnen der Zeilen und/oder Spalten erreichen, daß dieser Parameter allein in der quadratischen Blockmatrix All auftritt, dann läßt sich die reduzierte Matrix A ll.red (10) zahlenmäßig herstellen und somit ein parameterfreier Gleichungsteil (13) abtrennen; auch x2 ist dann ein konstanter Teilvektor. Anhand der Gleichungen (3), (5), sowie (8) bis (16) erkennt der aufmerksame Leser das für die Programmierung ebenso wie für theoretische Ableitungen außerordentlich wichtige Gesetz der Indexkette. Dies bedeutet folgendes. Ist irgendein mehrfaches Produkt aus Matrizen und/oder Vektoren gegeben, wo Skalare und Matrizen zwei Indizes, Vektoren jedoch nur einen Index besitzen, so übernimmt jeder innere Faktor den ersten, linken Index vom linken Partner und den zweiten, rechten Index vom rechten Partner. Die beiden äußeren Faktoren ganz links und ganz rechts bestimmen dann durch ihre freistehenden, partnerlosen Indizes (bzw. den einen Index) den doppelten (bzw. einfachen) Gesamtindex des Produktes, zum Beispiel (18) So wie es in der Physik die so nützliche Dimensionskontrolle gibt, die besagt, daß nur Größen gleicher Dimension addiert werden können, so gilt auch hier: Nur Summanden mit übereinstimmendem ersten und letzten Index können addiert bzw. subtrahiert werden. Man kontrolliere daraufhin sämtliche bereits abgeleiteten und noch folgenden Gleichungen. Eine Ausnahme ist jedoch zu beachten. Bei transponierten bzw. konjugiert-transponierten Matrizen mit dem Zeichen T bzw. * sind, wenn diese Regel gültig bleiben soll, in Gedanken die Indizes zu vertauschen, also beispielsweise (19)
Wir erweitern nun die Aufgabe (6) auf ein Gleichungssystem mitp rechten Seiten rl und p Lösungsvektoren Xl, die wir zu den Matrizen R bzw. X zusammenfassen
AX=R
(20)
442
22 Blockmatrizen
-pt Xt~
und das so entstehende Gesamtsystem in Blöcke unterteilen
-n_ [R [A
t1 [X ~ X 2t
tt
A 2t
AI~ A2
1t
R 2t
X2
(21)
RI~ R2
Es sei nun A regulär, dann existiert die Kehrmatrix K Blockaufteilung
=
A - t mit der gleichen
(22)
und daraus folgt, wenn man die Gleichung X = KR in Blöcken ausmultipliziert, das Gleichungspaar (man beachte auch hier wieder das Gesetz der Indexkette) (23a, b) Wir ziehen nun auch das transponierte Gleichungssystem (24)
heran, wo die zweite Gleichung aus der ersten durch Multiplikation von links mit K T folgt, denn wegen KA = AK = I ist auch ATK T = K TAT = I mit den Blockaufteilungen (22a) und daraus folgt analog zu (23) das Gleichungspaar
(25 a, b) (wegen der Indizierung vergleiche man (19), Vertauschung infolge Transposition). Was ist nun mit diesen Formeln gewonnen? In zahlreichen Anwendungen wird es erforderlich, eine Matrix (bzw. einen Vektor oder Skalar) (26)
mit gegebenen Matrizen (bzw. Vektoren oder Skalaren) S12 und R21 zu berechnen, ohne daß die Blockmatrix A 22 explizit invertiert werden soll, da die Matrix
22.2 Die reduzierte Blockmatrix
443
A als ganzes ohnehin invertiert bzw. in Dreiecksmatrizen zerlegt werden mußte. Wir benutzen nun vorgreifend die Gleichung (47), die einen Zusammenhang zwischen A 22 1 und den vier Blöcken der Kehrmatrix (22) herstellt, und bekommen P11
= S~A221 R 1Z = S~ (Kzz -Kz1 Kli 1KdRzl =
(27)
S~ (Kzz Rz1 ) - [S~ KztlKli I {K1Z R ztl
Die in runde bzw. geschweifte Klammern gesetzten Produkte (Kzz Rz1 ) und {K 1Z R ztl findet man durch Auflösen des Gesamtgleichungssystems AX = R mit der speziellen rechten Seite R 11 = 0 nach (23 a) (28) und die noch unbekannte und zu invertierende Matrix K 11 mit der speziellen Wahl R 11 = 111 , R Z1 = 0 ebenfalls nach (23a),
AX= R; R= [1oJ X= [XX Z111J [K... J 11
11
->
(29)
wo der untere Teil der Lösungsmatrix X ohne Interesse ist. Das noch fehlende in = eckige Klammern gesetzte Produkt V11 : = [S~Kztl transponieren wir, K~SZI und berechnen nun diese Matrix aus dem Gesamtgleichungssystem ATy = S nach (25a) analog zu (28):
vTt
(30)
Diese Rechnung entfällt, wenn die Matrix A und damit die Kehrmatrix K hermitesch (im Reellen symmetrisch) ist. Dann ist A 12 = A!1 und K 12 = K!I' und da im allgemeinen auch S~ = R!1 sein wird, geht (27) über in die hermitesche Matrix
Ein Beispiel möge dies erläutern. Gegeben ist die Matrix A=
3 2 1
L
41 -2J 3 = - 3 0
und gesucht ist die Zeile T s21
= (1
3)
und
[all
A 21
12
A ] A 22
.
1 A-1=K=-
'
50
L
93 -10
~ -gJ
10
10
'
(a)
pr; = sftA 22 R 21 mit
R 21 =
1
[4 0J 1 2
(b)
444
22 Blockmatrizen
ohne explizite Inversion der Blockmatrix A 22 • Die Formel (27) lautet hier, da k 11 ein Skalar ist (c)
Nach (28) gibt das Gleichungssystem AX = R mit der speziellen rechten Seite
(d)
die beiden in runde und geschweifte Klammern gesetzten Produkte, sodann folgt aus (29) mit der Einheitsmatrix 111 = 1 (Skalar)
. r= Ax = r mIt
~!~ 0 o
---+
[9/50J x = [k llJ = ...; K2 .•.
9, k ll = 50
-I = -50 , k ll 9
(e)
wo die beiden unteren Komponenten nicht interessieren. Nun fehlt uns noch der in eckige Klammern gesetzte Skalar ur; = [S~K2tl oder u11 =K~S21' den wir nach (30) berechnen. Aus T AT y = S folgt Y = K S mit der speziellen rechten Seite
S=
(oJ '
y=KTs, inZahlen
s2l
~50 [~11 -13; -~~l [~J =~[~.2.7J I~J 3 50 ...
'
(f)
somit u11 = ur; = - 27/50, und nun wird aus (c)
3)~ [-5
pr; =(1
50
50
50{~(35
-26J _ [_ 27] 20 50 9
50
22)}=(5 2).
(g)
Der Leser kontrolliere dieses Ergebnis auf direkte Weise mit Hilfe von A ü I.
• 22.3 Blockdreiecksmatrizen
Für Blockdreiecksmatrizen mit quadratischen Diagonalblöcken A jj , aber im allgemeinen rechteckigen Außenblöcken A jk
(32)
gelten einige Regeln, die so evident sind, daß wir sie nur zusammenstellen müssen. So ist nach dem Entwicklungssatz (3.14) die Determinante
detA
=
detA l1 ·detA 22 ·detA 33 ••• detA gg
(33)
gleich dem Produkt der (} Determinanten der einzelnen Diagonalblöcke. Ferner: Sind alle Diagonalblöcke regulär, so existieren ihre Kehrmatrizen A j} 1, und die Kehrmatrix K von A ist die Blocksdreiecksmatrix
445
22.4 Inverse und Adjungierte einer vierteiligen Hypermatrix
(34)
Weiter gilt: Das Produkt von beliebig vielen oberen (unteren) Blockdreiecksmatrizen ist ebenfalls eine obere (untere) Blockdreiecksmatrix. Schließlich geben wir noch für den allereinfachsten Fall e = 2 die Kehrmatrizen explizit an. Es ist
A
o
=
(35)
[All
0
und
A = [A 11 u A 21
0J. A ' 2
K = A - 1= [ U
U
-
A 1[1 A -lA A 22
21
-1 11
A
0
J
-1 22
'
(36)
wie leicht nachzurechnen. Es ist AoKo = KoA o = I und AuKu = KuA u = I, wie es sein muß. • 22.4 Inverse und Adjungierte einer vierteiligen Hypermatrix Wir greifen zurück auf die in Abschnitt 22.2 durchgeführte Reduktion des Matrizenpaares A; I innerhalb des Gleichungssystems
Ax= Ir ,
(37)
aus welchem durch Zeilenkombination, also Multiplikation der Gleichung von links mit einer regulären Matrix L das gestaffelte System
LAx= Lr
(38)
entstand, wo (39)
ist. Invertieren wir nun die Produktmatrix P = LA und multiplizieren anschließend von rechts mit L - 1, so wird
P = LA,
P - [ = A - 1L -
1 ->
P -1 L = A
-1
=K .
(40)
Wie die beiden oberen Dreiecksmatrizen P und L zu invertieren sind, zeigt Gleichung (35). Damit haben wir die Reziproke von Aals Matrizenprodukt
446
22 Blockmatrizen 1
-A 12 A 22 ]
,
h2
(41) und der gleiche Vorgang an der unteren Blockdreiecksmatrix vollzogen ergibt in analoger Weise 1
- A i1 A 12 A 12~redj -1 A 22,red
[ -
111 A 21 A-11 1
:J . (42)
Führen wir jetzt die Produkte (41) und (42) aus, so entdecken wir zu unserer Überraschung, daß die vier Blockelemente K jk der Kehrmatrix K = A - 1 in äußerlich gänzlich verschiedener Form erscheinen, nämlich (Indexkette!):
K 11
1 A A- 1 A- 1A 12 A= A-l 11 + 11 22,red 21 11
-l = A 11,red 1
K 12 = - A i1 ~redA 12 A 12 = -l A 21 A-11 1 = K 21 = - A 22,red K 22 =
-l A 22,red
=
1
A i1 A 12 A 12~red 1 - A-22 1A 21 A-II,red 1 A A- 1 A-l A- 1A 21 A22 + 22 11,red 12 22 -
(43a) (43b) (43c) (43d)
Da nun die Matrix A und ihre Reziproke A - 1 = K miteinander vertauschbar sind, lassen sich die vier Gleichungen (43) auch anders lesen, indem man überall Kund A vertauscht. Beispielsweise folgt aus den linken Gleichungen (a) und (d) durch Übergang auf die Reziproken (44) (45)
und daraus durch Vertauschen von A und K unter Fortlassen der Mittelglieder
A
i1 1 = K ll -K12 K12 1K 21
1 A12 =K22-K21Ki11KI2
(46)
'
(47)
zwei Formeln, die zeigen, wie man die Reziproken der beiden Diagonalblöcke All und A 22 von A aus den vier Anteilen der Gesamtkehrmatrix gewinnt, eine Beziehung, die wir vorgreifend bereits in (27) benutzt hatten.
22.4 Inverse und Adjungierte einer vierteiligen Hypermatrix
447
Beispiel. An der Matrix A sind die Formeln (44) bis (47) zu testen.
(a)
(b)
Man findet der Reihe nach: 1 50 = - (27 + 23) = - . 9 9
(45):
-I =A22-A21all -I A K 22 12
=
4 3J - [2J -(1 1 -2)=-1 [ 1013J . -3 0 1 3 3 -10 2
[
91 (46): all 1 =k 11 -K12 K i.i 1 K 21 =---(6 50 50 (47):
-I
50
10
(d)
1 1 11)-1[I013J[ 3Jl -=-(27+23)=-. 3 - 10 2 - 10 50 150 3
1 [2-13J
-I
A 22 =K22-K2Ikl1 K I2 = -
(c)
10
=_1 [18-18 450 90+60
1 [3J50
--
50
- 10
-117-33J 90+ 110
1
-(6
11)-
9
=~ [0 9
(e)
50
3
-3J 4
({)
Wir kommen nun zur Berechnung der Determinante von A. Da elementare Umformungen den Wert einer Determinante nicht ändern, finden wir unter Benutzung von (33) aus den Blockdreiecksmatrizen (14) bzw. (17) det A = det A ll,red det A 22
(48)
bzw.
detA
=
detAIl detA 22 ,red
,
(49)
und damit berechnen wir die in (3.17) definierte adjungierte Matrix von A
IAadj = K·detA I ' wo die Kehrmatrix K = A
K=
[Kll K121 K K J 21
2
(50) -I
mit den Blöcken K jk (43) einerseits (51)
448
22 Blockmatrizen
ist und andererseits zufolge (43 b) und (43 c)
- A 1i I A 12A 22~red~ A -I
(52)
22,red
Multiplizieren wir nach (50) die Kehrmatrix (51) mit detA, und zwar den Block unten rechts mit dem Produkt (49), die übrigen Blöcke mit dem Produkt (48), so wird
A
adJ'
=
[A ~tjadjA det A '
-
red
A 22
- A adj ll,red A 12 AadJ] 22 adj A 22,red det A 11
22 Aadj 21 Il,red
,
(53)
während die Multiplikation von (52) mit detA auf analoge Weise ergibt
A
adj _ [
-
A ~t!red det A 22 d'
-
d'
AaJ A AaJ 22,red 21 11
A adjA 11 12 Aadj 22,red~ adj
A 22,red det A 11
,
(54)
und dies sind zwei verschiedene Darstellungen ein und derselben Matrix ebenso wie (51) und (52) dieselbe Kehrmatrix bedeuten. Wir machen uns alle diese auf den ersten Blick etwas bombastisch anmutenden Relationen für den allereinfachsten Fall der zweireihigen Matrix klar. Die vier Blöcke sind dann die vier skalaren Elemente, und da die Determinante eines Skalars gleich diesem Skalar selbst ist und ferner die Adjungierte eines Skalars gleich eins, so wird mit d et
ajj
=
ajj,
adj
a jj
=
1
(55)
nach (53) sowohl wie nach (54) die adjungierte Matrix
(56)
man vergleiche (3.19). Eine adjungierte Matrix existiert, wie wir in Abschnitt 3.2 sahen, auch bei singulärer Matrix A, insbesondere selbst dann, wenn die beiden Blöcke All und A 22 ihrerseits singulär sind, etwa
A=
[~~ ~ ~] 1000 o 1 0 1
,
A adj =
[~ ~ ~ ~] -
0000 0 1 0 -1
(56a)
449
22.4 Inverse und Adjungierte einer vierteiligen Hypermatrix
Ein Beispiel. Die Adjungierte der Matrix
(a)
A = [;
soll blockweise berechnet werden. Zunächst wird att!red = 1, weil all ein Skalar ist, und ebenso ist det all = t. Wir berechnen nun det A 22 = - 4, ferner A adj 22 -_ (
1-IJ
-4
(b)
0
sodann aus
(::J CJ
1•
- (2 - 3) = 1
(c)
die dazu adjungierte Matrix
d' (4 -7J
A ~2~red =
(d)
-2 -4
und haben nun alles beieinander. Die vier Blöcke (53) werden der Reihe nach: oben links:
att~red det A 22 = 1 (- 4) = - 4 ,
(e)
= (- 14
oben rechts:
unten links:
- A adj 22 A 21 aadj ll,red = - (
unten rechts:
A~~!reddetal1 =
somit insgesamt:
A adj =
[
1-IJ (2J. 1 IJ = (-
-4
-7J .\ ,
4 -2 -4
[= ~ -1: -~J 8
0
1
8
2),
(f)
(g)
(h)
(i)
-2 -4
Zur Kontrolle rechne der Leser A adj A = - 301, also ist det A = - 30, wie man auch direkt bestätigen möge. Schließlich sollten die Außenblöcke von A adj noch nach (54) berechnet werden.
Zum Schluß betrachten wir noch die spezielle, auch als geränderte Matrix bezeichnete Blockmatrix
A=
011 [
021
(57)
450
22 Blockmatrizen
Ihre Reziproke ist nach (51), wenn wir den Skalar a li~red herausziehen, A- I =_1_ all,red
mit TA -I
all,red=all-aI2
22 a21*
0
(58)
,
und ihre Adjungierte (53) wird wegen det all
A
adj _
-
[
-A 22
und
aft!red =
TAadjJ -a12 22
detA 22 adj
= all
adj
(59)
,
A 22,redall
a21
1
und hier darf det A 22 wie det all gleich Null sein. Die Determinante der geränderten Matrix A wird nach (48) (der Subtrahend ist ein Skalar) (60)
oder nach (49) det A
=
det all det A
22 ,red = all
det (A 22 -
1 a21 a 11 a (2) ,
(61)
wo nun der Subtrahend eine Dyade ist. Die Gleichung (60) lautet ausmultipliziert (62)
und dies bedeutet: notwendige und hinreichende Bedingung für die Singularität der geränderten Matrix (57) ist (63)
Andererseits: Wird eine singuläre Matrix A 22 durch eine Spalte und Zeile gerändert, so folgt aus (62) wegen det A 22 = 0 TAadj det A = -a12 22 a21 •
(64)
• 22.5 Die Identität von Frobenius/Schur/Woodbury
Eine Standardaufgabe in den technischen Anwendungen besteht darin, die Reziproke einer Summe bzw. Differenz von zwei Matrizen A und Z explizit zu berechnen
S = A - Z; S - I
=
(A - Z) -
I =
A - I +T ,
(65)
451
22.5 Die Identität von Frobenius/Schur/Woodbury
wo S selbstverständlich, aber auch A regulär sei, det S
* 0,
det A
*0
(66)
und die Zusatzmatrix T gesucht ist. Diese Aufgabe wurde zuerst gelöst von Schur [128] und sein Ergebnis in der Folge mehrfach wiederentdeckt [129]. Die grundlegende Idee besteht darin, die Zusatzmatrix Z als dreifaches Produkt zu schreiben Z = BCD,
(67)
D regulär ,
was immer möglich ist, und diesen nun vier Matrizen A, B, C und Deine Hypermatrix H nach folgendem Schema zuzuordnen I---T!
H=
H 11
H 12
A
H 21
1 H22
C
"I" r--j
B
D
1 ~ Tl
(68)
r
1
wo wir die Schreibweise der Blöcke H jk allerdings nicht übernehmen wollen, um die folgenden Formeln nicht zu kompliziert zu gestalten. Die Identität (43a) bzw. ebensogut (43 d) leistet nun genau das Gewünschte; denn es ist mit der Umbenennung A i2 1 = H 22 1 = D, somit A 22 = D - 1 und mit All ,red nach (10) die Kehrmatrix von S
(A-BDC)-l =A- 1 +A- 1BLI- 1 CA- 1 mit LI : = D - 1 - CA - I B regulär
a)
b)
(69)
wo nach (49) det H = detA det LI
(70)
gilt. Wenn A und LI regulär sind, ist es damit auch die Hypermatrix H. An sich darf man die drei Matrizen B, C und D ganz beliebig wählen, wenn ihre Formate nur nach dem Schema (68) zueinander passen. Da aber nun außer A auch noch LI und D invertiert werden müssen und D ebenso wie LI eine r-rMatrix ist, entsteht ein praktischer Vorteil gegenüber der direkten Inversion von
452
22 Blockmatrizen
S = A - Z im allgemeinen nur dann, wenn r gegenüber n klein ist. Die Matrix Z wird dann, wie im Abschnitt 6.5 vorgeführt, nach Banachiewicz zerlegt in das Produkt Z = PDQ mit der Pivotmatrix n = D, und damit wird (71)
(72)
Die Berechnung des Subtrahenden geschieht über den Gaußschen Algorithmus nach (7.28). Aus LAR = n folgt A -1 = Rn- 1L und weiter (73)
wozu jedoch die Transformationsmatrizen L und R explizit gar nicht benötigt werden; die implizite Vorgehensweise nach dem Schema
(74)
liefert auf direktem Wege die beiden Matrizen P und Q. Aber auch n wird nicht invertiert, sondern wir setzen nP = P, lösen das entkoppelte Gleichungssystem (75)
und haben damit endgültig (76) Beispiel. Zu berechnen ist der Skalar s = q TA - I P mit
A
=
G~J '
qT = (0 -1), P
=
GJ .
(a)
Nach dem Schema (74) wird
-2 ( [ : :] "-..J -2
G] - t-;, -~] G]
(b)
453
22.5 Die Identität von Frobenius/Schur/Woodbury Wir lösen das Gleichungssystem (75)
(c)
und erhalten damit (d)
Als nächstes erfolgt die Inversion der r-reihigen Matrix LI über (77)
Dies ergibt (78)
wo man im allgemeinen auch noch (79)
setzen wird. Besteht die Zusatzmatrix aus einer einzigen Dyade (80)
so wird aus LI ein Skalar 0, der sich aus dem fünffachen Produkt herausziehen läßt, und damit bekommen wir eine in der Literatur auch als Sherman-Morrison-Formel [130] bezeichnete Beziehung, die in den Anwendungen besonders nützliche Dienste leistet
(81)
mit 0 = 1- c TA - I b =1= 0
b)
Wird insbesondere in A nur eine einzige Zeile der Nummer j bzw. eine einzige Spalte der Nummer k geändert, so wird daraus mit c T = eJ bei Zeilenänderung
(82) b)
454
bzw. mit bk
22 Blockmatrizen = ek
bei Spaltenänderung
(83) b)
Oder noch einfacher: Ändern wir nur ein einziges Element der Matrix A, indem wir ajk durch ajk - Zjk ersetzen, so wird (84)
und nun gehen (82) und (83) über in
(85)
Ist speziell die Matrix A und die Zusatzmatrix Z hermitesch (im Reellen symmetrisch), so wird auch A - Z und damit die Inverse (A - Z) - 1 hermitesch. Mit der Zerlegung Z = PD P*, wo nun D eine reelle Diagonalmatrix ist, gehen die Gleichungen (71), (72) über in
(86)
und auch der Gaußsche Algorithmus verläuft kongruent: (87)
22.6 Abgeänderte (gestörte, benachbarte) Gleichungssysteme
Es sei das Gleichungssystem (88)
455
22.6 Abgeänderte (gestörte, benachbarte) Gleichungssysteme
gelöst, und gesucht ist die Lösung x des abgeänderten Systems (A -Z)x = r
(89)
mit derselben rechten Seite r. Dann folgt aus (71) x
= (A -
Z) -
= A - I r + A - I PA - I Q A - I
I
(90)
die neue Lösung x als Summe der alten Lösung y und einem Zusatzterm a)
mit
(91)
A = D-
I -
QA - I P regulär
b)
Wenn Z aus nur einer Dyade besteht, wird nach (81) sehr viel einfacher 1 x=y+-(A- 1 b)(c T y)
a)
J=1-c T A- 1b*0
b)
J
mit
(92)
Oder noch einfacher, wenn nach (84), (85) allein das Element ajk durch ajk - Zjk ersetzt werden soll,
X=y+~(A-lej)Yk J mit
a)
(93)
J=1-zjk (e k A- 1ej)*0 b)
Ähnlich verläuft die Rechnung im hermiteschen Fall (86), (87), was wohl im einzelnen nicht vorgeführt werden muß. Weitere Variationen zu diesem Thema findet der Leser bei Zielke [28]. Erstes Beispiel. Das Gleichungssystem Ay = r wurde gelöst:
A
= [-
~ =~ -~ J =~J 2
o
0 1
4 -7 -3 8 -5 -1
r=
[=!J -8 -3
y
=
[!~J
(a)
1 3
Das Element ais = 2 werde ersetzt durch aIs - ZIS = ä ls • Wie lautet die Lösung x bei der gleichen rechten Seite r? Nach dem Schema (74) berechnen wir zunächst die in (93 b) benötigte Bilinearform eS A -I el nach Gauß implizit: -0,5
o I
o o o
(b)
456
22 Blockmatrizen
Aus dem entkoppelten Gleichungssystem (75) berechnen wir den Vektor
fi = (0
°3
(c)
1 1) T
und daraus nach (76) (d)
womit der Skalar (93 b) gefunden ist
ö = 1- 0,5' Z15 :1= 0 .
(e)
Der Vektor x ist dann nach (93a) mit Y5 = 3 nach (a) (f)
wo wir zur Abkürzung 3Z 15
(g)
1-0,5z 15
gesetzt haben. Es ist nun der Vektor A -leI = Rn- 1Lei = Rn- l p = Rfi zu berechnen mit dem Vektor fJ (c). Dies geschieht am einfachsten implizit, wie im Abschnitt 6.4 beschrieben, oder explizit mit
R
=
[-~° !=:~~~ ~; !J ' [!!:~J ' 0
- 2 0
0
- 1/2
1 0
RfJ
=
(h)
1,00 0,50
1 1
und damit wird endgültig
8] [8'25J [-~ -~:~ 21
x=
21,50
(i)
+
3
0,50
Die Abb. 22.1 zeigt den hyperbolischen Verlauf der Funktion
Spätestens an dieser Stelle erhebt sich die Frage, ob x = y sein kann, somit die Lösung bei gleicher rechter Seite r gegen Änderung der Matrix A resistent ist. Es wäre dann (A -Z)x
= (A -Z)y = Ay-Zy = r
,
(94)
457
22.7 Singuläre Matrizenpaare
10
5
1/ -~'O -5 0 -5
~
5
10
15
Asymptote
-10
Abb.22.1. Der Verlauf der Funktion CP(ZlS)
und dies bedeutet, da Ay = r ist, daß Zy = 0 sein muß, was sicher zutrifft, wenn Z = Be den Rang r hat und die r Skalarprodukte T T T CtY=C2Y= ... =Cry=
0
(95)
einzeln verschwinden. Die Lösung ist dann Eigenspalte zur singulären Matrix Z; bei regulärer Zusatzmatrix Z gibt es somit keine Resistenz. Der Leser studiere dazu den Abschnitt 7.10 über allgemeine Gleichungssysteme. Zweites Beispiel. Die Matrix A des ersten Beispiels werde abgeändert um eine einzige Dyade Z = bc T, dann muß bei Resistenz Zy = abc T y = 0 sein, somit, wenn die Cj die Koordinaten des Vektors c sind, das Skalarprodukt (a)
verschwinden. WäWt man etwa cI' c2' c3 und Cs beliebig, so folgt mit C4 = - (8c I + 21 C2 - 2c 3 + 3 c s), daß c T y = 0 ist. Zum Beispiel wird mit Cl = c2 = 0, C3 = - 1 und Cs = 2 die Koordinate c4 = - (8'0+ 21,0- 2( - 1) + 3 '2) = - 8. Nun dürfen auch noch der Skalar a und der Vektor b beliebig gewählt werden, etwa a = 1
Z=bc T =
[jJ [(1 L~i =~l l [:!] l ,
J
-1 0 0 1 8 -2 000000
y=
(b)
1 3
Man addiere ein beliebiges Vielfaches von Z zu A und überzeuge sich durch Einsetzen, daß y noch immer eine Lösung ist.
22.7 Singuläre Matrizenpaare Wir kommen nunmehr auf den im Abschnitt 13 ausgeschlossenen singulären Fall der allgemeinen Eigenwertaufgabe F()')x = (A -). B)x = 0 mit zwei singulären
458
22 Blockmatrizen
Matrizen A und B zurück. Wegen det A = det B = 0 fehlen in der charakteristischen Gleichung (96)
mindestens die beiden äußeren, gegebenenfalls auch noch weitere Terme, so daß ein ganz bestimmtes, sog. Rumpjpolynom
a 1
(97)
verbleibt, das sogar noch zu Null entarten kann, (98)
detF(A) = T(A)=O ;
dies nennen wir den eigentlich singulären Fall. Die beiden einfachen Beispiele det
[
aJ
a-A a a
1 = -al'.,
det [all a12 -Ab 12] -0 = 0 0
zeigen den Normalfall mit dem Rumpfpolynom (97) der Ordnung 1 und den eigentlich singulären Fall (98). Zwei Fälle sind vorweg trivial zu erledigen. a) A ist die Nullmatrix, B hat den Rang TB< n. Dann verbleibt die Eigenwertgleichung -ABx=
(99)
0
Es gibt n - TB linear unabhängige Eigenspalten Xj' welche die Gleichung = 0 befriedigen; für A = 0 ist x beliebig. b) B ist die Nullmatrix, A hat den Rang TA <no In der "Eigenwertgleichung" BXj
(100)
Ax=o
tritt der Parameter A überhaupt nicht mehr auf, doch gibt es immerhin n - TA linear unabhängige Eigenspalten Xj, welche die Gleichung (100) befriedigen. Für das Folgende ist es zweckmäßig, von dem inhomogenen Gleichungssystem (101)
F(A)X = (A - AB)x = r
auszugehen, wie es etwa bei den erzwungenen Schwingungen, wo der Parameter A = A ebenso wie die rechte Seite r vorgegeben ist, durchaus ein praktisches Interesse beanspruchen darf; außerdem rundet es unsere sogleich zu erlangenden theoretischen Einsichten ab. Mit Hilfe zweier regulären Matrizen P und Q transformieren wir das Gleichungssystem (101) auf PF(A)QZ=(PAQ-APBQ)z=Pr
mit x=Qz
(102)
22.7 Singuläre Matrizenpaare
459
oder mit Ä:=PAQ
B:=PBQ,
(103)
T:=Pr
kürzer geschrieben
(Ä -)'B)z = T
(104)
und wählen P und Q so, daß die Matrix B in die Normalform übergeht
Ä = (
~tl ~t2 A A 21
z=
(~J
'
22
T=
J1m; !dB
B= ( 1011
~J
00
J (105)
1. Fall. Die Matrix A 22 ist regulär. Dann bringen wir, wie in (10) bis (14) vorgeführt, das Gleichungssystem (105) auf die gestaffelte Form
eine Maßnahme, von der B gar nicht berührt wird, und damit zerfällt das System in die beiden Gleichungen
= TI.red
(107) (108)
Durch diese Umformung wurde der Wert der Determinante von A nicht geändert, somit gilt nach (48) det A = det Ä = det Ä 11
red
det A22 = 0 ,
(109)
folglich muß, da Ä 22 als regulär vorausgesetzt wurde, Ä 1 J red singulär sein. Im homogenen Fall TI = 0, T2 = 0 und damit TI.red = 0 resultiert aus (107) die notwendige Bedingung det (All,red - HIt) = r().) = 0 ,
(110)
460
22 Blockmatrizen
und damit ist das Rumpfpolynom (97) gefunden. Es ist a = 'B' und wegen f! > 1 muß mindestens ein Eigenwert gleich Null sein, wie es die Gleichung (109) verlangt. Unabhängig von der Struktur der Matrix Ä l1 ,red (Diagonalähnlichkeit oder Jordan-Form) gibt es die 'B Eigengeraden A) - A, dazu genau dB = n -'B konstante Eigenterme, die aber durch die Gleichung (108) nicht eindeutig determiniert sind; man kann sie zum Beispiel alle gleich Eins wählen, siehe dazu Abb. 22.2, die diese Verhältnisse im Reellen zeigt. Für jeden zum Gleichungssystem (111) gehörigen Eigenvektor bzw. Hauptvektor aus der homogenen Gleichung (108)
XI)
ist der noch fehlende Teilvektor
x2)
(112) eindeutig zu berechnen.
Abb.22.2. Die
rB
Eigengeraden und dB Eigenkonstanten im Normalfall
2. Fall. Ä 22 ist singulär vom Rang tion am Gleichungssystem (105)
'22'
Wir nehmen jetzt eine zweite Transforma-
(113)
(114) vor mit zwei regulären quadratischen Matrizen L und R der Ordnung dB auf folgende Weise (115)
(116) mit (117)
461
22.7 Singuläre Matrizenpaare
Wählen wir L und R so, daß nunmehr Ä 22 in die Normalform übergeht, dann entsteht mit der zweiten Unterteilung (118) das gestaffelte Gleichungssystem (119) (120) (121) oder in der übersichtlichen und einprägsamen Blockschreibweise
All
..1 12 ..1 13
/11
0
0
..121
Iz2
0
0
0
0
..131
0
0
0
0
0
t
t
ZI
Tl
~2
Y2
T2
Y3
T3
t t
1
22
,
(122) ein System, das wir noch weiter vereinfachen, indem wir den Teilvektor (120) ausrechnen
Y2
aus
(123) und in (119) einsetzen. Das gibt mit den Abkürzungen (124) zusammen mit (121) (125) (126)
462
23 Expansion von Polynomen und Polynommatrizen
oder in Blöcken formuliert T,
(127)
I
L
I- ro -+·1-·- - dll ---I
und diese beiden Gleichungen allein bestimmen nun alles weitere, wobei drei Fälle zu unterscheiden sind. 1. rB
2. rB = d 22 . Beide Nebendiagonalblöcke sind gleich groß. Der Block oben rechts enthält zwar keine Nullzeile mehr, trotzdem verschwindet das Produkt der beiden Determinanten identisch (d. h. ohne Teilnahme des Parameters A), da wir von der singulären Matrix A ausgegangen waren, somit mindestens einer der beiden Nebendiagonalblöcke singulär sein muß. Wieder liegt der eigentlich singuläre Fall vor. 3. rB>d22 . Die weitere Fallunterscheidung hängt jetzt ab von dem Spalten- bzw. Zeilenrang der Matrizen A 31 und A 13 • Es kann der eigentlich singuläre Fall wie auch der Normalfall (nicht identisch verschwindendes Rumpfpolynom) eintreten. Bezüglich der inhomogenen Gleichung (127) mit vorgegebenem Parameterwert A = A sei der Leser auf den Abschnitt 7.8 verwiesen, wo er alles zur Diskussion Erforderliche lückenlos zusammengestellt findet.
23 Expansion von Polynomen und Polynommatrizen • 23.1 Zielsetzung
Wir haben im Abschnitt 18 gesehen, welche Schwierigkeiten sich bei den Polynommatrizen dadurch auftun, daß es im allgemeinen unmöglich ist, mehr als zwei Matrizen eines Tupels simultan auf Diagonalform bzw. Jordan-Form oder zumindest auf obere (oder untere) Dreiecksform zu transformieren. Man wird daher versuchen, die Gleichung (1)
463
23.2 Expansion von Günther
durch eine ihr äquivalente, sog. expandierte Gleichung E(Ä.)z(Ä.)=S
(2)
zu ersetzen, wobei die Ordnung der Expansionsmatrix E(Ä.) nun zwar größer als e, im Extremfall gleich 1, somit die Matrix n, dafür der Grad der Elemente ejk (Ä.) kleiner als
(3)
selbst linear im Parameter Ä. wird, weshalb in der Fachliteratur in wenig zutreffender Weise die Expansion mitunter auch als Linearisierung bezeichnet wird, doch ist die Linearität der expandierten Matrix E(Ä.) weder typisch noch in jedem Fall wünschenswert. Es zeigt sich, daß eine solche Expansion in mannigfacher Weise durchführbar ist, daß aber nur drei Vorgehensweisen von herausragendem theoretischen "Wie praktischen Interesse sind: Die Expansion von Günther [131]', die Diagonalexpansion [132] und die Expansion mit Defekten, Umformungen, die wir im jeweils folgenden mit dem Index G, D bzw. C bezeichnen wollen. Besonders die letztgenannte Expansion wird uns bei der numerischen Ermittlung der Eigenwerte eines Matrizenpaares noch nützliche Dienste leisten, siehe dazu Abschnitt 43. • 23.2 Expansion von Günther Vorgelegt sei die skalare Gleichung
(4) und wir fragen, ob dies nicht durch eine Matrizengleichung E(Ä.)z(Ä.)
= (P-Ä.Q)z(Ä.) = S
(5)
darstellbar ist, wie in (2) verlangt. Man prüft sogleich nach, daß die nach Günther benannte Expansion -Ä.
0 0
1 -Ä.
0
0
1 -Ä.
0
0
0
-ao
-al
-a2
0 0 0
0 0 0
.......................................... ...
-Ä.
1 -a.,-2 (-a.,_l-Ä.a.,)
x Ä.x Ä. 2x
0 0 0
Ä..,-2 x
0
Ä."-'x
-r (6)
das Gewünschte leistet, denn hier sind die ersten e - 1 Gleichungen lauter Identitäten der Art - Ä. + Ä. = 0, ... , - Ä." - 1 + Ä." - 1 = 0, während die letzte Gleichung mit (4) übereinstimmt. Dividiert man diese durch a." so wird QG = I und 1
In der Literatur zumeist irrtümlicherweise Frobenius zugeschrieben.
464
23 Expansion von Polynomen und Polynommatrizen
(7)
EO(A) = Po-AI
mit
Po =
0 0
1
0
0
1
0
0
0
o
o
o
o o o o
0 0
(8)
0
und diese Matrix heißt die Beg/eitmatrix des Polynoms f(A) aus (4). Für ae = 1 ist dies nichts anderes als das charakteristische Polynom f(A) = det (AI-A) = (_1)n det (A -AI)
mit
{!
=
(9)
n.
Wir betrachten nun anstelle der skalaren Gleichung (4) die dazu analoge Matrizengleichung (1) mit quadratischen Koeffizientenmatrizen A j der Ordnung n und dem Vektor der rechten Seite (10)
Es ist unmittelbar einzusehen, daß die Skalare 0, 1 und aj durch quadratische Blöcke 0, I und A j der Ordnung n und die Skalare x und r durch Vektoren x und r mit n Koordinaten zu ersetzen sind, so daß anstelle von (6) das expandierte Gleichungssystem der Gesamtordnung (!. n mit dem Hypervektor ZO(A) entsteht:
0 '"
-AI
o
I
o
-AI 0
o
0
0
-A o -AI
-A 2
I -AI
. .
···
o o
o o o
o
-AI I -A e- 2 (-Ae_I-AgA)
o o o o
-r (11)
und damit haben wir die in (5) angestrebte Form (11 a)
23.3 Diagonalexpansion Wieder gehen wir aus von der skalaren Gleichung (4), denken uns das Polynom f(A) mit Hilfe seiner {! Nullstellen A j faktorisiert (12)
und definieren die Polynome vom Grad
{! -
1
465
23.3 Diagonalexpansion
llyP.):=(A-A 1HA-A 2)···
(12a)
···(A-A e ) ,
(1) ,.-'--, Faktor y
die dadurch entstehen, daß im vollständigen Produkt (12) der Faktor (A - A y ) durch 1 ersetzt wird, wie angedeutet. Nun schreiben wir die Gleichung (4) {l mal auf, indem wir beim ersten Mal den ersten Faktor, beim zweiten Mal den zweiten Faktor usw. herausziehen und bekommen damit die {l Duplikate j(A)x=ae (A-A2)llt(A)x=r}
~(.A?~~. ~~~~ ~.~.2~ ~~~~).~.~ ~ j(A)X = ae(A -Ae)lle(A)X
(13)
,
=r
oder als Matrizengleichung formuliert
(0.('(,) .0,('~A~ O~('~.A~) .
o
0
0
.•.•.•.....
~
llt (A)X] ll2(A)X ll3(A)X
.... ]
... ae(A-A e )
[ lle(A)X
[]
,
(14) womit die angekündigte Diagonalexpansion der Gleichung (4) (14a) vor uns steht, und dies Ergebnis können wir mit dem Expansionsvektor (15)
und dem Vektor f:
e = (1
1 .. , 1) T
(16)
auch so schreiben (17) Als nächstes stellen wir uns die Aufgabe, die Matrizengleichung (1) zu expandieren auf (18)
466
23 Expansion von Polynomen und Polynommatrizen
ausführlich
ZI
[
[
(A)]
Z2(A)
...
Zi?(A)
=
SI ]
s2
. ..
,
(19)
si?
wo die e-reihigen Blöcke Ejk(A), der Expansionsvektor ZV(A) und die rechte Seite gesucht sind. Wir machen zunächst einige Voraussetzungen. Die Koeffizienten
Sv
akk,(2"* 0;
(20)
k = 1,2, ... , n
der Hauptdiagonalpolynome (21) seien alle von Null verschieden, so daß es n Sätze von je e Nullstellen gibt, und diese sollen überdies für feste Nummer k (numerisch hinreichend) voneinander verschieden sein fkk(A)=O
k
->
k
AII"*A v
;
,u,v=I,2, ..
·,e,
(22)
eine Forderung, die deshalb wesentlich wird, weil wir anstelle der Produktfunktionen Ilv(A) (12a) nunmehr die ihnen verwandten Lagrange-Polynome Lj(A j ) = 1 ,
(23) heranziehen werden, deren Nenner nicht verschwinden dürfen. Eine Modifikation dieser Vorgehensweise gibt Bähren [133]. Die Lagrange-Polynome dienen bekanntlich zur eindeutigen Darstellung (Interpolation) eines vorgegebenen Polynoms (24)
dessen Grad a nicht größer als e sein darf. Ist insbesondere fo aus der Darstellung (23) ersichtlich
=
const., so folgt
(25)
467
23.3 Diagonalexpansion
was zur Kontrolle dienen kann. Die Einschränkung a~{! bringt es mit sich, daß wir bezüglich der Außenelemente fjdA) der zu expandierenden Polynommatrix F(A) die folgende Fallunterscheidung zu treffen haben: a) elliptische Expansion b) parabolische Expansion c) hyperbolische Expansion
a
< {!
}
a = (! a > (!
(26)
.
Zunächst die elliptische Expansion. Wir greifen aus dem Gleichungssystem (11) irgend drei, am einfachsten drei benachbarte Spalten und die rechte Seite (10) heraus Xk-t
Xk
ft,k-t (A) hk-t (A)
ftk(A) hdJe)
= Tt = T2 .............
fk,k-d A )
I fkk(A) I
= Tk ............. fn,k+t(A) = Tn
....... . ....... .
fn,k-t (A)
fnk(A)
Xk+t ft,k+ I (A) hk+ 1 (A)
(27)
fk,k+ t (A)
und faktorisieren das Hauptdiagonalelement k k k fkk(A) = akk,e(A - At)(A - .11 2), .. (A - A e ) ,
(28)
das wir ebenso wie in (13) {2 mal aufschreiben; doch erweitern wir die rechte Seite mit den Nennern der Lagrange-Polynome, das sind die für v = 1,2, ... ,{! angeschriebenen Produkte k k k k k k k IIy = (A y - Aj)(A y - .11 2), .. (1) ... (A y - A e ) ,
(29)
'----v-----J Faktor y
k
wodurch gerade die mit den Wurzeln Aals StützsteIlen gebildeten LagrangePolynome (23) entstehen, und bekommen damit anstelle von (13) k k k fkk(A )Xk = akk,g(Je - .11 I) II t (A )Xk = akk,g II t (A k k k fkk(A)xk = akk,e(A - .11 2) II2(A)Xk = akk,e II2(A fkk(A)Xk
= akk,g(A -
k k Ag) IIg(A )xk
k
= akk,g IIg(A -
k k .11 I)' L j (A )Xk k k .11 2)' L 2(A)Xk k k Ag)' Lg(A)Xk
(30)
468
23 Expansion von Polynomen und Polynommatrizen
Als nächstes ersetzen wir die Koordinate xk des Vektors x durch den Vektor der mit Xk multiplizierten Lagrange-Polynome (31)
(Expansion in der Breite), dann geht die Zeile der Nummer J *= k aus (27) über in
xk-I ij,k-t (..1.)
k LI (..1. )Xk
k L 2(..1.)xk
k ijk(A t )
k ijk(A 2)
k L e (..1.)Xk k ... ijk(A e )
Xk+1 (32) ij,k+l(..1.) = rj;
J*=k.
Die Zeile der Nummer k jedoch wird ebenso wie in (14) nach der Vorschrift (30) in der Höhe expandiert, was bedeutet, daß dem Element !kk(..1.) eine Q-reihige Diagonalmatrix zugeordnet wird, während die Außenelemente und die rechte Seite Q mal aufzuschreiben sind; (27) geht damit über in k
k
xk - t
LI (J.)xk
L 2(J.)xk
f"k-t(J.)
ftk(A,)
... f'k(A 2)
ftk(A e )
f"k+'(J.)
"
f2,k-l (J.)
f2k(A,)
... f 2k (A 2)
f 2k (A e )
hk+' (J.)
'2
0
fk,k+ t (J.)
'k
. ... , .....
fk,k+ I (J.)
'k
hk+' (J.) =
'k
k
fk,k-' (J.)
k
k k °kk,eflt(J.-A t ) 0
0
fk,k-t (J.)
fn,k-l (J.)
k
k Le(J.)Xk
xk+l
k k
........... ..... ......... ........ , ........... .............
.... ...... fk,k-l(J.)
k
· ..
k
k
0kk,e fl 2(J. - ,12)
0
...................................... k k 0
0
· .. 0kk,efle(J. - A e )
........................................ , .... . ...... , ..... k k k fnk(A,) . " f nk(A 2) · .. fnk(A e ) fn,k+ I (J.) =
'n
(33)
Auf diese Weise ist das Hauptdiagonalelement!kk(..1.) in der Breite und Höhe expandiert worden, wodurch die expandierte Matrix die Ordnung n - 1 + Q bekommen hat. Führt man dies für sämtliche Diagonalelemente durch (was in den Anwendungen durchaus nicht immer geboten ist), so sprechen wir von vollständiger Expansion. Nach dem Vorhergehenden gilt damit für die vollständige elliptische Expansion der Gleichung (1) die folgende Zuordnungsvorschrift: a) Expansionsvektor
(34)
b) rechte Seite
(35)
469
23.3 Diagonalexpansion
c) Hauptdiagonalelemente k
fkk(Je)-+ k
akk ,~"lIt (Je - At) Ekk(Je) =
k
0
o o
k
0
akk,e lI2(Je-A 2)
o
o
k
(36) k
. .. akk,elIe(Je - A e )
d) Außenelemente
hk(Je)
k
-+
j*-k.
Ejk(A v ) =
(37)
Fassen wir zusammen: Elliptische Expansion ist immer dann möglich, wenn die Leitmatrix A e aus (1) eine reguläre Diagonalmatrix ist, so daß die Koeffizienten akk,e *- 0 sind, und wenn außerdem alle n Polynomgleichungen fkk(Je) = 0 hinreichend verschiedene Wurzeln besitzen, die als StützsteIlen der Lagrange-Polynome dienen können. Da die Außenblöcke Ejk die konstanten Dyaden (37) sind, ist bei vollständiger Expansion in der Gleichung (38)
QD eine Diagonalmatrix. Beispiel. Das in Abb. 23.1 skizzierte mechanische System führt erzwungene Schwingungen aus, die durch das Differentialgleichungssystem Cu(t) + Dü(t) + Mü(t) = fe Xt
(a)
beschrieben werden. Der Ansatz u(t) = xe Xt führt nach Fortkürzen der nicht verschwindenden Exponentialfunktion auf das Gleichungssystem F(A)X
= (C+DA+MA 2 )X = r
(b)
mit den dimensionslosen Größen 2 -2 m A =A~,
c=
[
- [OJ~
r
r=~=
75 -3 -2J
-3 8 -1 -2 -1 12
(c)
,
[18 oo -4J0 , ~-4 o d
,D=--
0
8
M=
[3020 00J . 0 0 1
Dieses Gleichungssystem ist zu expandieren für den speziellen Wert d 2 = cm. 2e
Abb. 23.1. Mechanisches Schwingungssystem
(d)
470
23 Expansion von Polynomen und Polynommatrizen Es ist (} = 2. In den abgeleiteten Formeln ist A o = C, Al = D und A 2 = M zu setzen. a) Günther-Expansion. Hier wird nach (11) ohne jede Rechnung
b) Diagonalexpansion. Wir faktorisieren die Hauptdiagonalelemente der Matrix F().)k und k
k
k
k
k
k
bilden aus den jeweils zwei Wurzeln die Größen fl, = (At - A~ und fl2 = (..1 2 - ..1,), die hier aus nur einem einzigen Faktor bestehen. Ferner ist akk,2 = mkk zu setzen, und damit wird k
fkk().) = Ckk+ d kk).+mkk).2
1 2 3
h2().) = f 33 ().) =
f,t().) =
75+ lS).+3).2 S+2).2 12+S).+).2
Der Expansionsvektor
ZD
k
k
Al
..1 2
-3+4i 2i -6
und die rechte Seite 1
).-A t
,
k
fl t
-3-4i -2i -2 sD
Si 4i -4
t
z().)
..1 2 -..1 1 1
).-..1 2 ---Xt 1 ..1 1 -..1 2
,
2 ).-A t ---x2 2
z(l)
2 2 ..1 2 -..1, 2 ),-..1 2 ---X2
2 2 ..1,-..1 2 3
),-..1 1 ---x3 3 3 3
z(). )
..1 2 -..1, 3
),-..1 2 ---x3 3
3
..1,-..1 2
-Si -4i 4
mkk
3 2
(f)
1
werden damit ).-(-3+4i)
---Xt t
k
fl2
x,
-Si )'-(-3-4i) Xl
Si ).+2i --X2
4i ).-2i --X2
-4i ).+2 --X3
-4 ).+6 --X3
4
(g)
23.3 Diagonalexpansion
471
0 0
Tl Tl
T2 T2
(h) 0 0
T3 T3
k k Mit den Größen mkk' n l und n 2 berechnen sich die drei Hauptdiagonalblöcke (36), die in der sechsreihigen Matrix ED(A) (I) eingetragen sind. Von den Dyaden (37) sind vier der Wurzeln k
A v unabhängig, da die zugehörigen Elemente Konstante sind, somit wird
112 =121
-+
E I2
= E 21 = [ - 3 - 3J ; -3-3
fz3
=132
-+
E 23
= E 32 = [- 1 - IJ
(i)
-1-1
Die Elemente 113 (A) = 1 31(A) = - 2 - 4A dagegen werden mit Hilfe der Wurzelpaare zur Nummer k = 1 bzw. k = 3 expandiert, das ergibt
22 6J [ 22 6
lO-16i [ 1O-16i
10+ 16iJ .
(k)
10+ 16i
Das expandierte Gleichungssystem ED(A)ZD(A) = SD lautet damit
2
2
3
3
LI (A)x2
L 2(A)x2
LI (A )x3
-3
-3
22
6
-24i(A+3+4i)
-3
-3
22
6
-3
-3
8i(A - 2i)
0
-1
-1
-3
-3
-8i(A+2i)
-I
-I
-4(A+6)
24i(A+3-4i) 0
0
0
IO-16i
IO+16i
-I
-I
1O-16i
10+ 16i
-1
-I
0
L 2(A )x3)
0 4(A + 2)
o
o
o o (I)
In der Tat ist im Matrizenpaar ED(A) = PD-AQD die Matrix QD von Diagonalform, wie es bei vollständiger elliptischer Expansion sein muß.
472
23 Expansion von Polynomen und Polynommatrizen
Nun zur parabolischen Expansion. Nach (26) ist G = (!; mindestens ein Außenelement }jk(A) hat den gleichen Grad Gk = (!k wie das Hauptdiagonalelement ikk(A) der gleichen Spalte, oder anders ausgedrückt: Die Leitmatrix A e in (1) ist keine Diagonalmatrix mehr. Wir schreiben das betreffende Außenelement in der Form
+(0 +0
(39)
+0
oder kurz (40)
und führen nun mit beiden Funktionen gjk,O(A) und gjk,l (A) getrennt die Lagrange-Interpolation durch wie im elliptischen Fall. Anstelle von (37) wird dann allgemeiner
}jk(A)
k
-+
Ejk(Äv,A) =
und dies hat zur Folge, daß nunmehr die Matrix QD in (38) nicht mehr diagonal sein kann. Wenn für mindestens ein Außenelement}jk()..) der Grad Gk größer ist als der Grad (!k des Hauptdiagonalelementes fkk()..), so liegt hyperbolische Expansion vor. Ähnlich wie in (39) zerlegen wir das Polynom }jk(A) in Teilpolynome }jk()..) = (ajk,O +
mit
~ =
ajk,t)..
+
ajk,2)..2
+
+ ajk,e- t Ae - t )
+ (ajk,e + ajk,e+ 1 A + ajk,e+2A 2 +
+ ajk,2e- 1 Ae-t»)..e
+ (ajk,2e + ajk,2e+ t A + ajk,2e+2A 2 + +
+ ajk,3e- 1 Ae-
+ ( [Oj +
+
[Oj
+
[Oj
+
ajk,u
k
t
)A.2e
Ae-t)A~
. (42)
Gk - ({! -1) oder kurz
wo, wie in (42) durch die eingeklammerten Nullen angedeutet, das letzte Teilpolynom ebenso wie in (39) im allgemeinen nicht vollständig sein wird und führen mit jedem einzelnen der Polynome gjk,v(A) die Lagrangesche Interpolation durch. Die Dyaden (37) sind dann zu ersetzen durch
23.3 Diagonalexpansion
473
k
!jk(A)
--+
(44)
Ejk(A v • A) =
mit den g 2 Elementen
Die Expansionsmatrix ED(A) ist damit nichtlinear im Parameter A geworden. Dazu ein Beispiel. Die Gleichung F(A)X = r der Ordnung n = 2 mit (a)
ist zu expandieren. Die Expansion von 111 (A) gibt mit den Lagrange-Polynomen und ihren Nennern I A-5 L1(A)=--,
0-5
I A-O L 2(A)=--;
5-0
1
nl
=
-5,
1
n 2 =5
(b)
und der Zerlegung nach (42) (hier zwei volle Zeilen) (c)
ferner nach (43), (44) (hier ein liegender Vektor)
ht ..... E21(~v,A)
= (g21,O(0) +g21,1 (0)A
2
2 g21,O(5)+g21,t(5)A ) = (1
-9+5).2)
(d)
das (unvollständig) expandierte Gleichungssystem der Ordnung 3 (
1
I
L t (A)X 1
[-'(-:(>-0)
L 2(A)X,
x2
)
",-,:,J "~l
0 - 2 (5)(A - 5) -9+5).2
(e)
Nun zur Expansion des Elementes 122 V'), das oben bereits faktorisiert wurde. Die LagrangePolynome und ihre Nenner sind hier 2 Lt(A) =
(A -I)(A - 2)
(A-I)(A-2)
( - 3 - 1)( - 3 - 2)
20
2 (A + 3)(A - 2) L 2(A) = (1+3)(1-2)
(A + 3)(A - 2)
2 (A + 3)(A -I) L 3 (A) = (2+3)(2-1)
(A + 3)(A -I)
-4
5
(f)
(g)
(h)
474
23 Expansion von Polynomen und Polynommatrizen 2 2 2 = 20, []2 = - 4, []3
=5
[]t
(i)
Ferner ist 0kk,Q = 022,3 = 4, und damit wird nach leichter Rechnung
I
10),
0
3
3
3
Zt ().)
'1
0
-1O()'-5)
3
3
3
Z2().)
'1
0
2 ZI ().)
'2
80()' + 3)
-9+5).2
0
I
(j)
2
-9+5).2
0
-16()'-1)
0
Z2().)
-9+5).2
0
0
20()' -2)
Z3().)
'2
2
'2
mit den fünf Komponenten des Expansionsvektors z().) 1
t
ZI ().)
= LI ().)x I
2 ZI ().)
= Ld).)X2
I
2
,
Z2().)
,
Z2().)
2
= L 2 ().)x t
(k)
;
2
2
= L 2().)X2
;
2
Z3
2
= L 3().)X2
.
(I)
Es liegt hyperbolische Expansion vor; die expandierte Matrix ED ().) ist daher nichtlinear, hier quadratisch im Parameter )..
23.4 Wiederholte Diagonalexpansion
Bei hyperbolischer Expansion ist es mißlich, daß einige oder alle Außenelemente ejk(J...) der expandierten Matrix ED(J...) nichtlinear im Parameter J... sind. Man wird daher vor der Expansion die Zeilen und/oder Spalten von F(J...) so umordnen, daß
möglichst viele Polynome vom höchsten Grad O'max in die Hauptdiagonale geraten, und dieser Vorgang läßt sich hinreichend oft wiederholen. Wurde nach der ersten Expansion der Vektor x ersetzt durch 1
2
12
z(J...) = [z(J...) z(J...) ... z(J...)]
mit den zur Koordinate
xk
T
(45)
gehörigen Teilvektoren (46) k
k
so läßt sich die Koordinate Zv (A.) von Z(A.) nach Einführung eines neuen Satzes von Lagrange-Polynomen ein zweites Mal expandieren k
zv(A.)
mit
--+
k
k
k
zv(A.) = [zv,dA.) Zv,2(A.) ...
f
(47)
23.4 Wiederholte Diagonalexpansion
475
(48)
und so fort, wobei durch die fortgesetzte Multiplikation von Lagrange-Polynomen der Grad der Polynome im Expansionsvektor ständig wächst, der Grad der Elemente ejk(A) dagegen abnimmt, während gleichzeitig die Ordnung der expandierten Matrix ED(A) größer wird. Wir rechnen dazu das Beispiel aus Abschnitt 23.3. Vertauschen der zweiten und dritten Zeile führt auf (ZI (A.)
zz(A. )
U'
Z3(A.) 3
~
30
-16(A.-l)
0 20(A.-2)
3
3
0 0
J
o3
80(A. + 3)
-1 A.-5) -9+5A. z -9+5A. z
Zs (A.) )
Z4 (A.)
3
o
{l
(m)
Mit dem neuen Diagonalelement l z2 (A.) = - 9 + 5A. Z = 5 (A. + 3/j/5)(), - 31VS) werden die beiden 1
Lagrange-Polynome (46) mit ,.1 I
Z
= - 3/j/5 und Ä z = + 3/j/5 (n)
(0)
und damit die neuen Komponenten (47) I
~
I
.:
I
ZZ.I (A.) = LI (A.)zz(A.) =
(A. - 3/V5) A. - 0
,C . -61VS 5-0
(p)
XI
und I
zz.z(A.)
= Lz(A.)zz(A.) =
(A.+3/V5) A.-O
,c . - -
+ 61 V 5
5- 0
xI
=
(A.-3/V5)A.
,c
+ 6· V5
xI
(q)
Die Expansion der zweiten Spalte (mit Ausnahme des Diagonalelementes) in der Breite ergibt nun für f 12 und 132 (A.) (elliptisch) nach (37) und für fdA.) =fsz(A.) (parabolisch) nach (39) bis (41) I
Zz (A.)
rJ l zz (A.)
ldA.) f 4Z (A.)
dA. )
I
I
zz(A. )
[_'0;'~S)] -9+5A. z -9+5A. z
ZZ.I (A.)
--->
I
zz.z (A.)
[S~+;O/;' S~~:~/;'] -9-3j/5
-9+3j/5A.
-9-3j/5A.
-9+3j/5A.
(r)
476
23 Expansion von Polynomen und Polynommatrizen 2
2
Mit den Nennern iI, und iI2 der Lagrange-Polynome und dem Koeffizienten 022,2 = 5 expandieren wir die zweite Zeile in der Höhe und erhalten das vollständig expandierte, jetzt in A lineare Gleichungssystem der Ordnung (!'n = 3·2 = 6:
,
I
I
2
ZI (A)
Z2,1 (A)
Z2,2(A)
z, (A)
Z2(A)
Z3(A)
IOA
0
0
3
3
3
1 1
e22
0
80(A + 3) 80(A + 3)
0 0
0 0
0 1 1
0
e42
e33 e43
-9-3}!5A -9+3}!5A -9-3}!5A -9+3}!5A
3 0 0
'2
'2
(s)
3 3 -16(A-1) 0 20(A - 2) 0
mit
'n - - ; (, +
~),
'" - ; (, -
~) ,
e42
30
= 50+-, }!5
e43
30
= 50--
}!5
(t)
.
Der Leser überzeuge sich durch Ausmultiplizieren, daß die 1. und 4. Zeile identisch ist mit der 1. Zeile ( - 2A 2 + IOA )Xl + 3X2 des ursprünglich vorgelegten Gleichungssystems, ebenso wie die 2., 3., 5. und 6. Zeile nichts anderes besagen als die ursprünglich 2. Zeile (A 3 - 2A + 1)x l +
=',
(4A 3 -28A+24)X2 = '2'
23.5 Diagonalexpansion mit konstanten Defekten Vorgelegt sei die normierte algebraische Gleichung n-ten Grades (49)
die wir aus sogleich verständlichen Gründen folgendermaßen aufspalten f().,)
= (po-rO)+(Pl-rt»).,+ ... +(Pn_t-rn_l»).,n-t +).,n = p().,)-r().,) = 0
,
(50)
wo p().,) als Stützpolynom und r().,) als Restpolynom bezeichnet werde. Wir wählen nun n voneinander verschiedene Stützwerte (51)
und legen dadurch das Stützpolynom fest (52)
23.5 Diagonalexpansion mit konstanten Defekten
477
dann führt die Diagonalexpansion der Gleichung (49) bzw. (50) nach (17) mit = n, ae = an = 1 auf die Matrizengleichung
(!
(53) mit dem Expansionsvektor (15) (wo jetzt x = 1 ist) (54)
und mit dem Vektor (16), dessen n Komponenten gleich Eins sind t n = (1 1 ... 1)
T
.
(55)
Die n Gleichungen (53) sind nichts anderes als die n Duplikate (13), wo anstelle der konstanten rechten Seite r nunmehr das Restpolynom r(A.} steht. Wir ziehen nun die n Stützwerte (51) zur Lagrange-Interpolation des Restpolynoms heran, dann wird nach (23) und (24)
(56)
mit den von Null verschiedenen Nennern llj(A j } = (A j -A t }{Ar A 2} ... (1} ... (Aj-A n )
(57)
~
Faktor j
Nun gilt zufolge j(A.)
= p(A.} -
r(A.} nach (50) für die Stützwerte A.
= Aj (58)
da jap(A j } nach (52) verschwindet. Es ist somit r(A j } = - j(A j }, weshalb wir anstelle von (56) auch schreiben können
(59)
Definieren wir noch die Dejekte dj und den daraus gebildeten Defektvektor d (60)
23 Expansion von Polynomen und Polynommatrizen
478
so schreibt sich (59) mit dem Expansionsvektor (54) als Skalarprodukt r(A)
n
L djIIj(A) = -dTZ(A)
=-
(61)
j=l
Damit wird aus (53) (62)
oder schließlich mit Diag (A>
=
Aln leicht umgeordnet und mit - 1 multipliziert (63)
somit endgültig (64)
mit der Begleitmatrix von Smith [133 aj
Die Expansionsmatrix EC
mit
A :;':.I1j
für j = 1,2, ... , n ,
(67)
n
J
.I1 nd-A
.
(68)
Für A = 0 hat man damit auch die Inverse von Pe, sofern alle Stützwerte .I1j von Null verschieden sind. Trifft dies nicht zu, so existiert zwar im allgemeinen die Inverse, doch versagt dann die Formel (66).
23.5 Diagonalexpansion mit konstanten Defekten
479
Noch eine weitere Umformung ist von praktischem Interesse. Subtrahiert man die erste Zeile der Matrix EcO.) von der zweiten bis n-ten Zeile, was der Produktbildung LEc<J...) mit dem Elevator L entspricht, so wird
(69)
und daraus entsteht mit dem Elevator R = L - 1 die Ähnlichkeitstransformation
(70)
mit (70a)
Speziell für J... = 0 haben wir damit
(71 )
Schließlich fragen wir noch nach der Determinante der Expansionsmatrix Ec<J...) oder, was zufolge von det L = 1 dasselbe ist, nach der Determinante der Matrix LEc<J...) gemäß (69). Entwickeln nach den Elementen der ersten Zeile ergibt unter Beachtung von (52), (61) und (58) das zu erwartende Ergebnis (72)
480
23 Expansion von Polynomen und Polynommatrizen
Wie wir im Teil 2 des Buches noch zeigen werden, ist die Expansion mit Defekten von außerordentlicher praktischer Bedeutung. Dabei sind zwei AufgabensteIlungen zu unterscheiden: 1. Das charakteristische Polynom f(J...) ist vorgegeben. Dann wählt man n nicht zusammenfallende, aber sonst beliebige (d. h. in praxi zweckmäßige) Stützwerte A j , berechnet die n Defekte (60) und hat damit in Ec<J...) eine Matrix, deren n Eigenwerte gleich den Nullstellen des Polynoms f(J...) sind. 2. Eine Matrix A ist gegeben. Dann wählen wir ebenso wie unter 1. n nicht zusammenfallende Stützwerte A j und berechnen via Gauß oder Gauß-Jordan die n Wertef(A j ) = det (Ajln-A) und daraus die Matrix Pe. Ein Beispiel. Das Polynom (a)
ist mit den Stützwerten (b)
zu expandieren auf die Begleitmatrix Pe (65). Mit Hilfe des Horner-Schemas berechnen wir die Funktionswerte f(A t )=f(3)
= -43,
f(A Z)=f(4)
= -22,
f(A 3)=f(6)
= 110
(c)
und daraus die Defekte (60) -43
-43
43
(A 1 -A z)(A t -A 3)
(3 - 4)(3 - 6)
3
d =f(A t ) = t
Ilt
-22 dz =f(.,1 z) = Ilz (A z - At)(A z - A 3)
110 d =f(A 3) = 3 (.,13 - A t )(A 3 - A z) Il3
-22
(d)
11 ,
(4 - 3)(4 - 6) 110
55
(6-3)(6-4)
3
(e)
(f)
Die Begleitmatrix ist somit nach (65)
Pe =
43 3+3 43 3 43
-11 4-11 -11
3
Mit ö
= d t + dz + d 3 = 15
55
52
3 55
3 43
3 55 6-3
3 43
-11 -7 -11
3
55 3 55 3 37
(g)
3
wird die transformierte Matrix (71)
(h)
Man überzeuge sich, daß det (AI3 - Pe) = det (AI3 - Pe) = f(A) ist, wie verlangt.
23.6 Diagonalexpansion mit variablen Defekten
481
Die Begleitmatrix von Günther ergibt sich dagegen nach (8) mit den negativen Koeffizienten aus (a) ohne jede Rechnung zu
Pa =
0 01 0J1 [-20 30-2
(i)
Wir machen noch eine Probe: (j)
sp Pa = sp Pe = sp Pe = - 2 .
23.6 Diagonalexpansion mit variablen Defekten
Wir wählen allgemeiner als in (52) das Stützpolynom von der Form (73)
mit nur a
gilt. Die Begleitmatrix der Ordnung a wird damit
mit den jetzt von A abhängigen Defekten (76)
die allgemeiner als in (58) durch die
Vj
Forderungen (77)
bis zur Ableitung der Ordnung sionsvektor
Vj -
1 eindeutig festgelegt sind. Mit dem Expan-
(78)
besitzt das homogene Gleichungssystem F(A)Z(A) = 0;
detF(A) =f(A)
(79)
23 Expansion von Polynomen und Polynommatrizen
482
wie früher die nEigenwerte Aj als Nullstellen des vorgelegten Polynomsj(A) (49), das jetzt in der zerlegten Form j{A) = p(A.) +
(J
L k=l
d/A)(A - Ä 1)V t ••• (1)' .. (A - A(J)Vq
(80)
erscheint. Näheres zur Numerik wird beschrieben im Abschnitt 40 sowie in der Arbeit [133 d]. Dazu ein Beispiel mit n = 6. (a)
Wir wählen
(J
= 3 mit (b)
Die Defekte sind (c)
Somit lautet das nach (80) zerlegte Polynom f(A) = (A-I)\A -2)2(A - 3)+d, (A)(A -2)2(A - 3) + d 2(A)(A -1)3(A - 3)
+ d3 (A - 1)\A -
2)2 ,
(d)
wie man durch Ausmultiplizieren leicht bestätigt.
• 23.7 Zusammenfassung Wie schon eingangs erwähnt, existiert eine vollständige Expansionstheorie für beliebige Vorgehensweise, die umfassend auszubreiten hier nicht der Platz ist; doch sind die drei vorgeführten Expansionen die wichtigsten: Die von Günther aufgrund der Tatsache, daß sie ohne jeden Rechenaufwand in jedem Fall auf die im Parameter A lineare Hypermatrix (11) führt, und die Diagonalexpansion, weil sie einen für numerische Zwecke, insbesondere für die Anwendung von Einschließungssätzen unschätzbaren Vorzug besitzt: Diagonalelemente (Außenelemente) der Matrix F(A) sind auch Diagonalelemente (Außenelemente) in ED(A). War also F(A) diagonal ( - dominant) oder von Bandform, so ist es auch die expandierte Matrix EV(A). Die Expansion mit Defekten schließlich leistet hervorragende Dienste zur numerischen Ermittlung von Eigenwerten einer Matrix F(A), wie wir im Teil 2 des Werkes noch zeigen werden. Der Leser sei in diesem Zusammenhang auf eine grundlegende Arbeit von Carstensen und Stein [133 b] sowie auf die Dissertation von Carstensen [133c] hingewiesen.
Schlußbemerkung
Mit dem hier vorliegenden Teil 1 des Gesamtwerkes hat der Leser aus der Theorie des Matrizenkalküls das erforderliche Rüstzeug gewonnen, soweit es für die im Teil 2 abzuhandelnden numerischen Methoden und technischen Anwendungen erforderlich ist. Fassen wir zusammen, was in den ersten sechs Kapiteln des Gesamtwerkes behandelt wurde. Im Zentrum des Matrizenkalküls steht die sogenannte Matrizen-
hauptgleichung
IF(A)X = b I
(A)
mit quadratischer Matrix F(A) der Ordnung n, deren Elemente ebenso wie der Parameter A im allgemeinen komplex sind. Ist der Parameter A = A fest vorgegeben, so bezeichnen wir die Matrix F(A) mit A und haben damit das lineare Gleichungssystem (B)
Jetzt unterscheiden wir: 1. A ist kein Eigenwert, dann ist die Matrix A regulär, und es existiert die eindeutige Lösung (C)
2. A = Aj ist Eigenwert. Dann ist F(Aj) singulär; es existieren nichttriviale Lösungen x * 0 nur, wenn die rechte Seite b verträglich ist. Stets verträglich ist b = 0; damit liegt das nun homogene Gleichungssystem als sogenanntes Rechtseigen-
wertproblem (D)
vor, dem zweckmäßigerweise (nämlich im Hinblick auf die Transformationstheorie) noch das Linkseigenwertproblem (E)
R. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5, © Springer-Verlag Berlin Heidelberg 2011
484
Schlußbemerkung
zugeordnet wird. Eine Erweiterung aller dieser Beziehungen stellen die Matrizengleichungen aus Abschnitt 19 dar. Damit ist das Wichtigste im Prinzip umrissen. Um mittels geeigneter linearer Zeilen- und Spaltenkombinationen die vorgelegte Matrix F(Ä) bzw. A auf eine möglichst einfache Form zu bringen, wurde eine Theorie der Transformationen geschaffen. Ist A konstant (nicht notwendig quadratisch), so gelingt die Äquivalenztransformation auf die Pivotmatrix fl mit Hilfe des Gaußschen Algorithmus
LAR=fl ,
(F)
wobei auch der Rang der Matrix A offenbar wird. Für die Parametermatrix F(Ä) existiert etwas Analoges nicht außer für den linearen Fall F(Ä) = A - ÄB mit regulärer Matrix B. Hier gelingt die B-ähnliche Transformation des Paares A;B auf die Diagonalmatrix der s5, nEigenblöcke A j (bzw. Eigenwerte Äj )
I YF(Ä)X= Diag(ArÄlj) I
(G)
für jeden Parameterwert Ä, wo Yund X gerade die Modalmatrizen der Links- und Rechtseigenvektoren (E) und (D) sind, gegebenenfalls ergänzt durch Hauptvektoren. Alles übrige sind - großzügig gesprochen - Detailfragen. So etwa die speziellen Eigenschaften normaler (insonderheit hermitescher bzw. reellsymmetrischer) Paare A;B, ferner Möglichkeiten der (Bi-)Orthonormierung, Fragen über den Rang und anderes mehr. Besonders der Anwender, für den dieses Buch in erster Linie geschrieben ist, bemühe sich bei wiederholtem Studium immer wieder, den Durchblick zu bewahren bzw. überhaupt zu erlangen. Im übrigen ist es erstaunlich, was in rund 150 Jahren auf dem im Gesamtrahmen der Mathematik relativ schmalen Sektor des Matrizenkalküls mit seinen nur vier Grundrechenarten (die Infinitesimalrechnung kommt außer bei den Matrizenfunktionen im Abschnitt 20 nicht vor) geleistet wurde, wobei die Flut der Veröffentlichungen keineswegs abreißt, besonders was die numerischen Methoden und Anwendungen in der Praxis (vornehmlich der Physik und den Ingenieurwissenschaften) betrifft. Dies hat seinen einfachen Grund in dem Aufkommen der digitalen Rechenautomaten etwa seit etwa 1955 zunächst in Deutschland (Konrad Zuse), dann in den Vereinigten Staaten (Howard Aiken) und bald in aller Welt. Dabei erwies sich als Fakt, mit dem wir dieses Buch beschließen wollen:
Der Matrizenkalkül ist das kleine Einmaleins des digitalen Rechenautomaten.
Weiterführende Literatur
Lehr- und Fachbücher 1. Berg, L.: Lineare Gleichungssysteme mit Bandstruktur. Berlin: VEB Deutscher Verlag der Wissenschaften, 1986. 2. Bodewig, E.: Matrix Calculus, 2. Auf!. Amsterdam 1959. 3. Collatz, L.: Eigenwertaufgaben mit technischen Anwendungen. Leipzig 1963. 4. Dietrich, G.; Stahl, H.: Grundzüge der Matrizenrechnung. Leipzig: VEB Fachbuchverlag 1963. 5. Durand, E.: Solutions numeriques des equations algebriques, vo!. 2. Paris 1961. 6. Frazer, R.A.; Duncan W.].; Collar, A.R.: Elementary Matrices and Some Applications to Dynamics and Differential Equations. Cambridge 1938. 7. Gantmacher, F.R.: Matrizenrechnung, I, H. Berlin 1958/59. 8. Gröbner, W.: Matrizenrechnung, München 1956. 9. Householder, A.S.: Principles of Numerical Analysis. New York, Toronto, London 1953. 10. McDuffee, C.C.: The Theory of Matrices. Ergebn. Math. Grenzgeb. Bd. 2, H. 5, Berlin 1933. 11. Neiss, F.: Determinanten und Matrizen, 6. Auf!. Berlin, Göttingen, Heidelberg: Springer 1962. 12. Schmeidler, W.: Vorträge über Determinanten und Matrizen mit Anwendungen in Physik und Technik. Berlin 1949. 13. Sperner, E.: Einführung in die analytische Geometrie und Algebra, Bd. 1,2. Göttingen 1948, 1951. 14. Kielbasinski, A.; Schwetlick, H.: Numerische lineare Algebra. Berlin: VEB Deutscher Verlag der Wissenschaften, 1988. 15. Zurmühl, R.: Praktische Mathematik für Ingenieure und Physiker, 5. Auf!. Berlin, Göttingen, Heidelberg: Springer 1965. 16. Schwarz, H.: Optimale Regelung linearer Systeme. (Theoretische und experimentelle Methoden der Regelungstechnik, Bd. 12). B.1. Wissenschaftsverlag Mannheim. 17. Faddejew, D.K.; Faddejewa, W.N.: Numerische Methoden der linearen Algebra. Berlin: VEB Deutscher Verlag der Wissenschaften 1964. 18. GastineI, N.: Lineare numerische Analysis. Berlin: VEB Deutscher Verlag der Wissenschaften 1972. 19. Householder, A. S.: The Theory of Matrices in Numerical Analysis. New York: Dover Pub!. 1964. 20. Lancaster, P.: Lambda-Matrices and Vibrating Systems. Oxford 1966. 21. Lancaster, P.; Tismenetsky, M.: The Theory of Matrices, 2nd. Ed. New York, San Francisco, London: Academic Press 1985. 22. Parlett, B.N.: The Symmetric Eigenvalue-problem. Englewood Cliffs, N.].: Prentice-Hall 1980. 23. Pease, M.C.: Methods of Matrix Algebra. New York, San Francisco, London: Academic Press 1965. 24. Schwarz, H. R.; Rutishauser, H.; Stiefel E.: Numerik symmetrischer Matrizen. Stuttgart: Teubner 1972. 25. Stewart, G. W.: Introduction to Matrix Computations. New York, San Francisco, London: Academic Press 1973.
R. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5, © Springer-Verlag Berlin Heidelberg 2011
486
Weiterführende Literatur
26. Wilkinson, J.H.: The Algebraic Eigenvalue Problem. Oxford: Clarendon Press 1972. 27. Wilkinson, J.H.; Reinsch, C.: Lineare Algebra. Berlin, Heidelberg, New York: Springer 1971. 28. Zielke, G.: Numerische Berechnung von benachbarten inversen Matrizen und linearen Gleichungssystemen. Schriften zur Datenverarbeitung. Braunschweig: Vieweg 1970. 29. Aitken, A.C.: Determinanten und Matrizen. Mannheim: B.I. 1969. 30. Bellmann, R.: Introduction to Matrix Analysis, 2nd Ed. New York: McGraw-Hill 1970. 31. Bunse, W.; Bunse-Gerstner, A.: Numerische lineare Algebra. Stuttgart: Teubner 1985. 32. Franklin, J.N.: Matrix Theory. Englewood Cliffs, N.J.: Prentice-Hall 1968. 33. Gantmacher, F. R.; Krein, M. G.: Oszillationsmatrizen, Oszillationskeme und kleine Schwingungen mechanischer Systeme. Berlin: Akademie-Verlag 1960. 34. Golub, G. H.; van Loan C. F.: Matrix Computations, 2nd. Ed. Oxford: North Oxford Academic 1990. 35. Jennings, A.: Matrix Computation for Engineers and Scientists. New York: Wiley & Sons 1977. 36. Lancaster, P.; Gohberg, 1.; Rodman, L.: Matrix Polynomials. New York, San Francisco, London: Academic Press 1982. 37. Maess, G.: Vorlesungen über numerische Mathematik, Bd. 1. Berlin: Akademie-Verlag 1984. 38. Müller, P.C.: Stabilität und Matrizen. Berlin, Heidelberg, New York: Springer 1977. 39. Müller, P.C.; Schiehlen, W.O.: Lineare Schwingungen. Wiesbaden: Akademische Verlagsgesellschaft 1976. 40. Schwarz, H.R.: Methode der finiten Elemente. 3. Auf!. Teubner Studienbücher. Stuttgart: Teubner 1991. 41. Stoer, J.: Einführung in die Numerische Mathematik I. Heidelberger Taschenbücher, Bd. 105, 4. Auf!. Berlin, Heidelberg, New York, Tokyo: Springer 1983. 42. Stoer, J.; Bulirsch, R.: Einführung in die Numerische Mathematik 1I. Heidelberger Taschenbücher, Bd. 114. Berlin, Heidelberg, New York: Springer 1973. 43. Suprunenko, D.A.; Tyshkevich R.I.: Commutative Matrices. New York, San Francisco, London: Academic Press 1968. 44. Young, D.M.: Iterative Solution of Large Linear Systems. New York, San Francisco, London: Academic Press 1971. 45. Zurmühl, R.: Praktische Mathematik für Ingenieure und Physiker, 5. neubearbeitete Auf!. Berlin, Heidelberg, New York, Tokyo: Springer 1984. 46. Zuse K.: Der Computer, mein Lebenswerk. Berlin, Heidelberg, New York, Tokyo: Springer 1984. 47. Schwarz, H.R.: Numerische Mathematik. Stuttgart: Teubner 1986. 48. Niemeyer, H.; Wermuth, E.: Lineare Algebra, analytische und numerische Behandlung. Braunschweig, Wiesbaden: Vieweg 1987. 49. Heitzinger, W.; Troch, 1.; Valentin, G.: Praxis nichtlinearer Gleichungen. München, Wien: Hanser 1985. 50. Marcus, M.; Minc, H.: A survey of Matrix Theory and Matrix Inequalities. Boston: Allyn & Bacon 1964. 51. Amoid, V. I.: Gewöhnliche Differentialgleichungen. Berlin, Heidelberg, New York, Tokyo: Springer 1980. 52. Spelluci, P.; Tömig, W.: Eigenwertberechnung in den Ingenieurwissenschaften. Stuttgart: Teubner 1985. 53. Falk, S.: Technische Mechanik, Bd.l, Berlin, Heidelberg, New York: Springer 1967. 54. Falk, S.: Technische Mechanik, Bd. 2, Berlin, Heidelberg, New York: Springer 1968. 55. Falk, S.: Technische Mechanik, Bd. 3, Berlin, Heidelberg, New York: Springer 1969. 56. Deuf!hard, P.; Hohmann, A.: Numerische Mathematik. Eine algorithmisch orientierte Einführung. Berlin, New York: Walter de Gruyter 1991.
Weiterführende Literatur
487
Einzelveröffentlichungen I. Kapitel. Der Matrizenkalkül 101. Sylvester, J.J.: Philos. Mag. 37 (1850) 363. 102. Cayley, A.: Trans. London Philos. Soc. 148 (1858) 17 - 37. 103. Falk, S.: Ein übersichtliches Schema für die Matrizenmultiplikation. Z. Angew. Math. Mech. 31 (1951) 152. 104. Feigl, G.; Rohrbach, H.: Einführung in die höhere Mathematik. Berlin, Göttingen, Heidelberg: Springer 1953, S. 181.
11. Kapitel. Transformationen und lineare Gleichungen 105.
Heinrich, H.: Über Gauß' Beiträge zur Numerischen Mathematik. Abhandlungen der Akademie der Wissenschaften der DDR, Abteilung Mathematik, Naturwissenschaften und Technik N 3 (1978) 119. 106. Benoit, S. Z.: Sur une methode de resolution des equations normales etc. (procede du commandant Cholesky). BuH. Geodesique 2 (1924). 107. Banachiewicz, T.: BuH. Ent. Acad. Pol. Sei., Sero A. (1938) 393-404. 108. Banachiewicz, T.: On the Computation of Inverse Arrays. Acta Astron. 4 (1939) 26- 30. 109. Unger, H.: Zur Praxis der Biorthonormierung von Eigen- und Hauptvektoren. Z. Angew. Math. Mech. 31 (1951) 53-54; 33 (1953) 319-331. 110. Falk, S.: Der Transformationsalgorithmus NOVA und seine Anwendungen. Simon Stevin Vol. 64 (1990) Nr. 3-4, S. 44-55. 110a. Givens, J. W.: Numerical Computation of the Characteristic Values of aReal Symmetric Matrix. Oak Ridge Nat. Lab. ORNL-1574 (1954). 110b. Jacobi, C. G. J.: Ein leichtes Verfahren, die in der Theorie der Säkularstörungen vorkommenden Gleichungen numerisch aufzulösen. J. Reine Angew. Math. 30 (1846) 51-95. 110c. Zielke, G.: Lineare Gleichungssysteme und verallgemeinerte Inversen. Grundlagen und numerische Verfahren. Wiss. Z. Univ. Halle, XXX (1991), M, H.1. S. 45-59.
IV. Kapitel. Die Eigenwertaufgabe 111. 112. 113. 114. 115. 116. 117. 118. 119. 120. 121. 122.
Falk, S.: Das Matrizeneigenwertproblem der Mechanik. Z. Angew. Math. Mech. 64 (1984) T243-T251. Krylov, A. N.: Bull. Acad. Sci. URSS, Leningrad, 7. Sero Classe Math. (1931) 491- 538. Wie unter [6], S. 141 ff. Courant, R.; Hilbert, D.: Methoden der mathematischen Physik. Bd. 1, 2. Auf!. Berlin: Springer 1931, S. 19-23. Schur, 1.: Math. Ann. 66 (1909) 488-510. Falk, S.: Das Reduktionsverfahren für Polynommatrizen. Z. Angew. Math. Mech. 72 (1992), im Druck. Falk, S.: Über direkte Eigenwertalgorithmen für Polynommatrizen. Z. Angew. Math. Mech. 72 (1992), im Druck. Sinden, F. W.: An Oscillation Theorem for Algebraic Eigenvalue Problems and its Applications. Diss. ETH Zürich 1954. Prom. Nr. 2322. Schulz, G.: Grenzwertsätze für die Wahrscheinlichkeiten verketteter Ereignisse. Dtsch. Math. 1 (1936) 665 - 699. Jordan, C.: Traite des substitutions et des equations algebriques, vol. 2. Paris, 1870, pp. 88-249 Weyr, E.: M. Math. Phys. 1 (1890) 163-236. Egervary, E.: Über eine konstruktive Methode zur Reduktion einer Matrix auf die Jordansche Normalform. Acta Mathematica, Academiae seientarium Hungaricae, Tomus X, Fasciculi 1 - 2 (1959) 31 - 54.
Weiterführende Literatur
488
123. Falk, S.: Hauptvektoren, ja oder nein? Z. Angew. Math. Mech. 71 (1991) 44-45. 123a. Caughey, T.K.: Classical Normal Modes in Damped Systems. J. Appl. Mech. (1960) 269-271. 123b. Caughey, T.K.; O'Kelley, M.E.: Classical Normal Modes in Damped Linear Systems. J. Appl. Mech. 32 (1965) 583 - 588. 123c. Falk, S.: Eigenwerte gedämpfter Schwingungen bei Gültigkeit der Bequemlichkeitshypothese. Ing. Arch. 47 (1978) 57-66. 123 d. Falk, S.: Klassifikation gedämpfter Schwingungssysteme und Eingrenzung ihrer Eigenwerte. Ing.-Arch. 29 (1960) 436-444.
V. Kapitel. Matrizengleichungen und Matrizenfunktionen 124. 125. 126. 127. 127a. 127b. 127 c. 127 d.
Wimmer, H.; Ziebur, A. D.: Solving the Matrix Equation. SIAM Review 14 (1972) 318 - 323. Lancaster, P.: Explicit Solutions of Linear Matrix Equations. SIAM Review 12 (1970) 544-566. Falk, S.: Ein Exkurs über die Ljapunov-Gleichung und verwandte Probleme. MechanikBeiträge zu Theorie und Anwendungen. TU Berlin 1988, S. 58 -75. KreisseImeier, G.: A Solution of the Bilinear Matrix Equation AY + YB = - Q. SIAM J. Appl. Math. 23 (1972) 334 - 338. Koupan, A.; Müller, P.C.: Zur numerischen Lösung der Ljapunovschen Matrizengleichung ATp+ PA = - Q. Regelungstechnik, H. 5 (1976) 167 -169. Müller, P.C.: Matrizenverfahren in der Stabilitätstheorie linearer dynamischer Systeme. Berlin, Heidelberg, New York: Springer 1976. Laub, A. J.: A Schur Method for Solving Algebraic Riccati Equations. IEEE Trans. Automat. Contr., vol. AC-24 (1979) 913 - 925. Bunse-Gerstner, A.; Mehrmann, V.: A Symplectic QR Like Algorithm for the Solution of the Real Algebraic Riccati Equation. IEEE Trans. Automat. Contr., vol. AC-31 (1986) 1104-1113.
VI. Kapitel. Ergänzungen 127e. Kippenhahn, R.: Über den Wertevorrat einer Matrix. Math. Nachr. 6 (1951) H. 3/4, S. 193 - 228. 127f. Toeplitz, 0.: Das algebraische Analogon zu einem Satze von Jejer. Mathematische Z. 11 (1918) 187 -197. 127 g. Bendixson, 1.: Sur les racines d'une equation fondamentale. Acta math. 25 (1902) 359- 365. 127h. Hirsch, A.: Sur les racines d'une equation fondamentale. Acta math. 25 (1902) 367 - 370. 128. Schur, 1.: Crelle's Journal 147 (1917) 217. 129. Woodbury, M.A.: Inverting Modified Matrices. Stat. Res. Group. Princeton Univ., N. J., Memor. Rep. 42 (1950). 130. Sherman, K.; Morrison W. J.: Adjustment of an Inverse Matrix Corresponding to Changes in a Given Row of the Original Matrix. Ann Math. Stat. 21 (1949) 124. 131. Günther, S.: Deber aufsteigende Kettenbrüche. Z. Math. 21 (1876) 185. 132. Falk, S.: Expansion von Polynomen und Polynommatrizen. Z. Angew. Math. Mech. 64 (1984) 445 - 456. 133. Bähren, H.: Diagonalexpansion von Polynommatrizen mit zusammenfallenden Nullstellen im Hauptdiagonalpolynom. Z. Angew. Math. Mech. 65 (1985) 454-456. 133a. Smith, B. T.: JACM 17 (1970) 661-674. 133 b. Carstensen, C.; Stein, E.: Über die Falksche ECP-Transformation und Verallgemeinerungen. Z. Angew. Math. Mech. 69 (1989) 11, 375-391. 133c. Carstensen, C.: Lineare Konstruktion und Anwendungen von Begleitmatrizen. Dissertation TU Hannover 1989. 133d. Falk, S.: Das Reduktionsverfahren für Polynommatrizen. Z. Angew. Math. Mech. 72 (1992), im Druck.
N amen- und Sachverzeichnis 1
Abbildung, lineare 3, 6, 74, 212 abgeänderte (gestörte, benachbarte) Gleichungssysteme 22.6, 422, 454 abgeänderte (gestörte, benachbarte) Matrizenpaare 435, 457 Abhängigkeit, lineare 1.6, 12, 163 Ableitungsvektor 221 Abstandsquadrat 12.2, 238 Addition von Matrizen 2 Adjungierte einer ganzzahligen Matrix 126 - einer geränderten Matrix 450 - einer hermiteschen Matrix 4.4, 50 - einer vierteiligen Hypermatrix 22.4, 445 adjungierte Matrix (Adjungierte) 3.2,7.6, 39, 124 Ähnlichkeit 213 B-Ähnlichkeit 168, 307 Ähnlichkeitstransformation 168, 333 -, gequantelte 10.9, 188 -, strikte 10.8, 184 Äquivalenz 168, 213 Äquivalenztransformation 54, 75, 139, 143, 168, 175, 216, 256, 262, 483 -, reelle ganzzahlige 6.12 -, simultane 10.1, 13.2 äußeres Kriterium 175, 282, 306, 375 Aiken, H. 484 algebraisches Komplement 39 algebraische Matrizengleichung 379 algebraische Vielfachheit 325 allgemeine Eigenwertaufgabe 256 allgemeine inhomogene Gleichungssysteme 7.10 Alternativsatz 139 antimetrische (schiefsymmetrische) Matrix 10 Arnold, V.I. 410 assoziatives Gesetz 7, 218 Ausgleichsrechnung 12.1, 218, 234, 401 Austausch von Eigenwerten 401 axiales Trägheitsmoment 290 B-Ähnlichkeit 168
B-Normalität 176,282,284, 375 B-Normierung 301 B-unitäres Matrizenpaar 15.4, 286 B-Unitarität 169, 286 Bähren, H. 466 Banachiewicz, Th. 6.5, 52, 75, 79, 86, 114, 122, 124, 143, 161, 452 -, der Algorithmus von 6.5, 7.4 Bandmatrix 78, 482 -, spezielle dreireihige 17.4, 356 Basisfaktorisierung 161 Basisvektoren (Basis) 9.2 Begleitmatrix 183, 464, 478 -, Ähnlichkeitstransformation auf die 10.10, 192 beidseitige Transformation 5.1 benachbarte Gleichungssysteme 22.6, 422, 454 Bendixson, I. 439 Benoit, S. Z. 84 Bequemlichkeitshypothese 216, 378, 386 Betrag eines Vektors 2.4, 26, 44, 197, 213, 288,424 bewegliches Pivot 6.11, 93 Bildvektor 6, 74 Bilinearform 11.1,54,60,84,171,218, 253, 260, 278. 369 Biorthogonalsystem 8.2, 144 Biorthonormalsystem 146 -, vollständiges 150 Biorthonormierung 114, 271, 484 Block-Bilinearform 171 Block-Diagonalmatrix 14.2,266,270, 307, 333, 379 - -, Transformation auf 16.3, 318, 379 Block-Dreiecksmatrix 22.3, 310, 444 Block-Dyade 438 Blockmatrizen 66, 422, 438 Bolzano-Weierstraß 307 Boothroyd-Dekker 17.5, 361 Budich, H. 155 Bunse-Gerstner, A. 400
Die Nummern der Abschnitte (die sich auch in den Kolumnentiteln (Kopfleisten) der Seiten 1,3,5, ... , 481 wiederfinden) sind durch Fettdruck hervorgehoben.
1
R. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5, © Springer-Verlag Berlin Heidelberg 2011
490 Carstensen, C. 482 Cauchy-Schwarzsche Ungleichung 27 Caughey, T.K. 375 Cayleigh, A. 2, 15, 164 Cayleigh-Hamiltonsches Theorem 13.11, 164, 267, 279, 393 Charakteristik 402, 419 -, natürliche 337 charakteristische Determinante 245, 247, 306, 351 - Gleichung 13.7, 249, 257, 286, 296, 351 - Matrix 170, 267, 365 charakteristisches Polynom 210, 212, 267, 286,480 Cholesky 52, 82, 86, 114, 130, 143 -, Verfahren von 82, 114 Cramersche Regel 41, 140 Dämpfung, modale 377 Defekt (Rangabfall) 14, 158, 477 defektiv 379 definite hermitesche Form 22 Definitheit 11.2, 32, 66, 218, 222, 285 Deflation 20.1, 401 Dekker, T.J. 97 Dekomposition (Entflechtung) 19.6, 389, 393 derogatorisch 316, 402, 419 Determinante 1.6,7.6, 12, 39, 247, 253 - einer hermiteschen Matrix 4.4 Deviationsmoment (Kippmasse) 240 diagonalähnliche Matrizentupel 18.3, 368 Diagonalähnlichkeit 270 Diagonalexpansion 23.3, 464, 470, 482 - mit konstanten Defekten 23.5, 476 - mit variablen Defekten 23.6, 481 Diagonalblöcke 271 Diagonalität der Jordanmatrix 420 - einer Matrix 334, 344, 420 Diagonalkongruenz (Normalität) 10.4, 282, 293, 306 Diagonalmatrix 1.5,2.3,14.1, 11, 24, 30, 269 Differentialgleichung 276 Differenz von Matrizen 7 Differenzenmatrix 359 direktes Produkt von Matrizen 311, 382 direkte Summe von Matrizen 311 dominierender Minor 9.4, 162, 165 Doolittle, M. H. 82 Drehachse 241 Drehmasse 240 Drehung, ebene 6, 35, 199, 214 Dreiecksmatrix 2.3, 24, 105, 306, 308 -, Transformation auf obere 16.2, 311 Dreiecksungleichung 28
Namen- und Sachverzeichnis Dreieckszerlegung - einer quadratischen Matrix 6.17, 106 dreireihige Bandmatrix 356 Dyade 60 dyadisches Produkt 2.5, 28, 30, 74 dyadische Zerlegung 6.5, 9.3, 82, 161, 170, 275, 366 - - eines Matrizenpaares 10.2, 170, 172 ebene Drehung 6 Egervary, E. 346 Eigenblock 308, 340, 401, 419, 422 Eigendyade (Stützdyade) 111, 171, 175, 274, 282, 284, 302, 321, 363, 373 - -, normierte 6.19, 111 Eigenfrequenz 278, 293 Eigengerade (Eigenrichtung) 276, 302, 460 Eigenlösung 278 Eigenmatrix (Eigenblock) 109, 111, 308, 324, 418, 422 Eigenpolynom 369 Eigenraum 108, 111,415 Eigenschaftsmatrix 47 Eigenschwingungsform 293 Eigenschwingungszahl 4 Eigenspalte 6.18, 107, 111, 128, 134, 148, 226, 245, 294 Eigenterm 273, 276, 362, 364, 369, 373, 460 Eigenvektor 13.1, 16.10, 75, 245, 247, 340, 346 Eigenwert 13.1,13.10,4,15,75,173,182, 217,222,264, 307 - eines Matrizenproduktes 13.9, 18.5, 261, 371 Eigenwertproblem 13.1, 52, 114, 128, 140, 174,246 -, lineares 251, 260 -, mehrparametriges 246 -, nichtlineares 422 -, spezielles 13.6, 255, 316 -, transzendentes 347 Eigenzeile 6.18,107,111,128,135,148, 246 Einflußzahlen 36 Einheitsmatrix 1.5, 11 Einheitsvektor 5, 27 einseitige Transformation 5.1, 82 Einsvektor 27 elastisches n-Bein 243 Elemente einer Matrix 2 Elevator 5.7,59,66,86,93,119,186,188, 197, 310 Elimination bei Matrizengleichungen 19.5, 390 Ellipse 222, 228, 298
Namen- und Sachverzeichnis Ellipsoid 4, 231 elliptische Diagonalexpansion 469, 472, 475 Energie, kinetische 12.4, 218, 242, 285, 294 -, potentielle 12.5, 218, 243, 285, 294 Energiesatz 292, 299 Entflechtung (Dekomposition) 19.6, 393 Entkopplung 116 - einer Matrizengleichung 19.8, 397 Entwicklungssatz 40 Euklidischer Algorithmus 6.13, 93, 98, 141, 208 Euklidische Matrixnorm 33 Euklidische Norm 26 Expansion 23.1, 250, 463 - von Günther (Frobenius) 23.2, 463 Expansionsmatrix 382 Expansionsvektor 465, 468, 475, 478 Exponentialfunktion 406 F-Normierung 301 Falk, S. 17, 307, 389 Falksches Schema 17 Fastdreiecksmatrix (Hessenbergmatrix) 192 Feder 295 Federkette 130, 257 Federmatrix 225, 298 Federzahl 298 Fehleranalyse 306 Fehlergleichungen 235 Flächen zweiten Grades 11.6, 15.5, 218, 220, 231, 285 Flächenträgheitsmatrix 289 Form, hermitesche 285 Format einer Matrix 7 Formenquotient (Rayleigh-Quotient) 13.8, 260, 285, 293, 423 freie Transformation 52 Frobenius, G. 183, 450 Fundamentallemma 346 Funktionswertematrix 404 ganzzahlige Ähnlichkeitstransformation auf obere Hessenberg-Matrix 10.14, 208 - komplexe Transformation 6.15, 102 - reelle Äquivalenztransformation 6.12, 93 - reelle Kongruenztransformation 6.14, 101 Gauß, C.F. 18,31,37,52,75,153, 184, 234 Gaußscher Algorithmus 6.3,6.4,7.3, 37, 42,52,75,79,85,93,98,114,118,124, 130, 143, 145, 190, 200, 226, 228, 254, 305, 311, 484 Gaußsche Transformation 2.7,31,75,84, 234, 269, 341, 394
491 Gauß-Jordan 75 - -, der Algorithmus von 6.6,7.5, 82, 85, 105,114,123,140,143,216,313,386, 390, 480 gebundene Transformation 52, 167 generalisierte Inverse 157 Generalschema einer Äquivalenztransformation 5.4, 63, 76, 119, 129, 144, 152, 184 geometrische Vielfachheit 325 gequantelte Ähnlichkeitstransformation 10.9, 188 geränderte Matrix 449, 450 Gesetz der Indexkette 441 gestörtes (abgeändertes, benachbartes) Gleichungssystem 22.6, 422, 454 Givens, W. 200 Gleichungssystem 1, 52, 132 - ,ganzzahliges 7.11 -, gestaffeltes 122, 124, 320, 396 -, homogenes 4, 128, 140, 148, 245, 422 - ,inhomogenes 4, 132 - ,überbestimmtes 8.6, 132, 135, 156 Gradient 221 Gröbner, W. 185 Grundoperation 5.3, 10.8, 56,63, 104, 184, 188 Gruppe 34 Günther, S. 183, 463 halbdefinit (semidefinit) 224 Halbinverse (Pseudoinverse) 156, 236 halbinvolutorische Matrix 47 Hamilton, W. R. 164 harmonische Schwingung 293 Hauptabschnittsdeterminanten 210, 212, 223, 230, 424 Hauptachsen 234, 287 Hauptdiagonale 9, 15 Hauptminor (Hauptabschnittsmatrix) 223, 319,435 Hauptpivot 92 Hauptvektor 16.10, 340, 346, 402 Hauptvektorkette 345 Hermite, Ch. 45 hermitesche Form 11.5, 84, 230, 424, 428 hermitesche Komponenten 15.7, 299, 426, 431 hermitesche Matrix 6.7,7.9, 45, 84, 130 hermitesches Matrizenpaar 15.2, 284 Hessenbergmatrix (Fastdreiecksmatrix) 95, 101,192,204,208,211 - -, unitäre Transformation auf 10.13, 204 Hirsch, A. 425 homogenes Gleichungssystem 7.8, 23, 128 homogene Lösung 128
492 Horner-Schema 409, 480 Householder, A.S. 179 Hülle, konvexe 425 hyperbolische Expansion 472 Hyperebene 134, 136 Hypermatrix 63, 183,438,445,451,482 -, Adjungierte einer 445 -, Determinante einer 447 -, Inverse einer 445 Hypervektor 464 Idempotente Matrix 112, 158 identische Transformation 12 Identität von Frobenius/Schur/Woodbury 22.5,450 Indefinitheit 11.3, 224 Index der Nilpotentheit 325, 402 Indexkette 191, 441 Invarianten 11.4,13.2, 15, 111, 139, 185, 228, 249, 416 Inverse (Kehrmatrix) 3.1, 7.6, 36 (siehe Kehrmatrix) - einer hermiteschen Matrix 4.4 involutorische Matrix 35,47, 358, 360 Jacobi, C.G.J. 200 Jordan, C. 52, 75, 346 Jordan-Matrix 16.7, 183, 327, 333, 335, 346, 376, 420 Jordan-Paar 346 Jordan-Spektralzerlegung 16.8, 335 Jordan-Unterblock 340 Jordan-Zelle (-Kästchen) 113, 334, 337, 402 Kegelschnitte 218, 220, 231 Kehrmatrix (Inverse, Reziproke) 3.1, 7.6, 34, 35, 36, 37, 124,412 einer Block-Dreiecksmatrix 444 einer Diagonalmatrix 59 - eines Elevators 62, 70 einer Expansionsmatrix 478 - einer geränderten Matrix 450 einer hermiteschen Matrix 4.4, 50, 131 - einer Hypermatrix 445 - einer normierten Dreiecksmatrix 69 einer Pivotmatrix 125 - einer symmetrischen Matrix 38 - einer transponierten Matrix 38 Kern (Eigenraum) 108,111,415 Kinemate 242 Kinematik 4 Kinetik 4, 242 kinetische Energie 12.4,218,242,294 Kippenhahn, A. 431, 433 Kippmasse (Deviationsmoment) 240 Knicklast (kritischer Knickwert) 4
Namen- und Sachverzeichnis Kodiagonalblock 327 Kodiagonalmatrix 194, 390, 397 kogrediente Transformation 213 kollinear 75, 251 Kommutatives Gesetz 7, 20 kommutative (vertauschbare) Matrizen 17, 20,43, 73 Komplement, algebraisches 3.2 komplementäre Fläche 231 komplexe Matrix 4.1, 43 -, reelle Darstellung 48 komplexer Vektor 4.1, 43 komplexe Zahl 43 Komponenten (eines Vektors) 2 -, hermitesche 299, 426 Kondensat 21.1, 260, 423, 434 Kondensation 8.6, 13.8, 21.1, 156, 260, 422,429 - höherer Ordnung 21.5, 434 Kondition einer Matrix 126 Kongruenz 307 Kongruenztransformation 8.4, 56, 66, 73, 84, 130, 143, 151, 167,216,223, 227 - einer hermiteschen Matrix 87, 106, 117, 175 -, reelle ganzzahlige 6.14, 101 konjugierte Halbmesser (Durchmesser) 234, 289, 299 konjugiert-komplex 43 konjugierte Othogonalität 44 konjunktiv 169 kontragrediente Transformation 213 Konvergenz von Potenzreihen 407 Konvergenzradius 408 konvexe Hülle 19, 425 Koordinaten 3 Koordinatentransformation 3, 15 Kreisfrequenz 293 Kreisfunktionen 277, 356 Kreisseimeier, G. 389 kritische Drehzahl 4 Kronecker, L. 33, 45, 382 Kugel 288 Lancaster, P. 385, 389 Länge eines Vektors (siehe Betrag eines Vektors) Lagrangesche Gleichungen 285 - Interpolation 472, 474, 477 - Polynome 466, 469, 472, 474 Laub, A.1. 400 Leitmatrix 250, 469, 472 Leitpaar 376 Leitpivot 100 lineare Abbildung 5.10, 10.15, 3, 6, 74, 212 lineare Abhängigkeit 6.6,12,33,52,159,163
Namen- und Sachverzeichnis - - von einem Leitpaar 18.7, 376 - - von Vektoren und Matrizen 9.5 lineares Eigenwertproblem 13.4, 251 lineares Gleichungssystem 52, 114, 245, 483 lineare Matrizengleichung 19.3, 384 lineares Schwingungssystem 15.6, 218, 246, 292 lineare Transformation 1.1, 2 - Vektordifferentialgleichung 14.4, 20.6, 276, 414 Linkseigenmatrix 109 Linkseigenraum (Linksnullraum) 108 Linkseigenvektor 161, 245, 247, 321, 340, 483 Linkshauptvektor 342 Linksmodalmatrix 252 Ljapunov, A.M. 388,395 Lösbarkeitsbedingungen 384 Logarithmus, natürlicher 406 Maess, G. 159 Massengeometrie 289 Massenmatrix 225 Massenmoment zweiten Grades 12.3, 239 Matrix 1.1, I Matrizendivision 3.3 Matrizenfunktion 20.2, 307, 379, 401, 404 Matrizengleichung 19.1,237, 307, 379 -, algebraisch nichtlineare 19.9, 398 - AXB = C 19.2,308 -, mehrgliedrige lineare 19.3, 384 - , zweigliedrige lineare 19.4, 384 Matrizenhauptgleichung 245, 483 Matrizenmultiplikation 2.1 - in Blöcken 22.1,438 Matrizenpaar 52, 167, 246, 251 -, normales 10.4 Matrizenpolynom 10.5, 30, 71, 177, 268, 409 Matrizenpotenz 10.5, 71 Matrizenprodukt 2.1, 2, 15, 371 - , Determinante eines 22 -, Eigenwerte eines 18.5, 371 -, Rang eines 9.6 - ,vervollständigtes 8.3 Matrizentupel 216, 246, 362, 368, 386 - ,diagonalähnliche 18.3, 368 -, selbstnormierende 18.4, 370 Matrizentripel 216, 375 mehrdeutige Matrizenfunktionen 20.7, 419 Mehrmann, V. 400 mehrparametriges Eigenwertproblem 246, 368 Methode der kleinsten Quadrate 235 minimale Zerlegung einer Matrix 161 Minimalpolynom 14.5, 279
493 Minimumgleichung 279,410 Minor 162, 165 -, dominierender 9.4 modale Dämpfung 377 Modalmatrix 252, 264, 269, 284, 358, 360, 363, 426, 484 Morrison, W.J. 453,478 Müller, P.C. 294,389,400 Näherungsvektoren 434 natürliche Charakteristik 16.4, 324, 337 N-Normalität 377 N-Unitarität 373 negative Definitheit 26, 66, 222, 325 nichtderogatorisch (total defektiv) 312, 321, 328, 331, 333, 343, 419 nichtlineares Eigenwertproblem 422 nicht-normiert unitäre Transformation 10.12, 201 nichtsinguläre Matrix 4, 14, 33 Nilpotentheit 26, 325 -, Index der 325, 402 nilpotente Eigenblöcke 316, 416 - Matrix 26, 325, 410 Norm eines Vektors 26, 44 normale Matrix 33, 74 normale Matrizenpaare 15.1, 74, 176, 284, 299, 327, 484 Normalform der Eigenmatrix 110 - einer Matrix 5.5, 6.16, 52, 66, 104, 165, 216, 317, 319,459, 461 - einer Matrizengleichung 386, 388, 390 - eines Matrizenpaares 10.7, 182, 307 - eines Matrizenproduktes 8.1, 144 -, Transformation auf 104, 114, 149, 165 Normalgleichungen 31, 236 Normalität (Diagonalkongruenz) 282 Normalitätsbedingung 176 normierte Dreiecksmatrix 25,67, 109 - Unitarisierung 147, 151, 169 normiert-unitäre Transformation 10.11, 196 Normierung 15.8,44, 147, 152, 176, 198, 301 - von Eigenvektoren 261,269,301,349 Normierungsmatrix 171,262,266,303, 363, 371, 375, 377 Normquadrat 32 Nullenkreuz 6.2, 76, 80 Nullität 14 Nullmatrix 8, 29 Nullraum (Kern) 108, 129 Nullspalte 83 Nullzeile 83 Ordnung einer quadratischen Matrix 2 Ordnungserniedrigung 309, 310, 325
494 Originalvektor 6, 74 orthogonale Ergänzung 198 - Matrix 2.8, 33 - Transformation 34 Orthogonalität 27, 169 - der Links- und Rechtseigenvektoren 13.5, 253 Orthogonalsystem 8.4, 52, 144, 151 Orthonormalität 169, 214 Orthonormalsystem 147, 151 Parabel 233 Paraboloid 89 parabolische Expansion 472, 475 Parallelität von Vektoren 27 parameter-diagonalähnliche Matrix 362, 374 Parametermatrizen 247, 362, 484 -, Spektralzerlegung von 18.2, 362 parameternormale Matrizen 18.6, 372 Partikularlösung eines Gleichungssystems 133 Partitionierung 318 Permutation 57, 144, 152, 186, 337 Permutationsmatrix 57, 104, 333 -, Inverse einer 58 Phantommatrix 78 Pivot(element) 59,61,65,75,86,102,117, 126, 130, 144, 159, 190, 248, 391 - bewegliches 91 - festes 91 Pivotkreuz 5.5, 65, 76 Pivotmatrix 9.1, 73, 75, 92, 97, 114, 116, 124, 127, 132, 155, 159, 184, 217, 223, 248, 305, 311, 322, 394, 452, 484 -Pivotregulierung (PV) 6.9,7.7, 82, 86, 90, 105, 114, 119, 126, 130, 155, 188, 313 - bei hermitescher Matrix 6.10 - via Quant 193 Pivotspalte 61, 63, 189 Pivotstrategie 77, 90, 111, 117, 129, 159 Pivotzeile 59, 63, 189 polares Moment 289 Polynom einer Matrix 2.6, 5.8, 10.5, 31, 71,177 Polynommatrizen 13.3, 250 positive Definitheit 33, 66, 122 Postnormierung (Regeneration) 204 Potentialfeld 292 potentielle Energie 12.5, 218, 243, 285 Potenz einer Matrix 2.6, 5.8, 10.5, 30, 38, 71,177,268,413 Potenzreihe 20.3, 406 Pseudoinverse (Halbinverse) 8.6, 156, 236 primitive Kondensation 435 Produkt, dyadisches 28, 74
Namen- und Sachverzeichnis - von Matrizen 16,17,30,371 - vektorielles 238 Produktzerlegung einer diagonalähnlichen Matrix 10.6, 181 Projektor 112, 158, 275 quadratische Form 11.1, 218, 295 - -, definite 222 - -, indefinite 224 - - reellsymmetrischer Paare 285 Quant 188 Quasipolynom 20.5, 409 Ränderung einer Matrix 103, 449 Randbedingung 356 Rang äquivalenter Matrizen 160 - einer Dyade 29, 111 - einer erweiterten Matrix 139 - einer Matrix 1.6, 12, 52, 82, 132, 159, 165, 235, 238, 246, 337,484 - eines Matrizenproduktes 9.6, 24, 144, 149,164 - einer Pivotmatrix 75, 111 - einer transformierten Matrix 66 - eines Vektorsystems 13 Rangabfall (Defekt) 14, 24, 132, 256, 312, 325, 337, 376 - einer Dyade 29 - einer quadratischen Form 225 Rangbestimmung 9.3, 161 Rayleigh, J. W. 232 Rayleigh-Quotient 218, 232, 239, 288, 291, 373, 423 - - eines normalen Paares 21.2, 423 Rayleigh-Ritz-Verfahren 422, 435 Rechenaufwand 85, 321 Rechtseigenmatrix (Rechtseigenblock) 109 Rechtseigenraum 108 Rechtseigenvektor 161,245,247,311,321, 340,483 Rechtshauptvektor 342 Rechtsmodalmatrix 252 Rechtsnullraum 109 Reduktion (Gaußscher Algorithmus) 76, 78, 82, 86, 92, 98, 101, 110, 119, 124, 162, 190, 202, 204 - einer Spalte 76, 82, 92, 98, 101, 204 - einer Zeile 76, 82, 98, 101 - von innen nach außen 92 reduzierte Blockmatrix 22.2, 440 reduzierter Vektor 440 reellsymmetrische Matrix 6.7,7.9, 130 reellsymmetrisches Matrizenpaar 15.2, 284 Reflektor 197 Regeneration 204 reguläre Matrix 14
Namen- und Sachverzeichnis - Transformation 5.2 Rekursion (einer Matrizengleichung) 389, 396 Residuum (Rest, Defekt) 158 Resistenz 457 Restpolynom 476 reziproke Gleichung 259 Riccati-Gleichung 398 Rotationsparaboloid 89 Rumpfdeterminante 155, 228 Rumpfmatrix 162 Rumpfpolynom 458, 460 Rundungsfehler 97
495
19.7,
Sanden, von, H. 293 Sarrus, F. 14 Schachbrettmatrizen 17.2, 350 schiefhermitesche Matrix 1.4, 15.3, 45, 286 schiefsymmetrische Matrix 1.4, 15.3, 45, 286 Schiehlen, W.O. 294,389,400 Schur, 1. 307, 450 Schur complement 330 Schwarz, H. R. 400 Schwarzsehe Ungleichung 27 Schwerpunkt 241, 425 Schwingerkette 296 Schwingung, lineare 294, 377, 469 Selbstdarstellung einer Matrix 55, 401 selbstnormierende Matrizentupel 18.4, 370 semidefinit (halbdefinit) 224 semi-derogatorisch 325, 333, 344 Sequenz 333, 344 Serienrechnung 117 Sherman-Morrison, Satz von 453, 478 Signatur 225 singuläre Büschel (Matrizenpaare) 22.7, 370,457 singuläre Matrix 1.6,4, 12, 14 singuläre Werte 15.9, 303 Singularität 159, 247 - einer geränderten Matrix 450 skalares Produkt 2.4, 26, 44, 213, 218 Skalarmatrix 1.5, 11,95, 178,420 Skalarpaar 251, 273 Skalarvektor 93 Skalierung 186, 195 Sonderwerte 248 Sonderlösung (Partikularlösung) 133 Spaltenänderung 454 Spaltenelevator 22 Spaltenentkopp!ung 383 Spaltenentwicklung 40 Spaltengleichung 390 Spaltenkern 108 Spaltenkombination 190,203, 483
Spaltenmultiplikation 58 Spaltenrang 14, 149, 226 Spaltenreduktion 76 spaltenregulär 15, 24, 36, 75, 156, 160, 167, 326 Spaltensumme 348 spaltensummenkonstante Matrizen 17.1, 347 Spaltensummenprobe 18 Spektraldarstellung 401 Spektralmatrix 181, 183,252,262,272,370 Spektralzerlegung (eines Matrizenpaares) 10.3, 14.3, 173, 180, 274, 282, 320, 322, 335, 362, 413 Spektrum der Eigenwerte 174, 284, 367, 408 spezielles Eigenwertproblem 13.6, 255 Spiegelung 35 Spur 15,22, 185,257,285 Staffelung von Matrizengleichungen 382, 385 starrer Körper 242, 289 Statik 4, 243 statisch unbestimmt 244 Stein, E. 388, 482 Steinerscher Satz 240 Stellenauslöschung 127 stochastische Matrizen 17.1, 347 Störung, Einfluß einer 427 strikte Ähnlichkeit 168, 178, 184 strikte Ähnlichkeitstransformation 10.8, 184 strikt derogatorisch 334 striktes Diagonalpaar 272 strikte Dreiecksmatrix 26 strikt indefinit 225 strikt normal 176, 182 strikt normiert 169 strikt unitär 287 Struktur eines Matrizenpaares 15.10, 16.4, 270, 306, 324, 402 Strukturmatrix, Transformation auf die 16.6, 330 Stützdyade (Eigendyade) 274, 282 Stützpolynom 476 Stützwerte 480 Stumpf, H. 200 Summe von Matrizen 7 Summenprobe 18 symmetrische Matrix 1.4, 10, 31, 35, 45 Sylvester, J. J. 228, 301, 360 Sylvestermatrix 360 Taylor-Entwicklung 414 - - im Eigenraum (Hauptunterraum) 20.5, 409, 415
496 Taylor-Entwicklung (Forts.) - - im Gesamtraum 20.4,407,414 - -, Konvergenz der 407 - - von Polynomen 408 - -, skalare 20.3, 405 Toeplitz, O. 431 total defektiv 312,321,328,331,333,343, 402, 419 totale Entkopplung (einer Matrizengleichung) 383 Trägheitsellipse 290 Trägheitseelipsoid 289 Trägheitsgesetz von Sylvester 228, 301 Trägheitsmatrix (Massenmatrix) 240 Trägheitsmoment 240, 289 Transformation 2, 3, 52 - auf Blockdiagonalmatrix 16.3, 318 - auf Diagonalform 90, 175 - auf obere Dreiecksmatrix 16.2, 311 -, Gaußsche 31 - auf die Pivotmatrix 6.4, 78 - quadratischer Formen 11.4, 227 - auf die Strukturmatrix 16.6, 330 Translation 242, 293, 297 transponierte Matrix 1.4, 9 Transposition eines Produktes 21, 26, 441 transzendent nichtlineare Gleichung 379 Tridiagonalmatrix 101, 103, 183 -, Eigenwerte einer 356 Triviallösung 128, 139, 164, 253, 265 Tupel 5 Überbestimmtes Gleichungssystem 8.6, 132, 156 Überlagerungsprinzip 279 umkehrbare Abbildung 74 Umkehrfunktion 419 Unger, H. 109, 144 Unitarisierung 147, 151, 176 Unitarität 44, 197, 213, 286 unitäre Ergänzung 10.11, 196 - Matrix 45 - Transformation 196 - - auf obere Hessenbergmatrix 10.13, 204 - Vektorsysteme 45 unterbestimmtes Gleichungssystem 132, 244 Unterdeterminante 29, 39, 257, 267 unzerlegbare Matrix 348 Vandermondesche Determinante 355
Namen- und Sachverzeichnis Vektor LI, 2 Vektordifferentialgleichung, lineare 14.4, 277,414 Vektorgerüst 275 vektorielles Produkt 12.2, 238 vertauschbare (kommutative) Matrizen 16, 20, 21, 43, 73 Vertauschbarkeitssatz (Vertauschbarkeitsrelation) 5.9,73, 175,216,366,368,371, 374 Verträglichkeit 115, 133, 139, 156, 384, 397 vervollständigtes Matrizenprodukt 8.3 Vielfachheit eines Eigenwertes 273, 307, 313, 324 Vietasche Wurzelsätze 257 vollständiges (Bi-)orthogonalsystem 153 vollständige Expansion 468, 476 vollständiges System von Elevatoren 5.7,66 Wahrscheinlichkeitsrechnung 347 Wertebereich 21.2, 302, 423, 429 Weyr, E. 342, 345, 346 wiederholte Expansion 474 Wimmer, H. 385 Winkel zweier Vektoren 2.4, 27 Woodbury, M.A. 450 Zahlentupel 5 Zeilenänderung 453 Zeilendefekt 132 Zeilenelevator 61, 64, 120, 187 Zeilenentkopplung (bei Matrizengleichungen) 383 Zeilenentwicklung 40 Zeilenindex 68 Zeilenkern 108 Zeilenkombination 64, 82, 93, 190, 199, 202, 311, 483 Zeilenoperation 57 Zeilenrang 14, 149 Zeilenreduktion 76, 82 zeilenregulär 15, 24, 75, 82, 134, 157, 160, 165, 262, 265 zeilensingulär 114 Zeilenvektor 1.2, 5, 9, 16, 29 Ziebur, A.D. 385 Zielelement 190 Zielke, G. 159, 455 Zusatzmatrix 451 Zuse, K. 484 zyklische Matrixen 17.3, 354