lineare algebra

208
Lineare Algebra Adolf Riede I

Upload: noseil

Post on 08-Jun-2015

739 views

Category:

Documents


4 download

TRANSCRIPT

Page 1: Lineare Algebra

Lineare Algebra

Adolf Riede

I

Page 2: Lineare Algebra

II

Inhaltsverzeichnis

I Einleitung 1

I.1 Zur Bedeutung der Linearen Algebra . . . . . . . . . . . . . . . . . . . . . . . 1

I.2 Einige Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

II Lineare Gleichungssysteme 6

II.1 Lösen einfacher Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

II.2 Zusammenfassung der gefundenen Einsichten . . . . . . . . . . . . . . . . . . 8

II.3 Präzisierung und Kennzeichnung der Begriffe . . . . . . . . . . . . . . . . . . 8

II.4 Eliminationsverfahren mit System . . . . . . . . . . . . . . . . . . . . . . . . 10

II.5 Hinweise auf numerische Probleme . . . . . . . . . . . . . . . . . . . . . . . . 14

III Gruppen, Vektorräume, Körper 15

III.1 Von der algebraischen Struktur der Menge der � -tupel reeller Zahlen . . . . . . 15

III.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

III.3 Permutationsgruppen und etwas Mengenlehre . . . . . . . . . . . . . . . . . . 17

III.4 Folgerungen aus den Gruppenaxiomen . . . . . . . . . . . . . . . . . . . . . . 19

III.5 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum . . . . . . 22

IV Lineare Abhängigkeit 31

IV.1 Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

IV.2 Erzeugendensystem, Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

IV.3 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

IV.4 Äquivalenzrelationen und Quotientenräume . . . . . . . . . . . . . . . . . . . 36

V Lineare Abbildungen und Matrizen 40

V.1 Beispiele und Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

V.2 Weitere Eigenschaften linearer Abbildungen . . . . . . . . . . . . . . . . . . . 42

V.3 Basis- und Koordinaten-Transformationen . . . . . . . . . . . . . . . . . . . . 44

V.4 Die Matrix einer linearen Abbildung . . . . . . . . . . . . . . . . . . . . . . . 45

V.5 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

Page 3: Lineare Algebra

III

V.6 Der Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

V.7 Die Allgemeine Lineare Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . 52

V.8 Anwendung auf lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 54

V.9 Berechnung der inversen Matrix . . . . . . . . . . . . . . . . . . . . . . . . . 55

VI Metrische Größen im Anschauungsraum 57

VI.1 Länge, Winkel und Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . 57

VI.2 Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

VI.3 Volumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

VII Determinanten 62

VII.1 Determinantenform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

VII.2 Das Signum einer Permutation . . . . . . . . . . . . . . . . . . . . . . . . . . 62

VII.3 Die Frage nach Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 64

VII.4 Anwendung auf lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 64

VII.5 Determinante einer�

��� ��� -Matrix . . . . . . . . . . . . . . . . . . . . . . . . 65

VII.6 Berechnung der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 66

VII.7 Anwendung auf den Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

VII.8 Anwendung auf lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 68

VII.9 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

VIII Vektorräume mit Skalarprodukt 1 69

VIII.1 Das Standard-Skalarprodukt im ��� . . . . . . . . . . . . . . . . . . . . . . . . 69

VIII.2 Das Standard-Skalarprodukt im �� . . . . . . . . . . . . . . . . . . . . . . . . 70

VIII.3 Allgemeines Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

VIII.4 Orthonormalbasen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

VIII.5 Die orthogonale und unitäre Gruppe . . . . . . . . . . . . . . . . . . . . . . . 76

IX Eigenvektoren und Eigenwerte 81

IX.1 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

IX.2 Bestimmung von Eigenwerten und Eigenvektoren . . . . . . . . . . . . . . . . 81

IX.3 Hauptachsen selbstadjungierter Abbildungen . . . . . . . . . . . . . . . . . . . 83

Page 4: Lineare Algebra

IV

IX.4 Normale Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

IX.5 Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

IX.6 Anwendung auf Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . 97

IX.7 Die gedämpfte und die harmonische Schwingung . . . . . . . . . . . . . . . . 101

IX.8 Eigenwerte des Integraloperators . . . . . . . . . . . . . . . . . . . . . . . . . 104

X Ringe und Algebren 106

X.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

X.2 Die Ringe und Algebren End��� � und � ��� � . . . . . . . . . . . . . . . . . . . . 107

X.3 Moduln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

X.4 Beweis der Existenz einer Determinantenform . . . . . . . . . . . . . . . . . . 109

X.5 Polynomring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

XI Bilineare und damit verwandte Formen 118

XI.1 Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

XI.2 Sesquilinearform und geometrische Begriffe . . . . . . . . . . . . . . . . . . . 131

XI.3 Semi-quadratische Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

XII Vektorräume mit Skalarprodukt 2 141

XII.1 Bezug zu Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

XII.2 Zur Winkel- und Volumenmessung . . . . . . . . . . . . . . . . . . . . . . . . 142

XII.3 Beziehungen zwischen Vektorräumen über � und � . . . . . . . . . . . . . . . 145

XII.4 Normalform unitärer und orthogonaler Abbildungen . . . . . . . . . . . . . . . 149

XII.5 Hauptachsen semi-symmetrischer Sesquilinearformen . . . . . . . . . . . . . . 151

XII.6 Ausblick auf physikalische Anwendungen . . . . . . . . . . . . . . . . . . . . 153

XIII Grundbegriffe der affinen Geometrie 155

XIII.1 Analytische versus Synthetische Geometrie . . . . . . . . . . . . . . . . . . . 155

XIII.2 Affiner Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

XIII.3 Affine Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

XIII.4 Parallelität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

XIII.5 Affine Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

Page 5: Lineare Algebra

V

XIV Aspekte der euklidischen Geometrie 166

XIV.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

XIV.2 Kurven zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

XIV.3 Flächen zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

XV Der Minkowski-Raum 174

XV.1 Modell der räumlich-zeitlichen Welt . . . . . . . . . . . . . . . . . . . . . . . 174

XV.2 Lorentztransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176

XVI Eigenvektor-Theorie und Normalformen 178

XVI.1 Charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

XVI.2 Eigenvektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

XVI.3 Satz von Caley-Hamilton und Minimalpolynom . . . . . . . . . . . . . . . . . 187

XVI.4 Das Normalformenproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

Page 6: Lineare Algebra

I.2 Einige Anwendungsbeispiele 1

mm1

I Einleitung

I.1 Zur Bedeutung der Linearen Algebra

1. Für viele Probleme lassen sich lineare mathematische Modelle aufstellen.

2. Lineare mathematische Modelle lassen sich relativ einfach berechnen.

3. Nicht lineare mathematische Modelle lassen sich durch lineare Modelle approximieren, sodaß die Lösung der linearen Approximierung eine Näherungslösung an das nicht lineareModell liefert.

Z. B. ist die Tangente an eine Kurve eine lineare Näherung an die Kurve in der Nähe desBerührpunktes.

I.2 Einige Anwendungsbeispiele

2.1 Vertikale Schwingung einer Feder (Stoßdämpfer)

Bei Fehlen jeglicher Kräfte hat die Feder eine Ruhelage. Wir bezeichnen mit � die Auslenkungaus Ruhelage (nach unten), mit � die Geschwindigkeit, mit

�die Beschleunigung.

Schwerkraft � = ����� ��� Masse, � �� ErdbeschleunigungRückstellkraft � = ������� ���� FederkonstanteDämpfungskraft � = ������� ���� ReibungskonstanteGesamtkraft � = ���������Newtongesetz: � = ��� �

��� �� �!���"���#���#�$�%�&�(' �)'*�+',�-',� positive Konstante

Dies ist eine sogenannte lineare Gleichung, die eine Beziehung zwischen �.'/� und�

zu einemfesten Zeitpunkt modelliert.

Weiteres Problem: Zeitliche Änderung beschreiben

Bezeichne 0 die Zeit, dann sind �.',� und�

Funktionen von 0 .

� � � 0 � ' ��1 32�!1 !4 �4 0 '�5 76�!1 �498 �4 0

� 6� ��� 2�����:�;�$�<�1A. Riede: Lineare Algebra 1, WS 99/00

Page 7: Lineare Algebra

2 I Einleitung

Dies ist eine sogenannte lineare Differentialgleichung mit konstanten Koeffizienten, die Diffe-rentialgleichung der gedämpften Schwingung. Für die systematische Bestimmung der Lösungs-funktionen einer linearen Differentialgleichung liefert die Lineare Algebra die wesentlichen Hilf-mittel.

2.2 Gleichstromschaltkreise

Auf einer Verbindung zwischen zwei Knoten (Stromverzweigungen) fließt ein Strom der Stär-ke � . Die Verbindung wird willkürlich mit einer Richtung versehen. Stimmt die physikalischeStromrichtung mit der Verbindungsrichtung überein, so ist � mit dem positiven, andernfalls ne-gativen Vorzeichen zu versehen. Die Ströme werden aus den Kirchhoffschen Gesetzen bestimmt,wenn die Batteriespannungen und die Stärken � der Ohmschen Widerstände bekannt sind.

1. Kirchhoffsches Gesetz: Die Summe der Ströme in jedem Knoten ist null; dabei geht einauf den Knoten zufließender Strom mit dem Faktor +1, ein wegfließender mit dem Faktor-1 ein.

2. Kirchhoffsches Gesetz: Die Summe der Spannungsabfälle in jeder Schleife ist null. EineSchleife ist eine geschlossene Verbindung mit festgelegtem Durchlaufungssinn.

Für den Spannungsabfall � an einem Widerstand � wird das Ohmsche Gesetz � ��� an-gesetzt. Wir erhalten lineare Gleichungen für die unbekannten Ströme. Deshalb wird eine elek-trische Schaltung mit nur Ohmschen Widerständen auch ein linearer Schaltkreis genannt. DieBatteriespannungen und die Stärken der Ohmschen Widerstände gehen als Konstante in die Glei-chungen ein.

Wir erhalten an dem (hier nicht wiedergegebenen) Beispiel für 3 Knoten und 3 Schleifen 6 Glei-chungen für die 6 Ströme, die die Ströme bestimmen „sollten“. Jedoch lassen sich durch Betrach-tung eines weiteren Knotens oder durch die Betrachtung weiterer Schleifen weitere Gleichungengewinnen. Aus physikalischen Gründen kann jedoch der Schaltkreis nicht „überbestimmt“ sein,erfahrunggemäß stellen sich ganz bestimmte Ströme in den Knoten-Verbindungen ein. Die wei-teren Gleichungen müssen also wohl Konsequenzen aus den anderen sein.

2.3 Leontief-Modell eines Wirtschaftsbereiches

2.3.1 Problemstellung Es soll ein mathematisches Modell für einen Wirtschaftsbereichaufgestellt werden, in welchem der Bedarf und die Produktion der einzelnen Fabriken, der Bedarfder Konsumenten und der Exportbedarf in einen Zusammenhang gebracht werden. Das Modellist nach dem Nobelpreisträger von 1973 für Ökonomie, Wassily Leontief benannt.

2.3.2 Zielfrage Welches sind die Bedingungen dafür, daß die Produktion den Bedarf deckt ?

Page 8: Lineare Algebra

I.2 Einige Anwendungsbeispiele 3

2.3.3 Aufstellung quantitativer Größen für das Modell

� Anzahl der Betriebe: �

1. Annahme: Der Einfachheit halber nehmen wir zunächst an, daß es � ��

Fabriken X,Y, Z gibt.

� Anzahl der verschiedenen Waren, die jede Fabrik herstellt.

2. Annahme: Wir nehmen an, daß jede Fabrik nur eine einzige Ware herstellt, sagen wir,

die Fabrik X die Ware A, die Fabrik Y die Ware B, die Fabrik Z die Ware C.

� Jahresproduktion

Sei �.'��+'�� die Jahresproduktion der Ware A, B, C durch die Fabrik X, Y, Z, gemessen ineiner dem Produkt angemessenen Einheit, z. B. Kohle in Tonnen, Strom in kWh.

� Außerindustrieller Bedarf pro Jahr

Konsumbedarf und Exportbedarf an der Ware A, B, C fassen wir zum außerindustriellenBedarf � bzw.

�bzw. � zusammen.

� Industrieller Bedarf

Zur Herstellung einer Einheitbenötigt X benötigt Y benötigt Z

von A 4 Einheiten � Einheiten � Einheitenvon B � Einheiten Einheiten Einheitenvon C � Einheiten � Einheiten Einheiten

Eine diesem spezifischen Bedarf entsprechende Tabelle für den Jahresbedarf läßt sich inähnlicher Weise aufstellen. Wir benötigen jedoch die entsprechenden Bezeichnungen fürdie Jahresgrößen nicht und gehen gleich über zum nächsten Punkt der Modellbildung.

2.3.4 Aufstellung von Beziehungen zwischen diesen GrößenJahresbedarf:

Pro Jahr benötigt Industrieller AußerindustriellerX Y Z Jahresbedarf Jahresbedarf Gesamtbedarf

von A 4 � ��� ��� 4 �;� ��� ����� � 4 �;�$�������������von B ��� �� �� ���;���� ���� � ���;���� ������ �von C �+� ��� �� �+�;�������� �� � �+� ����� �� ���� �

Page 9: Lineare Algebra

4 I Einleitung

2.3.5 Antwort auf die ZielfrageBedarfsdeckung:

Der Bedarf wird dann genau gedeckt, wenn die Produktion gleich dem Gesamtbedarf ist. Für diedrei Produkte ergeben sich drei lineare Gleichungen:

� 4 � �$��� � ��� ���� ���;���� ������ �� �+� ����� �� ���� �

(1)

Daß das Datenmaterial in Tabellenform angegeben werden kann, zeigt daß es eine gewisse Struk-tur hat. Wir können diese Struktur dazu benutzen systematischere Bezeichnungen einzuführen.Was wir mit den Buchstaben � ' � ' etc. � bezeichnet haben, brauchen wir dann nicht mehr obennachsehen, sondern ergibt sich aus der Systematik:

� � für � �� '�� ' � bezeichne die Jahresproduktion der � -ten Fabrik, also:���51 �.' � 8 1

�+' ���1 � .� � sei der außerindustrielle Bedarf an der Ware der � -ten Fabrik, also:��51 � ' � 8 1

� ' � ��1 � .� �� sei der spezifische Bedarf der � -ten Fabrik an der Ware der � -ten Fabrik. (Spezifisch heißt, umeine Einheit der Ware der � -ten Fabrik herzustellen). Es ist also:��� ��1 4 ' ��� 8 1

�+' ������1 � ' � 8 ��1 � usw.

Dann lauten die drei linearen Gleichungen:

��� ��� � ���-� ��� 8 � 8 ������� ��*���

� 8 � 8 � ���-� � 8 8 � 8 ��� 8 � ��*�

�8�� ����� ���-� ��� 8 � 8 ����� � ��*���

(2)

Wir bringen diese Gleichungen noch in eine Standardform durch Zusammenfassen der Termemit gleicher Unbekannten:

� � �$��� � � ���3� ��� 8 � 8 � ����� �� ��

��� 8 � ��� � � � �$� 8 8� � 8 � � 8 � ��

�8������� ���3� ��� 8 � 8 � � � �$��� � � �� ��

(3)

Ein Hauptteil der Linearen Algebra besteht im Rechnen mit solchen einfach und doppelt indi-zierten Größen. Eine Tabelle doppelt indizierter Größen heißt eine Matrix.

Um ein Modell für alle denkbaren Wirtschaftsysteme aufzustellen, müssen wir die Anzahl � derBetriebe variabel halten. Für die Wirtschaft eines Staates ist � sehr groß. Wir schreiben sie fürbeliebiges � in einer in der Mathematik üblichen Weise wie folgt an:

� � � ��� � � ���3� ��� 8 � 8 � �&�&� � ��� � � � �

���� 8 � ��� � � � �$� 8 8

� � 8 � �&�&� � � 8 � � � �

8...��� � � ���3� � � 8 � 8 � �&�&� ��� � � ��� � � ��� � � � � �$� � �

� � � �

(4)

Page 10: Lineare Algebra

I.2 Einige Anwendungsbeispiele 5

2.3.6 Anzahl der Unbekannten in der Praxis Mit diesem Beispiel sehen wir, daß fürProbleme aus der realen Welt lineare Gleichungssysteme mit � Unbekannten auftreten könnenund � sehr groß werden kann. Dieses � kann als eine Dimension interpretiert werden. RealeProbleme erfordern also die Betrachtung des � -dimensionalen Falles. Es genügt nicht, sich aufden 1, 2 oder 3-dimensionalen Fall zu beschränken. Der niedrigdimensionale Fall wird aber zumIdeen finden und zur Veranschaulichung herangezogen. Auch der � -dimensionale Fall wird durchdie Beschäftigung mit ihm mit der Zeit immer vertrauter.

Page 11: Lineare Algebra

6 II Lineare Gleichungssysteme

mm2

II Lineare Gleichungssysteme

II.1 Lösen einfacher Beispiele

1. Beispiel� � � � � � � � �� � � � � � � ������ � ���

� �in die erste Gleichung einsetzen:� � � � � � � �

� � � ��� � 1 � � � ��

Damit ist folgendes gezeigt: Wenn das Zahlenpaar� �.' � � eine Lösung ist, so gilt � � ' � � ; d. h. insbesondere, daß es höchstens eine Lösung gibt. Unsere Umformungen

zeigen also die Eindeutigkeit der Lösung.

Daß � � ' � � tatsächlich eine Lösung ist, erweist sich dadurch, daß wir in dasGleichungssystem einsetzen. Dadurch ist die Existenz einer Lösung bewiesen.

2. Beispiel

� � � � � �

� � � � � �

�:� � � � � � �

Hier ist die letzte Gleichung das negative der ersten, also automatisch erfüllt, wenn dieerste erfüllt ist. Subtraktion und Addition der ersten zwei Gleichungen liefert:

� � � � � � � � � �� � � � �

�� 1 �

� �� � � �

� �� � ���

2A. Riede:Lineare Algebra 1, WS 99/00

Page 12: Lineare Algebra

II.2 Zusammenfassung der gefundenen Einsichten 7

Ein Lösungstripel muß also von der Form� � ��� ' � ' � � sein. Durch Einsetzen in das Aus-

gangssystem stellen wir fest, daß jedes Tripel dieser Form (also für eine beliebige Zahl � )eine Lösung ist.

Wir sagen dafür: Die Lösungen bilden eine einparametrige Schar mit � als Parameter.

3. Beispiel

� 1 � � � � � �� � 1 � � � � � �

� � � 1 � � � � � � � � �

Wir behalten die erste Gleichung bei, subtrahieren von der zweiten die erste und subtra-hieren von der dritten ebenfalls die erste.

��� ��1 � � � � � �� ��� � �"� ��1 � � � � � � � � �

� � ��� � � �"� ��1 � � � � � � � � � �

Wir behalten die erste und zweite Gleichung bei, addieren zu der dritten das zweifache derzweiten.

��� � ���+1 � � � � � �� ��� � � ���+1 � � � � � � � � �

� � ��� � � � ��� � � � ���(1 � � � � � � � � � �

Dieses System hat keine Lösung, da die dritte Gleichung keine Lösung hat.

4. Beispiel

� 1 � � � � � �� � 1 � � � � � �

� � � 1 � � � � � ���� � � � �#1�� � �

� ��� � � � � � ��� � � �#1 � � � � � � �

� � � � � � �#1 � � � � � �An diesem vereinfachten System lesen wir ab, daß � ���

� ' � � ��� � ' � � eine Lö-sung des umgeformten Systems ist. Die zweite Gleichung des Ausgangssystems ist jedochfür diese Zahlenwerte nicht erfüllt.

Bei dieser Art von Umformungen, die wir durchgeführt haben, ist klar, daß eine Lösungdes Ausgangssystems auch eine Lösung des umgeformten Systems ist. Dann kann dasAusgangssystem nicht durch solche Umformungen aus dem umgeformten System zurück-gewonnen werden; sonst müßte � ���

� ' � � ��� � ' � � auch eine Lösung desAusgangsystems sein. Die obigen Umformungen können also nicht umkehrbar sein.

Page 13: Lineare Algebra

8 II Lineare Gleichungssysteme

II.2 Zusammenfassung der gefundenen Einsichten

1. Manche lineare Gleichungssysteme sind eindeutig lösbar, oder mit anderen Worten, es gibteine Lösung, und diese ist durch das Gleichungssystem eindeutig bestimmt.

2. Manche lineare Gleichungssysteme, auch solche mit z. B. 3 Gleichungen und 3 Unbekann-ten haben mehrere Lösungen, nämlich eine einparametrige Schar.

3. Manche haben gar keine Lösungen, auch wenn nicht mehr Gleichungen als die Zahl derUnbekannten zu erfüllen sind.

4. Die prinzipielle Idee zur Lösung eines linearen Gleichungssystems ist, ein lineares Glei-chungssystems in ein einfacheres umzuformen, aus dem die Lösungen leicht ablesbar sind.Dann sollten die Umformungen umkehrbar sein, damit die Lösungen des umgeformten Sy-stems auch die Lösungen des Ausgangsystems sind.

II.3 Präzisierung und Kennzeichnung der Begriffe

Wir schreiben eine lineare Gleichung mit � Unbekannten meist in der Standardform:

(LG) � � ���-��� 8 � 8 �<�&�&�&��� � � � �

,

bei der die Summanden, die die Unbekannten enthalten, links und das konstante Glied�

rechtsstehen. � ist eine feste natürliche Zahl. Die festen Zahlen �� '�� 8 '�������' � � ' � heißen die Koeffizi-enten der linearen Gleichung. Bei Zahlen denken wir an reelle Zahlen, wenn gleich auch andereZahlenbereiche in Frage kommen, die später besprochen werden. Die Symbole � � ' � 8 '������ ' � �heißen die Unbekannten, sie werden auch Unbestimmte genannt. Das konstante Glied

�heißt

auch der inhomogene Koeffizient oder der inhomogene Bestandteil. Eine lineare Gleichung heißthomogen, falls

� � ist. Ein System von � ( � eine natürliche Zahl) linearen Gleichungenschreiben wir in der Form

(LGS)

�����

� � � ��� � � � 8 � 8 � �&�&� � � � � � � �

�� 8 � ��� � � 8 8 � 8 � �&�&� � � 8 � � �

�8...

�� � ��� � �� 8 � 8 � �&�&� � �� � � � � �

�����

Unter Verwendung des Summenzeichens:

���� � � �� � <� � ' � � '�� '������ ' �

Der erste Index von � �� und der Index � von� � beziehen sich also auf die � -te Gleichung. Der

zweite Index ist der Summationsindex.

Page 14: Lineare Algebra

II.4 Eliminationsverfahren mit System 9

Z. B. ist beim Leontief-Modell � � � � � �$� � � � und für ��� � � �� ��� �� .Eine Lösung besteht aus � Zahlenwerten für die Symbole � � ' � 8 ' ������' � � , sodaß beim Ein-setzen dieser Zahlenwerte in das Gleichungssystem � (gültige) Gleichungen zwischen Zah-len entstehen. Dabei kommt es offenbar auf die Reihenfolge der Zahlenwerte an. � Zahlen-werte � � ' � 8 '#'�������' � � in einer bestimmten Reihenfolge heißen ein � -tupel von Zahlen. Ein

� -tupel von Zahlen wird mit� � � ':� 8 '�'�������' � � � bezeichnet, also durch runde Klammern. Ana-

log: Ein � -tupel von Unbekannten� � � '5� 8 ' ������'5� � � . Zwei � -tupel sind gleich, wenn das � -te

Element des einen � -tupels gleich dem � -ten Element des anderen � -tupels ist für alle � ; z. B.� ��� '5� 8 ' ����� ' � � � 1 � � � '�� 8 ' '�������' � � � bedeutet: Es wird � � 1 � � ' ������':� � 1 � � gesetzt.Spezialfälle:

�;1 � � � ' � 8� 2-tupel = (geordnetes) Paar

� � 1 � � � ' � 8 ' � �

� 3-tupel = (geordnetes) Tripel

Ein lineares Gleichungssystem ist eindeutig gekennzeichnet durch die Tabelle � der Koeffizien-ten und durch die inhomogene Spalte

�:

������ � � � � 8 �&�&� � � �� 8 � � 8 8 �&�&� � 8 �...�� � �� 8 �&�&� �� �

� ��� �5

��������8...� �

� ���

So eine Tabelle wird in der Mathematik eine Matrix mit � Zeilen und � Spalten genannt, kurzeine

� � � ��� -Matrix. � ist also die Koeffizienten-Matrix.

Die� � � � � � � � � -Matrix

���51

������ � � � � 8 �&�&� � � �

��

� 8 � � 8 8 �&�&� � 8 ��8...

�� � �� 8 �&�&� �� � � �

�����

heißt erweiterte Matrix des linearen Gleichungssystems.

Den Umformungen des linearen Gleichungssystems entsprechen Umformungen der erweitertenMatrix; z. B. der Multiplikation der � -ten Gleichung mit einer Zahl � die Multiplikation der � -tenZeile

� � � � ' � � 8 '*�&�&�-' � � � '� � � mit � . Wir sparen viel Schreibarbeit, wenn wir statt des Gleichungs-

systems nur noch ��� hinschreiben!

Page 15: Lineare Algebra

10 II Lineare Gleichungssysteme

II.4 Eliminationsverfahren mit System

4.1 Definition elementarer Umformungen

Mit � � bezeichnen wir die � -te Zeile von � � , mit � � die � -te Spalte von � . Eine elementare Zeilen-Transformation (einer Matrix) ist eine Transformation eines der folgenden Typen, wobei wir eineZeile der umgeformten Matrix mit einem Strich versehen:

ZI. Ersetzen einer (etwa der � -ten) Zeile durch ihr � -faches, für eine Zahl � � � �Symbolisch: � �� � � � ' � � �

ZII. Addition eines Vielfachen � einer (etwa der � -ten) Zeile zu einer anderen Zeile (etwa der� -ten).

Symbolisch: � � � � � � � ' ��� �ZIII. Vertauschen zweier Zeilen, etwa der � -ten und der � -ten.

Symbolisch: � �� � ' � � � � oder � ��� � .

Dabei bleiben jeweils die übrigen Zeilen ungeändert.

Beachte: Zeilenumformungen von � � und Gleichungsumformungen entsprechen einander !

Analog können auch Spaltenumformungen definiert werden.

4.2 Umkehrbarkeit elementarer Umformungen

Elementare Umformungen sind durch elementare Umformungen umkehrbar und ändern folglichdie Lösungsmenge nicht.

Denn:

Zu ZI: � � � ��� � � � ��Zu ZII: � � � ��� � �Zu ZIII: Nochmals � � und � vertauschen macht die Vertauschung rückgängig.

4.3 Die Auswirkung einer Spaltenvertauschung

Der Übersichtlichkeit halber verwenden wir auch eine elementare Spaltenumformung, nämlichdie Vertauschung zweier Spalten der Koeffizientenmatrix, sagen wir der � -ten und der � -ten.

Symbolisch: � ��� �

Wohlgemerkt, nur Spalten der Koeffizientenmatrix werden vertauscht; auf keinen Fall wird dieinhomogene Spalte mit einer Spalte der Koeffizientenmatrix vertauscht.

Page 16: Lineare Algebra

II.4 Eliminationsverfahren mit System 11

Dabei ändert sich die Lösungsmenge, jedoch in kontrollierter Weise und zwar so, daß die � -te unddie � -te Unbekannte vertauscht werden. Sind die Lösungen des transformierten Systems gefun-den, erhalten wir die Lösungen des Ausgangssystems, indem wir alle Variablenvertauschungenin umgekehrter Reihenfolge rückgängig machen.

4.4 Gauß-Verfahren4.4.1 Erster Eliminationsschritt Aus allen Gleichungen bis auf die 1. Gleichung wird die1. Unbekannte eliminiert. Genauer:

1. Sind alle Koeffizienten null, haben wir bereits eine einfache Gestalt und formen nicht wei-ter um.

2. Besteht die erste Spalte nur aus Nullen, so vertauschen wir die erste Spalte mit einer Spaltevon � (nicht mit der inhomogenen Spalte), die nicht aus lauter Nullen besteht.

3. Durch eine Zeilenvertauschung erreichen wir, daß der (1,1)-Koeffizient (der Koeffizient inder 1. Zeile und 1. Spalte) ungleich null ist.

4. Wir führen nacheinander die folgenden elementaren Umformungen durch:

� �8 � 8 �� 8 �.� ��� ' 8 �%1

� 8 �� � � � insbesondere: ��� 8 �

� 8 �-� 8 � � � � � � 8 �.�

���������� � � � � �

� �� ���*�� ���.� ��� ' ���%1 � ��� � � � � insbesondere: ��� ��� � ���-� ��� � � � � � ���.� ��������� � � � � �

...

� �� ��� �� � � � ��� ' � �51 �� � � � � � insb.: � �� � �� �*�� � � � � � � �� �*� �� �� ��� � � � � �

Dies wird Ausräumen der ersten Spalte unterhalb des (1,1)-Koeffizienten genannt; denndort stehen nach diesen Umformungen Nullen, d. h. die erste Unbekannte kommt in der 2.bis � -ten Gleichung nicht mehr vor.

4.4.2 Zweiter Eliminationsschritt Jetzt überlegen wir uns, welche der dem 1. Schritt ent-sprechenden elementaren Umformungen nötig sind, um in der Teilmatrix����

�� 8 8 � 8 � �&�&� � 8 �

�8� � 8 � � � �&�&� � � ���

...�� 8 �� � �&�&� �� � � �

�����

die Koeffizienten unterhalb des (2,2)-Koeffizienten auszuräumen. Wir führen die dazu nötigenUmformungen jedoch mit der ganzen Matrix � � durch. Da die erste Spalte schon ausgeräumtwar und wir nur Spalten und Zeilen von Index

� � umformen, ändert sich dabei nichts an denNullen unterhalb des (1,1)-Koeffizienten.

Page 17: Lineare Algebra

12 II Lineare Gleichungssysteme

4.4.3 Die weiteren Schritte In entsprechender Weise können wir so lange fortfahren, bisdie dann zu betrachtende, nicht erweiterte Untermatrix nur aus Nullen besteht oder keine Un-termatrix mehr übrig bleibt, weil wir in der letzten Zeile oder Spalte von � schon angekommenwaren.

Damit haben wir folgendes Ergebnis bekommen.

4.4.4 Satz über die Gauß-Elimination Durch elementare Umformungen vom Typ ZI, ZII,ZIII und SIII kann die erweiterte Matrix eines linearen Gleichungssystems in eine sogenannteStufenmatrix umgeformt werden, d. h. in eine Matrix der Form������������

� � � � � � � 8 �&�&� � � ��� � � � � ��� � �&�&� � � � ��� �

� � � 8 8. . .

......

......

. . . . . . . . .... �&�&� ...

...

� � . . . � ���� � �� � ��� � �&�&� � �� ����

� � �&�&� � � �&�&� � ����� �

......

......

......

� � �&�&� � � �&�&� � ���

�������������

Dabei ist ���� � � � für � � '�� '������ '�� und � ���

Min�

� ' � � �Diese Transformation heißt Gauß-Elimination.

4.4.5 Satz über die rekursive Auflösung bei Stufenform Das lineare Gleichungssys-tem (LGS) ist dann und nur dann lösbar, wenn alle inhomogenen Bestandteile

�� � � sind für

�/� � '�������' � . Alle Lösungen finden wir durch rekursive Auflösung wie unten im 2. Teil desBeweises geschildert wird.

Beweis: Die -te Gleichung lautet für �5� � '���� � '�������' �1�,���-� � � 8 �<�&�&�&� � � �

��

1. Gibt es eine Lösung� � � ' � 8 '�������' � � � , so erhalten wir für �5� � '���� � '�������' � durch

Einsetzen die Zahlengleichung,

� � � � � � 8 � �&�&� � � � � �

� � 'die nur bestehen kann, wenn

�� � � ist.

2. Ist umgekehrt�� � � für alle ��� � '������ ' � , so sind die letzten

� �7�� � Gleichungendie „Nullgleichungen“, also immer erfüllt. Es bleiben die ersten � Gleichungen und diesesind äquivalent mit: � � � � � � � � 8 � 8 ����� � � � � �

� �� �

... �� � � � � � � � � � � � �� � � � � � � ����� �� � � � � � �

� ��� � �

���� � � � �� � ��� � � ��� � ����� �� � � �� �

��

Page 18: Lineare Algebra

II.5 Hinweise auf numerische Probleme 13

Hierbei sind die Unbekannten mit � � bezeichnet, weil sie mit den ursprünglichen nur nochbis auf Vertauschungen übereinstimmen.

Setzen wir auf den rechten Seiten � ��� � � ��� � '�������' � � � � mit beliebigen Zahlen� ��� � '�������' � � , so stehen auf der rechten Seite der � -ten Gleichung keine Unbestimmtenmehr und es läßt sich � � aus der � -ten Gleichung eindeutig berechnen:

� � �

� ����� � � �� � � � � � ��� �3� �&�&� � � �� � � � � �

�� �

Indem wir den für � � berechneten Wert in die���� � � -te Gleichung einsetzen, können wir

mit der�� � � � -ten Gleichung analog verfahren. So fahren wir fort mit der

�� � � � -ten Glei-

chung bis zur 1. Gleichung. Dabei berechnen wir also die � ��'�������' � � rekursiv d. h. nach-einander, mit anderen Worten, wir lösen die Gleichungen von unten nach oben auf. Wirerhalten eine

�� � � � -parametrige Schar von Lösungen mit

�� � � � beliebigen Parametern

� ��� � '�������' � � .4.5 Gauß-Jordan-Verfahren

Bei diesem Verfahren wird die Stufenmatrix noch weiter umgeformt. Zunächst multiplizieren wirdie � -te Zeile für � �� '������ '�� mit ���� � � � und erreichen, daß an Stelle von ���� � eine 1 steht. Anschlie-ßend räumen wir die 2. bis � -te Spalte auch oberhalb der Einsen mit Hilfe von Zeilenoperationenvom Typ ZII aus. Wir erhalten eine Matrix der Form

�������������

� � �&�&� � � � � � ��� � �&�&� � � � ��� �

� � . . ....

......

......

. . . . . . � ... �&�&� ......

� � . . .� � �� � ��� � �&�&� � �� �

���

� � �&�&� � � �&�&� � ����� �

......

......

......

� � �&�&� � � �&�&� � ���

�������������

Diese Transformation heißt Gauß-Jordan-Verfahren. Dafür, daß beim Gauß-Jordan-Verfahrenmehr elementare Transformationen durchgeführt werden müssen, ist dann die rekursive Auflö-sung wesentlich einfacher. Im wichtigen Spezialfall von � Gleichungen und � Unbekannten und�

� erhalten wir als erweiterte Matrix und als eindeutig bestimmte Lösung:

�����

� � �&�&� � �� �

� . . . . . ....

......

. . . . . . � ...� �&�&� � � �

��

�����

������ �� 8...� �

����� =

������� ��� 8...���

�����

Page 19: Lineare Algebra

14 II Lineare Gleichungssysteme

II.5 Hinweise auf numerische Probleme

5.1 Auswirkung von Datenfehlern

In praktischen Beispielen stammmen oft die Koeffizienten � � � und� � aus Messungen und sind

daher mit einem Meßfehler behaftet. Ein relativ kleiner Fehler in den Meßdaten kann bei man-chen Koeffizientenmatrizen � einen relativ großen Fehler bei den Lösungen eines linearen Glei-chungssystems verursachen.

Matrizen, bei denen dies nicht auftritt, heißen gut konditioniert. Tatsächlich kann die Konditi-on einer Matrix quantitativ erfaßt werden, wie uns die Numerische Mathematik lehrt. Mit denKenntnissen von Linearer Algebra 1 kann dies z. B. nachgelesen werden bei Stoer: (4.4.12) S.204 und (4.4.15) S. 205.

5.2 Auswirkung von Rundungsfehlern

Wenn wir bei jedem Eliminationsschritt gegebenenfalls Zeilen und Spalten vertauschen, habenwir die Wahl, mit welcher Zeile bzw. Spalte wir die erste Zeile bzw. Spalte vertauschen wollen.

Dreh- und Angelpunkt (engl. pivot) der Eliminationsverfahren sind die Koeffizienten, die wirdurch Zeilen- bzw. Spaltenvertauschungen in die obere linke Ecke der Teilmatrix bringen. DieseKoeffizienten heißen Pivotelemente oder kurz Pivots. Sie spielen eine Rolle, wenn Rundungs-fehler klein gehalten werden sollen. Dies gelingt häufig dadurch, daß ein betragsmäßig größtesElement in der betreffenden Zeile bzw. Spalte als Pivot gewählt wird (Stoer 4.5, S. 208). UnterZeilenpivotierung verstehen wir dabei, daß die Pivots nur zeilenweise gesucht werden, bei Total-pivotisierung werden sie in der ganzen in Frage kommenden Teilmatrix betragsmäßig möglichstgroß gesucht. Wird immer –so weit möglich– weder eine Zeilen- noch eine Spaltenvertauschungdurchgeführt, d. h. mit anderen Worten, wird stets das schon in der linken oberen Ecke stehendeElement als Pivot genommen, so sagen wir, daß wir ohne Pivotisierung arbeiten.

Wenig Probleme entstehen in diesem Zusammenhang, wenn die Matrix equilibriert ist oder ineiner bestimmten Weise in eine equilibrierte Matrix umgeformt werden kann. Dabei bedeutetequilibriert, daß die Summe der Beträge der Elemente für jede Zeile und jede Spalte der Größen-ordnung nach etwa gleich sind (Stoer S. 208ff).

Page 20: Lineare Algebra

III.1 Von der algebraischen Struktur der Menge der � -tupel reeller Zahlen 15

III Gruppen, Vektorräume, Körper

mm3

III.1 Von der algebraischen Struktur der Menge der � -tupel reellerZahlen

In Kapitel II haben wir intuitiv Gleichungen addiert. Die Erklärung der Addition von linearenGleichungen und der Multiplikation einer linearen Gleichung mit einer reellen Zahl lautet fol-gendermaßen:

1.1 Definition

Lineare Gleichungen werden addiert, indem die entsprechenden Koeffizienten und die inhomo-genen Bestandteile addiert werden.

Eine lineare Gleichung wird mit einer reellen Zahl multipliziert, indem jeder Koeffizient undauch der inhomogene Bestandteil mit der Zahl multipliziert werden.

Im folgenden haben wir diese Operationen mit linearen Gleichungen übertragen auf Operationenmit den Zeilen der erweiterten Matrix ��� . Dies führt auf folgenden Begriff von Operationen mit

� -tupeln reeller Zahlen. Im folgenden meinen wir mit einem � -tupel stets ein � -tupel reellerZahlen und mit Zahl eine reelle Zahl.

1.2 Definition

Die Summe � ��� von zwei � -tupeln � =� � � ' � 8 '������ ' � � �

und � =� � � ' � 8 '������ ' � � �

ist definiert durch: � ��� :=� � �-��� � ' � 8 ��� 8 '������ ' � � ��� � � �

Die Multplikation eines � -tupels � =� � � ' � 8 '������ ' � � �

mit einer Zahl � ist definiert durch: � ��� :=� �#��� � ' � ��� 8 '�������' � ��� � �

1.3 Eigenschaften

Durch die Addition von � -tupeln ist einem Paar� �.' � � von � -tupeln � � � � '������ ' � � � und � � � � '�������' � � � ein eindeutig bestimmtes � -tupel zugeordnet, das wir mit mit � ��� bezeichnen .

1. Sind � � � � '�������' � � � , � � � � '�������' � � � und � � � � '������ ' � � � � -tupel, so gilt dasAssoziatives Gesetz:

� �;��� � ��� � � � � ��� �3A. Riede: Lineare Algebra 1, WS 99/00

Page 21: Lineare Algebra

16 III Gruppen, Vektorräume, Körper

2. Es existiert ein neutrales � -tupel, d. h. ein mit�

bezeichnetes � -tupel, so daß � � � �ist für alle � -tupel � , nämlich

� � � '������ ' � � .3. Es gibt zu jedem � -tupel � � � � '������ ' � � � ein entgegengesetztes � -tupel, d. h. ein mit �:�

bezeichnetes � -tupel, so daß � � � �:� � � ist, nämlich � � � �:� � '������ '�� � � � .4. Kommutatives Gesetz: �;��� � � � für alle � -tupel � und � .

5. Assoziatives Gesetz der Multiplikation mit Zahlen: Für beliebiges � -tupel � und beliebigeZahlen �-'�� gilt:

� � � � ��� � � � ��� � ���6. Distributive Gesetze:

�#� � � ��� � �#� � ��� � �� � ��� � ��� �#���;��� ���

für beliebige � -tupel �.' � und beliebige Zahlen �-'�� .

7.� ��� � für alle � -tupel � , wobei 1 die reelle Zahl 1 ist.

III.2 Gruppen

2.1 Definition

Gegeben sei eine Menge � von Elementen �+' '������ und eine Zuordnung, die jedem Paar� �+' �

von Elementen �+' von � eindeutig ein weiteres Element von � zuordnet, das mit ��� bezeich-net werde. Eine solche Zuordnung wird eine Verknüpfung genannt.

Eine Gruppe ist eine Menge � mit einer Verknüpfung, die folgende Eigenschaften hat:

1. Assoziativität:� �� � � �� � �� � für alle �+' ' ���

2. Existenz eines neutralen Elementes, d. h. eines Elementes ����� mit der Eigenschaft ��� � � für alle � ��� .

3. Existenz eines entgegengesetzten Elementes zu jedem Element ����� , d. h. eines mit ��� �bezeichneten Elementes, so daß ��/� � � � ist.

Diese drei Eigenschaften sind die Grundeigenschaften von Gruppen, die Gruppenaxiome. EineGruppe ist also ein Paar

�� '�� � , bestehend aus einer Menge � und einer Verknüpfung � , so daß

die Gruppenaxiome gelten. In der Bezeichnung wird oft die Verknüpfung nicht erwähnt und eineGruppe einfach mit � bezeichnet, also dem selben Symbol wie die Menge � !

Gilt zusätzlich:

1. Kommutativität: �� ��/� für alle �+' ���� 'so heißt die Gruppe kommutativ, additiv oder abelsch.

Page 22: Lineare Algebra

III.3 Permutationsgruppen und etwas Mengenlehre 17

2.2 Beispiele

�� ' � � ' � ��� � '�� � ' ��� ' � � sind abelsche Gruppen.

��� '�� � ' ��� � � '�� � sind keine Gruppen ! DieMenge � � der � -tupel mit der in 1.2 auf Seite 15 definierten Addition von � -tupeln ist eineabelsche Gruppe.

III.3 Permutationsgruppen und etwas Mengenlehre

3.1 Mengen

Der Begriff der Menge4 wird nicht weiter erklärt sondern als ein Grundbegriff genommen, der ei-ne Gesamtheit von Dingen bezeichnet, die man die Elemente der Menge nennt. Ist � ein Elementeiner Menge � , so schreiben wir dafür: ����� .

Das kartesische Produkt zweier Mengen � '�� ist die Menge:� � � 1 � �)' ����� � � � ' � � ��� ,und von endlich vielen Mengen � � '�� 8 '������ '�� � :� � � � 8

� �&�&� � � � 1 � � � � ' � 8 '�������' � � ��� � � � � � ' � �� '�� '������ ' � �

� � 1 � � � � �&�&� � � � -mal der Faktor � ,

z.B. � � 1 � � � � �&�&� � � � -mal der Faktor � .

3.2 Abbildungen

Auch der Begriff Abbildung einer Menge � nach einer Menge � wird als ein nicht weiter zuerklärender Grundbegriff genommen und als eine Zuordnung verstanden, die jedem Element� � � eindeutig ein Element � � � � � � zuordnet. �)1�� � � bedeutet „ � ist eine Abbildungvon � nach � “. Ist � ��� und � ��� so bedeutet � 15� �� � , daß � � in � abbildet,anders ausgedrückt , daß � das Bild oder der Wert von � bei der Abbildung � ist, oder, daß dieAnwendung von � auf � das � ergibt.

Beispiel: Eine Verknüpfung auf einer Menge � ist nichts anderes als eine Abbildung � 1 � � ��� .

Für eine Teilmenge � von � , ����� wird das Bild oder die Bildmenge von � bei � definiertdurch� � � � 1 � � � � ��� � � ���Ist ����� , so heißt � � � � � � 1 � � ��� � � � � � � ��� Urbild oder Urbildmenge von � bei � .

� 1 � � � heißt surjektiv oder eine Abbildung auf � 1"! Zu jedem � �#� gibt es ein� � � mit � � � � � . ([französisch] sur = auf !) Oder äquivalent:� � � � � � � besteht aus mindestens einem Element für alle � � � .

4Mehr Details s. Rolf Walter, Anhang, S. 254ff.

Page 23: Lineare Algebra

18 III Gruppen, Vektorräume, Körper

� 1�� � � heißt injektiv 1 !� � � � � � � � � � � � � oder äquivalent:� � � � � � � besteht aus höchstens einem Element für alle � ��� .

� 1�� � � heißt bijektiv 1 ! � ist injektiv und surjektiv oder äquivalent:� � � � � � � besteht aus genau einem Element für alle � ��� .

Ist � bijektiv, dann ist durch die Festsetzung, daß jedem � � � das einzige Element � � � � � � � �zugeordnet wird, eine Abbildung definiert; sie heißt die Umkehrabbildung von � und wird mit� � � bezeichnet.

Eine bijektive Selbstabbildung einer Menge, �$1 � � � , heißt eine Permutation von � odereine Vertauschung der Elemente von � . Eine Permutation � der Menge

� '�� ' � � bezeichnen wirmit einer Werte-Tabelle: � �

��� � � � � � � � � � � ���

Die Identität oder identische Selbstabbildung von � , Id

Id � 1 � � � , ist diejenige, diejedem � ��� als Wert wieder das � zuordnet.

Sind � '�� '�� Mengen und Abbildungen � 1 � � � und ��1 � � � gegeben, so wird dieKomposition (Hintereinanderausführung) � � 1�� � � von � und � durch

� �� � � � � � 1 � � � � � � �definiert. Abb

� � '�� � bezeichne die Menge aller Abbildungen von � nach � . Der Kringel stellt eine Abbildung dar:

1 Abb� � '�� � � Abb

� �<'�� � � Abb� � '�� � '� 1 � � ' � � ��3� �

Es gilt:

1. � �� � � � �*� � � für jede weitere Menge � und jede weitere Abbildung 1��� �2. Id �� � �3. �� Id � �4. � � � � Id � für bijektives � .

Aus diesen Punkten folgt:

3.3 Satz

Die Menge der Permutationen einer Menge zusammen mit der Hintereinanderausführung alsVerknüpfung bildet eine im allgemeinen nicht abelsche Gruppe.

Page 24: Lineare Algebra

III.5 Vektorräume 19

III.4 Folgerungen aus den Gruppenaxiomen

Für eine Gruppe � gilt:

1. Genauer sollte in der Definition einer Gruppe ein Element � � � rechts-Inverses genanntwerden; jedoch folgt aus den Gruppenaxiomen, daß ein rechts-Inverses ��� � immer auchlinks-Inverses ist (und umgekehrt), d. h. , daß mit � � � � � � stets auch �� � ��� � gilt.

2. Entsprechend ist ein rechts-neutrales Element stets auch links-neutral, d. h. aus � � � �folgt � ��� � .

3. Es gibt nur ein neutrales Element.

4. Zu jedem � ��� gibt es nur ein inverses Element.

5. Aus dem axiomatisch gegebenen Produkt von Paaren erhalten wir durch induktive De-finition das Produkt eines � -tupels

� � � ' � 8 '������ ' � � � von Gruppenelementen � � � � für� �� '�� '������ ' � .

� � �/� 8 � ����� � � �%� � � �/1 � � � �%� 8 ���&�&� �/� �� � � � � �

Induktionsbeginn etwa bei � �

: Das Produkt mit einem Faktor � ist das Element � selbst.

Es gilt dann ein verallgemeinertes Assoziativ-Gesetz, das besagt, daß in dem Produkt von� -tupeln nach Belieben Klammern gesetzt werden können.

Zwischenbemerkung: Entsprechend sind andere „Pünktchen-Objekte“ induktiv definiert !

6.� � � � � � � � für jedes � ��� .

III.5 Vektorräume

5.1 Definition

Ein reeller Vektorraum besteht aus

1. einer Menge�

2. einer Verknüpfung auf�

, die Vektor-Addition genannt wird, und

3. einer zweiten eindeutigen Zuordnung, genannt Skalarenmultiplikation,

� �� � � ' � �-' � � �� � �&� für � � � '�� � �

.

Erläuterung: Der Abbildung � � � � �haben wir keinen Namen gegeben. Das Bild

eines Paares� �.' � � ist mit � � � bezeichnet worden, weil wir die Zuordnung als eine Art

Multiplikation ansehen.

Page 25: Lineare Algebra

20 III Gruppen, Vektorräume, Körper

Es müssen folgende Vektorraumaxiome gelten:

Für die Addition die Axiome einer abelschen Gruppe.

Für die Skalarenmultiplikation die Assoziativität (Eigenschaft 5 in III.1 auf Seite 15) und dieNeutralität der Multiplikation mit der Eins des Körpers � (Eigenschaft 7 in III.1 auf Seite 15).

Die distributiven Gesetze 6 wie in III.1 auf Seite 15 bei � -tupeln.

Die Elemente von�

heißen Vektoren von�

.

5.2 Beispiele

Einen Vektorraum bilden:

1. Die � -tupel reeller Zahlen

2. Lineare Gleichungen in � Unbekannten.

3. Lösungen homogener linearer Gleichungsysteme

4. Geometrische Vektoren der Ebene oder des Raumes

5. Folgen reeller Zahlen

6. Lösungen homogener linearer Differentialgleichungen

7. Reelle Funktionen

8. Polynome

5.3 Folgerungen aus den Vektorraumaxiomen

Sei�

ein Vektorraum über � . Dann gilt:

1. � � � � für alle � � �, wobei links das Nullelement des Körpers � und rechts der

Nullvektor, das neutrale Element der Vektor-Addition, steht.

2. � � � � für � � � und den Nullvektor 0

3.� ��� � �&� � � ����� � �#� � � � � für � � ��'*� � �

5.4 Vektorraum über einem Körper �

Allgemeiner können wir statt der reellen Zahlen einen anderen Körper � als Skalarenkörperverwenden und erhalten den Begriff eines Vektorraumes über dem Körper � .

Page 26: Lineare Algebra

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 21

5.5 Definition

Eine Menge � zusammen mit zwei Kompositionen, genannt Addition und Multiplikation undmit + und � bezeichnet, heißt ein Körper, falls gilt:

1. Bezüglich der Addition ist � eine abelsche Gruppe.

2. Bezüglich der Multiplikation gilt:

a) Assoziatives Gesetz:� �#� � � ��� � �#� � � ��� � für alle �-'�� und � � �

b) Existenz eine neutralen Elementes 1 bezüglich der Multiplikation, genannt Einsele-ment oder Eins des Körpers: �#� �� � für alle � � �

c) Zu jedem � � � mit � � � gibt es ein mit � � � bezeichnetes sogenanntes inversesElement von � mit der Eigenschaft �#� � � � �

d) Kommutatives Gesetz: �#��� � � � für alle � und � � �

Insbesondere ist ��� � � eine abelsche Gruppe.

3. Folgende beide Verknüpfungen betreffende Axiome gelten:

a) Distributives Gesetz:� � ��� � ��� �#������� ��� für alle �-'�� und � � �

b) Das neutrale Element der Addition 0 und das neutrale Element der Multiplikation 1sind voneinander verschieden: � � �

5.6 Aus der Analysis bekannte Beispiele

Reelle Zahlen, � , rationale Zahlen, � , komplexe Zahlen, � bilden einen Körper.

Ganze Zahlen�

bilden keinen Körper; nur 1 und � � haben ein Inverses, jedoch sind alle anderenAxiome erfüllt.

5.7 Folgerungen aus den Körperaxiomen

1. Es gelten alle Folgerungen aus den Axiomen einer abelschen Gruppe für���' � � und

�� �

� '�� � (vgl. III.4).

2. � � � � für alle � � �

3.� ��� � ��� �#� � � � � � � ��� � �

4. � ��� � � � � oder � �

mm5

5A. Riede: Lineare Algebra , SS 98/99 bis WS 01/02

Page 27: Lineare Algebra

22 III Gruppen, Vektorräume, Körper

III.6 Anschauliche Geometrie und geometrisch anschaulicherVektorraum

In diesem Abschnitt begeben wir uns auf die erste Etappe einer Rundwanderung von der ebenenGeometrie zum anschaulichen Vektorbegriff und wieder zurück zu einem anderen, dem analyti-schen Modell der Ebene. Die zweite Etappe von den Vektorräumen zurück zur analytischen Geo-metrie werden wir in Kapitel XIII auf Seite 155 zurücklegen. Es wird hier der Begriff einer Äu-ivalenzrelation an Beispielen betrachtet; eine systematische Behandlung steht in Abschnitt IV.4auf Seite 36.

6.1 Die Anschaungsebene als affine Ebene6.1.1 Punkte und Geraden Die Anschauungsebene besteht aus einer Menge � von Punk-ten. Außerdem gibt es Geraden, das sind gewisse Teilmengen von Punkten. � bezeichne dieMenge aller Geraden.

6.1.2 Definition der Parallelität von GeradenZwei Geraden �+' ���� heißen parallel 1 ! Entweder ist � oder ��� �� .��� bedeute, daß � parallel ist; � � � , daß � nicht parallel zu is.

Nach unserer Erfahrung hat die Anschauungsebene folgende Eigenschaften:

(A1) Existenz einer eindeutigen Verbindungsgeraden �:'� � � � � � � mit�5' � � . Für � � ist � eindeutig und wird dann mit �� bezeichnet.

6.1.3 Folgerung �+' ����' � � �� � ���� besteht aus genau einem Punkt, demSchnittpunkt von � und .

(A2) Dimension einer Geraden Jede Gerade besteht aus mehr als einem Punkt. Dies be-deutet, daß, wenn wir die Punkte als die nulldimensionalen Bausteine ansehen, eine Gerademindestens eindimensional ist.

(A3) Dimension der Ebene Die Ebene besteht aus mehr als einer Geraden. Dies bedeu-tet, daß, wenn wir die Geraden als die eindimensionalen Bausteine ansehen, die Ebenemindestens zweidimensional ist.

(A4) Parallelität ist eine Äquivalenzrelation D. h., es gelten die Bedingungen:

Reflexivität: Jede Gerade ist zu sich selbst parallel.

Symmetrie: Ist � parallel zu , so auch zu � .Transitivität: Ist � parallel zu und parallel zu , so auch � zu .

(A5) Parallelenaxiom � ��� und +� ��� � genau ein ��� mit � � und �� � .

Page 28: Lineare Algebra

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 23

Zur Formulierung der letzten Eigenschaft benötigen wir folgende Begriffe:

6.1.4 Definition von paraller und perspektivischer Lage Zwei Dreiecke mit denEcken � � ' � 8 ' � � und � � ' � 8 ' � � sind in paralleler Lage zueinander, wenn es drei verschie-dene parallele Geraden � � '-� 8 '.� � gibt mit � � ' � � ��� � für � �� '�� ' � . Sie sind in perspektifischerLage, wenn es drei verschiedene Geraden gibt, die sich in einem sogenannten Zentrum � schnei-den, so daß wieder � � ' � � ��� � für � �� '�� ' � .

(A6) Parallelitätseigenschaft von Desargues Wenn bei zwei Dreiecken in paralleleroder perspektifischer Lage zwei entsprechende Seitenpaare parallel sind, so sind es auchdie dritten Seitenpaare. Mit den Bezeichnungen von 6.1 auf der vorherigen Seite.4:

� � � 8 � � � � 8 und � � � ��� � � � � � � 8 � � � � 8 � � .

A1

A2

A3

B1

B2

B3

g1

g2

g3

Abbildung 1: Die Desargues’sche Parallelitätseigenschaft

Diese Eigenschaft kann als eine Schließungseigenschaft angesehen werden: Wenn wir vorgehenwie in der Zeichnung und als letztes die Parallele zu � 8 � � durch � � ziehen, dann schließt sichdie Figur im Punkt � 8 .6.1.5 Definition einer affinen Ebene Eine Menge � von Punkten und eine Menge �von Geraden wie in 6.1 auf der vorherigen Seite.1 mit diesen sechs Eigenschaften (A1) bis (A6)heißt eine affine Ebene.

6.1.6 Bemerkung In der Tat kommt man mit zwei Axiomen weniger aus; denn (A2) und(A4) folgen aus den übrigen Axiomen.

6.1.7 Bemerkung Nach unserer Erfahrung ist die Anschauungsebene eine affine Ebene.Mit einer affinen Ebene haben wir also ein mathematisches Modell für die Anschauungsebeneaufgestellt. Es ist ein einfaches Modell, weil es auf nur sechs Grundeigenschaften (Axiomen)fußt. Um Zeichnungen anzufertigen benötigen wir nur ein Lineal ohne eine Skala und einenbeliebigen Winkel, auf dessen Winkelmaß es nicht ankommt. Es lassen sich aus diesem Mo-dell nicht alle Eigenschaften ableiten, welche die Anschauungsebene sonst noch hat, aber esbeschreibt genügend Eigenschaften, daß wir daraus den geometrisch anschaulichen Vektorraumherleiten können. Das ist im folgenden unser Ziel.

Page 29: Lineare Algebra

24 III Gruppen, Vektorräume, Körper

Abbildung 2: Zeichnerische Konstruktion der Parallelen

6.2 Die additive Gruppe der geometrischen Vektoren6.2.1 Definition einer gerichteten Strecke Ein geordnetes Punktepaar

� �:'� � nennenwir eine gerichtete Strecke. „Geordnet“ bedeutet, daß festgelegt ist, welches der erste Punkt oderder Anfangspunkt und welches der zweite Punkt oder der Endpunkt ist. Hier ist also � der An-fangspunkt und der Endpunkt. Wir lassen auch den Fall zu, daß � ist; hier ist die Streckezu einem Punkt zusammengeschrumpft.

Wir veranschaulichen uns eine gerichtete Strecke durch die Punkte zwischen � und inklusive� und . Unter gerichtet stellen wir uns vor, daß ein Durchlaufungssinn der Strecke gegeben ist—hier von � nach . Dieser Durchlaufungssinn wird in einer Zeichnung angedeutet, indem wiram Endpunkt eine Pfeilspitze anbringen. Kurz, wir veranschaulichen uns eine gerichtete Streckedurch einen Pfeil, und weil wir uns eine gerichtete Strecke durch einen Pfeil veranschaulichenkönnen, wollen wir für eine gerichtete Strecke auch die Bezeichnung Pfeil verwenden. Wir ver-merken jedoch, daß für keine Argumentation der Begriff „zwischen“ verwendet werden muß, erdient nur der Veranschaulichung.

6.2.2 Definition von parallelen Pfeilen Sei� ����' �� � ein Pfeil und � ein Punkt. Der zu� ����' �� � parallele Pfeil

� �5' � mit Anfangspunkt � wird wie folgt definiert:

1. Für ��� �� sei 1 � und� �5' � � �5'�� � der parallele Pfeil .

2. Für ��� � �� und � ������ �� ziehen wir die Parallele zu � 1 ��� �� durch � . Außerdemziehen wir die Parallele zu ��� � durch �� und setzen 1 � . (Daß � aus genaueinem Punkt besteht, folgt aus den vorstehenden Eigenschaften!)

3. Für ��� � �� und � � ��� �� wählen wir einen Hilfspunkt � � �� ��1 ��� �� . Dann sei� � � ' � � der gemäß vorhergehendem Fall definierte zu� ����' �� � parallele Pfeil mit An-

fangspunkt � � . � �:'� � sei dann der zu� � � ' � � parallele Pfeil mit Anfangspunkt � .

Diese Konstruktion von� �:'� � ist unabhängig von der Wahl des Punktes � � .

Page 30: Lineare Algebra

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 25

Abbildung 3: Paralleler Pfeil

Abbildung 4: Die Wohldefiniertheit des parallelen Pfeiles durch �6.2.3 Satz Parallelität von Pfeilen ist eine Äquivalenzrelation in der Menge aller Pfeile.

6.2.4 Definition und Repräsentierung eines geometrischen Vektors Eine Äqui-valenzklasse paralleler Pfeile heißt ein geometrischer Vektor. Geometrische Vektoren bezeichnen

wir mit �('�� '�� ' etc. Die Äquivalenzklasse eines Pfeiles� �5' � wird mit

��� bezeichnet.

Ein Pfeil� �5' � aus einer Äquivalenzklasse � wird ein Repräsentant von � genannt. Zu jedem

geometrischen Vektor � und jedem Punkt � gibt es genau einen Repräsentanten� �5' � von �

mit Anfangspunkt � . Diesen Repräsentanten� �:'� � von � bezeichnen wir mit ��� oder kurz,

wenn aus dem Zusammenhang oder einer Zeichnung klar ist, was gemeint ist, mit dem gleichenZeichen � , mit dem wir auch den Vektor bezeichnen. Wir sagen, der Pfeil

� �5' � ist der vomPunkt � aus abgetragene Vektor � ; ist also der Endpunkt des von � aus abgetragenen Vektors� .

6.2.5 Definition der Addition von Vektoren Seien �('�� zwei geometrische Vektoren.Wir wählen einen Repräsentanten

� �5' � von � und von � den Repräsentanten mit Anfangspunkt

Page 31: Lineare Algebra

26 III Gruppen, Vektorräume, Körper

Abbildung 5: Transitivität

. Wenn wir den Endpunkt des letzteren mit � bezeichnen, so ist also� ' � � ein Repräsentant

von � . Dann sei � � � die Äquivalenzklasse von� �5' � � .

��� � 1 �� � für � �� und � � �

Abbildung 6: Die Addition von Vektoren

Die Definition ist unabhängig von der Wahl von� �5' � � � .

Abbildung 7: Die Unabhängigkeit von der Wahl von� �5' �

6.2.6 Satz Mit dieser Definition der Addition bilden die Vektoren eine additive Gruppe.

Page 32: Lineare Algebra

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 27

6.3 Skalare und Skalarenmultiplikation6.3.1 Definition Wir wählen eine Gerade � und zwei verschiedene Punkte � ' � ��� festaus. � wird uns als Zahlengerade (Skalarengerade) dienen mit den Punkten � als Nullpunktund dem Punkt

�als Einselement einer noch zu definierenden Addition und Multiplikation der

Skalaren. Wie bisher bezeichnen wir die Skalaren mit griechischen Buchstaben und definierendas � -fache eines Vektors � wie folgt:

1. Fall: Der Repräsentant ��� � �#'�� � von � der in � beginnt, liegt nicht in � : Sei die(eine) Gerade, in der

� �#'�� � liegt, die Parallele zur Geraden� � durch den Skalar � und

1 �� . Dann ist �#�&� die Klasse von Pfeilen, die durch� �#'� � repräsentiert wird.

Abbildung 8: Skalarenmultiplikation

2. Fall: ��� liegt in � . Wir wählen einen Hilfsvektor � , so daß ��� nicht in � liegt. ��� � ist dannnach dem 1. Fall bereits definiert. Sei der Endpunkt von ��� und � der Endpunkt von� � � � � � . Sei die Parallele zu �� durch � und �$1 �%� . Dann ist

� �#' � � ein Repräsentantvon � � � . Diese Definition hängt nicht von der Wahl des Hilfsvektors � ab, wie mit derDesargues’schen Parallelitätseigenschaft bei perspektivischer Lage gezeigt werden kann.

6.3.2 Definition der Multiplikation von Skalaren �.' � miteinander

Trage �#� ��� von � aus ab; der Endpunkt ist � � .

6.3.3 Strahlensatz der Affinen Geometrie � und seien zwei verschiedene Geraden,die sich in einem Punkt � schneiden. Wir nehmen an, daß �

� ist, andernfalls gehen wir zueiner parallelen Figur über. Seien �5'�� � ��� , ' � � und �� � � � � . Sei ferner:

� 1 �� � ' � 1 �� �' � 1 ���� � 1 �� � �' �

� 1 �� �' � � 1 �� � �Dann ist � � das gleiche Vielfache von � wie

�� von

�und wie � � von � .

6.3.4 Erstes Distributives Gesetz Es gilt: �(����� � � � ��� � �

Page 33: Lineare Algebra

28 III Gruppen, Vektorräume, Körper

Abbildung 9: Zum Strahlensatz

Abbildung 10: Zum ersten Distributiv-Gesetz

6.3.5 Definition der Addition von Skalaren

Trage den Vektor��� vom Punkt � aus ab; der Endpunkt des abgetragenen Vektors ist � � � .

Anders ausgedrückt: Bilde zum Pfeil� �#' � � den parallelen Pfeil

� �-' � � mit Anfangspunkt � .Dann ist � ��� 1 � .

6.3.6 Neutralität von�

Es gilt:� �9� � . Außerdem ist

�auch das Einselement der

Multiplikation von Skalaren miteinander,� �

.

6.3.7 Assoziativität der Skalarenmultiplikation Es gilt: � � � � � � � � � �

Page 34: Lineare Algebra

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 29

Abbildung 11: Zum Assoziativgesetz der Multiplikation von Skalaren mit Vektoren

6.3.8 Assoziativität der Multiplikation von Skalaren miteinanderEs gilt: � � ��� � � � � � �

Abbildung 12: Assoziativität der Multiplikation von Skalaren miteinander

6.3.9 Das Inverse Das zu � inverse Element � � � wird wie in folgender Zeichnung kon-struiert.

Abbildung 13: Konstruktion des Inversen

6.3.10 Zweites Distributives Gesetz Es gilt: � ��� � � � � ��� � �

Page 35: Lineare Algebra

30 III Gruppen, Vektorräume, Körper

Abbildung 14: Zum zweiten Distributiv-Gesetz

6.3.11 Das Kommutativgesetz Das Kommutativgesetz der Multiplikation von Skalarenmiteinander kann aus den bisherigen Axiomen nicht bewiesen werden; denn es gibt affine Ebe-nen, bei denen es verletzt ist. Z. B. , wenn

�der von William Rowan Hamilton 1843 entdeckte

und nach ihm benannte nicht kommutative Körper der Quaternionen ist, dann kann� 8 als eine

affine Ebene aufgefaßt werden (s. Abschnitt XIII.5 auf Seite 161). Der wie oben geometrischkonstruierte Körper ist wieder

�, also nicht kommutativ. Die Kommutativität kann geometrisch

charakterisiert werden, und zwar folgendermaßen:

(A7) Parallelitätseigenschaft von Pappos Seien �+' zwei verschiedene Geraden, die sichin einem Punkt � treffen. � � ' � 8 ' � � � � ' � � '�� 8 '�� � � seien jeweils paarweise undvon � verschiedene Punkte. Dann gilt:

� � � ��� � ��� � und � 8 � ��� � ��� 8� � � � 8 � � 8 � �

A1A2A3

B1

B2

B3g

hZ

Abbildung 15: Parallelitätseigenschaft von Pappos und Kommutativität

6.3.12 Abschließende Bemerkung Die gegebene Definition einer affinen Ebene ist diesogenannte synthetische Definition. Die Ableitung eines Körpers und eines Vektorraumes überdiesem Körper heißt Algebraisierung, der konstruierte Körper der Algebraisierungskörper. InKapitel XIII auf Seite 155 wird zu einem Vektorraum über einem Körper ein affiner Raum defi-niert. Diese analytische Definition eines affinen Raumes führt zur Analytischen Geometrie.

Page 36: Lineare Algebra

IV.1 Linearkombinationen 31

IV Lineare Abhängigkeit

Im folgenden ist�

stets ein Vektorraum über einem festen Körper � .

IV.1 Linearkombinationen

1.1 Definition

Sei� � � � � � ����� ein System (oder eine Familie) von Vektoren � � � �

. Dabei sei � irgendeineMenge, genannt Indexmenge des Systems. Jedem Element, d. h. Index, �� � ist also eindeutigein Vektor � � � �

zugeordnet.

Ein Ausdruck der Art � � �������� � � � mit � � � �

heißt eine Linearkombination des Systems. Für einen Vektor � � �heißt die Gleichung

� � � � � ������� � � � mit � � � �

eine lineare Darstellung von � durch das Systems. Ein � � �heißt linear darstellbar durch das

System, wenn eine lineare Darstellung existiert. Das wichtigste Beispiel ist � � '�� '������ ' � � .Dann ist ein System nichts anderes als ein � -tupel von Vektoren. In das allgemeine Konzept kannauch der Fall eingebaut werden, daß � eine unendliche Menge ist; es muß nur zusätzlich verlangtwerden, daß nur endlich viele � � in einer Linearkombination verschieden von null sein dürfen,damit die Summe einen Sinn macht.

1.2 Definition

Ein System� � � � � � ����� wie oben heißt linear abhängig, wenn der Nullvektor � eine lineare

Darstellung durch das System besitzt, in der nicht alle � � � sind, eine sogenannte nicht trivialelineare Darstellung des Nullvektors.

Andernfalls heißt das System linear unabhängig; in anderen Worten, wenn stets aus� ����� � � � � � folgt � � � für alle � � � . Oder äquivalent: Der Nullvektor ist nur auf eineWeise (die triviale Weise, die es immer gibt) durch das System linear darstellbar.

1.3 Kriterium

� � � � ����� ist linear abhängig. ! Ein � ��� läßt sich durch die anderen � � linear darstellen.

Page 37: Lineare Algebra

32 IV Lineare Abhängigkeit

1.4 Beispiele

1. Ist ein � � � , so ist das System linear abhängig.

2. Zwei Vektoren � � ' � 8 � � (= Vektorraum der 1-tupel) sind immer linear abhängig.

3. Sind zwei der � � gleich, so ist das System linear abhängig.

4. Ist ein Teilsystem linear abhängig, so auch das ganze System.

5. Ein einzelner Vektor ist linear abhängig ! � � .6. Die Funktionen � � ' � 8 ' �� mit ��� � 0 � 1 � '�� 8

� 0 � 1 � � 0 '��� � 0 � 1 0/� 0 � sind linearunabhängig im Vektorraum der Funktionen �)1 � � � .

IV.2 Erzeugendensystem, Basis

2.1 Definition

Können wir jedes � � �durch

� � � � ����� linear darstellen, so heißt� � � � ����� ein Erzeugendensystem

von�

.

Gibt es ein endliches Erzeugendensystem, d. h. eines mit endlicher Indexmenge � , dann heißt�

endlich erzeugt.

Ein linear unabhängiges Erzeugendensystem von�

heißt eine Basis von�

.

2.2 Satz

Ist�

endlich erzeugt, so gibt es eine Basis von�

.

2.3 Beispiel

��� � � � ' � 8 '������ � � ��� � � � � für � � '�� '������ ' � � , der Vektorraum der � -tupel von Skalarenaus � , hat die Basis:

� ��� ' � 8 '������ ' � � � 1 � � � ' � '������ ' � � ' � � ' � ' � '������ ' � � '������ ' � � ' � '������ ' � ' � � �Sie heißt kanonische Basis von � � .

2.4 1. Basiskriterium

Sei� � � � .

Ein Erzeugendensystem� � � � � � ����� von

�ist eine Basis !

Jeder Vektor � � �ist eindeutig durch

� � � � � � ����� linear darstellbar.

Page 38: Lineare Algebra

IV.3 Unterräume 33

2.5 Definition

Sei� � � � ����� eine Basis von

�und � � ����� � � � � , � � '�� '������ ' � � .

Dann heißen die eindeutig bestimmten Vektoren � � � � ' � � '�� '������ ' � die Komponenten von �und die Skalaren � � ' � � '�� '������ ' � die Koordinaten von � � �

bezüglich der Basis� � � � ����� .

2.6 2. Basiskriterium

Ein System� � � � ����� ist eine Basis !� � � � ����� ist ein maximales System von linear unabhängigen Vektoren von

�.

„Maximal“ heißt: Nach Hinzunahme irgendeines weiteren Vektors wird das System linear ab-hängig.

2.7 Austauschsatz von Steinitz

�sei endlich erzeugt und

� � � '�������' � � � eine Basis von�

. Sei � � �� � � � � � � � Sei � � � � fürein � � '�� '������ ' � � . Dann ist

� � � '�������' � � � � ' �+' � � � � '������ ' � � � ebenfalls eine Basis von�

. Es istdabei „ � � durch � ausgetauscht.“

2.8 Verschärfter Austauschsatz von Steinitz

� ��� '�������' � � � sei eine Basis von�

und � � '������ ' � � linear unabhängige Vektoren von�

.

Dann ist � � � und es gibt � ��� der Vektoren � � '�������' � � , die mit � � '�������' � ��� � bezeichnetseien, so daß

� � � '������ ' � ��� ��' � � '������ ' � � � eine Basis von�

ist. Es lassen sich also � geeignete � �durch � � '�������' � � austauschen, so daß das System eine Basis bleibt.

2.9 Basisergänzungssatz

In einem endlich erzeugten Vektorraum�

läßt sich jedes System linear unabhängiger Vektorenzu einer Basis ergänzen.

2.10 Satz und Definition

Für einen endlich erzeugten Vektorrraum�

gilt:

Alle Basen haben die gleiche Anzahl von Vektoren.

Unter Dim(�

), der Dimension eines endlich erzeugten Vektorraumes�

, wird die Anzahl derVektoren einer Basis verstanden.

Page 39: Lineare Algebra

34 IV Gruppen, Vektorräume, Körper

2.11 Konvention: Dim( ��� � �

IV.3 Unterräume

3.1 Definition

Ein Vektorraum � über � heißt ein Untervektorraum von� 1 !

1. Jeder Vektor von � ist auch Vektor von�

, d. h. �� �und

2. die Summe von Vektoren von � und das Produkt von Skalaren mit Vektoren von � ist imVektorraum � dasselbe wie im Vektorraum

�.

Gilt � � �, so wird � ein echter Unteraum von

�genannt. Wenn keine Verwechslungen

entstehen können sprechen wir auch kurz von einem Unterraum.

3.2 Satz und Definition

� sei eine nicht leere Teilmenge von�

mit folgenden Eigenschaften:

1. �.'�� � � � � �;� � � � �

2. � � ��' � � � � � � � �

Dann ist � zusammen mit der Vektoraddition und Skalarenmultiplikation von�

, die aber nurauf Elemente von � angewendet werden, ein Untervektorraum von

�.

Die beiden Bedingungen werden Abgeschlossenheit der Teilmenge � bezüglich der Additionund Skalarenmultiplikation von

�genannt.

3.3 Definition und Satz

Gegeben sei ein System� � � � ����� von Vektoren � � von

�. Dann wird

� 1 �� ������

� � � � � � � � ��' alle � � � bis auf endlich viele Ausnahmen �die lineare Hülle von

� � � � ����� genannt und mit � � � � � � ����� � bezeichnet.� � � � � � ����� � erfüllt die Bedingungen 3.2 und ist deswegen ein Untervektorraum von�

.

3.4 Bemerkung� � � � � � ����� � ist der kleinste Untervektorraum, der alle � � ' � � � enthält.

Page 40: Lineare Algebra

IV.3 Unterräume 35

3.5 Beispiel

� � � � � � ����� � �, falls

� � � � ����� ein Erzeugendensystem von�

ist.

3.6 Satz

Sei � ein Untervektorraum des endlich erzeugten Vektorraumes�

. Dann ist auch � endlicherzeugt.

3.7 Satz

Ist � Untervektorraum des endlich erzeugten Vektorraumes�

, dann gilt:

Dim�� � � Dim

� � �

Das Gleichheitszeichen gilt dabei genau dann, wenn � �ist.

3.8 Durchschnitt

Sind � und � Untervektorräume von�

, so bildet der Durchschnitt, � ��� , der aus allenVektoren besteht, die sowohl zu � als auch zu � gehören, einen Untervektorraum von

�.

3.9 Verbindungsraum oder Summe

Sind � und � Untervektorräume von�

, so heißt die lineare Hülle der Vereinigung von �und � , � � ����� � , der Verbindungsraum oder die Summe von � und � ; dabei besteht dieVereinigung, ����� , aus allen Vektoren, die zu � oder zu � gehören. Es ist � � ����� � �*� � � � � �/' � ��� � . Daher der Name „Summe“ und die Bezeichnung � � ��� � � ��� .

3.10 Direkte Summe

Ein Unteraum � von�

heißt direkte Summe der Unterräume � � ' � 8 von�

, wenn � � ' � 8 � �und jeder Vektor � � � eine eindeutige Darstellung der Form �

� � � � 8 ' ��� � � � ' � 8 � � 8

hat. Ist � direkte Summe von � � ' � 8 , so bezeichnet man � auch mit � � � � 8 .

3.11 Satz

� ist direkte Summe von � � und � 8 ! � � �.� � 8 und � � � � 8 � � .

Page 41: Lineare Algebra

36 IV Gruppen, Vektorräume, Körper

3.12 Dimensionsformel

� und � seien endlich erzeugte Unterräume von�

. Dann ist auch ����� endlich erzeugt undes gilt :

Dim�� � � Dim

�� � Dim

��$��� � � Dim

�� � � �

3.13 Beispiele

1. Alle Polynome bilden einen Untervektorraum des Vektorraumes aller Funktionen � 1 ���� �

2. Polynome vom Grade� � ( � feste natürliche Zahl) bilden einen

�� � � � -dimensionalen

Untervektorraum des Vektorraumes aller Funktionen mit der Basis ��&' � � ' ������' �

� , wobei� � � � � � � ist für � � '������ ' � �Der Vektorraum der Polynome ist nicht endlich erzeugt, erst recht nicht der Vektorraumaller Funktionen � 1 ��� � .

mm6

IV.4 Äquivalenzrelationen und Quotientenräume

Wer keine Schwierigkeiten mit der mehr intuitiven Verwendung von Äquivalenzklassen in Ab-schnitt III.6 auf Seite 22 hatte, kann diesen Abschnitt erst einmal überspringen. In Beispiel 3.2auf Seite 72 und in Abschnitt IX.8 auf Seite 104 wird erklärt, wozu der Begriff eines Quotien-tenraumes nütze ist und wo er vorkommt.

4.1 Äquivalenzrelationen4.1.1 Der Begriff einer RelationZwischen zwei Elementen �.' � besteht eine bestimmte Beziehung oder Relation, wenn beideElemente zusammen eine gewisse Eigenschaft erfüllen. Zum Beispiel besteht eine geschäftlicheBeziehung zwischen zwei Personen, wenn Sie miteinander beruflich zusammenarbeiten. Dies istalso keine Eigenschaft eines Partners allein, sondern von beiden zusammen, von der Gesamtheitbeider.

Daß � Vater von � ist, läuft auch wieder auf eine Eigenschaft beider hinaus. Wir sehen an diesemBeispiel, daß es auf die Reihenfolge von � und � ankommen kann. Um eine solche Beziehungeinzubeziehen, müssen wir als die Gesamtheit von � und � nicht die Menge

�.' � � ansehen,sondern das (geordnete) Paar

� �.' � � .6A. Riede: Lineare Algebra, WS 98/99 bis WS 01/02

Page 42: Lineare Algebra

IV.4 Äquivalenzrelationen und Quotientenräume 37

Um eine Relation genau zu erklären, kommt es außerdem darauf an, anzugeben, aus welcherMenge � die Dinge �.' � etc. genommen werden.

Dann ist aber eine Beziehung zwischen zwei Dingen nicht anderes als eine Eigenschaft vonElementen

� �.' � � des kartesischen Produktes � � � . Der Begriff „Eigenschaft“ wird dabei alsein Grundbegriff genommen und nicht weiter erklärt als dadurch, daß von jedem Element

� �.' � �von � � � eindeutig feststehen muß, daß die Eigenschaft entweder erfüllt ist oder nicht.

Dafür, daß� �.' � � die Eigenschaft � besitzt, wird die Funktionsschreibweise � � �.' � � oder die

Operatorschreibweise �+� � verwendet.

4.1.2 Beispiele aus der Linearen Algebra

1. Isomorphie von Vektorräumen�

und � für� ' � � � , � eine Menge von Vektorräumen

über einem festem Körper � .

2. Gleiche Orientiertheit von Basen� ' � � eines � -dimensionalen reellen Vektorraumes. Zwei

Basen� ' � � ��� heißen gleich orientiert, wenn sie durch eine Basistransformation mit

positiver Determinante auseinander hervorgehen.

3. Äquivalenz von Matrizen: Zwei�

� � � � -Matrizen � ' � � � � ��� � ( � ein Körper) heißenäquivalent, wenn es eine reguläre Matrix � � � � � � und eine reguläre Matrix � � � � � �gibt mit

� � ����� � �

4. Ähnlichkeit von Matrizen: Zwei�

� � ��� -Matrizen � ' � � � � ��� � ( � ein Körper) heißenähnlich oder konjugiert zueinander, wenn es eine reguläre Matrix � � � ��� � gibt mit

� � � � � � �

5. Konjugiertheit von Endomorphismen (:= linearen Selbstabbildungen eines Vektorraumes�): � konjugiert � 1 ! � ein Automorphismus � von

�(ein Isomorphismus von

�mit

sich selbst), so daß gilt:� ��� � � �

Diese Beispiele haben die folgenden Eigenschaften und sind daher Äquivalenzrelationen.

4.1.3 Eigenschaften von RelationenEine Relation � auf der Menge � heißt

reflexiv 1 ! +����� gilt 1 �+���symmetrisch 1 ! +�.' � ��� gilt 1 �+� � � � ���transitiv 1 ! +�.' � ' � ��� gilt 1 � �+� � und � � � � � �+� �

Page 43: Lineare Algebra

38 IV Gruppen, Vektorräume, Körper

4.1.4 Definition von Äquivalenzrelation und ÄquivalenzklasseEine Relation � auf einer Menge � , die diese drei Eigenschaften hat, heißt eine Äquivalenzre-lation. Bei einer Äquivalenzrelation schreiben wir ����� � anstelle von � � �.' � � und sagen dafür� ist bei der Relation � äquivalent zu � . Meist wird die Kurzform verwendet ��� � , lies: „ �äquivalent � “, wenn klar ist, welche Relation gemeint ist oder wenn in einem Zusammenhangnur eine Relation betrachtet wird.

Ist � � � , dann heißt die Menge� � � � aller zu � äquivalenten Elemente die Äquivalenzklasse

von � bezüglich � . Die Äquivalenzklassse von � wird auch mit � oder mit� ��� bezeichnet. Jedes

Element einer Äquivalenzklasse heißt ein Repräsentant der Äquivalenzklasse.

4.1.5 Satz über die ÄquivalenzklassenFür eine Äquivalenzrelation � auf der Menge � gilt:

1. Äquivalente Elemente haben dieselbe Äquivalenzklasse, d. h.:��� � � � � � � � � � �

2. Zwei Äquivalenzklassen sind entweder disjunkt oder stimmen überein.

3. Jedes Element liegt in genau einer Äquivalenzklasse. Oder mit anderen Worten: � ist diedisjunkte Vereinigung der verschiedenen Äquivalenzklassen. Hierfür wird auch gesagt:Die verschiedenen Äquivalenzklassen bilden eine Zerlegung oder Partition von � .

4.1.6 Definition der QuotientenmengeDie Menge, deren Elemente die Äquivalenzklassen bezüglich einer Äquivalenzrelation � aufeiner Menge � sind, heißt die Quotientenmenge von � nach � . Sie wird mit � � � bezeichnet.

4.2 Quotientenräume4.2.1 Gleichheit modulo einem Untervektorraum�

sei ein Vektorraum über einem festen Körper � , und � ein Untervektorraum von�

. Dann istdurch

��� � 1 ! �"� � � �eine Äquivalenzrelation auf

�definiert. Andere Formulierung:

�� � 1 ! � ��� � so daß � � � �

In Worten: � und � sind gleich bis auf Addition eines Vektors aus � , wofür auch die Redeweiseverwendet wird:

„ � � modulo � “

Wir veranschaulichen uns dies in der Anschauungsebene (oder euklidischen Ebene), in der einfester Punkt � als Nullpunkt und eine Gerade � durch � gewählt sind. Als geometrische Vektorensehen wir die Pfeile an, die in � beginnen.

�sei der Vektorraum der geometrischen Vektoren

der Anschauungsebene und � der Untervektorraum der Pfeile, die in � liegen. Dann ist � �

modulo � ! Die Endpunkte der Pfeile � und � liegen auf einer zu � parallelen Geraden.

Page 44: Lineare Algebra

IV.4 Äquivalenzrelationen und Quotientenräume 39

4.2.2 Äquivalenzklasse modulo einem UntervektorraumDie Äquivalenzklasse von � , die auch Nebenklasse von � modulo � genannt wird, ist:

� � � � � � � � � � 1 � � � � � � � �Im obigen Anschauungsbeispiel

� � � � die Menge aller Pfeile, deren Spitze auf einer von � ab-hängigen parallelen Geraden liegt.

4.2.3 Addition von Äquivalenzklassen modulo USeien

�� und

8 zwei Äquivalenzklassen mod. � , dann wählen wir Repräsentanten � � �� und

� � � 8 und definieren:�� � �

8 1 � ��� � � � �

Diese Definition ist unabhängig von der Wahl der Repräsentanten! Dafür wird auch gesagt, dieAddition von Äquivalenzklassen ist „wohldefiniert“. Da

�� � � � und

8

� � � , kanndie Addition auch geschrieben werden in einer intuitiven Form, die allerdings nicht so deutlichmacht, daß die Definition zunächst Repräsentanten benutzt:

� ��� � � � � �$� � � � � � � � � � oder� � � � � � �

� � � � � � � �

4.2.4 Skalarenmultiplikation von Äquivalenzklassen modulo UFür eine Äquivalenzklasse

�mod. � wird definiert:

� � � 1 � � ��� � � �/' � Repräsentant von�

Diese Definition ist unabhängig von der Wahl des Repräsentanten, die Skalarenmultiplikationvon Äquivalenzklassen ist „wohldefiniert“. Anders aufgeschrieben:

� � � ��� � � � �(� � � � oder � � � � � � � � �(� �

4.2.5 Definition und Satz über den Quotientenraum

1. Ist � die Äquivalenzrelation Kongruenz modulo U, dann ist� � � 1 � � � � ' � ' � � ein

Vektorraum über � , der Quotientenraum oder Faktorraum von�

modulo � .

2. Sei�

die Abbildung, die einem Vektor � � �seine Äquivalenzklasse

� � � � zuordnet.Dann ist

� 1 � � � � � ist ein Vektorraum-Homomorphismus.

3. Ist � 1 � � � eine lineare Abbildung mit � � � � � ��� , dann ist

� 1 � � � � � mit � � � � � � 1 � � � �

eine wohldefinierte lineare Abbildung mit � � � ; durch diese Gleichung ist � eindeutigbestimmt.

Page 45: Lineare Algebra

40 V Lineare Abbildungen und Matrizen

V Lineare Abbildungen und Matrizen

Wenn nichts anderes ausdrücklich gesagt wird, bezeichnen�

und � in diesem Kapitel Vektor-räume über � und � 1 � � � eine lineare Abbildung. Ab jetzt verstehen wir unter � � denVektorraum der Spalten- � -tupel. Auch eine Basis schreiben wir als eine Spalte von Vektoren.Eine Spalte schreiben wir aus drucktechnischen Gründen auch in der Form

������ �� 8...� �

����� 1 � ��� '�������' � � ��� lies: „ ��� '�������' � � transponiert“

V.1 Beispiele und Definition

1.1 Koordinatenzuordnung

Sei� ��� '������ ' � � � � eine Basis eines Vektorraumes über � . Ordnen wir jedem Vektor � � �

seinKoordinaten- � -tupel

� ��� '�������' � � � � bezüglich der Basis� 1 � � � '�������' � � � � zu, so erhalten wir

eine Abbildung:

1 � � � � ' � � � 1 � � � '�������' � � ��� ' wobei � ��� � � � � � � ist.

hat folgende Eigenschaften: Für alle �.' � � �gilt:

1. � � ��� � � � � �� � � �

2. � � � � � � � �

3. ��� � � � � d. h. ist eine surjektive Abbildung.

4. � � � � � � � � � � d. h. ist eine injektive Abbildung.

1.2 Definition

Seien� ' � Vektorräume über � . � 1 � � � ist eine lineare Abbildung oder ein Homomorphis-

mus von Vektorräumen 1 ! Die folgenden Axiome für eine lineare Abbildung sind erfüllt:� � Additivität: � � � ��� � � � � � ��� � � � für alle �.' � � �

� � Homogenität: � � � � � � � � � � für alle ��� �und alle � � �

Page 46: Lineare Algebra

V.1 Beispiele und Definition 41

1.3 Beispiele

1. Die Nullabbildung � 1 � � � � � � � � 1 � ��� für alle � � �.

2. Obige Koordinatenzuordnung .

3. Sei�

der Vektorraum der homogenen linearen Gleichungen

��1��� � � � � � � �

in � Unbekannten. Die Zuordnung � 1 ���� � � � '������ ' � � � � ist eine lineare Abbildung� 1 � � � � �

4. Sei�

beliebig und � �, und sei ��� ��'�� � � � Dann heißt � 1 � � �

mit � � � � 1 �+�für alle ��� �

eine Streckung um den Faktor � . � ist linear.

5. Sei� ��� � ' � 1 � � � ' � � � � 1 �.' falls � � � � ' ��� � und � � � � � ist eine

lineare Abbildung; sie heißt Parallelprojektion von�

auf � längs � .

Für ein weiteres Beispiel benötigen wir:

1.4 Definition und Satz

Das Produkt einer� � � ��� -Matrix � mit einer Spalte � � � � '������ ' � � � � aus � Koeffizienten

ergibt per Definition das folgende Spalten- � -tupel ����� :

���� �

�������

� � � 8 ����� � �... � � � 8 ����� � �... � � � 8 ����� � �

�������� �

���� � 8... �

������� �

�������

� � � � � 8 8� ����� � � �

�...

� � � � � 8 8� ����� � � �

�...

� � � � � 8 8 � ����� � � � �

��������

Der -te Koeffizient von ����� ist also:��� � � � � � � �

Eigenschaften des Matrizenproduktes:� � Additivität: ��� � � ��� � ����� � ��� � für alle �.' � � � �

� � Homogenität: ��� � � � � � � ����� � für alle ��� � � und alle � � �

1.5 Beispiel

Sei � eine� � � � � -Matrix. Wir definieren eine Abbildung �$1 � ��� � � durch � � � � 1 �<� �

für alle � � ��� . Dann ist � linear wegen obiger Eigenschaften.

Page 47: Lineare Algebra

42 V Lineare Abbildungen und Matrizen

1.6 Folgerungen aus den Axiomen

1. � � � � �

2. � � �:� � � � � � �

3. � � ��� ���.� �&�&�&��� � � � � � � � � ��� � �<�&�&����� � � � � � �4. ��� '�������' � � linear abhängig � � � � � � '�������' � � � � � linear abhängig

5. Ist� ��� '������ ' � � � � eine Basis von

�, so ist eine lineare Abbildung ��1 � � � eindeutig

durch die Bilder der Basis� � � � � � '�������' � � � � � � � bestimmt. Sind � � '������ ' � � irgendwelche

Vektoren von � , so gibt es (genau) eine lineare Abbildung � 1 � � � mit � � � � � � � ' � � '������ ' � .

V.2 Weitere Eigenschaften linearer Abbildungen

2.1 Definition: Sei � 1 � � � ein Homomorphismus von Vektorräumen.

Kern� � � 1 � � � � � � � �

Bild� � � 1 � ��� � � �

2.2 Satz

1. Kern( � ) und Bild( � ) sind Unterräume von�

bzw. � .

2. � ist injektiv ! Kern( � ) = � �

3. � injektiv und � � '������ ' � � linear unabhängig �� � ��� � '�������' � � � � � linear unabhängig.

2.3 Dimensionsformel

Sei � 1 � � � linear und�

endlich erzeugt. Dann ist auch � ��� � endlich erzeugt und es gilt:

Dim��� � Dim

�Kern

� � � � � Dim�Bild

� � � �

2.4 Rang einer linearen Abbildung

Der Rang einer linearen Abbildung � ist definiert durch: Rg� � � 1 Dim

�Bild

� � � � Durch Ein-setzen in obige Dimensionsformel erhalten wir die sogenannte Rangformel:

Dim��� � Dim

�Kern

� � � � � Rg� � �

Page 48: Lineare Algebra

V.3 Basis- und Koordinaten-Transformationen 43

2.5 Satz über die Inverse einer bijektiven linearen Abbildungen

Ist � 1 � � � eine bijektive lineare Abbildung, so ist auch � � � linear.

2.6 Satz über die Komposition linearer Abbildungen

Sind � 1 � � � und � 1 � � � lineare Abbildungen,� ' � ' � also Vektorräume über � ,

dann ist auch �� � 1 � � � linear.

2.7 Definition und Satz

Eine Abbildung von�

nach � heißt isomorph oder ein Isomorphismus von Vektorräumen, wennsie linear und bijektiv ist.

Vektorräume�

und � heißen isomorph, wenn es einen Isomorphismus von�

nach � gibt.Bezeichnungen:

� 1 � ��� � � bedeutet: � ist ein Isomorphismus von�

nach � .� � � bedeutet:

�und � sind isomorph zueinander.

Id � 1 � � �ist ein Isomorphismus.

� isomorph � � � � isomorph� �� � �� �/' �+' � isomorph � �� � isomorph

2.8 Beispiel

Die Koordinatenzuordnung 1 � � � � ist ein Isomorphismus (vgl. 1.1 auf Seite 40).

2.9 Bemerkung

Ist � 1 � � � ein Isomorphismus, so sind Vektoren � � '������ ' � � ��

genau dann linear unab-hängig, wenn � � � � � '�������' � � � � � ��� es sind.

Insbesondere für die Koordinatenzuordnung � 1 � ��� ��� sind � � '�������' � � � �genau dann

linear unabhängig, wenn ihre Koordinaten- � -tupel � � � � '������ ' � � � � � ��� es sind.

2.10 Satz

Sind�

und � endlich erzeugt, dann gilt:� � � ! Dim

��� � Dim�� �

Page 49: Lineare Algebra

44 V Lineare Abbildungen und Matrizen

V.3 Basis- und Koordinaten-Transformationen�

sei ein � -dimensionaler Vektorraum über � , � � �.

3.1 Definition

Der Übergang von einer Basis�: � � � '�������' � � � � zu einer Basis

�� � � � � '������ ' � �� � � heißt eine Ba-

sistransformation. Der Übergang von den Koordinaten� � � '������ ' � � � � bezüglich

� ��� '�������' � � � � zuden Koordinaten

� � � � '������ ' � �� � � bezüglich� � � � '�������' � �� � � heißt eine Koordinatentransformation.

3.2 Definition und Satz

Eine Basistransformation wird beschrieben durch

� �� ��� � � � � � � � ' � � '�������' � � � � � � � �

Dabei hat die hierdurch definierte Matrix

������ � � � � 8 �&�&� � � �� 8 � � 8 8 �&�&� � 8 �...� � � � � 8 �&�&� � � �

�����

den Rang � , wobei Rang( � ):=Maximalzahl linear unabhängiger Zeilen. Sie heißt die Matrix derBasistransformation. Zu jeder

�� � � � -Matrix � vom Rang � gehört eine Basistransformation,

deren Transformationsmatrix � ist. Eine Basistransformation kann in Verallgemeinerung vonV. 1.4 auf Seite 41 auch in Matrizenform geschrieben werden:������ � �� � 8...� ��

�����

������ � � � � 8 �&�&� � � �� 8 � � 8 8 �&�&� � 8 �...� � � � � 8 �&�&� � � �

����� �

��������� 8...� �

����� 1

������ � � ���-��� � 8 � 8 �<�&�&� � � � � � �� 8 � ���-��� 8 8 � 8 �<�&�&� � � 8 � � �...� � � ���-��� � 8 � 8 �<�&�&� � � � � � �

�����

Kurz: �� ��� �

3.3 Satz und Definition

Zur Basistransformation�� ��� � gehört die Koordinatentransformation:

Page 50: Lineare Algebra

V.4 Die Matrix einer linearen Abbildung 45

��������� 8...� �

�����

������ � � � 8 � �&�&� � � �� � 8 � 8 8 �&�&� � � 8...� � � � 8 � �&�&� � � �

����� �

������ � �� � 8...� ��

�����

Die Koordinatentransformation von� � �� � nach

� � � � wird durch die transponierte Matrix � � be-schrieben:

� � � � � � � � � �� �

Dabei heißt die Matrix � � � � � � mit den Koeffizient� � � � � � die zu � � � � � � transponierte

Matrix. Die Transponierte � � von � kann auch als die Matrix beschrieben werden, deren � -teZeile die � -te Spalte von � ist. Offensichtlich gilt:

�� ��� � �

V.4 Die Matrix einer linearen Abbildung

Im folgenden sind� � � � '������ ' � � � � und

�� �

� � '������ '���� � � Basen des Vektorraumes�

bzw.� über � .

4.1 Definition

Sei � 1 � � � linear. Dann sei

� � � � � ��� � � � � � � �

die lineare Darstellung von � � � � � durch die Basis�� � '�������'���� � . Die daraus gebildete Matrix

wird die (Abbildungs-) Matrix � � von � bezüglich�

und�� genannt:

� �"1 � 1 � � � � �� � � ������� � �� � � ������� � � (5)

Anders ausgedrückt, besagt diese Definition, daß die � -te Spalte von � das Koordinaten- � -tupeldes Bildes des � -ten Basisvektors ist. Die obige Definitionsgleichung 5 der � � � schreibt sich inMatrizenform durch:

� � � � � � � � �� � � � � � ausführlich:

� � � � � � '�������' � � � � � � � � �� � � � � '������ '���� � �

Bei einer Selbstabbildung � 1 � � �wird in der Regel für Quelle und Ziel von � die gleiche

Basis von�

gewählt und wir erhalten die Matrix der Selbstabbildung � bezüglich der Basis� � � '������ ' � � � durch die Definitionsgleichung:

� � � � � � � � �� � � � � �

Page 51: Lineare Algebra

46 V Lineare Abbildungen und Matrizen

4.2 Bemerkung

Halten wir�

und�� fest, so ist die lineare Abbildung � eindeutig durch ihre Abbildungsmatrix

� � bestimmt und zu jeder� � � ��� -Matrix � gibt es (genau) eine lineare Abbildung � , deren

Abbildungsmatrix � � gleich � ist. Wie sich � � ändert bei Benutzung anderer Basen, könnenwir genau erst in 7.6 auf Seite 53 formulieren.

4.3 Beispiele

1. � ����� �

� 1

�����

� � ����� �� . . . . . .

......

. . . . . . �� ����� � �

� ��� , die ��� � -Einheitsmatrix.

Ihre Koeffizienten werden mit� �� bezeichnet und können so beschrieben werden:

� � �� � für ��� ��für � �

2. Die Einheitsmatrix�

� kann bei jedem Isomorphismus � 1 � ��� � � als � � auftreten,nämlich bei der Wahl von � � � � � � � .

3. Sei � eine� � � ��� -Matrix und �)1 � ��� � � die Abbildung � � � � � � � 1 ��� � � � � . Dann ist

die Matrix von � bezüglich der kanonischen Basen gerade die Matrix � .

4.4 Definition

Abb��� ' � � := Menge aller Abbildungen von

�nach � .� � � ' � � 1 �� � �� � � � � linear �

� � � �;1 � � � � ��� -Matrizen mit Koeffizienten in � �Die Summe von Abbildungen �('*� � Abb

��� ' � � und die Multiplikation eines Skalars � � � miteiner Abbildung ��� Abb

��� ' � � wird wertweise definiert:

� � �$� � � � � 1 � � � � � � � � � � �#� � � � � � 1 � � � � � � �

Die Summe von zwei Matrizen � � � � � � ' � � � � � � � � � � � und die Multiplikation einesSkalars � � � mit einer Matrix � � � � � � � � � � � wird koeffizientenweise definiert:

��� � 1 � � � � � � � � � �#� � 1 � � � � � �

Page 52: Lineare Algebra

V.4 Die Matrix einer linearen Abbildung 47

4.5 Satz

Mit den soeben definierten Zuordnungen sind Abb� � ' � � und � � � � Vektorräume über � und� � � ' � � ist ein Unterraum von Abb

� � ' � � . Bei fest gewählten Basen�

und�� ist durch � � � � 1

� � ein Isomorphismus � 1 � ��� ' � � � � � � � definiert.

4.6 Satz

Eine lineare Abbildung � wird durchdie Koordinaten

� � � � von ��� �bezüglich

� � � '������ ' � � � unddie Koordinaten

�� � � von � � � � � � � bezüglich

�� � '������ '���� � beschrieben durch:

� � ��� � � � � � � �

oder in Matrizenschreibweise durch

�� � � ��� � � � � '

wobei � � � � � � � � ist.

4.7 Beispiele

Wir geben i. f. lineare Abbildungen �)1 � � �an, indem wir die Bilder einer Basis

� � � '�������' � � �angeben.

1. Für � � � , � � � und � � � '�� '������ ' � � setzen wir:

� � � � := � für � � �� � � � � := � � � .

Dadurch ist ein Isomorphismus definiert, da eine Abbildung desselben Typs aber mit � � �anstelle von � die Umkehrabbildung ist. � hat die Matrix

� �

���������

. . .�

. . .�

� �������

Page 53: Lineare Algebra

48 V Lineare Abbildungen und Matrizen

Nicht bezeichnete Koeffizienten sollen dabei null sein. Das � ist der� � ' � � -te Koeffizient.

Durch Koordinaten ausgedrückt, besteht diese Abbildung darin, daß die � -te Koordinatemit � multipliziert wird und die anderen Koordinaten beibehalten werden.

2. Für � � � , � ' � � � '�� '������ ' � � und ��� � setzen wir:

� � � � � := � � für � �� � � � � := � � � �(� .

Wieder wird hierdurch ein Isomorphismus definiert; denn die lineare Abbildung vom sel-ben Typ, aber mit ��� anstelle von � ist die Umkehrabbildung.Für ��� � hat � die Matrix:

�����

������������

. . .�

.... . .

� �� �

. . .�

�������������

Nicht bezeichnete Koeffizienten sollen dabei wieder null sein. Der� � ' � � -te Koeffizient ist

das � . Denn die � -te Spalte muß das Koordinaten- � -tupel von � � ��� � sein.Durch Koordinaten ausgedrückt, erhalten wir:������������

���...���...���...���

��������������

������������

. . .�

.... . .

� �� �

. . .�

��������������

������������

� �...

� �...

� �...

� �

��������������

������������

� �...

� �...

� ��� � � �...

� �

�������������

D. h..: � � � � für ��� � und � � ���+� �

3. Für � ' � � � '�� '������ ' � � und ��� � setzen wir:

� � � � � := � � für � � und �� � � � � := � � � � � := � �

Die Matrix des hierdurch definierten Isomorphismus entsteht aus der Einheitsmatrix durchVertauschung der � -ten und � -ten Spalte.

In Koordinaten ausgedrückt ist dieser Isomorphismus natürlich die Vertauschung der � -tenund � -ten Koordinate unter Beibehaltung der anderen Koordinaten.

Page 54: Lineare Algebra

V.5 Der Dualraum 49

Diese Abbildungen heißen die Elementar-Abbildungen und ihre Abbildungsmatrizen Elementar-Matrizen.

4.8 Definition

� � � � � sei eine�� � � � -Matrix, � � � � � � eine

� � � ��� -Matrix. Dann ist das Matrizenprodukt� � � von � mit � definiert als eine

�� � ��� -Matrix � � � � � mit

� � 1 ��� � � � � � � � für � � '������ ' � und � � '������ '��

4.9 Satz: Es gilt für eine� � � ��� -Matrix � :

� � � � �<� � � �4.10 Satz

Sind � 1 � � � ' � 1 � � � lineare Abbildungen von Vektorräumen über � ,� � � '������ ' � � � ' � � � '������ '���� � ' � ��� '�������'�� � � Basen von�

bzw. � bzw. � . Dann gilt für die Abbil-dungsmatrizen bezüglich dieser Basen:

� ��� � � � � � �

V.5 Der Dualraum

5.1 Definition

��� 1 � ��� ' � � heißt der Dualraum von�

, seine Vektoren heißen Linearformen von�

.

5.2 Bemerkung

Ordnen wir einer Linearform ihre Abbildungsmatrix bezüglich einer Basis�� � � � '�������' � � � �

von�

und der kanonischen Basis (1) von � � � zu, so erhalten wir einen Isomorphismus� � � ' � � ��� � � � � , auf den Raum der Zeilen- � -tupel. es ist also Dim��� � � � .

Wir zeigen jetzt, wie wir aus einer Basis von�

eine Basis von� �

finden können.

5.3 Definition

Ist� � � '�������' � � � eine Basis von

�, dann sei die Linearform � � definiert durch:

Page 55: Lineare Algebra

50 V Lineare Abbildungen und Matrizen

� � � � � � 1 � �� � � �

für �� für � �

� � � ' � 8 '������ ' � � � � ist eine Basis des Dualraumes; sie heißt die zu� � � '�������' � � � duale Basis.

5.4 Definition

Die von einer linearen Abbildung � 1 � � � induzierte Abbildung der Dualräume ist definiertdurch:

� � 1 � � � � � ' � � � � � � � � � � 1 � � � � � � � oder � � � � � 1 � �(' � � �

Wenn wir untersuchen, wie die Matrix der dualen Abbildung � � bezüglich der dualen Basisaussieht, so stoßen wir wieder auf die von der Koordinatentransformation bekannte Matrizen-Operation, auf das Transponieren:

5.5 Satz: � � ist eine lineare Abbildung und � � � �������� � � � �

����� � �

V.6 Der Rang

Der Begriff Rang trat zweimal auf.

Einmal als Rang einer linearen Abbildung ��1 � � � , wobei�

endlich erzeugt sein muß. Ergibt an wie viele Dimensionen bei � erhalten bleiben; den kleinsten Rang hat die Nullabbildung : Rg( ) = 0, den größten eine injektive lineare Abbildung � : Rg( � ) = Dim(

�). Im allgemeinen

liegt der Rang zwischen diesen beiden Werten: � �Rg� � � �

Dim� � � .

Ein zweites Mal trat der Rang als Rang einer Matrix auf; genauer wird definiert:

6.1 Definition

Spaltenrang einer Matrix � := Maximalzahl linear unabhängiger Spalten von � .

Zeilenrang einer Matrix � := Maximalzahl linear unabhängiger Zeilen von � .

Die Abbildungsmatrix liefert uns einen Zusammenhang zwischen linearen Abbildungen und Ma-trizen, wodurch sich auch eine Verbindung zwischen beiden Rang-Begriffen wird herstellen las-sen.

6.2 Hilfssatz: Rg( � ) = Spaltenrang von � �

Beweis:

Page 56: Lineare Algebra

V.6 Der Rang 51

� � � � '������ ' � � � sei eine Basis von�

,�� �

� � '������ '���� � eine von � . Dann ist� � � � � � '�������' � � � � � � ein Erzeugendensystem von Bild� � � . Ein maximales linear unabhängiges

Teilsystem eines Erzeugendensystems ist eine Basis (vgl. den Beweis zu IV. 2.2 auf Seite 32);folglich gilt:

Rg( � ) = Maximalzahl linear unabhängiger Vektoren des Systems� � � � � � '�������' � � � � � � .

Da die Koordinatenzuordnung ein Isomorphismus ist, folgt: Rg( � ) = Maximalzahl linear unab-hängiger Koordinaten- � -tupel dieser Vektoren bezüglich

�� .

Da diese Koordinaten- � -tupel die Spalten der Matrix � � sind, erhalten wir Rg( � ) = Spaltenrangvon � � .

Im folgenden ist unser Ziel, zu zeigen, daß der Spaltenrang gleich dem Zeilenrang ist. Dannkönnen wir kurz vom Rang einer Matrix sprechen und es gilt: Rg( � ) = Rg( � � )

6.3 Hilfssatz

Bei elementaren Zeilenumformungen ändert sich der Spaltenrang nicht.

Beweis:

1. Die Multiplikation der � -ten Zeile mit � � � bedeutet in jeder Spalte den � -ten Koeffizi-enten mit � zu multiplizieren. D. h. die Spalten werden mit dem Isomorphismus aus dem1. Beispiel von 4.7 auf Seite 47 abgebildet. Da ein Isomorphismus die Maximalzahl line-ar unabhängiger Vektoren nicht ändert, bleibt bei einer Zeilenumformung vom Typ I derSpaltenrang erhalten.

2. Sei � � � , � ' � � � '�� '������ ' � � und � � � . Der Addition des � -fachen der � -ten Zeilezur � -ten entpricht in jeder Spalte der Addition des � -fachen des � -ten Koeffizienten zum� -ten. D. h. die Spalten werden mit dem Isomorphismus aus dem 2. Beispiel von 4.7 aufSeite 47 abgebildet. Wieder folgt, da ein Isomorphismus die Maximalzahl linear unabhän-giger Vektoren nicht ändert, daß bei einer Zeilenumformung vom Typ II der Spaltenrangerhalten bleibt.

3. Sei � ' � � � ' � '������ ' � � . Die Vertauschung der � -ten und � -ten Zeile bedeutet für die Spal-ten die Vertauschung des � -ten und � -ten Koeffizienten, d. h. der Anwendung des Isomor-phismus aus dem 3. Beispiel von 4.7 auf Seite 47. Wie oben folgt, daß bei einer Zeilenum-formung vom Typ III der Spaltenrang erhalten.

6.4 Hilfssatz

Bei elementaren Spaltenumformungen ändert sich der Spaltenrang nicht.

Beweis:

Page 57: Lineare Algebra

52 V Lineare Abbildungen und Matrizen

Dies liegt daran, daß ein linear unabhängiges System von Vektoren linear unabhängig bleibt,wenn ein Vektor durch sein � -faches mit � � � ersetzt wird oder zu einem Vektor ein Vielfacheseines anderen Vektors des Systems addiert wird oder zwei Vektoren des Systems vertauschtwerden.

6.5 Hilfssatz

Bei elementaren Spalten- und Zeilenumformungen ändert sich der Zeilenrang nicht.

Beweis: Entsprechend wie für den Spaltenrang.

Wir betrachten eine� � � ��� -Stufenmatrix:������������

� � � � 8 �&�&� � � ��� � � � � ��� � �&�&� ��� � �� � . . .

......

.... . . . . . . . .

... �&�&� ...

� � . . .� � �� � ��� � �&�&� � �� �� � �&�&� � � �&�&� �

......

......

...� � �&�&� � � �&�&� �

�������������

Dabei ist � ���

Min�

� ' � � �6.6 Hilfssatz

Eine Stufenmatrix hat gleichen Zeilen- und Spaltenrang, nämlich � .

6.7 Satz und Definition

1. Rg( � ) ändert sich nicht bei elementaren Umformungen.

2. Zeilenrang und Spaltenrang einer Matrix stimmen überein. Wir definieren daher den Rangeiner Matrix � durch: Rg( � ) := Zeilenrang( � ) = Spaltenrang( � )

3. Rg( � ) = Rg( � � ) für eine lineare Abbildung � und ihre Abbildungmatrix � � .

V.7 Die Allgemeine Lineare Gruppe

Im folgenden sind� � � � '�������' � � � und

�� �

� � '�������'���� � Basen des Vektorraumes�

bzw. �über � .

Page 58: Lineare Algebra

V.7 Die Allgemeine Lineare Gruppe 53

7.1 Definition

Eine�

��� � � -Matrix � heißt regulär, wenn Rg� � � � ist, andernfalls heißt sie singulär.

7.2 Satz: Für � � gilt:

1. Eine�

� � ��� -Matrix � ist regulär dann und nur dann, wenn sie einen Isomorphismus� 1 � � � definiert (vgl. 4.2 auf Seite 46).

2. Für einen Isomorphismus �)1 � � � gilt: � ��� � � � � � � �

3. Genau die regulären Matrizen haben bezüglich des Matrizenproduktes eine Inverse.

7.3 Definitionen

1. Ein Isomorphismus �<1 � � �eines Vektorraumes auf sich heißt ein Automorphismus

von�

.

2. Eine Abbildung � 1 � � � von einer Gruppe � nach einer Gruppe � heißt homomorphoder ein (Gruppen-)Homomorphismus, falls �

� � ���� � � � � � � � � �� � für alle � '��� ��� .

3. Ein bijektiver Gruppen-Homomorphismus heißt isomorph oder ein (Gruppen)-Isomorphismus.

7.4 Bemerkung: � (Gruppen)-Isomorphismus � � � � (Gruppen)-Isomorphismus

7.5 Satz und Definition

Die Automorphismen von�

bilden bezüglich der Hintereinanderausführung als Verknüpfungeine Gruppe G

� � � , die Lineare Gruppe von�

. Das gleiche gilt für die regulären Matrizen be-züglich des Matrizenproduktes; die von ihnen gebildete Gruppe Gl

�� ' � � heißt Allgemeine Li-

neare Gruppe zur Dimension � und zum Körper � . Die Zuordnung � �� � � definiert einenGruppenisomorphismus G

��� � � Gl�

� ' � � .

Nachdem wir jetzt die Inverse einer regulären Matrix zur Verfügung haben, können wir genaubeschreiben, wie sich die Abbildungsmatrix transformiert, wenn wir in

�und in � die Koor-

dinaten transformieren. Außerdem können wir damit die zu einer Basistransformation gehörigeKoordinatentransformation besser als früher ( 3.3 auf Seite 44) beschreiben.

7.6 Satz

Sei � 1 � � � linear,

Page 59: Lineare Algebra

54 V Lineare Abbildungen und Matrizen

� �� � � � � � � � � � � ' � � '�������' � � � � � � � sei eine Koordinatentransformation in�

,

� � � �� � � � � � � ' � �� '������ ' � � � � � � sei eine Koordinatentransformation in � ,

� sei die Matrix von � bezüglich der Basen� � � � und

�� � , � � sei die Matrix von � bezüglich der

Basen� ���� � und

�� � � , � � � � � � und � �

� � � die Matrizen der zugehörigen Koordinatentrans-formationen. Dann gilt:

� � � � ��� � � �

7.7 Satz

Die zur Basistransformation�� � � � gehörige Koordinatentransformation (s. 3.3 auf Seite 44)� � � � � � � � � �� � können wir jetzt besser in der nach

� � �� � aufgelösten Form schreiben:

� � �� � � � � � � � � � � � �

mm7

V.8 Anwendung auf lineare Gleichungssysteme

Ein lineares Gleichungssystem�����

� � � ��� � � � 8 � 8 � �&�&� � � � � � � �

�� 8 � ��� � � 8 8 � 8 � �&�&� � � 8 � � �

�8...

�� � ��� � �� 8 � 8 � �&�&� � �� � � � � �

�����

schreiben wir in Matrizenform mit Koeffizientenmatrix � � � � � � und inhomogener Spalte�:

��� � � � � �

Das Produkt � � � � � � wurde bereits in 3.2 auf Seite 44 definiert. � � � � � � � heißt das zugehörigehomogene Gleichungssystem.

Zur Matrix � betrachten wir die lineare Abbildung ��1 � � � � � ' � � � � � 1 � � � � � � , d. h.diejenige mit � �

� bezüglich der kanonischen Basen.

8.1 Der Lösungsraum eines homogenen Systems

Im homogenen Fall,� � , ist der Lösungsraum gleich Kern( � ) und hat nach der Rangformel

die Dimension � � � , wobei � = Rg( � ) = Rg( � ).

7A. Riede: Lineare Algebra 1, SS 98

Page 60: Lineare Algebra

V.9 Berechnung der inversen Matrix 55

Sind weniger Gleichungen gegeben als Unbekannte vorhanden, d. h. für � �� , dann hat einhomogenes System also mindestens eine nicht triviale Lösung.

Sind mindestens so viele Gleichungen gegeben als Unbekannte vorhanden sind, d. h. für � � � ,dann gilt:

Das homogene System ist eindeutig (durch den Nullvektor) lösbar. ! Rg( � ) = �

8.2 Lösungsmenge eines inhomogenen Systems

1. Die Lösungsmenge � inhom des inhomogenen Systems ist � � � � � � . Das inhomogene lineareGleichungssystem ist also genau dann lösbar, wenn

� � Bild� � � .

2. Es gibt eine Lösung des inhomogenen Systems. ! Rg( � ) = Rg( � � )3. Sei

� � � � eine feste Lösung des inhomogenen Systems, dann gilt, wenn � hom den Lösungs-raum des zugehörigen homogenen Systems, ��� � � � � � , bezeichnet:� inhom

� � � � � � hom 1 �� � � � � � � � � � � � � � � � � � � � hom �

V.9 Berechnung der inversen Matrix

Sind mehrere lineare Gleichungssysteme mit der gleichen Koeffizientenmatrix zu lösen, so er-weitern wir einfach die Koeffizientenmatrix um alle inhomogenen Bestandteile und erhalten ei-ne erweiterte Matrix ��� . Dann wenden wir das Gauß oder das Gauß-Jordan-Verfahren auf ���sinngemäß an. Bei der rekursiven Auflösung müssen wir dann jeweils die erste, zweite ... Er-weiterungsspalte verwenden, um die Lösung des ersten, des zweiten ... Gleichungssystems zubekommen.

In dieser Situation befinden wir uns, wenn wir die Inverse � einer regulären�

� � � � -Matrix �berechnen wollen. � ist festgelegt durch die Gleichung ����� �

� oder ausführlich:� � � � � �� � � � � � � � '������ ' �

� � � � � �� � 8 � � 8 � � '������ ' �

...� ��� � � �� � � � �� � � '������ ' �

Dies sind � lineare Gleichungssysteme mit � als Koeffizientenmatrix. Im ersten sind die Koef-fizienten der ersten Spalte von � die Unbekannten, im zweiten die Koeffizienten der zweitenSpalte, im letzten die Koeffizienten der letzten Spalte von � . Die inhomogene Spalte des -tenGleichungssystems ist die -te Spalte der Einheitsmatrix

� .Wir wenden das Gauß-Jordan-Verfahren an und nehmen an, daß � den Rang � hat. (Genaudann gibt es ja die Inverse.) Als Stufenform erhalten wir durch elementare Umformungen, wo-bei wegen der Rangbedingung keine Spaltenvertauschungen nötig sind und deshalb auch nichtverwendet werden:

Page 61: Lineare Algebra

56 V Lineare Abbildungen und Matrizen

��� �����

� � ����� � ��� � ����� ��� � ����� ��� �� . . . . . .

......

......

.... . . . . . � ...

......

� ����� � � � � � ����� � � � ����� � � �

�����

Die Auflösung des Stufensystems ergibt, daß die auftretende Matrix � � � � � � gerade die Inverse� ist.

Page 62: Lineare Algebra

VI.1 Länge, Winkel und Skalarprodukt 57

mm8

VI Metrische Größen im Anschauungsraum

VI.1 Länge, Winkel und Skalarprodukt

In den Vektorraum-Axiomen sind nicht alle Eigenschaften enthalten, die die geometrischen Vek-toren des Anschauungsraumes tatsächlich haben. Z. B. kann die Länge eines Vektors und zwi-schen zwei geometrischen Vektoren der Winkel gemessen werden. In der Tat brauchen wir die-se Begriffe auch nicht, um den Begriff eines Vektorraumes zu begründen; umgekehrt könnendiese Begriffe auch nicht aus den Vektorraum-Axiomen abgeleitet werden! Vielmehr ist es so,daß, wenn in einem Vektorraum diese Begriffe einen Sinn machen, der Vektorraum eine wei-terreichende Struktur hat als nur die Struktur eines Vektorraumes. Zunächst betrachten wir dieAnschauungsebene.

1.1 Die Länge eines Vektors

Die Länge eines Vektors � , die auch Betrag von � genannt und mit� � � bezeichnet wird, berechnet

sich nach dem aus der Schule bekannten Satz des Pythagoras. Dieser begründet sich aus derElementargeometrie, die auf ganz anderen Axiomen aufgebaut wird als den Vektorraumaxiomen,z. B. gehören dazu die Kongruenzaxiome.

Seien� � � ' � 8

� � das Koordinatenpaar von � bezüglich eines festen kartesischen Koordinatensy-stems, dann gilt:� � � �� �(8 � ��� 88Das Quadrat der Länge ist gegeben durch:� � � � � � 8 � 8 � � � 88

1.2 Der Winkel

Zwei von 0 verschiedene Vektoren � und � der Anschauungsebene bilden zwei Winkel mit-einander, von denen wir den kleineren im folgenden betrachten. Er ist nur, wenn die Vektorenzueinander entgegengesetzt sind, nicht eindeutig bestimmt; in diesem Falle haben jedoch beideWinkel das gleiche Maß � , so daß diese Zweideutigkeit für die Winkelmessung keine Bedeutunghat. Wir verwenden ein kartesisches

� �.' � � -Koordinatensystem mit der � -Achse als horizontalerAchse und der � -Achse als vertikaler Achse.

8A. Riede: Lineare Algebra 1, SS 98

Page 63: Lineare Algebra

58 VI Metrische Größen im Anschauungsraum

Wir schauen uns im Detail nur den Fall an, daß � und � in den 1. Quadranten zeigen und daßfür die Winkel � und ��� , die � bzw. � mit der � -Achse bilden, gilt: � ���� . Es genügt denWinkel zwischen Einheitsvektoren, solchen mit Betrag 1, zu betrachten. Sei also

� � � ��� �

.Für den Winkel � zwischen � und � gilt dann �

� ����� und nach dem Additionstheorem für

den Kosinus:

��� � � � ���� � � � ��� � ���� � � � ��� � ��� � � ���� � � � ���� � ��� �� � � � ��� � � � � � � � ��� 8 � 8Dabei seien

� ��� ' � 8� � die Koordinaten von � , � � � ' � 8

� � die von � . Mit der rechten Seite von� � � �

sind wir auf einen Ausdruck gestoßen, der einen eindeutigen Sinn hat für ein beliebiges Paar vonVektoren

� �('�� � . Für � � besteht seine geometrische Bedeutung darin, daß er nach� � � die

Länge zum Quadrat von � angibt. Der Ausdruck definiert eine Abbildung:

��1 � � � � � ' � �('�� � �� � � � � ��� 8 � 8 1 � � �('�� �

Der Ausdruck hat Ähnlichkeit mit einer Linearform auf dem � 8 , ��1 � 8 � � .

�� ���� 8� � � � ' � 8 � � � �

� 8� � � � �-��� 8 � 8

Der Unterschied besteht nur darin, daß in� � � �

� � �� 8� und

�� �� 8� variabel sind, bei einer

Linearform jedoch � � und � 8 fest sind. Wir sehen also:

Bei festem � ist � linear in der Variablen � und bei festem � ist � linear in der Variablen � .� � �('��$� � � � � � �('�� � ��� � �('�� � � ' � � �+' � � � �+� � �('�� �

� � � �$� � '�� � � � �('�� � ��� � � � '�� � ' � � �(�('�� � �+� � �('�� �Es wird daher � eine bilineare Abbildung oder eine Bilinearform genannt.

Die Bilinearität ist Anlaß dafür, daß wir � � �('�� � als eine Art Produkt von � und � ansehenkönnen; denn, wenn wir � � �('�� � mit �#� � bezeichnen, so schreiben sich die Bedingungen derBilinearität folgendermaßen:

� � � �$� � � � �"� �$���"� � � ' �"� � � � � � � � � � �� ����� � � � � � � �$�$� � � �"' � � � � � � � � � � � �

für alle Vektoren �('��"' ��� '�� � und alle Skalare ��� � . Die Additivität in jeder Variablen ist alsodasselbe wie ein Distributivitätsgesetz für das Produkt. Berücksichtigen wir noch, daß � � �('�� �eine reelle Zahl, also einen Skalar, als Wert hat, so leuchtet ein, warum � � �('�� � als Skalarproduktvon � und � bezeichnet wird.

Das Skalarprodukt hat eine weitere „Produkt-Eigenschaft“, es ist kommutativ.

� � � ���&� oder � � �('�� � � � � ' � �

Im Sinne der Abbildung � wird diese Eigenschaft Symmetrie (in � und � ) genannt.

Page 64: Lineare Algebra

VI.2 Das Vektorprodukt 59

Bei einer bilinearen Abbildung ist � � �(' � � � � � '�� � � � � ' � � � für alle �(' � . Denn� � �(' � � � � �(' ��� � � �/� � �+'�� � � . Als dritte Eigenschaft notieren wir:

� � �(' � � � � und � � �(' � � � nur für � �

Denn die Länge eines Vektors � zum Quadrat ist� � und

� nur für � � . Diese Eigenschaftvon � heißt positive Definitheit.

Wir sahen, daß mehrere Bezeichnungsweisen für das Skalarprodukt sich anbieten. Ab jetzt wer-den wir die Schreibweise ���('�� 1 � � �('�� �verwenden.

1.3 Bemerkung

Aus� � � � folgt für � � � und � � � :���('�� � � � � � � � � ���� � � � . Dabei ist � der Winkel zwischen � und � .

1.4 Anwendung: Strömung einer Flüssigkeit durch eine Fläche

Die Fläche � sei ein Rechteck, das von einer Flüssigkeit mit zeitlich und räumlich konstanterGeschwindigkeit � durchströmt wird. Unter dem Flächenvektor

�� verstehen wir den auf der

Fläche senkrecht stehenden Vektor, dessen Länge gleich dem Flächeninhalt von � ist und dernach der Seite von � zeigen soll, in die die Flüssigkeit fließt. ��� sei die Flüssigkeitsmenge, diein der Zeit � 0 durch die Fläche fließt. Dann gilt:

� �� 0

���+' ��

VI.2 Das Vektorprodukt

In diesem Abschnitt sei�

der Vektorraum der geometrischen Vektoren des Anschauungsraumes.

2.1 Definition

Eine Basis� � � ' � 8 ' ���

� von�

heißt positiv orientiert, falls � � den Fortschreitungssinn einerRechtsschraube angibt, wenn wir � � in der von � � und � 8 aufgespannten Ebene um den klei-neren Winkel in � 8 hineindrehen. Wir sagen dafür auch, daß

� � � ' � 8 ' ���� den Schraubungssinn

einer Rechtsschraube darstellen.

Seien �('�� ��

linear unabhängig. Dann heißt der Flächenvektor�

� (vgl. 1.4) des von � und� aufgespannten Parallelogramms, der so gerichtet wird, daß

� �('�� '�

� � positiv orientiert ist, das

Page 65: Lineare Algebra

60 VI Metrische Größen im Anschauungsraum

Vektorprodukt von� �('�� � , weil das Ergebnis des Multiplizierens ein Vektor ist. Es wird mit � � �

bezeichnet und auch das Kreuzprodukt des Paares� �('�� � genannt.

� � � ist also der Vektor mit folgenden Eigenschaften:

1. Er steht auf � und � senkrecht;

2.� � � �

�=� � � � � � ��� � � � = Flächeninhalt des von � und � aufgespannten Parallelogramms

( � �� � �('�� � );

3.� �('�� ' � � � � stellen den Schraubungssinn einer Rechtsschraube dar.

Für linear abhängige �('�� wird definiert � � � 1 � .

2.2 Koordinatendarstellung

In einem kartesischen Koordinatensystem, bei dem die zugehörige Basis� � � ' � 8 ' ���

� den Schrau-bungssinn einer Rechtsschraube darstellt, hat � � � die Koordinaten

� � 8 � � ��� � � 8 ' �� � � � ��� ���%',� � � 8 ��� 8 � ���� '

falls � die Koordinaten� ��� ' � 8 ' ��

� � und � die Koordinaten�� � ' � 8 ' ���

� � hat.

2.3 Eigenschaften

1. Das Vektorprodukt ist bilinear.

2. Das Vektorprodukt ist schiefsymmetrisch, d. h. � � � � � � � .

3. Für eine positiv orientierte Orthonormalbasis� � � ' � 8 ' ���

� gilt:

��� � � 8 ���&' � 8

� ��� ��� ' ��� � ��� � 84. � � � �"' ��� � � �( ���(' ���+ � � '�� �( � ���('�� �( � � ' ���( Lagrange-Identität

5.� � � � � � �

���('�� �"� � � '����� Graßmann-Identität

6. � � � � � � � � � � � � � � � � � �� � � � � � Jacobi-Identität

VI.3 Volumen

In diesem Abschnitt sei�

wieder der Vektorraum der geometrischen Vektoren des Anschau-ungsraumes. Drei linear unabhängige Vektoren �.' �('�� spannen ein Parallelflach oder ein Spatauf. Sein Volumen wird definiert durch Grundfläche � des von � und � aufgespannten Paralle-logramms mal Höhe .

Page 66: Lineare Algebra

VII.0 Volumen 61

� � � � ��

Um zu beschreiben, betrachten wir einen auf � und � senkrechten Einheitsvektor � .

� �� �� �� � � �

Dann gilt: � � �.'�� �(vgl. VI.1 ?? auf Seite ??)

�������.' �

� �� � � ���� ���� �

� � � �� � � �.' � � � �

Schließlich erhalten wir:

3.1 Formel für das Volumen: � � � � ' � � � �

Der Ausdruck auf der rechten Seite dieser Formel ohne die Betragsstriche ist mit den Methodender linearen Algebra besonders zugänglich und Ausgangspunkt und Motivation für das Kapi-tel VII auf der nächsten Seite.

3.2 Definition�� 1 � �.' � � �

heißt das orientierte Volumen des von��.' �('�� � aufgespannten orientierten Parallelflachs oder

das Spatprodukt von��.' �('�� � , wobei wir ein Parallelflach als orientiert ansehen, wenn für die

aufspannenden Vektoren eine bestimmte Reihenfolge festgelegt ist. Sind �.' �('�� linear abhängig,so wird

����.' �('�� � 1 � definiert.

3.3 Bemerkung

Das orientierte Volumen ist abhängig von der Reihenfolge der Vektoren. Es ist positiv, genauwenn

�� ' �+'�� � linear unabhängig und positiv orientiert sind.

3.4 Koordinatenbeschreibung����.' �('�� �

��� � 8 � �*� � 8 ����� �-� �� � � � 8� ��� ����� 8 � � 8 � � � � � �� � 8 � �

für � �

��� '�� 8 '���� � ' � � � � ' � 8 ' ���

� � und � �

� � '�� 8 '�� � � �

mm9

9A. Riede: Lineare Algebra 1, SS 98

Page 67: Lineare Algebra

62 VII Determinanten

VII Determinanten�

bezeichne im ganzen Kapitel einen � -dimensionalen Vektorraum über � mit � � �.

VII.1 Determinantenform

1.1 Definition

1. Eine Abbildung � 1 � � � � � � �&�&� � � � � des � -fachen kartesischen Produktes nacheinem Vektorraum � über � heißt � -fach linear, kurz multilinear, wenn bei beliebigem� � � '�������'�� � und beliebigen aber festen Vektoren � � '�'������ � � � � ' � � � � '�������' � ��� �

dieZuordnung � �� � � � � '������ ' � � � � ' �(' � � � � '�������' � � � ein lineare Abbildung � � 1 � � � ist;d. h., wenn � in jeder Variablen linear ist.

2. Für � � heißt � wie oben eine � -fache Linearform, kurz eine � -Form.

3. Eine Abbildung � 1 � � � � heißt Determinantenfunktion oder Determinantenform von�, falls sie folgende Eigenschaften hat:

a) � ist multilinear.

b) � ist alternierend, d. h. � � � � '������ ' � � � � für alle linear abhängigen � � '������ ' � � .c) � � � Nullabbildung.

1.2 Folgerungen: Für eine Determinantenform � gilt:

1. Scherungsinvarianz:� � � � '�� � ' � � � � ' � � ��� � ' � � � � '�� � ' � � � � � � � '�� � ' � � � für � � � ' � � ��' � � '�� � ' � � � �

2. � ist schiefsymmetrisch; d. h.:� � � � '������ ' � � '������ ' � '�������' � � � ��� � � � '������ ' � '�������' � � '������ ' � � � für � � �

VII.2 Das Signum einer Permutation

Wir wollen die 2. Formel aus 1.2 auf beliebige Permutationen � der � � verallgemeinern. Dasdabei auftretende Vorzeichen heißt das Signum von � . Eine Vertauschung der � � können wirauch als Vertauschung der Indizes � aufschreiben. Die genaue Definition kann folgendermaßengegeben werden:

Page 68: Lineare Algebra

VII.2 Das Signum einer Permutation 63

2.1 Definition

Sei � 1 � � � � das Polynom in � Variablen mit

� � ��� '������ ' � � � 1 ���� ���� � �

� � �$� � � ���� ���� � 8 �$� �

� � � � � ����� � � ����� � � � � ��� �� �� � � ��� 8

� � � � ��� 8 � � �&�&� � � � � ��� 8 � ������� � � � ��� ��� �

Für � �$� � := Permutationsgruppe von � '�� '������ ' � � unterscheidet � � ��� � � � '������ ' �� � � � � sich von

� � ��� '�������' � � � nur um das Vorzeichen; dieses heißt das Signum der Permutation � , es wird mitsgn( � ) bezeichnet. Die Definitionsgleichung für das Signum lautet also:

� � � � � � � '�������' � � � � � � sgn� � � � � � � '�������' � � �

2.2 Charakterisierung durch Inversionen

Für� � ��� � � � heißt

� � � � � ' � � � � � eine Inversion von � � � � , wenn � � � � � � � � ist.

Sei � � � � die Anzahl der Inversionen von � , dann gilt:

sgn( � ) =� � � � �

� � �

2.3 Definition: ��� � � heißt gerade, falls sgn( � ) = 1 ist, sonst ungerade.

2.4 Satz: sgn( � � ) = sgn( � ) � sgn( ) für alle �,'� � � � .2.5 Folgerungen

1. Die Komposition zweier gerader Permutationen ist gerade.

2. Die Komposition zweier ungerader Permutationen ist gerade.

3. Die Komposition einer geraden Permutation und einer ungeraden ist ungerade.

4. Die geraden Permutationen bilden zusammen mit der Komposition eine Gruppe; sie heißtdie Alternierende Gruppe.

2.6 Charakterisierung durch Transpositionen

Ein Permutation, die genau zwei Elemente � ' � � � ' � '������ ' � � mit � � � vertauscht und dieanderen fest läßt, heißt eine Transposition, die mit � � ' �# bezeichnet wird.

Jedes � �)� � läßt sich als Komposition einer Anzahl von Transpositionen darstellen. Die Anzahlder Transpositionen bei jeder solchen Darstellung von � ist immer gerade oder ungerade, jenachdem, ob � gerade oder ungerade ist. Es gilt also

Page 69: Lineare Algebra

64 VII Determinanten

sgn( � ) =� � � � � ,

wenn die Anzahl der Transpositionen bei einer solchen Darstellung ist.

2.7 Satz: Für eine Determinantenform � gilt:

� � � � � � � '������ ' � � � � � � sgn� � � � � � � '������ ' � � � für alle � � '������ ' � � � �

Diese Bedingung ist äquivalent zur schiefen Symmetrie.

VII.3 Die Frage nach Existenz und Eindeutigkeit

3.1 Satz

Eine Determinantenform � ist nicht eindeutig, da �(� mit � � � und � � � wieder eine De-terminantenform ist. Jedoch ist dies die einzige Unbestimmtheit. Es gibt bis auf ein skalaresVielfaches � � � genau eine Determinantenform � von

�.

Sei� ��� '�������' � � � eine feste Basis von

�und � � � ��� � � �� � die lineare Darstellung der Vekto-

ren � � '�������' � � durch die Basis. Dann gilt: (vgl. X.4 auf Seite 109)

1. Für eine beliebige Determinantenform � ist� � � � '������ ' � � � �

� ����� sgn� � � ��� � � � � � � � 8 � � � 8 � � �&�&� �&� � � � � � � �&� � ��� '�������' � � � .

2. Die Funktion � �� � � ' � 8 '������ ' � � � 1 �

� ����� sgn� � � � � � � � � � � � 8 � � � 8 � � �&�&� � � � � � � � � ist eine Deter-

minantenform. Für� ��� und

� � � � � � � � = kanonische Basis bezeichnen wir diese De-terminantenform mit � � ; sie heißt kanonische Determinantenform von � � . Mit dieser Be-zeichnung schrebt sich die 1. Formel als: � � � � '�������' � � � � �

� � � '������ ' � � � � � ��� '�������' � � �VII.4 Anwendung auf lineare Abbildungen

4.1 Satz

�und � seien � -dimensionale Vektorräume über � . � 1 � � � eine lineare Abbildung und �

eine Determinantenform für � . Dann ist

� � � '�������' � � � �� � � � � � � � '������ ' � � � � � �entweder eine Determinantenform für

�oder die Nullabbildung.

Page 70: Lineare Algebra

VII.6 Berechnung der Determinante 65

4.2 Definition

1. Ist zusätzlich zu den Voraussetzungen des Satzes 4.1 auf der vorherigen Seite � � eineDeterminantenform für

�, so gilt wegen VII.3 auf der vorherigen Seite und dem Satz 4.1

auf der vorherigen Seite

� � � � � � � '������ ' � � � � � � �#��� �� � � '�������' � � �

für einen Skalar � � � . � heißt die Determinante von � bezüglich � und � � , kurzDet

� � ��� ���� .

2. Ist� � , so wählen wir � �

� und nennen den Skalar � in der Gleichung� � � � � � � '������ ' � � � � � � � � � � � � '�������' � � � die Determinante von � , kurz Det( � ); sie hängtnicht von der Wahl von � ab.

4.3 Satz

1. Det( � ) � � ! � ist ein Isomorphismus.

2. Det( � �� ) = Det( � ) � Det( � )3. Ist � ein Isomorphismus, dann gilt: Det( � � � ) =

�Det

� � � � � �

VII.5 Determinante einer�

��� ��� -Matrix

5.1 Definition

Zu gegebener�

� � � � -Matrix � � � � � � wählen wir eine lineare Abbildung � 1 � � �mit

� � � für eine Wahl einer Basis von

�und setzen:

Det� � � 1 Det

� � �

Det( � ) hängt nicht von der Wahl von�

und der Basis von�

ab.

5.2 Satz: Det� � � � � � � � sgn

� � � � � � � � � � � � 8 � � � 8 � � �&�&� � � � � � � � �5.3 Satz

1. Det( � ) � � ! � invertierbar.

2. Det� ��� � � Det

� � � � Det� � �

3. Det� � � � � � Det

� � � � � � , falls � invertierbar ist.

4. Det� � � � Det

� � �

Page 71: Lineare Algebra

66 VII Determinanten

VII.6 Berechnung der Determinante

� � � � � sei eine�

� � � � -Matrix mit Koeffizienten in � .

6.1 Verhalten der Determinante bei elementaren Umformungen

1. Bei Multiplikation einer Zeile (Typ ZI) oder Spalte (Typ SI) mit einem Skalar � multipli-ziert sich die Determinante mit � .

2. Bei Addition einer mit einem Skalar multiplizierten Zeile (Typ ZII) bzw. Spalte (Typ SII)zu einer anderen Zeile bzw. Spalte ändert sich die Determinante nicht.

3. Bei Vertauschung zweier Zeilen (Typ ZIII) oder Spalten (Typ SIII) multipliziert sich dieDeterminante mit � � .

6.2 Stufenform

1. Sei � St eine Stufenform, in die � durch elementare Umformungen vom Typ ZII, ZIII, SIIübergeführt worden sei (vgl. Gaußverfahren). Dann gilt:

Det� � � Det

� � St� � � � � ��� ��� ' wenn � -mal zwei verschiedene Zeilen und � -mal zwei

verschiedene Spalten vertauscht wurden (vgl. den 3. Punkt von 6.1).

2. Eine Stufenmatrix ist ein Spezialfall einer oberen Dreiecksmatrix, wobei die Sterne irgend-welche Koeffizienten bezeichnen:

������� � � ����� �� �

8 8. . .

......

. . . . . . �� ����� � �

� �

�����

D. h. in einer Dreiecksmatrix � � � �� � ist per Definition� �� � für � � .

3. Die Determinante einer oberen Dreiecksmatrix � ist: Det�

� � <� � � � � 8 8 � �&�&� ��� �

6.3 Definition

Für eine weitere Berechnungsmöglichkeit benötigen wir folgende Begriffe.

Sei� � � 1 Det

� � � , � seien die Spalten von � für � � '�������' � und� � � '�������' � � � sei die kano-

nische Basis von ��� . � � sei die kanonische Determinantenform (s. 3.1 auf Seite 64). Dann wird

Page 72: Lineare Algebra

VII.8 Anwendung auf lineare Gleichungssysteme 67

das algebraische Komplement � �� von � �� definiert durch:

� �� � ��� ����������������� � ����� �� � ��������� �� �

��

����������������

� � ����� � �� � � � �

� � ����� � �... �� � � ������� �

� � �� � � �

� � � � ������� �

� � � � �� � ����� �

�� � � �

� � � ����� �

� � � � � � ������� � � � �� � � � � � �

� ������� � � � � �...��� � �����

� �� � �

� � � � �����

� � �

����������������

Die Determinante der Matrix � �� , die aus � dadurch entsteht, daß die � -te Zeile und die � -teSpalte weggelassen wird, heißt

� � ' � � -te Streichungsdeterminante.

6.4 Hilfssatz: � �� � � � � � � � � � �

6.5 Laplace´ scher Entwicklungssatz

1. Die Entwicklung nach der � -ten Zeile lautet:� � �

��� � � � �� � ��

2. Die Entwicklung nach der � -ten Spalte lautet:� � �

��� � � � �� � ��

VII.7 Anwendung auf den Rang

7.1 Definition

Streichen wir in einer�

� � � � -Matrix � � � � � � Zeilen und� � � � � Spalten heraus, so heißt die

Determinante der so entstehenden� � � � � -Matrix eine � -reihige Unterdeterminante von � .

7.2 Satz

Für � � ����� � ist Rg( � ) = � !Es gibt eine von null verschiedene � -reihige Unterdeterminante, aber keine von null verschiedene� -reihige Unterdeterminante mit � � .

Page 73: Lineare Algebra

68 VII Determinanten

VII.8 Anwendung auf lineare Gleichungssysteme

Cramersche Regel

Sei � � � � ein lineares Gleichungssystem mit � � � � � � � ��� � � ' � � � � und Rg( � ) = � . Dannist das Gleichungssystem eindeutig lösbar und die Lösung

� � � � berechnet sich nach der Formel:

� � � � � � � � � � � � � � � � 8 � 8 � �<�&�&�&��� � � �

� � � � � ��������

� � � ����� � � � � � ��� � � � � � � ����� � � �...

......

......

� � � � ����� � � � � � ��� � ��� � � � ����� � ��� �

�������

VII.9 Orientierung

9.1 Satz

Sei � eine Determinantenfunktion für einen reellen Vektorraum�

. Dann gibt es unabhängig vonder Wahl der Determinantenfunktion zwei nicht leere Klassen von Basen

� � � '������ ' � � ��� � � � � '�������' � � � �� � � � � '������ ' � � ��� � � � � '�������' � � � ��� �Es gehören zwei Basen genau dann der gleichen Klasse an, wenn die Matrix der Basistransfor-mation positive Determinante hat.

9.2 Definition

Eine Orientierung eines reellen Vektorraumes�

besteht darin, eine der beiden Klassen auszu-zeichnen und Klasse der positiv orientierten Basen zu nennen.

Page 74: Lineare Algebra

VIII.1 Das Standard-Skalarprodukt im � � 69

mm10

VIII Vektorräume mit Skalarprodukt 1

Dieses Thema wird in Kapitel XII auf Seite 141 fortgesetzt.

VIII.1 Das Standard-Skalarprodukt im ���

1.1 Bemerkung

In Kapitel VI haben wir Vektoren der Anschauungsebene betrachtet. Die Beziehung des Satzesvon Pythagoras, des Längen- und Winkelbegriffs der Elementargeometrie zum Skalarproduktläßt erwarten, daß umgekehrt der � 8 , mit dem Skalarprodukt

� �+'�� 1 � � � � ��� 8 � 8 für � � ���� 8� � � 8 und �

�� �� 8� � � 8

ein geeignetes Modell für die Anschauungsebene oder für die euklidische Ebene liefert. Diedarauf begründete Geometrie wird Analytische (euklidische) Geometrie genannt im Gegensatzzur Synthetischen (euklidischen) Geometrie, die auf Begriffen wie z. B. der Kongruenz beruht(s. E. Kunz: Elementargeometrie, vieweg). Dies gilt entsprechend für den Anschauungsraum undwird uns ganz allgemein zum Begriff eines � -dimensionalen euklidischen Raumes führen.

1.2 Definition

Das Standard-Skalarprodukt im ��� , � ��� , ist definiert durch:

���('�� 1 ��� � � � � � � f"ur � � ��� '�������' � � � � ' � � � � '������ ' � � � � � � �

1.3 Eigenschaften

Das Standard-Skalarprodukt hat folgende Eigenschaften:

1. Bilinearität der Abbildung: � � � � � � � ' � �('�� � �� � �('��7 D. h. bei festem � ist eslinear in der Variablen � und bei festem � ist es linear in der Variablen � :

���('��$� � � ���('�� �� ���('�� � ' ���(' � � � � �+'�� ��� �$� � '�� ���('�� �� ��� � '�� ' � � �('�� � ���+'��

10A. Riede: Lineare Algebra 1, WS 99/00

Page 75: Lineare Algebra

70 VIII Vektorräume mit Skalarprodukt 1

2. Symmetrie: ���('�� � �"' � 3. Positive Definitheit: ���(' �# � � und � �(' �� � nur für � � .

Beweis: Die Bilinearität ergibt sich wieder durch Vergleich mit einer Linearform. Die Symmetrieist natürlich eine Folgerung aus dem Kommutativitätsgesetz für die Multiplikation in � . Diepositive Definitheit folgt daraus, daß eine Summe von Quadraten reeller Zahlen

� � ist und �

nur dann, wenn die reellen Zahlen selbst alle null sind.

1.4 Bemerkung zur Verwendung von �

Es ist hier nicht etwa die Behandlung eines vertrauten Falles, warum wir den Körper der reellenZahlen benutzt haben, sondern weil wir für die Formulierung der positiven Definitheit einenangeordneten Körper brauchen.

1.5 Definitionen

Wir haben in Anschauungsebene und Anschauungsraum gesehen, daß Begriffe wie Länge undWinkel aus dem Skalarprodukt abgeleitet werden können. Dementsprechend definieren wir im�� :

1. Die Länge oder der Betrag oder die euklidische Norm eines Vektors ist:� � � 1 �� ���(' �#

2. Der Winkel � � � �('�� � zwischen zwei Vektoren � und � , gemessen im Intervall

� � ' � � ,wird durch den Kosinus erklärt:

��� � � � 1 ���('�� � � � � � �

Diese Definition macht nur Sinn, wenn ����

� ���� ���� � � ���� �

oder äquivalent gilt:

� ���('�� � � � � � � � �

Diese Ungleichung heißt die Cauchy-Schwarzsche Ungleichung, die tatsächlich richtig ist,was in Abschnitt 3.5 auf Seite 73 bewiesen wird.

3. � heißt senkrecht oder orthogonal zu � : ! ���('�� � d. h. � � � � .

VIII.2 Das Standard-Skalarprodukt im � �

Im folgenden bezeichne der Querstrich die konjugiert komplexe Zahl. Wir beachten: � � !� � �

Page 76: Lineare Algebra

Allgemeines Skalarprodukt 71

2.1 Definition

Sei � � � � '�������' � � � � � � � , � �� � '������ ' � � � � � � � . Dann ist das Standard-Skalarprodukt

von � und � erklärt durch:

� �('�� � 1 ��� � � � � � � � � � '������ ' � � � �

��� � �...� �

��� � � � �

Dabei geben die letzten beiden Ausdrücke die Matrizenform des Standard-Skalarproduktes an.

2.2 Eigenschaften

Die Abbildung� 1 � � � � � � � mit

� � �('�� � 1 ���('�� ist

1. linear in der ersten Variablen

2. additiv in der zweiten Variablen

3. semi-homogen in der zweiten Variablen, d. h.� � �(' � � � � � � �+'�� � bzw. ���(' � � � ���+'��

4. semi-symmetrisch d. h.� ��"' � � � � �('�� � bzw. � �"' �� � �('��

Insbesondere gilt für � � :� � �(' � � � � �(' � � d. h.

� � �(' � � � � d. h. � �+' �� � �

5. positiv definit d. h.� � �(' � � ���(' �� � � und

� genau für � � .

VIII.3 Allgemeines Skalarprodukt

3.1 Definition

Sei � � oder � und�

ein � -Vektorraum. Dann ist ein Skalarprodukt auf�

eine Abbildung� 1 � � � � � mit den Eigenschaften 1 bis 5.

Für � � gilt: � = �semi-homogen = homogen

semi-symmetrisch = symmetrisch

Page 77: Lineare Algebra

72 VIII Vektorräume mit Skalarprodukt 1

3.2 Beispiel

Seien � ' � � � ' � � � ' � 1 �)1 � � ' � � � � � � stetig � � �+' � � �.

� �(' � 1 ������ � 0 � � � 0 � 4 0

Hierdurch ist ein Skalarprodukt auf�

definiert, was aus der Linearität des Integrals, der Ver-tauschbarkeit von komplexer Konjugation und Integral und der Positivität des Integrals stetigerFunktionen folgt. In der Analysis sind verschiedene Funktionenräume � interessant, die ausintegrierbaren Funktionen bestehen. Da eine unstetige integrierbare Funktion ungleich null seinkann, obwohl ihr Integral verschwindet, kommt es vor, daß in diesen Räumen � � � 0 � � � 0 � 4 0 keinSkalarprodukt mehr liefert, da es nicht mehr positiv definit ist. Um doch einen Vektorraum mitSkalarprodukt zu erhalten, wird der Unterraum � der Nullfunktionen betrachtet; das sind dieFunktionen, deren Integral 0 ist. Auf dem Quotientenraum � � � der integrierbaren Funktionenmodulo der Nullfunktionen besteht dann wieder ein Skalarprodukt.

3.3 Definition

Auch in einem allgemeinen Vektorraum mit Skalarprodukt wird die Norm (Betrag bzw. Länge)eines Vektors � definiert durch:

� � � 1 � ���+' ��3.4 Eigenschaften

� � � und �('�� � �gilt:

1.� � � � � und

� genau, wenn � �2.

� �(� � � � � � � �

3.� ��� �

� � � � � � ���

4. Satz der Pythagoras: ��� �� � ��� �

� 8 � � � 8 � ��� 8

Beweis:

1. Positive Definitheit von � '� .

2. Leicht nachzurechnen

3.� ��� �

� 8 � � � �"' ��� � � �+' �� � ���('�� � � � ' � � � � '�� � �+' �� � ���('�� � ���('�� �� � � '�� � �+' �� � � Re� ���('�� � � � � '�� , da � � � � Re

� � �

Page 78: Lineare Algebra

Allgemeines Skalarprodukt 73

� ���(' �#�� �� ���('�� � � � �"'�� , da Re

� � � � � � �� ���(' �#�� �

� � � � � � � � � '�� wegen 3.5� ��� �� 8 � � � � 8 � �

� � � � � � � ��� 8 � � � � � �

�� � 8� ��� �

� � � � � � ���

4.� ��� �

� 8 ����� � ' ��� � ���+' ���� ���('�� � ��� �� � � � � ' �#� ��� �� � � � � '�� � � � 8 � �

�� 8

3.5 Satz: Cauchy-Schwarzsche Ungleichung

� ���('�� � � � � � � � �= ! � �('�� � linear abhängig

Beweis:

a) Für �-' � � � folgt:

� � ���(����� �"' �(����� � � � ���(' �# � � � � �+'�� �� � � � �"' � � � � � � '�� Für � � � und � ��1 � � '�� folgt nach Division durch � :

� � � ���(' � � � ���+'�� � � � � ' � � � � für � � �Setzen wir � 1 � ���+'�� :

� � � �+' �� � � '�� � ���('�� ���('�� � ���('�� ���('�� �� ���('�� ���('�� � � � � � 8 � � � 8 � � ���('�� � 8� ���('�� � � � � � � � � . Dies gilt auch für �

� , da beide Seiten dann gleich � .b) Ist

� �('�� � linear unabhängig, dann ist � � � '��� � � und es gilt in der ersten Unglei-chung von a) das � -Zeichen, also auch in der Cauchy-Schwarzschen Ungleichung. Gleichheitkann also höchstens bei linear abhängigen

� �('�� � auftreten.

c) Sei umgekehrt� �('�� � linear abhängig. Dann ist etwa � ein Vielfaches von � , � � � und

es gilt für die linke Seite der Ungleichung:� ���('�� �� � � � � '�� �� � � � � '�� �� � � � � � � '�� �� � � � � � � 8 .Für die rechte kommt das gleiche heraus:� � � � � �5 � � � � � � �: � � � � � � � � �: � � � � � � 8Bei linear abhängigen

� �('�� � gilt daher das Gleichheitszeichen.

3.6 Definition

Ein euklidischer Vektorraum ist ein � -Vektorraum mit Skalarprodukt und ein � -Vektorraum mitSkalarprodukt heißt ein unitärer Vektorraum.

Page 79: Lineare Algebra

74 VIII Vektorräume mit Skalarprodukt 1

Im folgenden sei�

stets ein Vektorraum mit Skalarprodukt.

3.7 Definition

Ist� � � '�������' � � � eine Basis des Vektorraumes

�mit Skalarprodukt

�, so heißt die

�� � ��� -Matrix

mit den Koeffizienten� �� 1 � � � � ' � � � � � ' � die Matrix des Skalarproduktes bezüglich� � � '������ ' � � � .

VIII.4 Orthonormalbasen

4.1 Definition

Es gibt in einem Vektorraum mit Skalarprodukt sogenannte Orthonormalbasen, das sind Basen� ��� '������ ' � � � von�

mit:

� � � ' � � �� ' d. h. � � � � für ��� � und

� � � � �für � ' � �� '������ ' �

Äquivalent mit dieser Bedingung ist, daß die Matrix des Skalarproduktes bezüglich einer Ortho-normalbasis die

�� � ��� -Einheitsmatrix ist, und damit wieder äquivalent ist, daß das Skalarpro-

dukt die folgende Form hat:

���('�� ���� � � � für �

��� � � � � � � und �

��� � � � � � �

Koordinaten bezüglich einer orthonormierten Basis heißen kartesische Koordinaten.

4.2 Bemerkung

� ��� '������ ' � � � orthonormiert � � ��� '������ ' � � � linear unabhängig

Beweis:��� � � � � � � = � � � �"' � ' � � � '�������' �

���� � � � � � � ' � = �

��� � � � � � � � ' � = �

� = �

Page 80: Lineare Algebra

VIII.4 Orthonormalbasen 75

4.3 Orthonormalisierungsverfahren von E. Schmidt

Das im folgenden beschriebene Verfahren formt jede beliebige Basis� � � '������ ' � � � von

�in eine

orthonormierte Basis� � � '������ ' � � � von

�um, so daß folgende lineare Hüllen übereinstimmen:

� � ��� '�������' � � � � � ��� '�������' � � � für � � '������ ' �

1. Schritt: ����1 ���� ��� � Dann ist� � � � ��

und � � ��� � � � ��� � .2. Schritt:

8 1 � 8 � � ��� für ein � � � Dann ist � � � � ' � 8 � � � ��� ' 8 � .

3. Schritt: Wir suchen � so zu bestimmen, daß � � � 8 wird; dazu muß gelten:

� � ��� ' 8 � ��� ' � 8 � � � ��� ' ���� � ��� ' � 8 � �

Es folgt: � � � ��� ' � 8 .

4. Schritt: � 8 1

8� 8� Dann ist ��� � � 8 ,

� ��� � �,� � 8� �

und � � ��� ' � 8 � � � ��� ' � 8 �So wird induktiv fortgefahren.

Induktionsannahme: Seien � � '�������' � � gefunden mit � � � ' � � � für � � � ' � ' � � '������ ' und � � ��� '������ ' � � � � � ��� '�������' � � � für � � '������ ' Induktionsschluß: Der Schritt von � � auf � �

:

1. Schritt: � � �%1 � � � �-� � �� � � � � � � '�� � � � . Dann ist:

� � ��� '�������' � � � � � � � ��� '�������' � � ' � � � �2. Schritt: Wir suchen � � für � � '������ ' so zu bestimmen, daß � � � � � wird für alle� � '�������' ; dazu muß gelten:

� � � ' � � �% � � ' � � � ��3� � � � ' � � � ' � � � �% ���

Es folgt: � � ��� ' � � � �� .

3. Schritt: � � � ��1 � � �� � � �

Dann ist � � � � für � � � und i,j=1,. . . ,k+1 ,� � � �� �

für � � '������ ' � �und� � ��� '�������' � � � � � � � ��� ������' � � � � � .

Page 81: Lineare Algebra

76 VIII Vektorräume mit Skalarprodukt 1

4.4 Folgerungen

Für endlich erzeugten Vektorraum�

gilt:

1. Es gibt eine Orthonormalbasis.

2. Sind ��� '�������' � � Vektoren eines � -dimensionalen Vektorraumes mit Skalarprodukt, so daß� � � ' � � �� für � ' � � '������ ' gilt. Dann lassen sie sich zu einer orthonormiertenBasis ergänzen.

Beweis:

1.�

endlich erzeugt � � Basis; orthonormalisiere diese.

2. Ergänze� � � '�������' � � � zu einer Basis, orthonormalisiere diese. Die Orthonormalisierung

nach Schmidt läßt die ersten schon orthonormalen Vektoren ungeändert.

VIII.5 Die orthogonale und unitäre Gruppe

5.1 Satz

Für ein kartesisches Koordinatensystem auf�

gilt:

���('�� � � � � ' � � � � �('�� � �

Dabei bezeichnet � '� � wieder das Standard-Skalarprodukt auf � � .Beweis:

Das kartesische Koordinatensystem gehöre zur orthonormierten Basis� � � '������ ' � � � von

�und es

sei � � �� � � � � � � ' � � � � � � � .

���('�� = � ��� � � � � � � '

�� � � � �

=��� � �

�� � � � � � � � � ' �

=��� � � � � � � � � � � ' � � � �

Die Koordinatenzuordnung ist also eine lineare Abbildung, bei der das Skalarprodukt zweierVektoren gleich dem Skalarprodukt der Bildvektoren ist, kurz die das Skalarprodukt erhält. Sol-che Abbildungen heißen Isometrien, genauer wird definiert:

Page 82: Lineare Algebra

Die orthogonale und unitäre Gruppe 77

5.2 Definition

Sei � 1 � � � linear und seien�

und � � -Vektorräume mit Skalarprodukt. Dann heißt f eineIsometrie, falls gilt: � � � � � ' � � � � ���('�� �('�� � �

Im Falle � � heißt � auch eine orthogonale im Falle � � eine unitäre Abbildung von�

nach � .

5.3 Beispiele

1. 1 � � � � aus 5.1 auf der vorherigen Seite.

2. Id � , -Id � = Spiegelung am Nullpunkt

3. Sind �$1 � � � und � 1 �#� �Isometrien zwischen Vektorräumen mit Skalarprodukt

über � , dann ist auch � �� 1 � � � eine Isometrie.

4. Ist � 1 � � � eine bijektive Isometrie, dann ist auch � � � 1 � � �eine Isometrie.

5. Die Drehung � 1 � 8 � � 8 um den Winkel � :

�� � �� 8� � ��� � � � � ��� � � �

��� � � � ��� � � � �� � �� 8�

Der Name kommt daher, daß� � �(' � � � � � � ist für alle � � � 8 .

Z. B. die Drehung um � � � � wird beschrieben durch: � � ��� 8 ' � 8

� � .6. Sei � eine Gerade eines dreidimensionalen euklidischen Vektorraumes

�durch � � �

,d. h. ein eindimensionaler Untervektorraum von

�. Wir wählen eine Orthonormalbasis,

bei der die ersten beiden Vektoren auf � orthogonal sind und der dritte in � liegt. Dannheißt die lineare Abbildung, die in zugehörigen kartesischen Koordinaten durch

��� ���� 8��

� �� ��� � � � � ���� � � � ����� � � � ��� � � � �

� � �

� �� ���� 8��

� beschrieben wird, eine Drehung von

�mit der Drehachse � .

5.4 Lemma

Sei � 1 � � �linear und

�� -dimensional. Dann gilt:

� Isometrie ! � � � � � '�������' � � � � � � � orthonormal, falls� � � '������ ' � � � � orthonormal.

Beweis:

Page 83: Lineare Algebra

78 VIII Vektorräume mit Skalarprodukt 1

„ � “: klar

„ � “: Seien � ��� � � � � � � ' �

�� � � � � � �

.

� � � �(' � � � � = � � ���� � � � � � � � ' � �

�� � � � � �

= � ��� � � � � � � � � � '

�� � � � � � � �

=��� � �

�� � � � � � � � � � � � ' � � � �

=��� � �

�� � � � � � � ��

=��� � �

�� � � � � � � � � ' �

= � ��� � � � � � � '

�� � � � �

= ���('�� 5.5 Frage

Wie kann der Matrix � � � eines Endomorphismus � von�

bezüglich einer orthonormiertenBasis angesehen werden, ob � eine Isometrie ist?

5.6 Antwort und Definition

� ist genau dann eine Isometrie, wenn seine Matrix � � � bezüglich einer orthonormiertenBasis

� ��� '�������' � � � � eine der folgenden untereinander äquivalenten Bedingungen erfüllt:

1. Die Spalten � � von � � sind bezüglich des Standard-Skalarproduktes von � � orthonormiert,d. h. � � � ' � � � �� � ' � �� '�������' �

2. Die (transponierten) Zeilen � � von � � sind bezüglich des Standard-Skalarproduktes von� � orthonormiert, d. h. � � �� ' � � � � �� � ' � �� '�������' �

3. ��� � � �

� d. h. � ist invertierbar (d. h. � invertierbar) und � � � � �

Eine Matrix, die diese Bedingungen erfüllt, heißt für � � eine orthogonale im Falle � �eine unitäre Matrix.

Page 84: Lineare Algebra

Die orthogonale und unitäre Gruppe 79

� ist also genau dann eine Isometrie, wenn seine Matrix bezüglich einer orthonormierten Basisim reellen Falle eine orthogonale bzw. im komplexen Falle eine unitäre Matrix ist.

Beweis:a) � Isometrie ! � � � � � � ' � � � � =

� �� wegen des Lemmas! � � � � � � � � ' � � � � � � � =

� �� wegen 5.1 auf Seite 76! � � � ' � � =

� �� , weil die Koordinaten des

Bildes des � -ten Basisvektors die � -te Spalte der Abbildungsmatrix bilden. Damit ist gezeigt, daßIsometrie mit der ersten Bedingung äquivalent ist.

b) � � � ' � � � �� ! � � � � � � �� ! Matrizenform von � '� � (s. 2.1 aufSeite 71)

� � � � �

� ! � � � � �

� ! � � � � �

Also ist die erste mit der dritten Bedingung äquivalent.

c) � � � � � ! � � � � �

� ! � � � � � � � ! � � �� ' � � � � ��Damit ist die Äquivalenz der zweiten und dritten Bedingung erwiesen.

5.7 Satz und Definition

Sei � �. Unter einer Isometrie von

�verstehen wir eine Isometrie von

�nach

�. Die

Isometrien von�

bilden bezüglich der Hintereinanderausführung als Verknüpfung eine Gruppe.Sie heißt die Isometriegruppe von

�. Im Falle � � wird sie auch Orthogonale Gruppe von

genannt und mit � � � � bezeichnet; im Falle � � wird sie auch Unitäre Gruppe von�

genanntund mit �

��� � bezeichnet.

Beweis:� �+' � Isometrien von

� � � �� Isometrie von�

(s. 5.3 auf Seite 77, 3. Beispiel)� Id � ist eine Isometrie, also gibt es ein neutrales Element.� Wegen 5.6 auf der vorherigen Seite ist jede Isometrie � von

�auch ein Isomorphismus.

Nach 5.3 auf Seite 77, 4. Beispiel ist die Umkehrabbildung ebenfalls eine Isometrie. Es gibtalso zu jedem Element ein Inverses.

5.8 Satz und Definition

Sei�$ � ��� '�������' � � � � eine orthonormierte Basis. Dann bildet die Zuordnung ���� � � � � (=

Matrix von � bezüglich�) die Menge der Isometrien von

�bijektiv auf die Menge der ortho-

gonalen bzw. unitären Matrizen ab, wobei der Hintereinanderausführung das Matrizenproduktentspricht. Daher bilden die orthogonalen Matrizen mit der Matrizenmultiplikation ein Gruppe,die Orthogonale Gruppe zur Dimension � . � � � � � � � ��� ' � �� � � � � ist ein von

�abhängiger

Gruppen-Isomorphismus. Entsprechend bilden im komplexen Falle die unitären Matrizen eine

Page 85: Lineare Algebra

80 VIII Vektorräume mit Skalarprodukt 1

zu ���� � isomorphe Gruppe, die Unitäre Gruppe zur Dimension � . Da wir für

� � � be-züglich des Standard-Skalarprodukt eine kanonische orthonormierte Basis haben, gibt es einenkanonischen (einen vor allen anderen ausgezeichneten) Isomorphismus � � � � � � � � ��� bzw.��� � � � �

���� . Daher wird auch � � �� � bzw. �

��� � Orthogonale bzw. Unitäre Gruppe zur

Dimension � genannt und ebenfalls mit � � ��� bzw. ��

� � bezeichnet.

5.9 Satz und Definition

� � � ��� 1 � � � � ����� Det� � � �� � ist eine Gruppe, die Spezielle Orthogonale Gruppe.

� � � ��� 1 � � � � � � ��� Det� � � � � ist eine Gruppe, die Spezielle Unitäre Gruppe.

Page 86: Lineare Algebra

IX.2 Bestimmung von Eigenwerten und Eigenvektoren 81

IX Eigenvektoren und Eigenwerte

In diesem Kapitel wird ein Körper mit unendlich vielen Elementen wie etwa � , � zugrundege-legt, da für endliche Körper ein anderer Begriff eines Polynoms verwendet werden muß. (S. denAnfang von Kapitel! X auf Seite 106!)

IX.1 Diagonalisierbarkeit

1.1 Problem

Gegeben sei eine lineare Selbstabbildung ��1 � � �eines � -dimensionalen Vektorraumes

über dem Körper � . Gibt es eine Basis� � � '������ ' � � � von

�, so daß � � besonders einfache Gestalt

annimmt? Z. B. Diagonalgestalt?

� �

������� � ����� �� �

8. . .

......

. . . . . . �� ����� � �

�����

Wenn es eine solche Basis gibt, so sagen wir, daß � diagonalisierbar ist. Dies bedeutet, daß jederBasisvektor in ein Vielfaches von sich selber übergeht: � � � � � �� � � �

1.2 Definition

Ein � � �heißt Eigenvektor zum Eigenwert

� � � 1 ! � � � � �� � und � � � . Wir kürzenEigenvektor mit EV und Eigenwert mit EW ab.� � � heißt ein Eigenwert von � 1 ! Es existiert ein Eigenvektor zum Eigenwert

�.

Indem wir eine�

� � ��� -Matrix � in Beziehung zur linearen Abbildung � 1 � � � � � sehen,deren Abbildungsmatrix bezüglich der kanonischen Basis � ist, sprechen wir auch von EV undEW einer Matrix � .

1.3 Notwendige und hinreichende Bedingung für Diagonalisierbarkeit

� diagonalisierbar ! Es gibt eine Basis aus Eigenvektoren.

IX.2 Bestimmung von Eigenwerten und Eigenvektoren

Sei ��� � ' � � � ' � � � . � ist EV zum EW� ! � � � � �� � ! � � � � � � � � !� � � � Id �

� � � � ! � � Kern� � � � Id �

Page 87: Lineare Algebra

82 IX Eigenvektoren und Eigenwerte

Es gibt zu� � � einen Eigenvektor � ! Kern( � � � Id) � � � ! � � � Id ist kein

Isomorphismus ! Det( ��� � Id) = 0. Wir erhalten folgenden Satz:

2.1 Satz: Sei � � � ' � � � ' � � � .

1.�

ist EW von � ! Det( � � � Id) = 0.

2. � ist ein EV von � zum Eigenwert�. ! � � � und � � Kern( ��� � Id).

3. Sei im folgenden� � � '�������' � � � eine Basis von

�und � � � � � � � � bezüglich� � � '�������' � � � . Dann folgt:

Det( � � � Id) = Det( ��� � � � ) =

���������

� � �*� � � � 8 ����� � � �� 8 �

. . . . . ....

.... . . . . . � ��� � � �� � � ����� � ��� ��� � � � � �

���������

=�� � � � sgn

� � � ��� � � � � � � � � � � � � � � � � � � � � =

� � � � � � � ��� �� � � � ��� � �<�&�&�&� � � � � � � � � � 1 � � � � 1 � �

� � � �4.��

Det( � ) = Det( � ). (�" � setzen)

2.2 Definition

� � � � � �� � � heißt das charakteristische Polynom von � , � � � � � die charakteristische Glei-

chung von � .

2.3 Feststellungen

1. Die Eigenwerte von � sind die Nullstellen des charakteristischen Polynoms von � . ZurBestimmung der Eigenwerte müsssen also die Nullstellen des charakteristischen Polynomsberechnet werden.

2. Ist ein EW�

gefunden, so sind die Koordinaten der EV zum EW�

die nicht trivialenLösungen des homogenen linearen Gleichungssystems

� ��� � Id � � � .

2.4 Beispiele

1. Die Drehung � des � 8 um � �� � ' � � � hat für � � � ' und � � � d. h. für � � Id und

� � � Id, keine Eigenvektoren. Der einzige EW von Id ist 1 und alle Vektoren � � sindEigenvektoren zum EW 1. Der einzige EW von -Id ist -1 und alle Vektoren � � sind EVzum EW -1.

Page 88: Lineare Algebra

IX.3 Hauptachsen selbstadjungierter Abbildungen 83

2. � 1 � 8 � � 8 sei definiert durch �� � �� 8� 1 � � �

� � � � ���� 8�

����

� � � �

� � � ����� � � � � � 8 . Daher ist

�" ��der einzige Eigenwert. Für

�" �folgt

� � �� �

8�

� � �

� � � . Um die Eigenvektoren zum EW 1 zu bekommen ist also die lineare

Gleichung � 8 � zu lösen. Die Vektoren �

� � �� � mit � � � � sind die Eigenvektoren

zum EW�. Es gibt keine Basis aus Eigenvektoren! � ist nicht diagonalisierbar!

3. Sei� 1 � � 1 � � � � � beliebig oft differenzierbar � . 4 1 � � �

sei die Ableitung. Für� � 0 � 1 ��� � ' � � � fest, 0 � � folgt:

4 � � � � 0 � � �� 0 � � � � � �� � � 0 � ' d. h. 4 � � � � �

Die Funktion ��� � ist also ein Eigenvektor von 4 zum Eigenwert�, ��� � wird auch Eigen-

funktion genannt.

Dieses Beispiel ist der Schlüssel zur Anwendung der Eigenwerttheorie in der Analysis.

4. Die Matrix � �� � � � � �

� � � �� ��� �

� hat die Eigenwerte -1 und 1. � � � � �8 '

� ' � � � ist

ein Eigenvektor zum EW � � . � 8 � � ' � ' � � � und ��� � � ' � ' � � � sind linear unabhängige

Eigenvektoren zum Eigenwert 1.� � � ' � 8 ' ���

� ist eine Basis aus Eigenvektoren. Als Diago-nalisierung erhalten wir die Matrix: �� � � � �

� � �� � �

IX.3 Hauptachsen selbstadjungierter Abbildungen

3.1 Bemerkungen

Wir betrachten einen � -dimensionalen Vektorraum�

mit Skalarprodukt über � ; sei���' � � �

� ' Id � � oder ��:' � � (kK= komplexe Konjugation).

� � � '�������' � � � sei eine beliebigeorthonormierte Basis. Zu einer orthonormierten Basis gehörige Koordinaten werden kartesischeKoordinaten genannt.

1. Das Skalarprodukt lautet in einem beliebigen kartesischen Koordinatensystem wie folgtund kann als Matrizenprodukt geschrieben werden:

���('�� ��� � � � � � � � � � '������ ' � � � � � � � '�������' � � ��� für �

��� � � � � � � ' �

��� � � � � � �

Page 89: Lineare Algebra

84 IX Eigenvektoren und Eigenwerte

2. Bei orthonormierter Basis erhalten wir die � -te Koordinate� � � eines Vektors als das Ska-

larprodukt mit dem � -ten Basisvektor:� � � � �(' �

Beweis:

1. Dies folgt unmitelbar aus der Orthonormiertheit der Basis und der Definition des Matri-zenproduktes.

2. � �(' � � � �� � � � � � � ' � � �� � � � � � � � ' � � ��� �

��� �

3.2 Definition und Satz

Eine lineare Abbildung � 1 � � �heißt semi-symmetrisch oder selbstadjungiert : !

Eine der folgenden untereinander äquivalenten Bedingungen ist erfüllt:

1. � � � � � '�� � �(' � � � � für alle �('�� � �.

2. � � � � � � ' � � � � ' � � � � für alle � ' �� '������ ' �

3. Die Matrix � � � � � ist semi-symmetrisch d. h. per Definition � � �oder � � � �

für alle � ' � '�������' � .

Die Bezeichnung semi-symmetrisch ist klar, woher die Bezeichnung selbstadjungiert kommt,wird sich in dem Abschnitt 4.1 auf Seite 87 ergeben.

Beweis:

1. � 2.: Klar

2. � 1.: Indem beliebige Vektoren durch die Basis dargestellt werden und die Linearität desSkalarproduktes in der ersten Variablen und die Semilinearität in der zweiten ausgenutzt wird,ergibt sich die erste Bedingung aus der zweiten.

2 ! 3.: Es gilt nach Definition der Abbildungsmatrix � � � � � � ��� � � � � . � � ist also die� -te Koordinate von � � � � � , die wir auch durch Bilden des Skalarproduktes mit mit � erhaltenkönnen, also folgt:

� � � � ! � � � � � � ' � � � � � � ' � � ! � � � � � � ' � � � � ' � � � �

3.3 Definition

Sei ��1 � � �linear und selbstadjungiert und � � . Sei � � � �

�� � ������� � � �

� und� ��� '������ ' � � �

orthonormiert. ����1 � � � � � sei diejenige lineare Abbildung, die bezüglich der kanonischenBasis von � � die gleiche Matrix � hat wie � bezüglich

� � � '������ ' � � � . Wir nennen ��� eine komplexe

Page 90: Lineare Algebra

IX.3 Hauptachsen selbstadjungierter Abbildungen 85

Erweiterung von � . In Abschnitt XII.3 auf Seite 145 werden wir die komplexe Erweiterungsystematisch behandeln.

3.4 Satz

Wir betrachten � � als unitären Raum bezüglich des Standardskalarproduktes. Dann gilt:

1. � selbstadjungiert � ��� ist ebenfalls selbstadjungiert.

2. Für � � sind die Eigenwerte einer selbstadjungierten Abbildung alle reell.

3. Damit hat auch für � � ein selbstadjungierte Abbildung (reelle) Eigenwerte.

Beweis:

1. Die erste Behauptung folgt einfach daraus, daß � und � � die gleiche Matrix haben be-züglich orthonormierter Basen und eine reell semi-symmetrische Matrix auch komplexsemi-symmetrisch ist.

2. Sei�

ein Eigenwert und � ein zugehöriger Eigenvektor. Dann folgt:

� � � � � ' � ���(' � � � � wegen der Selbstadjungiertheit� � �(' �# ���(' � �#� ���(' �# � ���(' �# � 1 ���(' ��� �

3. Da � und ��� die gleiche Matrix haben bezüglich orthonormierter Basen, haben sie dasgleiche charakteristische Polynom. Da das charakteristische Polynom von � � vollständigin Linearfaktoren zerfällt mit lauter reellen Nullstellen, gilt dies auch für � .

3.5 Satz und Definition

Eine selbstadjungierte Selbstabbildung � von�

hat bezüglich einer geeigneten orthonormiertenBasis Diagonalgestalt, d. h. sie ist eine Streckung in � zueinander senkrechten Richtungen mitden Streckungsfaktoren

� , wobei� die Eigenwerte von � sind. Die von diesen Basisvektoren

aufgespannten eindimensionalen Untervektorräume heißen Hauptachsen von � . Die Transfor-mation auf eine solche Basis heißt Hauptachsentransformation. Wenn � keine � verschiedeneEigenwerte hat, sind die Hauptachsen nicht eindeutig bestimmt; z. B. für � Id � .

Beweis: Induktion nach � :� ��

: Klar

Für � �sei�� ein Eigenwert und � ein Eigenvektor dazu.

Page 91: Lineare Algebra

86 IX Eigenvektoren und Eigenwerte

Beachte: Auch jedes von null verschiedene Vielfache eines Eigenvektors � ist ein Eigenvektormit dem gleichen Eigenwert.

���%1 �� � � � ist ebenfalls Eigenvektor zum Eigenwert

�� .

Sei� ��� ' � � 8 '�������' � �� � eine Ergänzung von

� � � � zu einer orthonormierten Basis von�

. Dann gilt:

� � ��� � � �� � ������� � �

� � �

������� � ����� ��... � �

��

�����

Die Nullen in der ersten Spalte kommen daher, daß � � Eigenvektor ist, die Nullen in der erstenZeile müssen dann wegen der Semisymmetrie der Matrix stehen.

Wegen letzterem folgt für � 1 � � � � 8 '������ ' � �� � � � � � � ��� für � � '������ ' � d. h.

� � � � � � . Wir können � einschränken auf � und erhalten eine lineare Abbildung

�� 1 � � � , �� � � � 1 � � � � � � �� ist wieder ein Vektorraum mit Skalarprodukt, das Skalarprodukt von

�wird einfach auf

Vektoren von � eingeschränkt und �� ist eine selbstadjungierte Abbildung.

Da Dim�� � � � �

gibt es nach Induktionsannahme eine orthonormierte Basis� � 8 '������ ' � � �

von � , bezüglich der die Matrix von �� Diagonalgestalt hat:

� ��

����

8. . .�

� �

Dann hat � Diagonalgestalt bezüglich� � � ' � 8 '�������' � � � :

� ��

��������

8 . . .�

� ���

IX.4 Normale Endomorphismen

Es sei � � . Wir gehen folgenden Fragen nach.

1. Gilt im letzten Satz auch die Umkehrung?

� diagonalisierbar bezüglich orthonormierter Basis�� � selbstadjungiert

2. Woher kommt die Bezeichnung selbstadjungiert?

Page 92: Lineare Algebra

IX.4 Normale Endomorphismen 87

4.1 Definition und Satz

Sei�

ein Vektorraum mit Skalarprodukt und� � � '������ ' � � � eine orthonormierte Basis, � 1 � � �

linear. Dann gibt es genau eine lineare Abbildung � � 1 � � �, für die die folgenden unterein-

ander äquivalenten Bedingungen gelten:

a) ���(' � � � � � � � � � � '�� �('�� � �

b) � � ' � � � � � � � � � � � ' � � � ' � '������ ' �

c) � � � � �

� bezüglich� � � '�������' � � �

� � heißt die zu � adjungierte Abbildung.

� ist selbstadjungiert. ! � � �

Beweis:

a) ! b) wegen der Linearität von ���('�� in � und der Semilinearität in � .

Sei � � � � � � � und � � � � � � � � � � .

b) bedeutet so viel wie

b’) � � � � � � � ' � � � � � � ' � � � ' � '�������' � d. h.� � � � � � � � Dies ist Bedingung c). Also ist b) äquivalent mit c).

Wegen c) ist die Abbildungsmatrix von � � eindeutig festgelegt, also auch � � , wenn es überhauptexistiert.

Sei � � die lineare Abbildung mit der Matrix wie in c) verlangt. Dann gilt natürlich c). Alsoexistiert auch eine lineare Abbildung mit Eigenschaft c).

4.2 Definition

� 1 � � �heißt normal : ! � � � � � �

4.2.1 Feststellung: Eine selbstadjungierte Abbildung ist normal.

4.3 Hauptachsentransformation normaler Abbildungen für � �

Sei � 1 � � �eine lineare Selbstabbildung eines unitären Raumes. Dann gilt:

� ist bezüglich einer orthonormierten Basis diagonalisierbar 1 ! � ist normal.

Beweis:

„ � “: Sei�� ein Eigenwert und � � ein normierter Eigenvektor zu

�� . Ergänze

� � � � zu einer ortho-normierten Basis

� � � '�������' � � � . Diesbezüglich hat � eine Matrix folgender Form:

Page 93: Lineare Algebra

88 IX Eigenvektoren und Eigenwerte

� �

������� � � 8 ����� � � ��...�

�����

� � � � � � !������� � ����� �

� � 8...� � �

�����

������� � � 8 ����� � � ��...�

�����

������� � � 8 ����� � � ��...�

�����

������� � ����� �

� � 8...� � �

�����

� � � � � � � � �-��� � 8 � � 8 �<�&�&�&��� � � � � � � � ��� 8 � �

�� 8 � � � � 8

� 8 �<�&�&��� � � � �� 8� � � 8

�&�&� � � � � �

� �

������� � ����� ��...�

� ���

Jetzt schließen wir induktiv weiter wie beim Diagonalisierungssatz selbstadjungierter Abbildun-gen.

„ � “: Sei � diagonalisierbar bezüglich einer orthonormierten Basis. Bezüglich dieser hat dannwegen Bedingung c) auch � � Diagonalgestalt mit den konjugiert komplexen Zahlen in der Haupt-diagonalen. Dann zeigt einfaches Nachrechnen, daß � � � � �

� � � � � also auch � � � � � �gilt, das heißt, daß � normal ist.

IX.5 Jordansche Normalform

5.1 Einführung

Sei�

ein � -dimensionaler Vektorraum über einem Körper � . Mit End� � � bezeichnen wir den

� -Vektorraum der Endomorphismen von�

. Sei ��� End� � � , Id 1 Id � . Wie wir gesehen haben,

hat die lineare Abildung

�)1 � 8 � � 8 mit �� ���� 8� 1 � � �

� � � � � �� 8�

bezüglich keiner Basis Diagonalform, weil keine Basis aus Eigenvektoren existiert. In solchenFällen hat � dann eine andere auch noch relativ einfache Normalform, die sogenannnte Jordan-sche Normalform (Camille Jordan, 1838-1922). Sie besteht aus sogenannten Jordankästchen,

Page 94: Lineare Algebra

IX.5 Jordansche Normalform 89

d. h.� � � � � -Matrizen der folgenden Form:

��� � � �

������ �� . . .

. . . . . .� � �

�����

Dabei sind die auftretenden�

genau die Eigenwerte von � . Eine gleichwertige Behandlung derJordanschen Normalform versteht unter Jordankästchen Matrizen der Form:����

�� � �

. . . . . .. . .

� �

�����

Eine Jordansche Normalform existiert unter folgender

5.1.1 Voraussetzung Das charakteristische Polynom „zerfällt in Linearfaktoren“

d. h. � �� � � � � � � � � � � � �&�&� � � � � � � � � '

wobei�� � � ist für � � und � �-�<�&�&� ���� � .

�� '�������' � � sind also die paarweise verschie-

denen Nullstellen von � � bzw. die Eigenwerte von � . Diese Bezeichnung wird im folgendenbeibehalten. Wir nehmen ab jetzt an, daß diese Voraussetzung an � erfüllt ist. Wegen des Funda-mentalsatzes der Algebra ist für � � die Voraussetzung immer erfüllt.

5.2 Normalformen für End�� � �

Hier ist die „Liste“ aller Jordan-Normalformen für � � und für � �

, wobei�� ' � 8 und

��

ganz � durchlaufen, wobei außerhalb der Jordankästchen Nullen stehen.

Ein EW:�� � � 1

�� � � � ���

� �� � � �� � ���

� �� � � � �� � � �

� � � �

Zwei EW:�� ' � 8 � � 1

�� � � � ��

8

� �� � � �� � ��

8

� ���� � 8

Drei EW:�� ' � 8 '

�� � � 1

�� � � � 8 ��

� �� ' � 8 '

�� paarweise verschieden

Page 95: Lineare Algebra

90 IX Eigenvektoren und Eigenwerte

5.3 Verallgemeinerte Eigenräume5.3.1 Definition

1.�� 1 �

�� � � � 1 Kern

� ��� � � Id � heißt Eigenvektorraum zum Eigenwert�� .�� besteht aus

allen Eigenvektoren zum Eigenwert�� und dem Nullvektor.

2.��� 1

���� � � � 1 Kern

� � � � � � Id � � � � heißt verallgemeinerter Eigenvektorraum zum Ei-genwert

�� .

5.3.2 Satz

1.� ��

� � �&�&� ��� �

2. � ���� � �

��� � '������ ' �

3. Dim� ��

� � � �

Beweis mit Hilfe der Teilbarkeitslehre von Polynomen (s. XVI. 3.6 auf Seite 191).

5.3.3 Folgerungen

1. Wegen der 2. Behauptung von 5.3.2 gibt es die auf��� eingeschränkte Abbildung � � 1

� ���� 1��� �

��� ' � � � � � 1 � � � � +���

��� .

2. Wir wählen Basen:� � � � '������ ' � � � � � � von

���

� � 8 � '������ ' � 8 � � � � von��8

...� � � � '������ ' � � � �

� von�� �

Dann ist� � � '�������' � � � 1 � � � � '������ ' � � � � � ' � 8 � '������ ' � 8 � � � ' � � � '������ ' � � � �

� eine Basis von�

und � hat diesbezüglich eine Matrix der Form:

� �

������������

� � �

� � �

. . .

� �

������������

� � � ist eine���� � ��� � -Matrix, � � � eine

�� 8� � 8

� -Matrix usw. � � eine���� � ��� � -Matrix.

Hierbei stehen oberhalb und unterhalb der Kästchen � � � Nullen wegen � ���� � �

��� �

Page 96: Lineare Algebra

IX.5 Jordansche Normalform 91

5.4 Normalform auf���

Im folgenden werden wir zeigen, daß � � � bezüglich geeigneter Basis aus Jordankästchen umdie Hauptdiagonale herum besteht.

5.4.1 Definition Sei � ein Untervektorraum von�

. Dann heißt ein Untervektorraum � von�ein algebraisches Komplement von � in

� 1 ! � ����� .

5.4.2 Bemerkung Es existiert stets ein algebraisches Komplement, es ist nicht eindeutig;denn sei

� � � '������ ' � � � eine Basis von � und� � � '������ ' � ��' � � � � '������ ' � � � eine Ergänzung zu einer

Basis von�

. Dann ist � 1 � � � ��� � '�������' � � � ein algebraisches Komplement von � in�

.

Beweis: � � � � � ��� � � � � � �� ��� �

���

���

� � ��� � � � � �� ��� �

� �. Also ist

� � ��� .

� � � � � ; denn für � � � � � folgt:

� ��� � � � � � � wegen � � �

� ��

� � ��� � � � � � wegen � � �

� ��� � � � � � � �

��� � ��� � � � � � � � �

� � � � �� '������ ' � , da� � � � eine Basis ist. Es folgt � � .

5.4.3 Bezeichnungen und Definitionen Es sei � � '������ ' � � fest. Wir setzen zurAbkürzung: Id 1 Id � , � 1 � � � Id ' � 1 � � , � 1 � � '

�� 1 ��� , und definieren:� � 1 Kern

� � � � � � ' � � ' � '������ '�� . Dann gelten folgende Hilfssätze:

5.4.4 Hilfssatz (a)�� � � �

������� �&�&��� � � � �� � � � ��� �&�&��� �

� � ����� 8 � � �

Beweis:

1.��

Kern� � � � Kern

� � � � � Id � � � ��� �� �

2.��

Kern� � � � Kern

�Id � ��� .

3. Die Vektoren von� � � � sind diejenigen, die bei � � � � � � nach 0 abgebildet werden, sie werden

erst recht bei � � � � � � � � � � � nach 0 abgebildet, liegen also auch in� � . Also gilt:

� � � � �� � .

Page 97: Lineare Algebra

92 IX Eigenvektoren und Eigenwerte

5.4.5 Hilfssatz (b) � ��� � � � � � � �Beweis: Sei � � � � � � � , dann ist � � � � � für ein � �

� � . Jedes � �� � geht bei � � � � in die 0,

� � � � dann bereits bei � � � � � � � � � � � � � � in die null d. h. � � � � � � � � � .

5.4.6 Hilfssatz (c) Sei im folgenden � � ein algebraisches Komplement von� � � � in

� � , sodaß also gilt

� � � � �� � � � . Es folgt:

� � ��3� � � � � ist isomorph für �+� � � � d. h. � � ��� �

.

Beweis: Surjektivität klar

Injektivität: Sei � � � � � � � ���

� � � � Kern� � � � � � � � � �

� � � � � � � � �� � � �

� � � � � � wegen ��� � � � � � ��Kern

�� � �

�3� � � � � � � � Injektivität

5.4.7 Hilfssatz (d) � � � � � � � � � 8 � � �

Beweis: Sei � ��� � � � � � � � � 8 , dann:

� � � � � für ein � � � �

� � � � � � � � 8 bedeutet: � � � � � � 8 � � � � � � � � d. h. � � � � � � � � �� � � d. h. � �

� � � � .� � � � � � � � � � � �

� � �

� �

5.4.8 Hilfssatz (e) Ist�� � '�������'�� � � � � eine Basis von � � , dann ist

� � � ��� � '�������' � � � � � � � � linearunabhängig und kann zu einer Basis eines algebraischen Komplementes � � � � von

� � � 8 in� � � �

ergänzt werden.

Beweis:���� '�������'�� � � � � eine Basis von � � �� � � � � � '�������' � � � � � � � � Basis von � � � � � wegen (c) (5.4.6)

Sei�� � '�������'�� � � � � eine Basis von

� � � 8 .� � � � � � � � � 8

� � � � � �� � � 8 wegen (d) ( 5.4.7)

� � � � � � '�������' � � � � � � '�� � '�������'�� � � � � Basis von � � � � � � � � � 8� � � � � � '�������' � � � � � � '�� � '�������'�� � � ' ��� '�������' ��� � � � sei eine Ergänzung zu einer Basis von� � � � .� � � � ��� � '�������' � � � � � � ' ��� '�������' ��� � � ist ein algebraisches Komplement � � � � von

� � � 8 in� � � � mit� � � � � � '�������' � � � � � � ' ��� '������ ' ��� � � � als Basis.

5.4.9 Überblick und Zusammenfassung

� Es bezeichnet � � ein algebraisches Komplement von� � � � in

� � , � � ' � '������ '���� �. Also

gilt:� � � � � � � � �

Page 98: Lineare Algebra

IX.5 Jordansche Normalform 93

�� �� = � � �

��

= � � ��� � ��8...

= � � ��� � � �&�&� � �� � �� ��� �� �

� � �

Wenn wir also sukzessive Basen von � �&' � � '�������' � � � � bestimmen, ergeben alle zusam-men eine Basis von

��.

� Starte mit einer Basis�� 1 � � � � '������ ' � �� � � eines � � .

� Das Bildsystem � � � � � 1 � � � � � � � '�������' � � � �� � � � ist linear unabhängig und kann zu einer Basis��%1 � � � � � � � '������ ' � � � �� � � ' � �� '������ ' � �� � � von einem � � ergänzt werden.

� Die Bilder bei � der Vektoren von�� sind wieder linear unabhängig und können zu einer

Basis�8 von � 8 ergänzt werden.

etc.

� Wir geben zur Erläuterung der Schrittes von � auf � � �ein Diagramm an.� � �

� � � �� �� � ��� � � � � � � � � � �� �� � � �

� � � 8� � � � � � � � � � � �Basis von Basis von Ergänzug von � � � � �� � � � � � � zu Basis

eines � � � �� Als letztes erhalten wir eine Basis eines � � � � .� Die Vektoren aller Basen

��&' � � '�������' � � � � zusammen genommen ergeben eine Basis von�

� ��

.

5.4.10 Zusammenhang mit Jordankästchen � aufeinanderfolgende Basisvektoren��� '�� 8 '������ '�� � liefern genau dann ein

� � � � � -Jordankästchen

��� � � �

������ �� . . .

. . . . . .� � �

����� '

wenn � � � � � � � � � für � �� '�������' � � �und � � � � � � gilt.

Page 99: Lineare Algebra

94 IX Eigenvektoren und Eigenwerte

5.4.11 Konstruktion der Jordanbasis im Detail

� � � � � �8 � � � �� � � Basis von � �� � � � � � � � � � �8� � � � � � �� � � � �� .. � �� � � Basis von � �

...

... Basis von � � � � :� � � � � � � � � � � � � � � � �8� � � � � � � � � �� � � � � � 8 � � �� � � � � � � 8 � � �� � � � � � � � �� � � � � � �� �

Eine Jordanbasis finden wir nun dadurch, daß wir die Vektoren dieser Tabelle in einer geeignetenReihenfolge nehmen, nämlich so, daß wir sie den Spalten nach anordnen. Die Vektoren in derneuen Reihenfolge bezeichnen wir mit � � ' � 8 ' usw.:

� � � �� ��� ���� � � � �8� ��� ���� � ��� � � � � �� � � Basis von � �

� � � � � � �� ��� ���� � 8� � � �8

�� ��� ���� � ��� 8

� � � � � �� � � � ��� ��� ���� � � � ��� � .. � �� � � Basis von � �

...

... Basis von � � � � :� � � � � � � � � �� ��� ���� � � � � � � � � �8�

� ��� ���� � 8 �� � � � � � � � �� � �

� ��� ���� � � � � � � � 8 � � �� �� ��� ���� � � � ��� � � �� � � � � 8 � � �� � � � � � � � �� � � � � � �� �

� ��� ���� � �

� ��� ���� � �

� ��� ���� � �

� ��� ��� � �� � �

� ��� ��� � �� � �

� ��� ���� � �

� ��� ���� � �

Dann gilt: � � � � � � 8 ' �� � 8� � ��'������ ' � � � � � � � � ��' � � � � � �� � � ' � 8 '������ ' � � � liefert also ein Jordankästchen

��� � � , usw. Insgesamt erhalten wir � �

� � � � -Jordankästchen, wobei � Dim

�� � � ist. Weiter sehen wir, daß es � Dim

�� � � � Dim

�� � ��

��� � � � � ��� � � -Jordankästchen gibt. Allgemein gilt:

Die Anzahl der���� � � � � ��� � � -Jordankästchen = Dim

�� � � Dim

��

� �� .

Wegen � � � � � � � � erhalten wir die Matrix von � aus der von � , indem wir die Nullen in

der Hauptdiagonalen durch�

ersetzen.

Wir fassen zusammen:

Page 100: Lineare Algebra

IX.5 Jordansche Normalform 95

5.4.12 Satz und Definition Das obige konstruktive Verfahren liefert eine Jordan-Basis von� � , d. h. eine Basis von

��� , bezüglich der � � � die folgende Jordangestalt hat:

� � ���� �

�����������������������������

�� �� �� �

. . .

�� �� �� �

. . .. . .

��� �� �

. . .

��� �� �

�����������������������������

Außerhalb der Jordankästchen stehen Nullen.�� � �

� � � taucht dabei -mal auf mit:

Dim�� � � Dim

��

� ��

Eine aus Jordanbasen der � � zusammengesetzte Basis von�

heißt eine Jordanbasis von � unddie aus den � � � zusammengesetzte Matrix ein Jordan-Normalform von � .

Page 101: Lineare Algebra

96 IX Eigenvektoren und Eigenwerte

5.4.13 Beispiel

� 1 � � � �� � � �

��� � 1

������

� � � � � � �� � � � �

� � � � � � �� ��

� �

� � � � �

������ � � � � Standard-Basis

1. Die Berechnung des charakteristischen Polynoms liefert: � � �

��� � � �

2. Berechnung einer Basis von� �

� � � � � � � :

� � � 8 Id

������� � � � � � � �� � � � �

� � � � � � � �� ��

� �

� � � � �

������ �

������

� � � � �� � � � �

� � � � �� � � � �� � � � �

������

��� �:��%� �� 8 �:��%� � �

Dabei wurden folgende Zeilenumformungen durchgeführt:

� � � �����*����� ' � �� ��� ��� 8 ' � �� � ���Basis von

� :�� � � � '�� � ' � ' � ' � � � ' � � � ' � ' � ' � ' � � � ' � � '�� � ' � ' � ' � � �

� ��� ���� ��

3. Berechnung von���' � �&' � � ' � 8 :

� � � 8 Id � � � � 8 Id � � �

Kern� ��� � Id � 8 � � � � � � �

� 8 � � �

4. Basis von � � :� ��� ' � 8

� ergänzt die gefundene Basis von� zu einer Basis von �

�.

� � � �� ��� ���� � ';� �8� ��� ���� � � 1 � ��� ' � 8

� ist eine Basis von � � 1 � � ��� ' � 8 �5. Basis von � � :� � � ��� �� ��� ���� �

� � � ' � ' � ' � ' � � � ' � � � 8�

� ��� ������ � � ' � '�� � ' � ' � � � ' � � '�� � ' � ' � ' � � �� ��� �� � ��� � � ������

6.� � � '�������' � � � ist eine Jordan-Basis.

7. Jordansche Normalform�

und Matrix � der Basistransformation von� � � � auf

� � � :

������

� ���

� ���

������ �

������

� � � � �� � � � � �� � � � �� � � � � �� � � � � �

������

Page 102: Lineare Algebra

IX.6 Anwendung auf Differentialgleichungen 97

IX.6 Anwendung auf Differentialgleichungen

Die mathematische Modellierung von mathematischen und außermathematischen Problemenläuft häufig darauf hinaus, ein System von Differentialgleichungen aufzustellen, dieses zu lö-sen und die mathematische Lösung mit der Wirklichkeit zu vergleichen. Es sei � � oder� .

6.1 Definition eines Systems von � Differentialgleichungen 1. Ordnung

Ein System formaler Gleichungen2��� � � � ���-��� � 8 � 8 � �&�&� ��� � � � � �

��

...2� � � � � ���-��� � 8 � 8 � �&�&� ��� � � � � �

��

(6)

heißt ein System von � linearen Differentialgleichungen 1. Ordnung mit konstanten Koeffizienten.Die Koeffizienten � �� � � bilden die sogenannte Koeffizientenmatrix � � � � � � ��� � � und dieinhomogenen Bestandteile

� � � � bilden die inhomogene Spalte��5 � �

� '������ ' � � � � .

Ein � -tupel�� � 0 � � ��� � 0 � '������ ' � � � 0 � � � von differenzierbaren Funktionen � � 1 � � � heißt eine

Lösung von ( 6), wenn nach Einsetzen der Funktionen � � � 0 � und2� � 0 � für die Unbestimmten � �

und2� � gültige Gleichungen von Funktionen entstehen.

Matrixschreibweise für ( 6): 2�� �<� �� ��� '

2���1 � 2��� '������ ' 2� � � � (7)

Das System heißt homogen 1 !��5 � .2�� �<� �� heißt das zu (6) bzw. (7) gehörige homogene System. (8)

6.2 Struktur der Lösungsmenge

1. Der Lösungsraum Łhom eines homogenen Systems ( 8) ist ein Untervektorraum des Vek-torraumes

� � ��' � � � der � -tupel von stetigen Funktionen von � nach � .

2. Ist�� � � 0 � eine spezielle Lösung des inhomogenen Systems ( 6), dann gilt:

Łinhom �� � � 0 � � Łhom 1 � �� � � 0 � � �� � 0 ��� �� � 0 � � hom �

Hierbei darf der inhomogene Bestandteil sogar aus beliebigen stetigen Funktionen� � � 0 � bestehen.

Vom theoretischen Standpunkt aus, wird mit spezieller Lösung irgendeine Lösung bezeichnet.Vom praktischen Standpunkt aus wird versucht, eine Lösung als eine möglichst einfache Funk-tion, etwa eine konstante Funktion, zu bestimmen; insofern haftet ihr dann etwas spezielles,nämlich möglichst einfaches, an.

Page 103: Lineare Algebra

98 IX Eigenvektoren und Eigenwerte

Im Gegensatz dazu wird unter der allgemeinen Lösung nicht eine einzige Lösung verstanden,sondern eine Formel, die genau alle Lösungsfunktionen beschreibt.

6.3 Beispiel

2��� � � ��� ' � � � �2� 8 �8 � 8 '

8 � �Matrixschreibweise:

� 2���2� 8� � �

� �� � 8

� � � ���� 8 �Genau die Funktionenpaare

� � � � 0 � ' � 8� 0 � � � ������� � � ' � 8 ���

� � � ��� ' � 8 � � sind die Lösungen.(Beweis mit dem Hauptsatz der Differential- und Integralrechnung.)

6.4 Transformationsformel

Sei�� � �� eine Koordinatentransformation in � � und

�� � 0 � 1 � �� � 0 �Dann ist

�� � 0 � eine Lösung von ( 6 auf der vorherigen Seite) ! �� � 0 � ist eine Lösung von2�� � � � � � � � ��������

Beweis: Es gilt�� � � � �� ,

2�� � � �2�� . Daraus folgt:2�� � �� � � ! � � �

2�� ��� � � �� ��� !

2�� � � � � � � � ��������

6.5 Anwendung

Wenn möglich wird die Matrix � auf Jordansche Normalform transformiert� � � � � � .

Dann braucht nur noch die allgemeine Lösung von2�� �

�� � � �� gefunden werden. Durch Rück-

transformation�� � � � �� erhalten wir alle Lösungen des ursprünglichen Systems.

6.6 Beispiel

Das Differentialgleichungssystem2� � � ���+' 2� 8

��� � � � 8 ist nicht diagonalisierbar undhat bereits Jordan-Normalform.

Lösung:

Die erste Gleichung hängt von � 8 gar nicht ab und und kann getrennt von der zweiten Gleichunggelöst werden; ihre allgemeine Lösung ist: � � ��� ��� � ' ��� � � . Dies setzen wir in die zweiteGleichung ein und erhalten:

(� )2� 8 � � 8 ����� � �

Hier können wir ��� ��� � als einen (nicht konstanten) inhomogenen Bestandteil ansehen. Die zuge-hörige homogene Gleichung lautet:

2� 8 � � 8 und hat die allgemeine Lösung: � 8

� 8 ���� ' � 8 �

Page 104: Lineare Algebra

IX.6 Anwendung auf Differentialgleichungen 99

Lösung des inhomogenen Differentialgleichungssystems (� ) mit der „Methode der Variation derKonstanten“: Wir ersetzen in der Funktion � 8

� 8 ����

die Konstante � 8 durch eine differenzier-bare Funktion � � 0 � :� 8� 0 � � � 0 � ��� �2� 8� 0 �

2� � 0 � ��� � ��� � 0 � � ��� �

Dann gilt: � 8� 0 � ist Lösung von (� ) ! � 2� � � � � ��� � � � �#� ��� � ��� � !

2� ��� !

� ��� 0.��� 8 ' � 8 � �� 8 � ��� 0 ��� 8

� ��� � ist eine spezielle Lösung von (� ) und zugleich die allgemeine; denn wenndie allgemeine Lösung des homogenen Systems noch dazuaddiert wird, entsteht keine andereForm der Lösung. � ���

� 8� � ��� � � �� ��� 0-� � 8

� ��� � � ' ��� '*� 8 � �

ist die allgemeine Lösung des Differentialgleichungssystems.

6.7 Satz über die Lösung für � ��� � � im homogenen Fall

Die allgemeine Lösung von2�� �

�� � � �� ist:

�����������������

���� 8...

� �...

� �

�����������������

������������������

��� ��� �� ��� 0-��� 8

� � � �

...���� 0 � � �� ;� � ��� �<�&�&�&��� � � � � �

...���� 0 ��� ��

� � � ��� �<�&�&� ��� � � � � �

� ����������������

' ��� '������ ' � � � �

6.8 Inhomogener Fall

Die Lösung des inhomogenen Falles2�� � � ��)�

�� '��

konstant gelingt mit der Metho-de der Variation der Konstanten: Ersetze die Konstanten ��� '������ ' � � in der soeben gefundenenLösung durch Funktionen � � � 0 � '������ ' � � � 0 � . Einsetzen in die inhomogene Differentialgleichungliefert Differentialgleichungen für die � � � 0 � '�������' � � � 0 � , die leicht zu lösen sind.

Page 105: Lineare Algebra

100 IX Eigenvektoren und Eigenwerte

6.9 Definition einer Differentialgleichung � -ter Ordnung

Eine explizite, lineare, gewöhnliche Differentialgleichung � -ter Ordnung mit konstanten Koeffi-zienten ist eine Gleichung der Form:

���� � � � ��� � 2� �<�&�&� ��� ��� � �

���� �

�� � ' � ' � � � ��' � � ' � '������ ' � � �

(9)

� �&'������ ' � ��� � heißen die (konstanten) Koeffizienten,�

der inhomogene Bestandteil. (2) heißt ho-mogen, falls

�5 � ist. Die Gleichung

���� � � � ��� � 2� � �&�&�&��� ��� � �

���� �

�(10)

heißt die zu (2) gehörige homogene Differentialgleichung. Dabei bedeutet:

� explizit: nach höchster auftretender Ableitung aufgelöst

� linear: bei der zugehörigen homogenen Differentialgleichung hängt die rechte Seite linearvon

� �.' 2� '������ ' � � ��� � � � ab.

� gewöhnlich: Eine Lösungsfunktion hat eine Variable 0 . Gegensatz: Partielle Differential-gleichung: Lösungsfunktion hat mehrere Variable und in der Differentialgleichung tretenihre partiellen Ableitungen auf.

� � -te Ordnung: Die Differentialgleichung enthält � � � � , d. h. hängt von � � � � ab, aber nichtvon � � � � für � .

� mit konstanten Koeffizienten:� ' � � � � sind konstant.

Zur Terminologie: Wir werden uns nur mit expliziten, linearen, gewöhnlichen Differentialglei-chungen mit konstanten Koeffizienten befassen und dafür kurz Differentialgleichung sagen.

In ( 9) können wir �.' 2� '������ ' � � � � als Unbestimmte und ganz ( 9) als einen formalen Ausdruckansehen. Eine Lösung von ( 9) ist eine � -mal differenzierbare Funktion � 1 � � � , so daß, wennwir in ( 9) für die Unbestimmte � � � � die � -te Ableitung � � � � � 0 � ' � � ' � '������ ' � einsetzen, einegültige Gleichung für Funktionen entsteht. Wenn wir betonen wollen, daß die Funktion � � 0 � ge-meint ist, schreiben wir die Variable 0 dazu. Der Buchstabe � allein kann je nach Zusammenhangdie Unbestimmte oder die Funktion bezeichnen.

6.10 Beziehung zwischen einer Differentialgleichung � -ter Ordnung und einemSystem von � Differentialgleichungen 1. Ordnung

Sei � � 0 � eine Lösung der Differentialgleichung: ( 9) ���� ��� ��

� � � � � �� � � � �

Page 106: Lineare Algebra

IX.7 Die gedämpfte und die harmonische Schwingung 101

Wir setzen � � � �)1 � � � � für � � '������ ' � � �. Es folgt: � � � � �� � � � � � � � �� � � � 2� � , also2� � � � � � . � ��� � 0 � '������ ' � � � 0 � � � ist eine Lösung des Systems:

2��� � 8...2� ��� � � �

2� � ��� ��

� � � � � � � � �.� �mit der Matrix �

�������� � � ����� �...

. . . . . . . . ....

.... . . . . . �

� ����� ����� � �

� � ����� ����� ����� � ��� �

������� (11)

Umgekehrt ist für jede Lösung� � � � 0 � '������ ' � � � 0 � � � von ( 11) � � 0 � 1 ��� � 0 � eine Lösung von ( 9

auf der vorherigen Seite).

IX.7 Die gedämpfte und die harmonische Schwingung

7.1 Zwischenbemerkung

In den bisherigen Abschnitten sind alle Elemente zusammengetragen, um eine Differentialglei-chung � -ter Ordnung oder ein Differentialgleichungssystem 1. Ordnung zu lösen. Wir habennicht die allgemeinsten Sätze aufgeführt, sondern die Bausteine zum Lösen des allgemeinenFalles behandelt und Beispiele vorgerechnet. Wir halten nochmals ein wesentliches Prinzip fürdie Lösung eines Differentialgleichungssystems

2�� � �� fest:

1. Wir transformieren zuerst die Koeffizientenmatrix � in Normalgestalt � (Diagonal- oderJordan-Normalform).

2. Dann lösen wir das transformierte System2�� � �� , wobei � � � � � � .

3.2�� � 0 � � � � �� � 0 � ist die allgemeine Lösung des Ausgangssystems, wenn

�� � 0 � die allgemeineLösung des transformierten Systems ist.

Im diesem Abschnitt behandeln wir ein grundlegendes Beispiel. In einem Fall existiert im Re-ellen keine Jordan-Normalform, aber natürlich im Komplexen. Wir zeigen, wie die reelle allge-meine Lösung zu erhalten ist. Zur Lösung eines Differentialgleichungssystems 1. Ordnung istsodann auch die zur Normalform gehörige Basis zu bestimmen.

7.2 Fallunterscheidung nach der Diskriminante

Die Differentialgleichung der gedämpften (harmonischen) Schwingung ist eine Differentialglei-chung 2. Ordnung:

6� � �� � � ��

2� � �6� � � � � � � 2� � �

mit � � � �� ' � � � �� '

�5 �

Page 107: Lineare Algebra

102 IX Eigenvektoren und Eigenwerte

Ihr charakteristisches Polynom ist � � � �/� � � �!� � 8 . Es hat die Nullstellen

�� � �

��

�� 8 �� ��� �

� �� ��� 8� � 8 �

�� '

8 �

Je nach dem Vorzeichen der Diskriminante� � 8 �

� ��� � � 8� � 8 �

��

unterscheiden wir drei Fälle:

1. Fall:

���� „kleine Reibung“

2. Fall:

� � „Reibungsgrenzfall“

3. Fall:

��� „große Reibung“

Im folgenden betrachten wir die homogene Differentialgleichung. Für den inhomogenen Fallsiehe 7.6 auf Seite 104.

7.3 Der Fall kleiner Reibung

Im Falle

�� � haben wir zwei verschiedene, nicht reelle, sondern konjugiert komplexe Eigen-

werte�

�#� � � ' � � ��� � ' � � � � ��1 Re� � � ' � 1 Im

� � � . Darum gehen wir derartins Komplexe über, daß wir Funktionen ��1 ��� � betrachten und damit Vektorräume über �erhalten. Eine Basis des komplexen Lösungsraumes ist:

� 1 � � � ��� � � � � � ��� � � ��� � � 0 � ��� ���� � � 0 � �� 1 � � � � � � ��� � � � � � � � ��� � � 0 � � � ���� � � 0 � �

Daraus erhalten wir die folgende Basis des reellen Lösungsraumes:

�8� ��� � � � � � ��� � � 0 �

�8 �� � � � � � � � ���� � � 0 �

Allgemeine reelle Lösung:

� � 0 � � � � � ��� ��� � � 0 � � � 8 ���� � � 0 � �� ��� ' � 8� 1 � � ��� � � � ' ���� � � � � � � 8 ' � �� �

Polarkoordinaten �

� � 0 � � � � � � ��� � � � ��� � � 0 � � ��� � � � ���� � 0 � � � � � � � ��� � � 0 � � � � � � � � � ��� � � � 0 � 0 � � � � ' 0 � 1 �

Page 108: Lineare Algebra

IX.7 Die gedämpfte und die harmonische Schwingung 103

7.3.1 Ohne ReibungKeine Reibung bedeutet � � � � d. h. �

� . Die allgemeine Lösung ist eine periodischeFunktion:

� � 0 � � ��� � ��� � 0*� 0 � � � mit ���:1 ���

Bis auf Skalierung und Verschiebung des Nullpunktes ist � � 0 � ein Kosinus-Funktion bzw. Sinus-Funktion (wegen ���� � � � ���� � � � � � � � ). Diese Bewegung der Feder heißt eine harmonischeSchwingung, weil auch die Grundschwingungen einer Saite durch umskalierte Sinus-Funktionen

beschrieben werden. � heißt Amplitude, � � Kreisfrequenz, � 1 ���� � die Frequenz und � 1

� ���� die Schwingungsdauer. 0 � heißt die Phasenverschiebung; sie hängt von der Festlegung des

Nullpunktes der Zeitrechnung ab und hat deshalb keine physikalische Bedeutung. Nur wenn zweiharmonische Schwingungen miteinander verglichen werden,

etwa � � 0 � � ��� � ��� � 0 � 0 � � � und �� � 0 � �� ���� � ���� � 0*� �0 � � � ,dann erhält die Phasendifferenz 0 �,� �0 � zwischen den beiden Schwingungen eine von der Festle-gung des Zeit-Nullpunktes unabhängige Bedeutung.

7.3.2 Mit kleiner von null verschiedener Reibung

Unter kleiner Reibung soll verstanden werden �� � und

� � 8

� � 8 ��� � � . Letzteres

bedeutet:� 8� � ��� d. h. � 8 � �9� � d. h. � � �

� � �

Es gilt: � � �

� � �

� � � � . Wir erhalten eine gedämpfte (harmonische) Schwingung. Ihre

Kreisfrequenz ist � ��� � � 8

� � 8 .Wir sehen außerdem, daß eine Vergrößerung der Reibung eine Verringerung der Frequenz

�)1 �� � bewirkt. Wir könnten das erwarten, weil größere Reibung die Bewegung verlangsamt.

Jedoch wird durch eine höhere Reibung auch die Amplitude verkleinert, so daß das mechanischeSystem auch einen kleineren Weg zurücklegt bei einer Periode. Die Verringerung der Frequenzist also nicht von vorneherein zu erwarten. Dabei ist zu beachten, daß die Lösung nicht mehr peri-odisch ist. Die Durchgänge durch die Ruhelage erfolgen aber noch periodisch. Die Zeitdifferenzzwischen zwei aufeinanderfolgenden Durchgängen durch die Ruhelage wird Periode genannt.

7.4 Der aperiodische Grenzfall

Im Grenzfall

� � d. h. � �

� �(� gibt es nur einen Eigenwert�, der reell ist und zwar ist

�" � . Es folgt � � . Das zugehörige System von zwei Differentialgleichungen 1. Ordnung hat

die nicht diagonalisierbare Matrix: � � �

� � � � �

Page 109: Lineare Algebra

104 IX Eigenvektoren und Eigenwerte

Daher lautet die Lösung:� � 0 � � ��� 0-��� 8

� � � �Die Feder passiert genau einmal die Ruhelage, nämlich für 0 � � 8��� , und bewegt sich für � � �ab einem gewissen Zeitpunkt 0 � monoton und sehr schnell (exponentiell) auf die Ruhelage zu.

7.5 Der Fall großer Reibung

Für

�7� muß die Reibung groß nämlich �� �

� � � sein. Wir haben zwei reelle und zwarnegative Eigenwerte

�� � 8 � �

� ��

�� 8� � 8 �

��

Die allgemeine Lösung lautet:� � 0 � ��� � � � � ��� 8 � �

� �

„Qualitativ“ verhält sich das System ähnlich wie im aperiodischen Grenzfall: Höchstens einDurchgang durch die Ruhelage, ab einem bestimmten Zeitpunkt monotone Bewegung auf dieRuhelage zu, die für 0 � � erreicht wird.

7.6 Die inhomogene Differentialgleichung

Hier ändert sich nicht viel gegenüber der zugehörigen homogenen Differentialgleichung, da alsspezielle Lösung eine konstante Lösung genommen werden kann und sich die Lösungen nur umdie Addition einer bestimmten Konstante ändern. Die Schwingung findet um diese Konstanteherum statt, und in den letzteren Fällen bewegt sich das System statt auf die Null auf diesekonstante Lage zu.

IX.8 Eigenwerte des Integraloperators

8.1 Das Problem und seine Lösung

Der Differentialoperator � auf dem Vektorraum��� � � ' � � aller beliebig oft differenzierbaren

Funktionen hat alle reellen Zahlen als Eigenwerte � (vgl. 3. Beispiel in 2.4 auf Seite 82). DieIntegration ist die Umkehrung der Differentiation und muß daher die inversen Eigenwerte haben;denn für einen Automorphismus eines Vektorraumes � 1 � � �

hat � � � genau die inversenEigenwerte wie � . Das Problem ist hier, daß � nur ein Isomorphismus ist, wenn wir von denkonstanten Funktionen absehen können; denn diese bilden den Kern

� � � . � � � ist also gar nichtdefiniert. Ein erster Versuch, den Integraloperator durch die Definition

�� � � � � � 1 �

� � �� 0 � 4 0

Page 110: Lineare Algebra

IX.8 Eigenwerte des Integraloperators 105

eindeutig zu machen. Es stellt sich jedoch heraus, daß dieses � keinen Eigenvektor besitzt. Ande-rerseits ist �

� � Integral (,worunter wir ab jetzt eine Stammfunktion verstehen) von � � � �; also

ist doch � irgendwie eine Eigenfunktion des Integraloperators zum Eigenwert �� ! Aber wie? Die

Lösung besteht darin, sinnvoll zu verarbeiten, was es bedeutet, daß ein Integral nur bis auf Ad-dition einer konstanten Funktion eindeutig bestimmt ist. Nämlich so: Das Integral ist eindeutigbestimmt modulo des Untervektorraumes � der konstanten Funktionen und definiert eine lineareAbbildung:

� 1 � � � � ' � � � � � � � ' � � � � (12)

Für � � � �und

� 1 � � � � ' � � � � � � � ' � � � � gilt:

�� � �

�� � � � (13)

� � � �ist also so etwas wie ein „Eigenvektor relativ

�“ von � zum Eigenwert �

� . Die ge-wöhnlichen Eigenvektoren und Eigenwerte sind im Sinne dieser allgemeineren Definition dieEigenvektoren und Werte relativ der Identität.

8.2 Differential und Integral, zueinander inverse Isomorphismen

Beachtenswert ist noch, daß

� 1 � � � � ' � � � �#� � � � ��' � �

und � wie in Gleichung (1) zueinander inverse Isomorphismen sind.

mm11

11A. Riede: Lineare Algebra 2, SS 00

Page 111: Lineare Algebra

106 X Ringe und Algebren

X Ringe und Algebren

Wir wollen in einem späteren Kapitel die Eigenvektortheorie fortführen und dabei beliebige Kör-per betrachten. Dazu muß der Begriff eines Polynoms abgeändert werden. Was wir bisher als einPolynom bezeichnet haben, nennen wir ab jetzt eine ganzrationale Funktion. Für unendlicheKörper (Körper mit unendlich vielen Elementen) sind die beiden Begriffe äquivalent (s. 5.5 aufSeite 115). Dabei tritt der Begriff eines Ringes (mit Eins) auf, der ähnlich wie ein Körper de-finiert wird. (Freie) Moduln über einem Ring sind eine Verallgemeinerung eines Vektorraumesüber einem Körper.

X.1 Ringe

1.1 Definition

1. Ein Ring (mit Eins) ist ähnlich wie ein Körper definiert (s. 5.5 auf Seite 21), jedoch dasKommutativ-Gesetz der Multiplikation, die Existenz eines Inversen und � � �

brauchennicht zu gelten, aber zusätzlich muß das links-distributive Gesetz gelten:

� � � � ��� � �"� � � � ��� für alle � ' �-' � � �

2. Gilt auch das Kommutativ-Gesetz der Multiplikation, so sprechen wir von einem abelschenoder kommutativen Ring.

1.2 Satz über die Reste bei Division durch � � �

� sei eine beliebige natürliche Zahl. Jede ganze Zahl � kann bekanntlich eindeutig dargestelltwerden in der Form

� � � �� mit � '���� � und � ��� ��� � '

wobei � 1 ��� � � � der Rest bei Division von � durch � genannt wird. Alle auftretenden Reste

bilden die Menge� � 1 � � ' � '������ ' ��� � �

Wir definieren für� � eine Addition � und eine Multiplikation

�:

��� � 1 ��� � ��� � � ' � � � 1 ��� � � � � �Dann gilt:� � �"' �;' � � ist ein kommutativer Ring (mit Eins) .� � �"' �;' � � ist ein Körper ! � ist eine Primzahl.

Page 112: Lineare Algebra

X.2 Die Ringe und Algebren End� � � und � ��� � 107

1.3 Definition

Eine Abbildung zwischen Ringen �)19� � � � heißt ein Ringhomomorphismus, falls � � �:� � � � � � � ��� � � � , � � ��� � � � � � � � � � � � und � � � � ��

gilt.

Folgender Abschnitt behandelt ein Beispiel eines Ringhomomorphismus aus der Linearen Alge-bra.

X.2 Die Ringe und Algebren End��� � und � ��� �

2.1 Definition

Sei � � � , � ein Körper und�

ein � -dimensionaler Vektorraum über � . Eine lineare Selbstab-bildung von

�wird auch ein Endomorphismus genannt.

End� � � 1 � ��� ' � � bezeichne die Menge aller Endomorphismen von

�.

2.2 Satz und Definition

1. Bezeichnet + die Summe und die Hintereinanderausführung von Endomorphismen bzw.+ die Addition von Matrizen und * das Matrizenprodukt, dann sind

�End

��� � ' � ' � und������ � ' � ' � � (für � � � nicht kommutative) Ringe mit Eins. Sie heißen Ring der Endomor-

phismen von�

bzw. Ring der�

� � ��� -Matrizen mit Koeffizienten in � .

2. Ist eine Basis von�

fest gewählt, und bezeichnet � � die Matrix eines Endomorphismusbezüglich dieser Basis, dann ist die Zuordnung � �� � � ein Ringhomomorphismus � 1�End

��� � ' � ' � � ���� � � ' �;'�� � .

2.3 Feststellung

Früher hatten wir herausgefunden, daß, wenn � die Multiplikation mit Skalaren bezeichnet,�End

��� � ' � '�� � und������ � ' � '�� � Vektorräume über � sind. Es gilt außerdem:

� � � � � 5� � � �#��� � � � � � 5� � für alle �(' � � End��� � ' � � �

� � � � � � � � � � �#� � � �#� � � � � � für alle �"'�� � � ��� � ' � � �

2.4 Definition

1. Ein Ring� � ' �;'�� � zusammen mit einer Skalarenmultiplikation � � � � � ,

� �.' � � �� ��� � ,sodaß

� � ' � '�� � ein ��� Vektorraum ist und� �#� � � � � � �

� �#� � � � � � � � � � für alle � � � und alle � ' � � �

Page 113: Lineare Algebra

108 X Ringe und Algebren

gilt, heißt eine ��� Algebra.

2. Eine Abbildung zwischen Algebren, die sowohl Vektorraum- wie Ring-Homomorphis-mus ist, heißt ein Homomorphismus von Algebren. Ein Algebren-Isomorphismus ist einbijektiver Algebren-Homomorphismus.

2.5 Satz

�End

��� � ' � ' '�� � und�� ��� � ' � ' � '�� � sind ��� Algebren und

� 1 � End��� � ' � ' '�� � � �

� � � � ' � ' � '�� � ist ein Algebren-Isomorphismus.

X.3 Moduln

In diesem Abschnitt sei � ein Ring mit Eins. Moduln über einem Ring sind eine einfache Verall-gemeinerung von Vektorräumen über einem Körper. Sie sind grundlegende algebraische Objekte.

3.1 Definition

Ein Modul über � ist eine Menge � zusammen mit zwei Verknüpfungen, einer Addition + undeiner Multiplikation mit Skalaren � mit folgenden Grundeigenschaften:

1. Bezüglich der Addition ist � eine abelsche Gruppe.

2. Bezüglich der Skalarenmultiplikation gilt:

a) Das assoziative Gesetz: � � � � � � � � � � für alle �.' � � � und alle �����b)

� � � für alle �����3. Bezüglich beider Verknüpfungen die Distributiven Gesetze: Für alle �.' � �#� und alle�-'���� � gelten:

a) � � � ��� � � � � � �b)� � � � � � � � ��� �

Die Definition stimmt also mit derjenigen eines Vektorraumes überein, die Unterschiede betref-fen nur den Skalarenbereich. Deshalb können für Moduln die gleichen Begriffe abgeleitet werdenund die gleichen Sätze bewiesen werden wie für Vektorräume, insofern die Existenz der Inversenim Skalarenbereich und die Kommutativität der Multiplikation im Skalarenbereich nicht benötigtwird. Z. B. machen die Begriffe Untermodul, Linearkombination, lineare Hülle, Erzeugenden-system, Basis, lineare Abbildung, Kern, Bild, � � , alternierende Multilinearform genauso einenSinn.

Page 114: Lineare Algebra

X.4 Beweis der Existenz einer Determinantenform 109

Der Satz von der Existenz einer Basis eines endlich erzeugten Moduls gilt jedoch nicht; es ist z.B.

� � ein�

-Modul mit der Skalarenmultiplikation � � 1 � � � � � , aber für � prim ist jedeseinelementige System

�� � , � � � � ' � � � ein Erzeugendensystem, jedoch keine Basis, da z. B.� ��� � � �

� � �

� , also � nicht eindeutig in der Form � �

� mit � � dargestelltwerden kann.

Manche Moduln haben jedoch eine Basis , z. B. � � die kanonische Basis:� � � ' � '������ ' � � ' � � ' � ' � '������ ' � � '������ ' � � ' � '������ ' � ' � � �

Dabei darf eine Basis nicht als ein maximales linear unabhängiges System definiert werden.Z. B. ist (2) ein maximales linear unabhängiges System des Moduls

� � � über dem Ring�, aber kein Erzeugendensystem; es erzeugt nur die geraden Zahlen. Ich verwende folgende

Definitionen, die die entsprechenden Definitionen für den Fall eines Körpers verallgemeinern.

3.2 Verallgemeinerte Begriffe für freie Moduln

1. � � ' � 8 '������ ' � � � � sind linear abhängig : ! � � �� � � � � � � , wobei mindestens ein � �invertierbar ist.

2. Eine Basis eines endlich erzeugten Moduls ist ein System, durch das jedes Element desModuls eindeutig linear dargestellt werden kann.

3. Ein Modul, der eine Basis besitzt, heißt ein freier Modul.

4. Eine Determinantenform � auf einem � -dimensionalen freien Modul � ist eine � -facheLinearform, die für linear abhängige Elemente verschwindet und einer (und damit jeder)Basis ein invertierbares Element � � � � zuordnet (s. 4.2 auf Seite 112).

3.3 Bemerkungen

Die Definition einer Algebra über einem Körper kann unmittelbar auf den Begriff einer Algebraüber einem Ring übertragen werden.

Für freie Moduln � und � kann die Theorie der linearen und multilinearen Abbildungen � 1� � � , insbesondere der Bezug zu Matrizen, verallgemeinert werden. Exemplarisch führen wirdie Determinantentheorie in Abschnitt X.4 durch, die wir andererseits auch für die Fortführungder Eigenwert-Theorie benötigen werden.

X.4 Beweis der Existenz einer Determinantenform

4.1 Satz

Sei � eine Determinantenform auf einem � -dimensionalen freien Modul�

über dem kommu-tativen Ring � mit Eins. Sei

� � � � '�������' � � � eine feste Basis von�

und � � � � � � � � � die

Page 115: Lineare Algebra

110 X Ringe und Algebren

lineare Darstellung der Elemente � � '������ ' � � � �. Dann gilt:

1. � � � � '������ ' � � � � �� � � '�������' � � � �&� � ��� '�������' � � � mit

� �� � � '�������' � � � 1 �

� ��� � sgn� � � � � � � � � � � � 8 � � � 8 � � �&�&� � � � � � � � � Leibniz-Formel

2. Eine Determinantenform ist bis auf einen invertierbaren Faktor � eindeutig.

3. � � ist eine Determinantenform.

4. Es gibt genau eine Determinantenform, die einer vorgegebenen Basis� � � '������ ' � � � ein be-

liebiges vorgegebenes invertierbares Element � � zuordnet, z. B. � � ��.

Beweis: Zu 1: � � � � ' � 8 '������ ' � � � ��

� � � � � � � ��� � '

�� � � � � 8 � � � � '������ '

�� � � � � ��� � � ��� �

siehe� � � �

�� � � � � � � �

���

� � � � 8 � � ��� � ' � � '������ ' ��

� � � � ��� � � ����� ��

� � ���

� � � � � � � � 8 � � ��� � ' � � '������ ' ��

� � � � ��� � � ��� �&�&� ��

� � ���

� � � �&�&���

� � � � � � � � 8 � � �&�&� � ��� � � � � � ' � � '������ ' � � � ��

� � ������� � � � � ��� � � � 8 � � �&�&� � � � � � � � � ' � � '������ ' � � � siehe

� � � �

��� � � � � � � � � � � � 8 � � � 8 � �&�&� � ��� � � � � �

� � � � � � ' � � � 8 � '�������' � � � � � � ��

� � � � sgn� � � ��� � � � � � � 8 � � � 8 � �&�&� � � � � � � � � � ��� ' � 8 '�������' � � �

� � � Wegen der Multilinearität kann für jede Variable eine Linearkombination aus � herausgezo-gen werden, z. B. für die erste Variable:

�� �� � � � � '�� 8 '������ '�� � � ��

� � � � � � '�� 8 '�������'�� � � '� � '�� � � ' � � � � � � '������ ' � � � � '������ ' � � � � Hier braucht nur über paarweise verschiedene

� � � ' � 8 '�������' � � � summiert zu werden, weilsonst der Summand null ist, da zwei Variablen von � gleich, alle � Variablen also linear ab-hängig sind. Dann bilden

� � � ' � 8 '������ ' � � � eine Permutation � von� � '�� '������ ' � � :

� � � ' � 8 '������ ' � � �

Page 116: Lineare Algebra

X.4 Beweis der Existenz einer Determinantenform 111

� � � � � ' � � � � '������ ' � � ��� � . Daher kann die Summe als eine Summe über alle Permutationen � ge-schrieben werden.

Zu 2: Sei�

eine weitere Determinantenform. Dann ist� � � � invertierbar. Im folgenden schrei-

ben wir die Variablen� � � '�������' � � � nicht an.

� � � � � � �� � �

� � � ��� � � �� � � �� � � � � � mit � 1

� � � �� � � � invertierbar, da � � � � und� � � � inver-

tierbar sind.

Zu 3: Multilinearität ist erfüllt wegen folgender Argumente:Die Koordinatenzuordnung ist linear. Ein Produkt ist in jedem Faktor additiv wegen des Distribu-tivgesetzes. Ein Produkt ist in jedem Faktor homogen wegen des Assoziativgesetzes und wegender Kommutativität. Eine Summe linearer Abbildungen ist wieder linear.

� � � � '�������' � � � � für linear abhängige� � � '�������' � � � :

(a) Wir zeigen dies zunächst für den Spezialfall, daß zwei Vektoren gleich sind.Sei � � � für ��� � , d. h.��� � � � � � � für alle � '������ ' � .

Wir spalten die Summe bei der Definition von � � in eine Summe über die geraden undüber die ungeraden Permutationen auf.

� �� � � '�������' � � '������ ' � '�������' � � �

=�

� � � � gerade

sgn� � � � � � � � � � ����� � � � � � � � ����� � � � � � ����� � � � � � � �

��� � � � ungerade

sgn� � � ��� � � � � � ����� � � � � � � � ����� � � � � � ����� � ��� � � � �

Hier ist sgn� � � �

und sgn� � � � � Wir setzen � ��� mit � 1 � � ' � und ��1 ��� .

Durchläuft � alle ungeraden Permutationen, so durchläuft � alle geraden.

��� � � � � � ����� � � � � � � � ����� � � � � � ����� � ��� � � � � � � � �� � � � ����� � � � �� � � � ����� � � �� � � ����� � ��� �� � � � � � � � � � � ����� � � � � � � ����� � � � � � � ����� � ��� � � � � � � � � � � � ����� � � � � � � ����� � � � � � � ����� � ��� � � � � (Vertauschen von Faktoren) � � � � � � � ����� � � � � � � � ����� � � � � � ����� � ��� � � � � (wegen

��� � )Die beiden Summen über die geraden und ungeraden Permutationen stimmen also bis aufdas Vorzeichen überein; folglich gilt: � �

� � � '�������' � � '�������' � '������ ' � � � �(b) Seien

� � � '������ ' � � � linear abhängig, dann gibt es � mit � � �� � � � �

Page 117: Lineare Algebra

112 X Ringe und Algebren

� �� � � '�������' � � � � �

� ����� � � � � � � ��� �

� -te

����� � � � � � � �

� � � ��� �

� -te�

� ��� �

-te

� � � � �

� �� ��� ' � 8 '������ ' � � � �

; denn alle Faktoren in einem Produkt der Formel sind nur dann � � undhaben dann den Wert 1, wenn � � � � � ' � � � � � '������ ' � � � � � ist. Also hat � � auf einerBasis einen invertierbaren Wert, nämlich auf

� � � '������ ' � � � den Wert 1.

Zu 4: � � � � � ist die einzige Determinantenform mit Wert � � für� ��� '������ ' � � � .

4.2 Bemerkung

Ist � � � � '�������' � � � � invertierbar für eine Basis� � � '������ ' � � � , dann ist wegen der Multilinearität� � �%1 �

� � � ' � 8 1 � 8 '������ ' � � 1 � � � eine Basis mit � � � � '�������' � � � �

. Sei jetzt� � � '������ ' � � � eine

beliebige Basis. Dann besagt die 1. Behauptung von 4.1 auf Seite 109 für diese� � � '�������' � � � und� ��� '�������' � � � : � � � � '�������' � � � �� � �

� � � '������ ' � � � � � � ��� '�������' � � �Also ist � � � � '������ ' � � � invertierbar mit Inversem � �

� � � '�������' � � � .X.5 Polynomring

Dieser Abschnitt behandelt ein wichtiges Beispiel einer Algebra über einem Ring, das wir imAbschnitt XVI.1 auf Seite 178 bei der Behandlung des charakteristischen Polynoms benötigenwerden. In diesem Abschnitt sei bis Punkt 5.3 auf Seite 115 � ein kommutativer Ring mit Eins.

5.1 Definition

Sei � ein Element, das nicht � angehört; historisch wird es eine Unbestimmte genannt. Dannbesteht der Polynomring �

� � � in der Unbestimmten � aus allen formalen Ausdrücken der Form:� � �*��� � �!��� 8 � 8 � �&�&�&��� � � �

Wir vereinbaren bei � � � , daß � � nur eine andere Bezeichnung für � und � � � � eine andereBezeichnung für � � sein soll:

� � 1 � und � � � � 1 � �Dann schreibt sich ein solcher formaler Ausdruck systematischer in der Form

� � � � � � � � � � � � � � � �&�&� ��� � � � ��

� � � � � ��

mit � � � � für alle � � ' � '������ ' � und mit

� � � � ' � variabel. Lies: „ � � � oben null plus � � � oben eins plus ...“.

Diese formalen Ausdrücke können wir uns so vorstellen, wie aus einem Alphabet eine Sprachegebildet wird: Gewisse Buchstabenzusammenstellungen stellen ein Wort, ein Element, der Spra-che dar. Statt von Buchstabenzusammenstellungen wird in der Mathematik und Informatik von

Page 118: Lineare Algebra

X.5 Polynomring 113

Zeichenketten (engl. strings) gesprochen. Als Zeichen werden an dieser Stelle die Elemente von� , das Symbol � , das Zeichen + , die natürlichen Zahlen und 0 verwendet; sie bilden hier dasAlphabet. Elemente des Polynomrings sollen genau die Zeichenketten der obigen Form sein. Siewerden Polynome genannt.

Die Elemente von � � werden hochgerückt, weil wir für �� � � ja u. a. noch eine mit * bezeichnete

Multiplikation einführen wollen. Verwenden wir die abkürzende Bezeichnung � � 1 �� � � , dannwird die Multiplikation gerade so erklärt werden, daß gilt� � � � � � � � � �&�&� � � � � , wobei das Produkt auf der linken Seite � Faktoren hat. Die linkeSeite wird in der Mathematik gewöhnlich mit „ � hoch � “ bezeichnet. Das auf die Multiplikationbezogene „ � hoch � “ ist also gleich dem formalen „ � oben � “.

Ist � � � � �&�&� � � � für � � � � , so werden die Ausdrücke � � � � ��� � � � � �&�&�&��� � � �

und � � � � ��� � � � ���&�&����� � � � ' als gleich angesehen. Es kann also bei der Betrachtung zweierAusdrücke immer �

angenommen werden.

Ist � � � , so kann beim Aufschreiben der Zeichenkette � � � � �auch weggelassen werden, oder

umgekehrt, fehlt ein Teil der Kette der Form � � � � �, so soll dies dasselbe bedeuten wie wenn

� � � �an der passenden Stelle stünde. Z. B.

� � 8 � � � � � � � � � � � � � 8 � � � � � � � .Haben wir zwei Polynome

� 1 � � � � ��� � � � �<�&�&����� � � � und � 1 � � � � � � � � � � �&�&�&� � � � � 'dann gilt, weil im Polynomring außer der obigen Identifikation keine weiteren Identifikationenvorgenommen werden, wobei wir �

� annehmen dürfen:

� � ! � � � � für alle � � ' � '������ ' �

Dies ist der Identitätssatz für Polynome. Er gilt hier also per Definition von Polynomen.

Die � � heißen die Koeffizienten des Polynoms � .

Multiplikation � von Polynomen mit Skalaren � � � und Addition + von Polynomen wird koeffi-zientenweise erklärt, das Produkt � zweier Polynome durch die entsprechende Formel, nach derganzrationale Funktionen multipliziert werden:

1. � � � 1 � � � � � � � � � � � � � � � �<�&�&��� � � � �� � �

2. � � � 1 � � � � � � � � � � � � �-� � � � � � �<�&�&�&� � � � ���� � � .

3. � � � 1 � � ��� � � � � � �

mit � � 1 ��� � � � � � � � � mit � � � für � � ,

� � für �#��

� � � � �&' � �.� � � '�������' � � � � � bezieht sich auf die Addition in � und die Formel für � � beziehtsich auf das Produkt und die Summe in � , während die übrigen Pluszeichen auf der rechten Seitezunächst formal sind; jedoch stellt sich heraus, daß das Polynom � � � � � � � � � � �&�&� � � � � �auch die Summe der Polynome � � � � '�� � � � '��&�&�-' � � � � bezüglich der Addition in �

� � � ist.

Page 119: Lineare Algebra

114 X Ringe und Algebren

Mit diesen Verknüpfungen wird �� � � zu einer kommutativen � -Algebra, wie wir durch Nach-

rechnen der Axiome überprüfen können. � � ist die Eins von �� � � und es gilt

� � � .Es ist � � �

� � � � � � � � � � � �� � � . Die Summe von � und

�ist in � die selbe wie in �

� � � :�+� �5 � � � � � � � � � � � � � � . Das gleiche gilt für das Produkt. � �5 � � � � � � � � � � � � � � � � � .(Denn für � lautet die Formel für � � so: � � � � � � .) � ist eine Unteralgebra von �

� � � .(Unteralgebren, Unterringe bzw. Untermoduln einer Algebra, eines Ringes bzw. eines Modulssind natürlich so definiert, daß sie Teilmengen des größeren Objektes sind und die betreffendenVerknüpfungen des größeren Objektes, wenn sie nur auf Elemente des Unterobjektes angewendetwerden, mit den Verknüpfungen des Unterobjektes übereinstimmen.)

Dafür, daß sich jedes Element von �� � � eindeutig in der Form

� � � � darstellen läßt, wird auchgesagt: Das System, das nur aus einem Element � besteht ist eine � -Algebra-Basis von �

� � � .� � � � ist eine algebraische Darstellung von � durch die Basis� � � , während wir bei einem Vek-

torraum lineare Darstellungen durch die Basis betrachten. �� � � ist also eine eindimensionale

freie Algebra über � . Auch bezüglich Algebrahomomorphismen von �� � � nach einer anderen

Algebra � über � gibt es eine Analogie zur Vektorraumbasis:

5.2 Satz

Sei � ein beliebiges Element einer � -Algebra � , dann gibt es genau eine Abbildung � 1 � � � � �� mit:

(i) � ist Algebrahomomorphismus und (ii) �� � � � .

� ���� 1 � � �� � � � ist eine kommutative (Unter-) Algebra über � von � .

Beweis:

1. Eindeutigkeit� � � � � ��� � � � � �&�&�&��� � � �� � � � � � � � � � � ��� � � � � � � � �&�&� ��� � �

� � � � wegen (i)(� ) �

� � � � � � � ��� � � � �<�&�&�&��� � � � wegen (ii)Also ist �

� � � eindeutig.

2. ExistenzWir definieren � � � � durch (� ). Dann ist leicht nachzurechnen, daß � � � � die Eigenschaften(i) und (ii) hat.

Auch die letzte Behauptung wird durch Nachrechnen bewiesen. Wichtig ist festzuhalten, daß �nicht kommutativ zu sein braucht; Bild( � ) ist immer kommutativ. Diese Tatsache benötigen wirin der Eigenwerttheorie für die nicht kommutative � -Algebra � End

��� � , wobei � ein Körperund

�ein endlich dimensionaler Vektorraum über � ist.

Page 120: Lineare Algebra

X.5 Polynomring 115

5.3 Definition

Wegen der Form (� ) von �

� � � � � � � � � � ��� � � � �<�&�&� ��� � � � � � � � � ��� � � � �<�&�&�&��� � � �

1 � � � �

heißt � Einsetzungshomomorphismus; es wird für � einfach � eingesetzt.

Für � �� � � und � � ist � die Identität und � � � � � �

5.4 Voraussetzung: Im folgenden sei � ein Körper.

5.5 Vergleich mit der Algebra der ganzrationalen Funktionen

Wir betrachten die � -Algebra �� 1

Abbildungen � 1 � � � � mit der wertweisen Multi-plikation mit Skalaren, der wertweisen Addition und der wertweisen Multiplikation von zweiAbbildungen miteinander.

Sei � 1 � � � � � ��

der Einsetzungshomomorphismus mit � Id � . Dann gilt:

� � � � � ��� � � � �<�&�&�&��� � � � �� � � � � � � � � Id �� � � � ��� � Id �� � � � � �&�&�&��� � Id ��

� � � ' � � � � � � � ��� � � � � �&�&�&��� �

� �� führt also ein Polynom mit den Koeffizienten � � ' � � ' � '������ ' � über in die ganzrationaleFunktion mit denselben Koeffizienten. �

� ��� ��Id � � ist die Algebra der ganzrationalen Funk-

tionen von � nach � , die auch mit �� � � bezeichnet wird.

Behauptung: � 1 � � � � � �� � � ist genau dann ein Isomorphismus, wenn � unendlich ist.

Beweis:

Ein Polynom, das nicht das Nullpolynom ist, hat höchstens � Nullstellen, wenn � der Grad desPolynoms ist (s. 5.11 auf der nächsten Seite).

Für � unendlich können wir also schließen: Geht ein Polynom in die Nullfunktion über, sohat es unendlich viele Nullstellen, was nur beim Nullpolynom eintreten kann. � ist also in-jektiv; denn auch bei Algebra-Homomorphismen � gilt: � injektiv ! Kern

� � � � , wobeiKern( � ):= � � �

� � � � . Surjektiv ist es nach Definition einer ganzrationalen Funktion.

Ist � ein Isomorphismus, so gibt es unendlich viele ganzrationale Funktionen, also erst rechtunendlich viele Abbildungen von � nach � , was nur für unendliches � eintreten kann.

5.6 Definition

1. Der Grad des Polynoms � mit � � � ist definiert durch: Grad(� ):= Max � � � � � � �

Page 121: Lineare Algebra

116 X Ringe und Algebren

2. Ist Grad(� ) = , so heißt � � der höchste Koeffizient von � .

3. � heißt normiert. 1 ! Der höchste Koeffizient von � ist eins.

5.7 Eigenschaften des Grades

1. Grad� � � � � �

MaxGrad

� � � ' Grad�� � � , wobei das Gleichheitszeichen gilt, wenn

Grad� � � � Grad

�� � ist.

2. � ' � � � � Grad� � � � Grad

� � � � Grad�� �

5.8 Division mit Rest

Seien � ' � � �� � � mit � � � , dann gibt es eindeutig bestimmte Polynome � ' � � �

� � � mit

(a) � � �:� � und (b) Grad�� � � Grad

�� � oder �

5.9 Satz: Ist� � � eine Nullstelle des Polynoms � � �

� � � , d.h. � � � � � , dann ist

� � � � � � � � � � � � � mit einem eindeutig bestimmten Polynom � � �� � � �

5.10 Satz und Definition

Sind�� '������ ' � � lauter verschiedene Nullstellen eines Polynoms � � �

� � � , so gibt es eine Pro-duktzerlegung

� � � � � � � � � � � � � �� � 8 �� � ����� � � � � � � � �

�� � �

mit eindeutig bestimmten � � � und einem eindeutig bestimmten ��� �� � � mit �

� � � � � � für� �� '�������' � � � heißt die Vielfachheit der Nullstelle

� � .

5.11 Satz: Ein Polynom vom Grade � � � hat höchstens � Nullstellen.

5.12 Definition und Fundamentalsatz der Algebra

Hat jedes Polynom � � �� � � eine Nullstelle in � , so heißt der Körper � algebraisch abgeschlos-

sen.Der Körper der komplexen Zahlen ist algebraisch abgeschlossen.

Page 122: Lineare Algebra

X.5 Polynomring 117

5.13 Definition und Satz

Wir sagen, ein Polynom � � �� � � zerfällt vollständig in Linearfaktoren, falls

� � � � �� � � � � � � � � � � 8 � ����� � � � � � � mit� ' � � � � �

In einem algebraisch abgeschlossenen Körper zerfällt jedes Polynom in Linearfaktoren. Wir kön-nen dann die Faktoren mit gleichen

� � zusammenfassen und erhalten eine Darstellung der Form:

� � � � � � � � � � � � � � � � � 8 �� � ����� � � � � � � � � mit

� � � �� für ��� � und � � � �

Page 123: Lineare Algebra

118 XI Bilineare und damit verwandte Formen

12

XI Bilineare und damit verwandte Formen

XI.1 Sesquilinearformen

1.1 Einführung

In Abschnitt XI.1 befassen wir uns systematisch mit Bilinearformen bei beliebigem Körper � undfür � � mit Formen von zwei Variablen, die in der ersten Variablen linear und in der zweitenVariablen semilinear sind. Dabei sei die erste Variable aus einem � -dimensionalen Vektorraum

und die zweite Variable aus einem � -dimensionalen Vektorraum � über � . Dabei darf � � �

sein, wofür wir gleich ein wichtiges Beispiel angeben.

1.1.1 DefinitionenEine Bilinearform auf

� � � ist eine Abbildung� 1 � � � � � , so daß

�(' � � � � ' � '�� � � � ' � � � gilt:

Linearität in 1. Variablen:� � � ��� � '�� � � � �+'�� � � � � � � '�� � ' � � � �('�� � � � � �('�� �

Linearität in 2. Variablen:� � �('���� � � � � � �+'�� � � � � �+'�� � � ' � � �(' � � � � � � �('�� �

Für � � wird eine Sesquilinearform (anderthalbfache Linearform)� 1 � � � � � wie eine

Bilinearform definiert mit dem einzigen Unterschied, daß statt der Homogenität in der zweitenVariablen die Semi-Homogenität erfüllt sein muß:

� � �(' � � � � � � �+'�� �

Dabei ist � das konjugiert Komplexe von � . In Punkt 1.2 auf der nächsten Seite.5 werden wirden Begriff einer Sesquilinearform in einem verallgemeinerten Sinne betrachten.

Warum wir � � �mitbetrachten, liegt daran, daß wir folgendes 1. Beispiel einschließen wollen:

1.1.2 Beispiele

1. Sei���

der Dualraum von�

. Dann ist folgendes eine Bilinearform:� 1 � � � � � ��' � � ' � � �� � � � ' � � 1 � � � � � � ' � � � ��� � �

2. Jedes reelle Skalarprodukt ist eine Bilinearform.

3. Jedes komplexe Skalarprodukt ist eine Sesquilinearform.

12A. Riede: Lineare Algebra 2, SS 00

Page 124: Lineare Algebra

XI.1 Sesquilinearformen 119

In Kapitel VIII auf Seite 69 haben wir erst reelles, dann komplexes Standard-Skalarprodukt be-handelt und anschließend gezeigt, daß der reelle und komplexe Fall eines allgemeinen Skalarpro-duktes gleichzeitig behandelt werden kann. Dabei wurde benutzt, daß die komplexe Konjugationein Körper-Isomorphismus ist, dessen zweimalige Anwendung die Identität ergibt, und daß dieAnwendung der komplexen Konjugation auf reelle Zahlen die Identität ist. Mit dem gleicheneinfachen Trick können auch Bilinearformen und Sesquilinearformen unter einen Hut gebrachtwerden, wie wir im folgenden präzisieren:

1.2 Körper-Involution und Sesquilinearformen1.2.1 DefinitionEine (Körper)-Involution des Körpers � ist ein Körper-Isomorphismus ��1 ��� � mit � 8 1 � � Id � . Bezeichnen wir �

� � � mit � , so ist ein Körper-Isomomorphismus � gekennzeichnetdurch:

1. � ��� � � � für alle �-' � � �

2. � ��� �#� � für alle �.' � � �

3. � ist bijektiv.

Da aus � 8 Id � die Bijektivität von � folgt, hätte es gereicht statt Körper-Isomorphismus nurKörper-Homomorphismus zu verlangen.

1.2.2 VoraussetzungFür das folgende sei � stets ein Körper mit Involution � ; wir verwenden die Bezeichnung: � 1 �� � � � � � .

1.2.3 Folgerungen�� �

Wenn wir definieren � 1 � � �� � � � � �� � � � ��� � , dann gilt, wenn

� � � �� � � ��� � � ' � � � � � � � � � � ' � � � :

��� � ��� � , ��� � ��� � , �#� � �#� � , � �

1.2.4 Beispiele

1. � beliebig und � Id �

2. � � und � = kK = Bildung der konjugiert komplexen Zahl.

Wir bringen nun die bisherigen Begriffe Bilinearform und Sesquilinearform unter einen Hut,wenn wir definieren:

Page 125: Lineare Algebra

120 XI Bilineare und damit verwandte Formen

1.2.5 DefinitionEine Abbildung

� 1 � � � � � heißt eine Sesquilinearform auf� � � (im gegenüber 1.1.1

verallgemeinerten Sinne), wenn �(' � � � � ' �"'�� � ��� ' � � � gilt:

Linearität in 1. Variablen:� � � ��� � '�� � � � �('�� � � � � � � '�� � ' � � � �+'�� � � � � �('�� �

Semi-Linearität in der 2.:� � �('���� � � � � � �('�� � � � � �('�� � � ' � � �(' � � � � � � �('�� �

Ist � Id � , so ist eine Sesquilinearform nichts anderes als eine Bilinearform. Für � � und� � erhalten wir den Begriff einer Sesquilinearform im speziellen Sinne von Definition1.1.1. Für � �

sagen wir anstelle von „Form auf� � �

“ auch „Form auf�

“, obwohl� � �

der Definitionsbereich ist.

1.3 Matrix einer Sesquilinearform

1.3.1 DefinitionSei

� ��� ' � 8 '�������' � � � eine Basis von�

,� � � ' � 8 '�������' � � � eine Basis von � . Für eine Sesquilinear-

form�

auf� � � sei � �� 1 � � � � ' � � '�� 1 � � �� � � � � � � �

Dann heißt � die Matrix der Sesquilinearform�

bezüglich der Basen� � � ' � 8 '������ ' � � � und� � � ' � 8 '������ ' � � � .

1.3.2 Satz Die Spalte� � � � bezeichne die Koordinaten von � � �

und die Spalte�� � die

Koordinaten von � � � bezüglich der Basen� � � � und

� � � .

1. Durch ihre Matrix � ist die Sesquilinearform�

eindeutig bestimmt; wenn wir mit � dasMatrizen-Produkt bezeichnen, gilt:

� � �('�� � ���

��� �� � � � � � � � � � � � � � �

2. Ist die Matrix � � ����� � beliebig vorgegeben, so wird durch die vorstehende Formel eineSesquilinearform

�definiert, deren Matrix � ist.

3. Die Sesquilinearformen auf� � � bilden bezüglich wertweiser Addition und wertweiser

Multiplikation mit Skalaren einen � -Vektorraum � ��� � � � � Wir erhalten einen (von denBasen abhängigen) Vektorraum-Isomorphismus:

� 1 � � � � � � � � � � � ' � �� �

Beweis: Zu 1:

Page 126: Lineare Algebra

XI.1 Sesquilinearformen 121

� � �('�� � � � ��� � � � � � � '

�� � � � � �

��� � �

�� � � � � � � � � � ' � �� ��� �

� � �� 1. Gleichung in Punkt 1

��� � � � �

�� � � � �� �

��� � � � �

��� � �

��� � �...� �

��� �����

� � � � � bezeichnet das � -te Element einer Spalte

� ��� '������ ' � � � � � ���� � �...� �

� �

Zu 2: Daß durch die Formel im 1. Punkt eine Sesquilinearform�

definiert wird, ist leicht zusehen und im Zweifelsfalle direkt nachzurechnen. Daß die Matrix von diesem

�die vorgegebene

Matrix � ist, sehen wir so ein:

Da ��� die Koordinaten� � '������ ' � ' �

� ��� �

� -te' � '������ ' � � � bezüglich

� ��� '������ ' � � � � hat und � � die Koordi-

naten� � '�������' � ' �

� ��� �

� -te' � '�������' � � � bezüglich

� � � '�������' � � � � , folgt� � � � ' � � � � � � � '�������' � und

� '������ ' � �Zu 3: Daß � ��� � � � ein � -Vektorraum ist, wird durch direktes Nachrechnen verifiziert.

Linearität von � : Für� ' � � � � ��� � � � gilt:

� � � � � � � �� � � � � � � � � � ' � � �� � � � � ' � � � � � � � � ' � �� � � � � � � � �� �

� � ��� � � � � �#� � � � � � ' � � � �#� � � � � � ' � � � �#� � � � �

1. Punkt � Injektivität von �2. Punkt � Surjektivität von �1.3.3 Transformationsformel

1. Bei Basistransformationen� � � � � � � � � � von

�und

� � �� � �� � � von � transformiert

sich die Matrix der Sesquilinearform wie folgt:

� � � � � �

2. Für� � wird im 1. Punkt

� � � � � � � und� � � � � � ���� � genommen. Dann lautet die

Transformationsformel:� � � � � �

Page 127: Lineare Algebra

122 XI Bilineare und damit verwandte Formen

Beweis: � � � �� � ��

�� � �

� � � � � ' � �� � � � ��� � � � � � � � '

�� � � 0 � � �

��� � � � � �

�� � � 0 � � � � � ' � �

��� � � � � �

�� � � � �� 0 �

��� � � � � ��� � � � ���

� �� � � � � � 1 � � ' � -ter Koeffizient

� � � � � � � ��� � � � ���� �

1.4 Zur Vektoralgebra im � �

1.4.1 Bemerkung über -fache LinearformenDefinition 1.3.1 und Satz 1.3.2 verallgemeinern sich auf -fache Linearformen. Wir formulierennur einen Aspekt. Sei

� 1 � � �&�&� � � � � eine -fache Linearform auf�

, dann ist�

durch� � � � � ' � � � '������ ' � � � � ' � � ' � 8 '�������' � � � '�� '������ ' � eindeutig bestimmt, wobei� � � '������ ' � � � eine Ba-

sis von�

ist.

Zwei -fache Linearform�

und � stimmen daher überein, wenn ihre Werte auf allen -tupeln vonBasisvektoren übereinstimmen.

Für Sesquilinearformen� ' ��1 � � � � � :

�5 � ! � � � � ' � � � � � � ' � � ' � � '������ ' � ' � � '������ ' �Für

� ' ��1 � � �&�&� � � � � -fach linear:�5 � ! � � � � � ' � � � '������ ' � � � � � � � � � ' � � � '�������' � � � � ' � � ' � 8 '������ ' � � �� '�� '������ ' �

1.4.2 Lagrange-, Graßmann- und Jakobi-IdentitätIm � � mit dem Standard-Skalarprodukt gilt:

1. � � � �"' � � � � � ���(' � � � � '�� � � ���('�� � � � ' � � Lagrange-Identität

�������+' � � ���+'�� � � � ' � � � � '�� �

����Gramsche Determinante

2. � �.' � � � ����.' �('�� � Det

��.' �('�� � =: Spatprodukt

3. � � � � ! ��� ' � Det� � ' � ' � � für alle ��� � �

4.� � � � � � �

���('�� �"� � � '����� Graßmann-Identität

5. � � � � � � � � � � � � � � � � � �� � � � � � Jacobi-Identität

Page 128: Lineare Algebra

XI.1 Sesquilinearformen 123

Beweis: Zu 1:

In der Lagrange-Identität sind beide Seiten in Abhängigkeit von �('��"' � � '�� � 4-fache Linearfor-men. Sie stimmen daher überein, wenn ihre Werte für vier beliebige Basisvektoren gleich sind.Letzteres ist leicht nachzurechnen für die Standard-Basis, wenn noch folgendes beachtet wird:Für � � oder ��� � � sind beide Seiten gleich null und bei Vertauschung von � mit � oder von��� mit � � gehen beide Seiten in ihr Negatives über. Daher genügt es zu zeigen, daß beide Seitengleich sind für

� �('��"' ��� '�� � � � � � ' � ' � � ' � � � mit � � � und �� . Nachrechnen ergibt, daß beideSeiten gleich 1 sind für

� � � ' � � � � � ' � � � und gleich 0 für� � � ' � � � � � � ' � � � .

Zu 2:

Wie in VI.3 auf Seite 60.

Zu 3:

„ � “: � � � � � ��� ' �� ��� � � ' �) � �.' � � � wegen 2. Det

� �.' � ' � � Det� � ' � ' � �

„ � “:

��� ' � Det� � ' � ' � � für alle ��� � � �

��� ' � Det� �.' �(' � � � �.' � � � � � � � ' �� �

���%� � � � � � ' � � +��� � ��%� � � � � � �� � � �

Zu 4:

Für alle ��� � � gilt:

� �.' � � � � ��� �� Det

� �.' � � � '�� � wegen 2 Det

� � � � '��.' � � � � � �"'�� � � wegen 2 � �('��� � �"' � � ���(' � � � '�� wegen 1 � � �+'��� �"' � � � � � '�� ��(' � � � �+'��� �"� � �"'��� �+' � �� � � � � � �

���('��� � � � � '�� ��Zu 5:� � � � � � �

���('�� � � � �"'�� ���� � � � � � � � ' �� �#� � �.' �# � �.' �('�� (zyklisch vertauscht)�� � � � � �

� �.'�� �� � � �+'�� � �.' �('�� (nochmals zyklisch vertauscht)

Beim Aufaddieren dieser drei Gleichungen heben sich rechts die unterstrichenen und die gestri-chelt unterstrichenen und die überhaupt nicht markierten Terme paarweise weg. Es bleibt dieJakobi-Identität stehen.

Page 129: Lineare Algebra

124 XI Bilineare und damit verwandte Formen

1.4.3 Bemerkung Dies alles gilt entsprechend für einen orientierten dreidimensionalen eu-klidischen Vektorraum. Zum Beweis muß dann eine positiv orientierte, orthonormierte Basisherangezogen werden.

1.5 Andere Auffassung einer Sesquilinearform1.5.1 Beschreibung durch den Dualraum

1. Halten wir bei einer Sesquilinearform die erste Variable � fest, so haben wir bezüglich derzweiten Variablen � eine semi-lineare Abbildung:

� 1 � � ��' � � � � 1 � � �('�� �

(semi-linear bedeutet additiv und semi-homogen d. h.� � � � � � � � � � .) � liegt also im

semi-linearen Dualraum von � 1 � �� 1 � � � � ' � � . Der Index � soll hierbei auf semi-linear hinweisen.

2. Die Abbildung � 1 � � � �� ' � � � � 1 <� ist linear.

3. Die Abbildung� 1 � ��� � � � � � ��� ' � �� � '� � � � 1 � ' � � � � � � � � � �('�� �ist linear.

�ist sogar ein kanonischer (d. h. nicht von einer Basis abhängiger) Isomorphis-

mus, dessen inverser der folgende Homomorphismus ist:� 1 � ��� ' � �� � � � ��� � � � ' � 1� �� �

� mit��� �('�� � 1 � � � � � �

Fazit:Wir können in kanonischer Weise eine Bilinearform

� 1 � � � � � auch als eine lineare Ab-bildung von

�nach �

��auffassen und umgekehrt; und zwar sogar so, daß der ganze Vektorraum

der Sesquilinearformen isomorph zum Vektorraum der linearen Abbildungen von�

nach ���

ist.

Beweis:

Zu 1: Da�

semi-linear in der zweiten Variablen ist, ist� eine semi-lineare Abbildung.

Zu 2: Wir zeigen exemplarisch, daß � homogen ist. Für alle � � �und alle � � � gilt::

� � � � � � � � �� � � � nach Definition von � � � � �('�� � nach Definition von

� � � � �('�� � weil�

in der ersten Variablen homogen � � � � � nach Definition von� � � � � � � � � nach Definition von � � � � � � � � � � da Abbildungen gleich, wenn alle Werte gleich

Zu 3: Wir zeigen exemplarisch, da�

additiv ist. Für alle � � �und alle � ��� gilt:

Page 130: Lineare Algebra

XI.1 Sesquilinearformen 125

� � � � � � � � � � � � � � � � � � � � � � � Definition von � � � � � � � � � � Definition von ��������� � � � � � � � �('�� � Definition von �� � � ��� � � �('�� � � � � � �('�� � wertweise Addition von Sesquilinearformen � � � � � � � � � � Definition von �� und �� � � � � � � � � � wertweise Addition von linearen Abbildungen � � � � � �� � � � � � � � � � Definition von � � und � ��� � � �� � � � � � � � � � wertweise Addition von � � und � � � � � � � � � � � �� � �� � � � � � Definition von �

� � � � � � � � � � � � � � �� � Abbildungen gleich � alle Werte gleich

Zu 4: Um zu zeigen, da�

und�

zueinander invers sind, ist zu beweisen:� �

Id und� �

Id Wir führen exemplarisch den Beweis der zweiten Gleichung an:� � � � � � � � � <� � ��� �

� �.

Für alle � � �und alle � � � gilt:

� � � � � � �('�� � � � � � � � � Definition von� � � � � � � � � Definition von � � � �('�� � Definition von� � � ��� � �

1.5.2 FeststellungSei � � � �� � die Matrix von

�bezüglich der Basen

� � � � bzw.� � �

Sei� � � � die zu

� � � duale Basis von ���.

Sei � � � � � � die Matrix von � bezüglich� � � � und

� � � � .Dann gilt: � � �

Beweis:

Zur Erinnerung: Die � -te Koordinate einer Linearform � bezüglich� � � � ist � � � � . Also ist

� � � � � � � � die � -te Koordinate des Bildes des � -ten Basisvektors, � � � � � , d. h. � � � � � � � � � �� � � � ' � � � �� � � �

1.5.3 Beispiel: Das zweite Differential und die Hessesche Form

1. Sei ��� � � eine offene Menge und � 1 � � � eine differenzierbare Abbildung in einenendlich-dimensionalen reellen Vektorraum � . Dann ist das Differential an der Stelle � � �eine lineare Abbildung 4 � � � � 1 � � � � und das Differential 4 � von � eine Abbildung4 � 1��� � � � � ' � � ' � �� 4 � � � � �

2. Für � � , d. h. �)1��� � erhalten wir als Differential eine Abbildung in den Dualraum:

4 � 1��� � � � � ' � � � � � ' � �� 4 � � � � �

Page 131: Lineare Algebra

126 XI Bilineare und damit verwandte Formen

3. Daß � wie in Punkt 2 zweimal differenzierbar ist, bedeutet nach Definition der zweitenAbleitung, daß die Abbildung 4 � in Punkt 2 differenzierbar ist. Im Hinblick auf Punkt 1 istjetzt � � � � und es folgt:

4 8 � � � � 1 4 � 4 � � � � � 1 � � � � ��

4 8 � � � � � � � � � ' �� � � ��� � � �� � �� ' � �Das zweite Differential von einer zweimal differenzierbaren Abbildung � 1 ��� � kannalso aufgefaßt werden als eine Bilinearform auf � � . Diese Bilinearform heißt die Hesse-sche Form von � an der Stelle � � � .

1.6 Symmetrische und hermitesche Formen1.6.1 DefinitionSei

� � . Eine Sesquilinearform�

auf�

heißt semi-symmetrisch, wenn eine der folgendenuntereinander äquivalenten Bedingungen erfüllt ist:

1.� � �+'�� � � � � ' � �

2. Die Matrix � von�

bezüglich irgendeiner Basis ist semi-symmetrisch, d. h.: � � �

Im Falle von � Id � ist eine semi-symmetrische Sesquilinearform nichts anderes als eine sym-metrische Bilinearform und im Falle � �5' � � wird eine semi-symmetrische Sesquiline-arform eine hermitesche Form genannt (nach dem französischen Mathematiker Charles Hermite,1822-1901)

Beweis der Äquivalenzen:

1. � 2.:� � � � � � ' � � � � � ' � � � � � d. h. � � �

2. � 1.:� � � �

��������� 8...� �

����� und

�� �

������ �� 8...� �

����� seien die Koordinaten von � bzw. von � . Dann

folgt, wenn � das Matrizenprodukt bezeichnet:� � �('�� � � � � � � � � � � � � � � � � � � � � �

�� � � �

� � � � � � � � � � � � � �� � � � � � � � � � � � �� ' � �

1.6.2 Diagonalisierung

(a) Sei�

symmetrische Bilinearform auf reellem � -dimensionalem Vektorraum oder hermite-sche Form auf komplexem � -dimensionalem Vektorraum.

Page 132: Lineare Algebra

XI.1 Sesquilinearformen 127

Dann hat die Matrix � von�

bezüglich einer geeigneten Basis eine Diagonalgestalt wieunten mit -mal 1 und -mal � � in der Hauptdiagonalen und �� � = Rg( � ).� � �('�� � � 8 � � �&�&�&� � 8� ��� 8� � � ���&�&� � � 8� � �

(b) Sei�

symmetrische Bilinearform auf komplexem � -dimensionalem Vektorraum.

Dann hat die Matrix � von�

bezüglich einer geeigneten Basis eine Diagonalgestalt wieunten mit � -mal 1 in der Hauptdiagonalen und � = Rg( � ).� � �('�� � � 8 � � �&�&�&� � 8�

Die geometrische Bedeutung von � wird in 1.7.1 geklärt und die von und werden späterbehandelt (s. 3.2.6).

(a)

����������������

. . .�

-1. . .

-1 �

. . . �

�����������������

(b)

���������������

. . .. . .

. . .�

. . . �

����������������

Beweis mit Hilfe elementarer Umformungen:

Wir betrachten Elementarmatrizen. In � � stehe das � in der � -ten Zeile und -ten Spalte und esist � � . Bei � � � steht das � dann in der -ten Zeile und � -ten Spalte.

Bei � 8 sei � � � und stehe an der � -ten Stelle in der Hauptdiagonalen.

� �

����������

. . .� �� � ��

. . ....

. . .�

� ��������

� � �

����������

. . .�

.... . .

� �� �

. . .�

� ��������

� 8

���������

. . .�

. . .�

���������

� � 8

����������

. . .�

. . .�

����������

Page 133: Lineare Algebra

128 XI Bilineare und damit verwandte Formen

Es gilt für eine � � � -Matrix � :

Matrizenmultiplikation � � � � liefert für � die elementare Umformung: � �� � � � � � �� � � � � liefert � ��

� � � � � �Matrizenmultiplikation � 8 � � liefert: � �� � � �� � � � 8 liefert � ��

� � �Da Elementarmatrizen regulär sind, können wir sie als Matrizen � von Basistransformationenverwenden. � � � � � � � � � �Wegen der Transformationsformel

� � ��� � � � �

transformiert sich die Matrix � einer Sesquilinearform so, daß eine elementaren Zeilenumfor-mung und anschließend die entsprechende Spaltenumformung durchzuführen ist, in welcher derKoeffizient � noch durch � zu ersetzen ist.

Die elementaren Umformungen wenden wir nun so an:

1. Ist�� � � , so können wir, falls ein

� �� � � ist für ein� � ' � � mit � � � , durch elementare

Umformungen vom Typ I erreichen, da�� � � � wird; falls ein

� � � � � ist, geht dies mitZeilen- und entsprechenden Spalten-Vertauschungen (elementare Umformungen vom TypIII). (Ersteres geht übrigens nicht bei beliebigem Körper. Es muß ein Körper sein, in dem� 1 � � � � � ist.)

2. Wieder durch elementare Umformungen vom Typ I räumen wir die erste Spalte unterhalb�� � aus, wobei jeweils auch die oben beschriebenen Spaltenumformungen vorgenommen

werden. Wegen der Semisymmetrie wird dabei auch die erste Zeile rechts von�� � ausge-

räumt!

3. Falls außer�� � noch weitere Matrixelemente � � vorhanden sind, können wir durch ele-

mentare Umformungen vom Typ I oder III erreichen, daß�8 8 � � wird. Anschließend

räumen wir wieder unterhalb und rechts von�8 8 aus. Indem wir so fortfahren, erhalten wir

schließlich eine Diagonalgestalt, in der die ersten � Elemente in der Hauptdiagonalen � �sind.

4. Im Falle a) gilt für die Matrix der Sesquilinearform� �� � � , woraus für � � folgt� � � � � � , d. h.

� � � ist (auch für � � und � � ) reell. Multiplikation der � -ten Zeile mit

� �

� � � � � �und anschließende Multiplikation der � -ten Spalte mit � � für � � '�������'��

liefert� �

in der Hauptdiagonalen. Durch Vertauschen von Basisvektoren können wir diesenoch so anordnen, daß zuerst alle � �

und dann die � � kommen. Die Anzahl der Elemente� � in der Hauptdiagonalen muß der Rang von � sein, da elementare Umformungen denRang nicht ändern.

Page 134: Lineare Algebra

XI.1 Sesquilinearformen 129

5. Im Falle b) ist � Id � . Symmetrie, � �� � � , liefert keine Einschränkung für die � � � � � .

Wir setzen für � � '�������' ��� 1 �� � � �

eine der beiden komplexen Wurzeln aus � � � � � .

Multiplikation der � -ten Zeile mit � und der � -ten Spalte mit � liefert den Koeffizienten 1in der Hauptdiagonalen für � �� '������ '�� .

1.6.3 Beispiel: � �5' � kK�� � � �� � � �� � ��

� ��� � � 8 � � �

�� � � � �� � �� � ��

� � � � �

8�� � � � �� � �� � � �

� � �� ���/��8 ��� � � �

8�� � � � �� � �� � ���

� � � � � �*� �

8� � � �

8�� � � � �� � �� � ���

� � 8 � ��� �

8 �� �

�� � � � �� ���

� �� � �

� � �� ��

8 ��� '� � �

��

8� �

� �8 �

� � 8 '� � 8

�� � 8�� � � � �

� � �� � �

� 1.6.4 Beispiel: Eine hermitesche Form mit folgender Matrix, in der alle Elemente in derHauptdiagonalen 0 sind, ist zu diagonalisieren:� � � ���� � � � � � � � ���-� � � ��� � � 8 ' � � � ��� ��

�� ���� � � � � � � �

� � � � � � � � � 8 ' � � � � � ��� � ���� � � � � � �8

� 8 �� �� ���

Page 135: Lineare Algebra

130 XI Bilineare und damit verwandte Formen

�� � ���� � ��� � � � � 8

8 �� � � � � �

�� �� � ��� � � �

� � �� � � �

1.7 Nicht ausgeartete Sesquilinearform1.7.1 Definition und SatzFür eine Sesquilinearform

� 1 � � � � � gilt:

1. � 1 � � � � � � �('�� � � für alle � � �#� ist ein � -Untervektorraum, der Ausar-tungsraum von

�bezüglich der ersten Variablen. (Bezüglich der zweiten Variablen analoge

Definition).

2. � Kern� � �

3. Die geometrische Interpretation von � = Rg( � ) lautet (vgl. 1.6.2):

� � Dim�� �

� ist also unabhängig von den Basen, bezüglich derer � gebildet war.

Beweis:

1. Die 1. Behauptung folgt aus der zweiten.

2.

� � � ! � � �('�� � � � � � !� � � � � � � � !� � ! � � � � � !� � Kern

� � �3. Die Rangformel für � 1 � � � ��

liefert: Dim��� � Dim

�Kern

� � � � � Rang� � �

Rang� � � Rang

� � � � , weil � � die Matrix von � ist.

Rang� � � � Rang

� � � ��

Dim�� � � � oder �

� � Dim

�� �

1.7.2 Beispiel

Ist �

���������

� �

. . . � �

�. . .

���������

mit � -mal� �

die Matrix einer Sesquilinearform

� 1 � � � � � bezüglich der Basis� � � '�������' � � � , so ist � � � � ��� � '������ ' � � � .

Page 136: Lineare Algebra

XI.2 Sesquilinearform und geometrische Begriffe 131

1.7.3 Definition einer nicht ausgearteten SesquilinearformSei Dim

��� � Dim�� � . Eine Sesquilinearform

�heißt nicht ausgeartet, falls eine der folgenden

untereinander äquivalenten Bedingungen erfüllt ist:

1. Der Ausartungsraum bezüglich der ersten Variablen ist der Nullraum ��� .

2. Fassen wir�

als lineare Abbildung � 1 � � ���

auf, so ist � 1 � � ���

ein Isomorphis-mus.

3. Die Matrix � von�

ist regulär.

4. Der Ausartungsraum bezüglich der zweiten Variablen ist der Nullraum � � .

Beweis der Äquivalenzen:

1. ! 3.: � � � ! Dim�� � � ! �

� ! � ist regulär.

4. ! 3.: Analog

2. ! 3.: Der Leser möge selbst das Argument angeben.

XI.2 Sesquilinearform und geometrische Begriffe

In diesem Abschnitt betrachten wir endlich dimensionale Vektorräume über einem festen Skala-renkörper � mit einer festen Involution � .

2.1 Adjungierte Abbildung2.1.1 Definition und ExistenzSei

� 1 � � � � � eine nicht ausgeartete Sesquilinearform und Dim� � � Dim

�� � . Sei

��� End��� � . Dann gibt es genau eine lineare Abbildung � � 1 � � � mit:

� � � � � � '�� � � � �+' � � � � � �

� � heißt die zu � adjungierte (genauer rechts-adjungierte) lineare Abbildung.

2.1.2 Beispiel: Induzierte AbbildungFür die Bilinearform im 1. Beispiel von 1.1.2 ,

� � � ' � � � � � � , ist die (Links-) Adjungiertedie induzierte Abbildung von Abschnitt V. 5.4 auf Seite 50.� � �('�� � � 8 � � �&�&�&��� 8� ��� 8� � � ���&�&� �$� 8� � �

2.2 Geometrischer Vektorraum2.2.1 DefinitionEin geometrischer Vektorraum,

� ��� ' � � , sei ein Vektorraum�

zusammen mit einer nichtausgearteten Sesquilinearform

� 1 � � � � � .

Page 137: Lineare Algebra

132 XI Bilineare und damit verwandte Formen

2.2.2 BeispielDer �� mit seinem kanonischen Skalarprodukt und � � ist das Standardbeispiel eines geo-metrischen Vektorraumes.

2.3 Isometrien2.3.1 Beispiel: Isometrien des � �Eine lineare Abbildung des ��� , die das kanonische Skalarprodukt erhält, für die also gilt

� � � � � ' � � � � ���+'�� �('�� � � �wird eine Isometrie genannt. Diese Bezeichnung kommt daher, daß, wenn das Skalarprodukterhalten bleibt, metrische Größen wie Länge eines Vektors oder Winkel zwischen zwei Vektorenerhalten bleiben, d. h., daß

� � � � � � � � � , � � � � � � ' � � � � � � � �('�� � gilt. In Verallgemeinerunghiervon wird definiert:

2.3.2 Definition einer IsometrieSei

� ��� ' � � ein geometrischer Vektorraum. Eine lineare Abbildung � 1 � � �heißt eine

Isometrie von��� ' � � , falls � die Form

�invariant läßt, d. h., wenn gilt:

� � � � � � ' � � � � � � � �('�� � �+'�� � �

2.3.3 Satz über die Inverse und die Matrix einer IsometrieFür einen Endomorphismus � eines geometrischen Vektorraumes

�sind äquivalent:

1. � ist eine Isometrie von�

.

2. � � � Id � d. h. � ist invertierbar und � � � � � .3. Sei � die Matrix von � bezüglich einer Basis

� � � � von�

und � die Matrix von�

bezüglich� � � � , dann gilt:� � � � �

2.3.4 Allgemeine und Spezielle Isometrie-Gruppe Für einen geometrischen Vektor-raum

� ��� ' � � gilt:

1. � Isometrie von� � � � � Isometrie von

2. �(' � Isometrien von� � � 5� Isometrie von

3. Die Isometrien von�

bilden eine Gruppe, die (Allgemeine) Isometriegruppe von�

.� ��� � 1

� � 1 � � � � � Isometrie von� �9' �

4. Sei � � oder � . Für jede Isometrie � von

�gilt:

�Det

� � � � ��.

5. Für � � oder � bilden die Isometrien � von

�mit Det( � ) = 1 eine Gruppe, die

Spezielle Isometriegruppe � � ��� � von�

.

Page 138: Lineare Algebra

XI.3 Semi-quadratische Formen 133

2.4 Orthogonalität2.4.1 DefinitionSei

� � ' � � ein geometrischer Vektorraum, bei dem�

halb symmetrisch oder halb schiefsymme-trisch ist. Dann wird in Verallgemeinerung des Orthogonalitätsbegriffes im � � definiert:

� � �heißt orthogonal zu � �

� 1 ! � � � 1 ! � � �('�� � �Wegen der Voraussetzung an

�ist dann auch � senkrecht auf � , so daß wir sagen können, � und

� sind orthogonal aufeinander.

2.4.2 Total senkrechter UntervektorraumSei

�wie in Definition 2.4.1, � ein Untervektorraum von

�. Dann ist

�� 1 � � � � � � � � ��� � �

ein Untervektorraum. Er heißt der zu � total senkrechte Untervektorraum von�

; es gilt:Dim( �

) = Dim(�

) � Dim( � ).

2.4.3 Orthogonalbasis halbsymmetrischer SesquilinearformenSei

��� ' � � ein geometrischer Vektorraum mit halb symmetrischem�. Dann existiert eine Ortho-

gonalbasis� � ' 8 '������ ' � � von

�, d. h. eine mit:

� � � ' � � � ' � �� '�������' � mit ��� �Für � � 1 � � � ' � � gilt dann:

� � �('�� � ��� � � � � � � � � �('�� � � ' wobei �

��� � � � � � und �

��� � � � � �

Die Matrix von�

hat dann bezüglich� � ' 8 '������ ' � � Diagonalgestalt mit den � � '������ ' � � als Dia-

gonalelementen.

XI.3 Semi-quadratische Formen

In diesem Abschnitt soll im Körper � gelten � � � � ' d. h. � � � . Wir betrachten die zwei Fälle:

[1] � beliebig, � Id � [2] � �5' � komplexe Konjugation

Im folgenden werden wir uns mit den Ziffern [1] und [2] in eckigen Klammern stets auf diesebeiden Fälle beziehen.

3.1 Semi-symmetrische und zugehörige semi-quadratische Form3.1.1 ReellifizierungWir benötigen im folgenden, daß ein � -Vektorraum

�auch als � -Vektorraum aufgefaßt wer-

den kann. Wir haben nämlich wegen � � � erst recht eine Skalarenmultiplikation mit reellenZahlen. Beschränken wir die Skalarenmultiplikation auf reelle Zahlen, so wird aus

�ein reeller

Vektorraum�� . Er heißt die Reellifizierung von

�.

Page 139: Lineare Algebra

134 XI Bilineare und damit verwandte Formen

3.1.2 Definitionen

1. Wir wiederholen (s. 1.6.1):

Im Falle [1] heißt�

symmetrisch wenn gilt:� �� ' � � � � �('�� �

Im Falle [2] heißt�

hermitesch, wenn gilt:� ��"' � � � � �+'�� � , wobei der Querstrich die

Bildung des konjugiert Komplexen bezeichnet.

Beide Fälle fassen wir zusammen als semi-symmetrisch:� ��"' � � � � �('�� � , wobei der

Querstrich die Anwendung der Involution � bezeichnet.

2. Analog heißt eine Sesquilinearform�

auf�

semi-schiefsymmetrisch, falls gilt:

� �� ' � � � � � �+'�� �

Dies wird für [1] auch schiefsymmetrisch und für [2] schiefhermitesch genannt.

3. Sei�

eine semi-symmetrische Sesquilinearform auf�

. Dann heißt

�;1 � � ��' �� � � 1 � � �(' � � � � �

die zu�

gehörige semi-quadratische Form, für [1] auch einfach quadratische Form.

3.1.3 Eigenschaften der zugehörigen semi-quadratischen Form

1. �� � � �

� � � � � �

Das ist im Falle [1] die leere Bedingung, im Falle [2] bedeutet es, daß die Werte von � in� liegen.

2. �� � � � � � � � � � � � � '� � � �

� 8 � � � � für� � �

� � � 8 � � � � für�� �

3. Durch die folgende Festsetzung ist eine symmetrische Bilinearform�

definiert:

� � �('�� � 1 �� � � � � � �

� � � � ��� �

� 1 � � � � � für [1] bzw.� 1 � � � �

� � � für [2].

4.�

��

für [1]�

� Re� � � für [2]

Dabei ist der Realteil von�

wertweise definiert, d. h.�Re� � � � � �+'�� � 1 Re

� � � �('�� � �

Page 140: Lineare Algebra

XI.3 Semi-quadratische Formen 135

3.1.4 Definition einer semi-quadratischen FormBei beliebigem Körper � mit Involution � (Es darf hier auch � �� ��

sein.) heißt eine Abbildung��1 � � � mit den ersten drei Eigenschaften von 3.1.3 eine semi-quadratische Form auf

�, für

[1] auch einfach quadratische Form .

Beweis der Eigenschaften:

1. �� � � <� � �(' � � �

� � � �(' � � �� � � Bei 1) ist � mit � vertauscht.

2. �� �(� � � � � �(' � � � � � � � �(' � � � � � � � �

4.� � �('�� � �

� � � � � � �� � � � �

�� �

<� � � � �"' ��� � � � � � �(' � � � � � � '�� � <� � �(' � � � � � �"' � � � � � �('�� � � � � �"'�� � � � � �(' � � � � � � '�� � � � �('�� � � � � �('�� � �

� � �('�� � im Falle [1], d. h.�

��

und im Falle [2]:

� Re� � � �('�� � � � Re

� � � � �('�� � d. h.�

� Re� � �

3. Für [1] folgt die Behauptung aus Punkt 4, weil das zweifache einer Bilinearform wieder eineBilinearform ist.

Für [2] folgt es ebenfalls aus Punkt 4, wenn wir noch beachten, daßRe� � � 1 � � � �

� � � eine symmetrische Bilinearform ist. Letzteres kann direkt nachge-rechnet werden.

3.2 Definitheit und Index

3.2.1 Voraussetzung für den Rest dieses AbschnittesSei

���' � � entweder

�� ' Id � � oder

���' kK � .

3.2.2 Definition der positiven Definitheit und verwandter BegriffeEine semi-quadratische Form heißt

positiv definit 1 ! �� � � �� � � �

mit � � �positiv semidefinit 1 ! �

� � � � � � � �

negativ definit 1 ! �� � � ��� � � �

mit � � �indefinit 1 ! � � � �

mit �� � � �� und � � � �

mit ��� � ��� .

Eine semi-symmetrische Sesquilinearform hat eine der genannten Definitheitseigenschaften perDefinition, wenn ihre zugehörige semi-quadratische Form sie besitzt. Das ist in Übereinstim-mung mit unserer früheren Definition positiver Definitheit.

Page 141: Lineare Algebra

136 XI Bilineare und damit verwandte Formen

3.2.3 Feststellung für einen UntervektorraumIst � ein Untervektorraum von

�und � eine semi-quadratische Form auf

�, dann ist die Ein-

schränkung von � auf � ebenfalls positiv (bzw. negativ bzw. positiv semi- bzw. negativ semi-)definit, wenn � es ist.

3.2.4 Kriterium für positive DefinitheitEine Matrix, die als Matrix einer positiv definiten semi-symmetrischen Sesquilinearform auf-taucht, heißt positiv definit. Es erhebt sich die Frage, wie einer Matrix die positive Definitheit an-gesehen werden kann, ohne sich auf die Sesquilinearform zu beziehen. Dazu definieren wir dieHauptuntermatrizen � � '�������'�� � und die Hauptunterdeterminanten � � '������ ' � � einer

�� � ��� -

Matrix � :

� � 1 ����� � ����� �

� �...

...� � � ����� � � �

� � � � 1 Det

� � � � �������

�� � ����� �

� �...

...� � � ����� � � �

�������In der Literatur werden die � � auch Hauptminoren genannt. Für eine semi-symmetrische Ses-quilinearform sind die Hauptunterdeterminanten auch im komplexen Falle reell. Eine semi-symmetrische Sesquilinearform

�mit Matrix � bezüglich irgendeiner Basis� ��� '�������' � � � � ist genau dann positiv definit, wenn alle Hauptunterdeterminanten von � positiv

sind.

Beweis:

1. � � ist die Matrix von� � � � , der auf � � 1 � � ��� '�������' � � � eingeschränkten Form.

� � � � ist

eine semi-symmetrische Sesquilinearform auf � � , folglich gilt: � � � � � � Det� � � �

Det� � � � � Det

� � � � Det� � � � � � � Det

� � � � reell.

2. Feststellung: Ist� � �� � � � � � eine Basistransformation und sind � , � � die Matrizen von

�bezüglich

� � � bzw. bezüglich� � �� � , dann gilt:

Det� � � � �� ! Det

� � � ��Dies folgt aus der Transformationsformel (s. 1.3.3):

� � � � � �Det

� � � � Det

� � � Det� � � Det

� � � � Det

� � � Det� � �

� ��� �� �Det� � � � � ���

Det� � �

Daraus folgt die Behauptung.

3. Sei�

positiv definit. Dann hat�

als Diagonalform die Matrix � � �

� (Einheitsmatrix).Ihre Determinante ist 1 also �� . Nach obiger Feststellung gilt dann Det

� � � �� bezüglichjeder beliebigen Basis. Da � � die Matrix von

� � � � ist und� � � � auch positiv definit ist, folgt

� � �� für alle � �� '�������' � .

Page 142: Lineare Algebra

XI.3 Semi-quadratische Formen 137

4. Seien umgekehrt alle � � � . Wir zeigen durch Induktion, daß� � � � positiv definit ist für

� �� '������ ' � .

Induktionsbeginn:� � � � hat die Matrix � �

� �� � � . � � � bedeutet

�� �" � , folglich ist�

�� � � �

� � � � � � � � � ���� � � � ��� � � � mit � � � ..Induktionsannahme: Sei

� � � � positiv definit für ein � � .

Induktionsschluß: Wir wählen eine Orthonormalbasis von � � , ergänzen Sie zu einer Basisvon � � � � . Dann hat

� � � � � � eine Matrix der folgenden Form�����

� �. . .

...� ...

� �&�&� �&�&� �

����� ' welche durch Ausräumen übergeht in:

�����

� �. . .

...� �� �&�&� � 4

�����

Bei diesem Ausräumen ändert sich die Determinante wegen der Scherungsinvarianz einer De-terminantenform nicht. Da die letze Matrix positive Determinante hat, folgt 4 <� und damit ist� � � � � �%�� .3.2.5 Definition und Satz vom RangSei�

eine semi-symmetrische Sesquilinearform auf�

und � die zugehörige quadratische Form,dann ist die Zahl � der

� �aus dem Diagonalisierungssatz 1.6.2 die maximale Dimension eines

Untervektorraumes � , so daß die Einschränkung von�

auf � nicht ausgeartet ist. � heißt derRang von � , ��� � � � 1 � , oder der Rang von

�, Rang

� � � 1 � . Ist � die Matrix von�

bezüglichirgendeiner Basis, dann ist Rg( � ) = Rg(

�).

Beweis: � 1 MaxDim

�� ��� � Untervektorraum von

�mit� � � nicht ausgeartet �

� � � 1 � � � � � 1 � � � � ��' � �.'�� � � �� � ��.'�� � � ' �.'�� � � �

a) � ��

Sei� ��� '������ ' � ��' � ��� � '�������' � � � eine Basis, bezüglich der

�die Matrix � wie in 1.6.2 (a) hat.

Sei � 1 � � ��� '������ ' � � � . Dann hat� � � bezüglich der Basis

� � � '������ ' � � � von � die reguläreMatrix

���������

. . . �

� �. . .

� �

���������

Also ist� � � nicht ausgeartet. Dim

�� � � � � �

b) � ��

Sei � irgendein Untervektorraum mit� � � nicht ausgeartet. Dann gilt:

Page 143: Lineare Algebra

138 XI Bilineare und damit verwandte Formen

� � � ��� � '�������' � � � � � � �Denn für � � � � � ��� � '�������' � � � � � und � � � folgt:

� � �('�� � ����

� � ��� � � � � � '�� � � � � � ��

� � � � ��� � � � � � � � � � ' � �� ��� �� �

Das bedeutet, � � Ausartungsraum von� � � . Dies ist aber der Nullraum, da

� � � nichtausgeartet ist. Also muß � � gelten. Wegen � � � ��� � '�������' � � � � � � � � ist die Summe� � � ��� � '�������' � � � � � eine direkte Summe und es folgt:� � � ��� � '�������' � � � � � � �

Dim� � � � ��� � '������ ' � � � � � Dim

�� � �

Dim� � �

� � � � Dim�� � � �

Dim�� � �

�� �

a) und b) � � �

c) Die Gleichung Rang� � � Rang

� � � � folgt

1. daraus, daß � durch elementare Umformungen in die Diagonalmatrix

����������������

. . . �

� �. . .

� ��

. . .�

����������������

mit � -mal� �

in der Hauptdiagonalen übergeführt werden kann,

2. daraus, daß sich bei elementaren Umformungen der Rang nicht ändert und

3. Rang� � � � ist.

3.2.6 Sylvesterscher Trägheitssatz und TrägheitsindexSei

�eine semi-symmetrische Sesquilinearform auf dem Vektorraum

�und � die zugehörige

semi-quadratische Form. Sei:

� � 1 MaxDim

�� ��� � Untervektorraum von

�mit� � � positiv definit �

� � 1

MaxDim

�� ��� � Untervektorraum von

�mit� � � negativ definit �

:= Anzahl der +1 in einer Diagonalisierung von�

nach Abschnitt 1.6.2:

Page 144: Lineare Algebra

XI.3 Semi-quadratische Formen 139

����������������

. . . �

� �. . .

� ��

. . .�

����������������

:= Anzahl der -1 in � .

Dann gilt: � � � � 4 � �Die Zahlen und sind daher unabhängig von der Basis, bezüglich der die Matrix von

�die

Diagonalgestalt � besitzt.

heißt der Sylvestersche Trägheitsindex oder kurz der Index von�

bzw. von � . �� heißt die Signatur von

�bzw. von � .

Beweis:

a) � � �

Sei� ��� '�������' � � � eine Basis, bezüglich der

�eine Diagonalgestalt der Form � hat.

� 1 � � ��� '�������' � � � Dann ist� � � positiv definit.

� ��

Dim�� �

b) � � �

Sei � ein beliebiger Untervektorraum mit� � � positiv definit. Dann gilt:

� 1 � � � � � � '�������' � � � � � � � ; denn aus

�� � � � � � � '�������' � � � negativ semi-definit und

�� � ist positiv definit folgt,

�� � ist sowohl negativ semi-definit als auch positiv definit. Das geht nur, wenn � � � �

ist.� � � � � � '������ ' � � � � � ist eine direkte Summe.� � � � � � '������ ' � � � � � � �

Dim� � � � � � � '�������' � � � � � Dim

�� � �

Dim��� �

� �� � Dim�� � � �

Dim�� � �

� �

Für wird analog geschlossen.

Page 145: Lineare Algebra

140 XI Bilineare und damit verwandte Formen

3.2.7 Anwendung in der AnalysisPositive und negative Definitheit und Indefinitheit werden in der Analysis benötigt bei der Un-tersuchung von Maxima und Minima zweimal stetig differenzierbarer Funktionen von mehrerenVariablen. Der Index spielt eine wichtige Rolle bei der Untersuchung von sogenannten kritischenPunkten, einer Verallgemeinerung von Extremalpunkten. Die zu untersuchende Bilinearform istdie Hessesche Form (s. 1.5.2).

Page 146: Lineare Algebra

XII.2 Zur Winkel- und Volumenmessung 141

mm13

XII Vektorräume mit Skalarprodukt 2

In diesem Abschnitt ist���' � � �

� ' Id � � oder �

��' kK � (kK = komplexe Konjugation)und, wenn nichts anderes gesagt,

�ein � -dimensionaler Vektorraum über � .

Die beiden wichtigsten Beispiele geometrischer Vektorräume haben wir bereits vorneweg in Ka-pitel VIII auf Seite 69 behandelt, nämlich die Vektorräume mit Skalarprodukt d. h. im reellenFalle die euklidischen Vektorräume und im komplexen Falle die unitären Vektorräume. Hier er-gänzen wir die Winkel- und Volumenmessung, beschreiben die allgemeinste unitäre und orthogo-nale Abbildung und leiten aus dem Satz über die Hauptachsentransformation selbstadjungierterAbbildungen die Hauptachsentransformation semi-symmetrischer Sesquilinearformen ab.

XII.1 Bezug zu Sesquilinearformen

1.1 Charakterisierung eines Skalarproduktes

Nach der Terminologie aus Kapitel XI auf Seite 118 ist ein Skalarprodukt dadurch charakterisiert,daß es eine nicht ausgeartete, semi-symmetrische Sesquilinearform

�mit Index 0 ist. Statt Index

= 0 können wir äquivalenterweise auch positive Definitheit verlangen.

1.2 Der Isomorphismus mit� ��

Nach XI.1.5.1 bestimmt das Skalarprodukt einen Isomorphismus von�

mit dem semi-linearenDualraum

� ��:

� 1 � � ���� ' � � � � � � � � � �('�� � ���('�� oder

� 1 � �� � ���('�� Skalarprodukt-Bildung mit �Ist

� ��� '�������' � � � eine orthonormierte Basis, so ist � der Isomorphismus mit � � � � � � � , wobei� � � '�������' � � � die zu� ��� '�������' � � � duale Basis ist. Denn es gilt:

� � � � � � � � ��� � ' � � �� � � � � �

13A. Riede: Lineare Algebra 2, SS 00

Page 147: Lineare Algebra

142 XII Vektorräume mit Skalarprodukt 2

XII.2 Zur Winkel- und Volumenmessung

2.1 Orientierter Winkel

In einem zweidimensionalen orientierten euklidischen Vektorraum�

kann der Winkel �

� � �('�� � zwischen einem Paar� �('�� � von Vektoren im Intervall

� � '�� � � definiert werden durch:���� � � � ���('�� � � � � � � � und ���� � � � Det

� �+'�� �� � � � � � �Dabei sei Det diejenige Determinantenfunktion von

�, die für eine positiv orientierte und or-

thonormierte Basis den Wert 1 hat. Dieser Winkel heißt der orientierte Winkel zwischen � und� .

Diese Definition ist konform mit den Formeln in der euklidischen Anschauungsebene für denFlächeninhalt � eines Parallelogramms: Sind � � ' � 8 bzw. � � ' � 8 kartesische Koordinaten der vonnull verschiedenen Vektoren � bzw. � und � der Winkel zwischen � und � , dann hatten wir ausder Anschauung für �('�� im 1. Quadranten die folgenden Formeln gefunden:

� � � � 8 �$� 8 � � � ��� � � � � � � � � � Daraus folgt:

���� � � � �� � � � � � � � � 8 ��� 8 � �� � � � � �

Det� �+'�� �� � � � � � �

Also ist die obige Definition von ������ � konform mit der anschaulichen euklidischen Vorstellung.

Durch Angabe von ��� � � � und ��� � � � ist � im Intervall� � ' � � � eindeutig festgelegt. Zu zeigen

bleibt:����Det

� �('�� �� � � � � ������ �

, damit die Definition von ������ � sinnvoll ist.

Beweis: Sei� ��� ' � 8

� orthonormiert, � 8�� � � � � � � ' �

8��� � � � � Dann folgt:

Det� �('�� � � ��� � 8 ��� 8 � �

� Det� � � ' � 8

�� ��� �� � nach X. 4.1 auf Seite 109

�Det

� �('�� � � 8 � 8 � � 88 � � � � � 8 � � � 8 � � 88 � 8 � � � 8 � ��� 88� � � 8 � ��� 88

� �$� 8 � � 8 � ��� 88 � 88 � � � � � � � 8 � 8 � � � 8 � � � 8 � � ��� � �.� � 8 � 8� 8

�Det

� �('�� � � 8� � � 8 � � � 8 � � � �+'�� 8� � � 8 � � � 8

�� � ��� 8 � � � � ����Det

� �('�� �� � � � � ������ �

2.2 Bemerkung

Es kommt auf die Reihenfolge von �('�� an, da es bei der Determinante auf die Reihenfolgeankommt.

� �� ' � � � � � � � �('�� �

Page 148: Lineare Algebra

XII.2 Zur Winkel- und Volumenmessung 143

(In höheren Dimensionen kann kein orientierter Winkel kanonisch definiert werden! Auch kannnicht für alle zweidimensionalen Untervektorräume eines höher dimensionalen Vektorraumes„kanonisch“ eine Orientierung gewählt werden !)

2.3 Das orthogonale Komplement2.3.1 Satz und DefinitionFür einen Vektorraum mit Skalarprodukt ist der zu einem Untervektorraum � total senkrechteUntervektorraum �

ein algebraisches Komplement von � . Daher wird ��

auch orthogonalesKomplement von � genannt.

Beweis: Nach früherem ist schon die Dim��

� � komplementär zur Dim�� � d. h. Dim

�� � �

Dim��

� � Dim��� � . Es ist nur noch zu zeigen, daß � � � � � � � ist. Dies folgt umittelbar

aus der positiven Definitheit:

Sei � � � � � �

, dann ist � � � und � � � �

, folglich gilt ���(' �� � , also � � �2.3.2 Definition des Lotes und der orthogonalen ProjektionSei � ein Untervektorraum des euklidischen Raumes

�und � � �

. Dann kann � eindeutigdargestellt werden in der Form:

� �;�� ' � � �%' � �Der Vektor heißt das Lot von � auf � und � die orthogonale Projektion von � auf � . DieAbbildung � � �/' � �� �

heißt orthogonale Projektion von�

auf � . Ist� � � '�������' � � � eine Basis von � , so sind � und

gegeben durch:

� ��

� � � � ' � ����� � � �

Dabei sind die � die eindeutigen Lösungen des folgenden linearen Gleichungsystems:

�� � � � � � ' � � ���(' � � ' � �� '�������'��

Beweis: � � ! � ' � � � � � '������ '��! ���(' � � � ��

� � � � � ' � � � !��

� � � � � ' � � ���(' � �

2.4 Volumen eines Parallelflachs

Page 149: Lineare Algebra

144 XII Vektorräume mit Skalarprodukt 2

2.4.1 Definition als Grundfläche mal Höhe�sei ein euklidischer Vektorraum. linear unabhängige Vektoren � � '�������' � � spannen ein -

dimensionales Parallelflach � � auf:

� � 1 � � � � � � ��� � � � � � � ' � � � � � � ' � � � � �

Wir definieren induktiv den -dimensionalen Inhalt (Volumen):��� � � � 1 � � � � � �

�� � � � 1 �

� � �� � � � � � � �

Dabei ist � � � � das von � � '������ ' � � � � aufgespannte Parallelflach, und � die Länge des Lotes von� � auf die lineare Hülle von � � '�������' � � � � . � wird auch die Höhe des Parallelflachs � � bezüglich � �genannt und

�� � �� � � � � � die Grundfläche bezüglich � � . Diese Definition entspricht der Erklärung

des Volumens als Grundfläche mal Höhe, wie es in der Elementargeometrie üblich ist. Hier erhebtsich die Frage, ob die Definition nicht davon abhängt, welche

� � � � -dimensionale Seite alsGrundfläche gewählt wird, und wie das gegebenenfalls zu beweisen ist; anders ausgedrückt, obdas Volumen nicht von der Reihenfolge der Vektoren � � '������ ' � � abhängt. Dies ist der Fall, wenndas Volumen wie folgt durch eine Determinantenform definiert wird. Wir werden zeigen, daßbeide Definitionen äquivalent sind. Damit ist die aufgetrete Frage beantwortet: Die Definitiondes Volumens ist unabhängig von der Reihenfolge der Vektoren.

2.4.2 Volumenmessung durch eine DeterminantenformIn einem euklidischen Vektorraum ist eine Determinantenform Det bis auf das Vorzeichen ein-deutig dadurch festgelegt, daß sie auf einer (und damit auch auf jeder anderen! s. u.) orthonor-mierten Basis den Betrag 1 hat. Für eine solche Determinantenform gilt:

�Det

� � � '�������' � � � � ��� � � �

Beweis: Im folgenden bezeichnet Det, ohne, daß dies in der Bezeichnung zum Ausdruck ge-bracht wird, eine Determinantenform auf verschiedenen euklidischen Vektorräumen, die auf or-thonormierten Basen den Betrag 1 hat. Sei � 1 � � � � '�������' � � � � � und � � ��� ' � � �/' � � .Aus der Scherungsinvarianz der Determinante folgt:�Det

� � � '������ ' � � � � �Det

� � � '������ ' � � � � ' � �� ' � � '�������' � � � � � ist eine Basis von � � � � '������ ' � � � , die wir mit dem Schmidtschen Orthonorma-lisierungsverfahren orthonormalisieren zu

� � � '�������' � � � . haben wir deswegen als ersten Vektorgenommen, damit wir nach dem ersten Schritt des Schmidtschen Verfahrens erhalten: � � �und � � � . � � � bezeichne die Koordinaten von � � � � � � '�������' � � � bezüglich

� � � '�������' � � � . � � � � bezeichnedie Koordinaten von � � � � � � '������ ' � � � � � bezüglich der Basis

� � 8 '�������' � � � . Dann folgt:

�Det

� � � '������ ' � � � � ���������

Det

����� � � � � '������ ' � � � � � � '

��...�

����� ���������

Page 150: Lineare Algebra

XII.3 Beziehungen zwischen Vektorräumen über � und � 145

� �Det� � � � � � '������ ' � � � � � � � � �

nach dem Entwicklungssatz � � �Det

� � � '������ ' � � � � � � � �� � �� � � � � �

XII.3 Beziehungen zwischen Vektorräumen über � und �

Oft ist es nützlich von einem � -Vektorraum zu einem � -Vektorraum und von einem � -Endomorphismus � zu einem � -Endomorphismus � überzugehen. Es kommt einem dann zugute, daß � algebraisch abgeschlossen ist. Z. B. hat � stets einen Eigenwert und dazu einen Ei-genvektor, so daß über � größere Chancen bestehen, daß ein Endomorphismus diagonalisierbarist. Anschließend ergeben sich aus den Ergebnissen über � Rückschlüsse auf � . (S. IX.3 aufSeite 83) 10.2.1.2 Zuerst betrachten wir noch einmal den zu einem komplexen Vektorraum

gehörigen reellen Vektorraum�� , den wir schon in Abschnitt XI.3.1.1 kennengelernt hatten. Er

entsteht aus�

einfach durch Einschränkung der Skalarenmultiplikation auf reelle Skalare.

3.1 Satz über Basis und Dimension von��

Ist� ��� '�������' � � � eine Basis des komplexen Vektorraumes

�und � die imaginäre Einheit,

dann ist� � � '�������' � � ' � ��� '������ ' � � � � eine Basis des reellen Vektorraumes

�� , insbesondere gilt:

Dim(�� )=2 Dim(

�)

3.2 Definition und Satz über die komplexe Erweiterung

Sei�

ein reeller � -dimensionaler Vektorraum. Dann wird die komplexe Erweiterung oder Kom-plexifizierung

�� von

�definiert durch:

1.�� 1 � � �

als Mengen. Die Vektoren von�� sind also die geordneten Paare

� �('�� � vonVektoren �('�� von

�.

2. Die Summe von� �('�� � � �

� und� � � '�� � � �

�� wird mit � bezeichnet und definiert durch:

� �+'�� � � � ��� '�� � � 1 � � � ��� '�� � � � � , wobei auf der rechten Seite beide Male die Additionin

�gemeint ist.

3. Die Skalarenmultiplikation in�� des Skalars � ����� � � � mit

� �('�� � � �� wird mit

bezeichnet und definiert durch:

� � � �('�� � 1 � �"�&�"� � � � ' �"� ��� � �&� � . Dabei bezeichnen die Punkte rechts jeweils dieSkalarenmultiplikation in

�.

Hierdurch ist ein komplexer Vektorraum�� erklärt. Er heißt die komplexe Erweiterung von

�.

Der Nullvektor ist natürlich� ��� � � � ' � � � . Wir beweisen exemplarisch das Assoziative Ge-

setz der Skalarenmultiplikation:

Page 151: Lineare Algebra

146 XII Vektorräume mit Skalarprodukt 2

� � � � � � � �+'�� � � � � � � � � � �('�� � , wobei � � ��� � und � � ��� ��� � �������Linke Seite: � � � � � � � �('�� � � � � � � � �"� � � � ' � � ��� � � � � � � � � � � � � � � � � � � � � ��� � � � � ' � � � � �$� � � � � � � � ��� � � � � � � � � � ��� � � � � � � � � � � � � � � � � � � ' � � � � � � � � � � � � ��� � � � � � � � �Rechte Seite ergibt das Gleiche:

� � � � � � � �('�� � � ��� � � � � � ��� � � � � � � � � � � � � �+'�� � � � ��� �9� � � � � � � � � � � � � � � � � ' � ��� � � � � � � ��� � � � � � � � � � � �

3.3 Weitere Feststellungen über die komplexe Erweiterung

1. Sei�

der Nullvektor von�

. Wir identifizieren � mit� �(' � � , so wie auch in der Anschau-

ungsebene ein Punkt � der � -Achse mit dem Punkt� � ' � � der

� �.' � � -Ebene identifiziertwird. Dann ist

� � �� und es gilt:

a) � � � gilt: � �&� � � � ; denn:

� � � � ��� �9� � � � �(' � � � � �&�"�$� � � ' �"� � � � �&� � � � �&�+' � � � �&�D. h.: Die Skalarenmultiplikation

�von

�� einer reellen Zahl � mit einem Vektor �

von�

stimmt mit der Skalarenmultiplikation in�

überein.

b) �+'�� � �gilt: � �$��� � ����� ; denn:

������� � ������� ' � � � �(' � � � � ��� ' � � � �����Wegen dieser zwei Punkte bezeichnen wir

�auch mit dem gewöhnlichen Punkt, den

wir wie üblich je nach Zweckmäßigkeit auch weglassen und � mit dem gewöhnlichenPlus-Zeichen. Diese beiden vorstehenden Punkte bedeuten, daß

�reeller Untervek-

torraum von���

� � � ist.

2. � � � � � ' � � , denn:

� � � � � ���-� � � � � �(' � � � � �&�"� � � � ' � ����� � � � � � � ' � �

3. � � �('�� � � �

� gilt: � � ��� � ; denn:

� � �('�� � � �(' � � � � � '�� � � ��� �

Deshalb heißt � der Realteil von � , � Re�� � , und � der Imaginärteil von � , �

Im�� � .

4. � 1 � � � � heißt der zu � konjugiert komplexe Vektor.�� ' � � linear unabhängig ! �

Re�� � ' Im

�� � � linear unabhängig; denn sie gehen

durch Multiplikation mit einer regulären Matrix auseinander hervor:��

� � � � ��� �� � � � � � � �� � � �

� �� � � � �� � � �

�Re�� �

Im�� � �

Page 152: Lineare Algebra

XII.3 Beziehungen zwischen Vektorräumen über � und � 147

5.� ��� '������ ' � � � Basis von

�über � � � � � '������ ' � � � Basis von

�� über � . Insbesondere

gilt Dim���

� � Dim��� � .

Beweis:

a)� ��� '�������' � � � Erzeugendensystem von

�� :

Sei � � �('�� � � �

� beliebig.

� �('�� � ��� � � � � '

�� � � � � � für gewisse � � � und

� � � '

da� � � Erzeugendensystem von

�� � � � � � � ' � � � � � ' � � � �

���� � � � ��� � �

���� � � � ��� � �� ��� ���� � �

� ��

� � � � b) Lineare Unabhängigkeit über � von

� � � '�������' � � � :Sei

�� � � � � � , � � ��� � � � .

�� � � � �

���� � � � ��� � � �

�� � � � � ��� � �

�� � � � � � � ' � � � � � ' � � � �

���� � � � � ' � � � �! ��

� � � � � und�� � � � � � �

� � und� � für alle � � '������ ' � , da

� � � '�������' � � � über � linear unabhängig.

3.4 Die komplexe Erweiterung einer linearen Abbildung

Sei � � End��� � und

� � � '�������' � � � eine Basis von�

. Dann ist die komplexe Erweiterung � � �End

� �� � von � definiert durch:

��� � ����� � � 1 � � � � ��� � � � � � ��� � ���

Es gilt:

Page 153: Lineare Algebra

148 XII Vektorräume mit Skalarprodukt 2

1. � � � � ��� � � � für alle reellen Vektoren � .

2. � � � � � bezüglich

� ��� '������ ' � � � �3. Insbesondere ist � � � bezüglich

� � � '�������' � � � reell und für die charakteristischen Polynomegilt � �

� � � .

4. Jeder Eigenwert von ��� ist entweder reell oder mit�

ist auch�

ein Eigenwert. Ist � Eigen-vektor von ��� zum nicht reellen Eigenwert

�dann ist � Eigenvektor von � � zum Eigenwert

�.

Beweis zu 4.:

Sei � � � � � � � ���� � � �

und�

ein nicht reeller Eigenwert von � � , dann gilt

�� � � � �

� . Bilden wir auf beiden Seiten das konjugiert Komplexe dann erhalten wir, da die

� reell sind,�� � � � �

� . Also ist auch�

ein Eigenwert.

Ist � � ��� � ein Eigenvektor zu dem nicht reellen Eigenwert�, dann gilt

��� � � � � � � � ��� � � � � � � . Bildung des konjugiert Komplexen liefert:�� � � � � � � � � � � � � �

��� � � � ��� � � � � � � nach Definition von � ��� � ����� � � � � � � � � � ��� � � � � � nach Definition von ��� � � � � � � � � � � � � nach�� �

3.5 Die komplexe Erweiterung eines Skalarproduktes

Sei � '� ein Skalarprodukt auf�

, dann ist die komplexe Erweiterung � '� � so definiert, daß füralle ����� � '*��� ��� � ���

�� gilt:

������� � ' � � ��� � � �#1 ���(' � � �� � � '�� � � �����('�� � �� � � � ' � �

� '� � 1 � � � ���� � ist das komplexes Skalarprodukt auf

�� , dessen Einschränkung auf

� � �

das ursprüngliche Skalarprodukt auf�

wieder ergibt.

Page 154: Lineare Algebra

XII.4 Normalform unitärer und orthogonaler Abbildungen 149

3.6 Bemerkung

Wir hätten in Abschnitt IX.3 auf Seite 83 über die Hauptachsentransformation selbstadjungierterAbbildungen auch diese Komplexifizierung

�� ' ��� und � '� � verwenden können. Einen Vorteil

hätte es uns nicht gebracht. Wenn jedoch nur im Komplexen eine Diagonalform existiert undim Reellen nicht, dann werden wir im folgenden aus dieser Komplexifizierung Nutzen ziehenkönnen. Der Unterschied zur früheren Betrachtung ist, daß

� � �� und

�� � � � � (als

Mengen).

XII.4 Normalform unitärer und orthogonaler Abbildungen

4.1 Diagonalisierbarkeit unitärer Abbildungen

Jeder unitäre Endomorphismus � eines unitären Vektorraumes�

ist bezüglich einer orthonor-mierten Basis diagonalisierbar.

Beweis:

Im Komplexen gibt es stets einen Eigenwert�

und zu ihm einen normierten Eigenvektor � .Wir setzen ����1 � und ergänzen � � zu einer orthonormierten Basis

� � � '������ ' � � � von�

.� 1 � � � 8 '������ ' � � � ist dann ein algebraisches Komplement von � � � � � . � ist invariant bei� , d. h.�� � � � � � � � ; denn:

� � � � � � ' ���� � � � � � � � ' � � ��� � � � � � � � � ' � ���/ � �� ��� � � � ' ���" � � � � � � � ' ���" � , da ein Eigenwert einer unitären Abbildung � � istund dann auch

� � � ist. � � � � � � � � � � � � � � � 8 '������ ' � � �Wegen

�� � hat die Matrix von � bezüglich

� � � '�������' � � � die Gestalt:

������ � ����� �� � 8 8 ����� � 8 �...

......

� � � 8 ����� � � �

�����

� � � 1 � � � ist wieder eine unitäre Abbildung und wir können (wie in IX.3 auf Seite 83)induktiv schließen, daß sich aus der Diagonalisierbarkeit von � � � die Diagonalisierbarkeit von� ergibt, und zwar jeweils bezüglich orthonormierter Basen.

Page 155: Lineare Algebra

150 XII Vektorräume mit Skalarprodukt 2

4.2 Normalform orthogonaler Abbildungen

Es gibt eine orthonormierte Basis, bezüglich der die Matrix einer orthogonalen Abbildung �<1� � �die folgende Normalform hat mit � � � � � '�� � � und � � � �,' � '������ ' .

� �

�����������������������������

��� � � � � � ���� � � � �

���� � � � � ��� � � � �. . .

. . .���� � � � � � ���� � � � �

��� � � � � ��� � � � �

� �

. . .� � �

. . . �

�����������������������������

Die geometrische Interpretation dieser Normalform ist folgende:�

zerfällt in die direkte Summevon zweidimensionalen Untervektorräumen � � '������ ' � � , den Eigenvektorraum

�� zum Eigen-

wert 1, falls 1 als Eigenwert auftritt, und den Eigenvektorraum�

� � zum Eigenwert -1, falls -1als Eigenwert auftritt. Diese Untervektorräume stehen alle paarweise aufeinander senkrecht. Bei� wird jeder � � um einen Winkel � � � � � '�� � � und � � � � gedreht,

� � wird am Nullpunktgespiegelt und

�� identisch abgebildet.

In anderen Worten: Die allgemeinste orthogonale Abbildung besteht aus Drehungen von zuein-ander paarweise orthogonalen Ebenen. Das orthogonale Komplement der direkten Summe dieserEbenen wird orthogonal an einem Unterraum gespiegelt.

Beweis:

Wir gehen über zur Komplexifizierung ����1 � � � �� . ��� ist unitär und hat daher Eigenwerte

vom Betrag 1 und nach 4.1 auf der vorherigen Seite und 3.4 auf Seite 147 eine Diagonalgestaltbezüglich einer komplexen orthonormierten Basis aus Eigenvektoren:� ��� ' ��� '������ ' � � ' � � ' � � � � '������ ' � � � � ' � � � � � � ������' � � �zu den Eigenwerten�� ' � � '������ ' � � ' � � '�� � '�������'�� � ' � '������ ' � mit

�� nicht reell für � �� '�������' .

Für die letzten � � Eigenvektoren zu den reellen Eigenwerten wählen wir reelle orthonormierteVektoren.

Page 156: Lineare Algebra

XII.5 Hauptachsen semi-symmetrischer Sesquilinearformen 151

Für � '������ ' transformieren wir folgendermaßen auf reelle orthonormierte Vektoren:

� � 1 ���9� � ���' �� � 1 � � ��� � ����

�Die umgekehrte Transformation lautet:

��� � � ��� �� ���

, ��� � � � � �� ���

Da�� den Betrag 1 hat, können wir

�� schreiben in der Form:

�" ��� � � � � ��� ��� � � � � für � � � � � '�� � � und � � � � . Daraus ergibt sich:

� � � � � �� ��� � � ��

� � � � � ��� � ����� � ��� ���

� ��� � � � � ��� ���� � � � � � ��� � � ��� � � � � � � ��� � � � � � �����

� ��� � � � � ��� ���� � � � � � � � � ��� �� � � � � ��� � � � � � � ��� � � � � � � � � � � �� � �� ��� � � � � � � � ��� � � � � �� � und analog: � � �� � � � ���� � � � � � �9� ��� � � � � �� �

Daraus sehen wir, daß die Matrix von � bezüglich� � � ' ���� '�������' � � ' �� � ' � � � � '�������' � � � eine Form

wie behauptet hat.

4.2.1 Normalformen in Dimension 3Für einen dreidimensionalen euklidischen Vektorraum gibt es sechs Normalformen orthogonalerAbbildungen, die folgende Bezeichnungen tragen, wobei � � � � '�� � � ' � � � ist.�� ��� � � ���� � �

��� � ��� � �� � �

� �� ��� � � ���� � � ��� � ��� � �� � � �

� �� � � �� � �� � �

� Drehung um eine Achse Drehspiegelung Identität�� � � � �

� � �� � �

� �� � � � �� � � �� � �

� �� � � � �� � � �� � � �

� Orthogonale Spiegelung Orthogonale Spiegelung Orthogonale Spiegelungan einer Ebene durch

�an einer Geraden durch

�am Nullpunkt

XII.5 Hauptachsen semi-symmetrischer Sesquilinearformen

Aus der Diagonalisierung selbstadjungierter Abbildungen wird sich die Diagonalisierung semi-symmetrischer Sesquilinearformen ergeben.

Page 157: Lineare Algebra

152 XII Vektorräume mit Skalarprodukt 2

5.1 Satz

Für einen Endomorphismus � von�

wird die Sesquilinearform � definiert durch:

�� �('�� � 1 � � � � � '��

Wir erhalten eine Abbildung

� ��� ' � � �� � ��� � � �

� �� �

Bezüglich einer orthonormierten Basis� � � '������ ' � � � bezeichne ��� � � � � die Matrix von � und

� � � � � � die Matrix von � . Dann gilt:

1. � � � ��� � �

2. � ist ein Isomorphismus.

3. � ist selbstadjungiert. ! � ist semi-symmetrisch.

Beweis:� � � � � -te Koordinate von � � � � � � � � � � � ' � �

� � � ' � � ��

2. Wir übergehen den (einfachen) Beweis, daß � linear ist und zeigen nur die Bijektivität von� . Sehen wir das Transponieren als eine Abbildung � 1 � � � � � � � � � , die Matrizenzuordnungenebenfalls als Abbildungen an, so bedeutet � �

� ��� � � � � � � �� � � � � � �

� � � � � � � ,oder �

� � � � � � � , wobei noch � � �

� gilt. � als Zusammensetzung von Bijektionenist eine Bijektion.

3. � ist selbstadjungiert ! � � � � � '�� ���+' � � � � ! � � � � � '�� � � � � � ' � ! �

� �+'�� � ��� ' � �

! � ist semi-symmetrisch.

5.2 Satz und Definition

Jede semi-symmetrische Sesquilinearform�

auf�

hat bezüglich einer geeigneten orthonormier-ten Basis eine Diagonalmatrix mit reellen Koeffizienten in der Hauptdiagonalen. Die von die-sen orthonormierten Basisvektoren aufgespannten eindimensionalen Unterräume von

�heißen

die Hauptachsen der semi-symmetrischen Sesquilinearform. Die Transformation auf eine solcheBasis heißt Hauptachsentransformation. Die Eigenwerte und Eigenvektoren der zu � gehörigensymmetrischen Abildung � , nennen wir auch die Eigenwerte und Eigenvektoren von � .

Page 158: Lineare Algebra

XII.6 Ausblick auf physikalische Anwendungen 153

Beweis: Da eine selbstadjungierte Abbildung bezüglich einer orthonormierten Basis mit reellenZahlen in der Hauptdiagonalen diagonalisiert werden kann, geht dies nach 5.1.1 auch für einesemi-symmetrische Sesquilinearform.

5.3 Bemerkung

Wir betrachten den Fall � � . Die zur symmetrischen Bilinearform � gehörige quadratischeForm �;1 � � � ist �

� � � 1 �� �(' � � für alle � � �

.

Die Figur� 1 � � � � � � � � � �� � heißt eine Hyperfläche zweiter Ordnung oder eine Quadrik,

für �

� eine Kurve bzw. � �

eine Fläche zweiter Ordnung. (Vgl. Kap. XIV auf Seite 166 .)

Bezeichnen� ��� '�������' � � � die Koordinaten bezüglich einer orthonormierten Basis, bei der � Dia-

gonalgestalt hat und sind� � die Eigenwerte, so hat

�die Gleichung

��� � � � � � 8� ��

Sind alle Eigenwerte� � positiv, dann ist

�ist für �

� eine Ellipse, für �

�ein Ellipso-

id, deren Achsen Eigenvektoren darstellen. Die Längen der Hauptachsen der Ellipse bzw. desEllipsoids sind � � ��� � � � . Dieser Zusammenhang mit den Achsen einer Ellipse bzw. einesEllipsoids erläutert die Bezeichnung „Hauptachsentransformation“.

XII.6 Ausblick auf physikalische Anwendungen

6.1 Trägheitstensor

In der Mechanik des starren Körpers führt die Betrachtung von Trägheitsmomenten bezüglich ei-ner Drehachse auf den sogenannten Trägheitstensor. Er kann einerseits als eine selbstadjungiertelineare Abbildung � 1 � � � � � , andererseits als die zugehörige symmetrische Bilinearform

� 1 � � � � � � � aufgefaßt werden mit zugehöriger quadratischer Form ��1� � � � . DieEigenwerte des Trägheitstensors heißen Hauptträgheitsmomente und die Fläche �

� � � �das

Trägheitsellipsoid. Mit diesen Bezeichnungen �(' �5' � gilt:

1. Die Abhängigkeit des Trägheitsmomentes � von der Drehachse wird beschrieben durch:�� � � �

� � � ' wobei � ein Einheitsvektor sei, der die Drehachse aufspannt.

2. Die kinetische Energie � ist (bei festem Schwerpunkt) eine Funktion des Vektors � derWinkelgeschwindigkeit, und zwar : �

�8 �� � �

3. Der Drehimpulsvektor � ist ebenfalls eine Funktion von � , und zwar: � � � � �

Page 159: Lineare Algebra

154 XII Vektorräume mit Skalarprodukt 2

6.2 Historische Anmerkung zum Spektralsatz

David Hilbert (1862-1943) schuf Anfangs dieses Jahrhunderts eine Theorie von symmetrischenunendlichen Matrizen und führte dabei den Begriff eines Spektrums als rein mathematischenBegriff ein:

Spektrum einer Matrix := Menge der Eigenwerte der Matrix

Erst ca. zwanzig Jahre später wurde erkannt, daß dieser mathematische Begriff Atom- und Mo-lekülspektren beschreibt.

Unser Satz von der Diagonalisierbarkeit ist die endlich dimensionale Version des sogenanntenSpektralsatzes für selbstadjungierte lineare Selbstabbildungen gewisser unendlich dimensionalerVektorräume mit Skalarprodukt –der Hilberträume.

Page 160: Lineare Algebra

XIII.2 Affiner Raum 155

mm14

XIII Grundbegriffe der affinen Geometrie

XIII.1 Analytische versus Synthetische Geometrie

Der Anschauungsraum wurde bisher benutzt, um ein geometrisch anschauliches Beispiel einesVektors und eines Vektorraumes zu beschreiben. Für den Anschauungsraum selbst wurde da-bei keine strenge Begründung gegeben. Den Begriff eines Vektorraumes über einem Körper �begründeten wir folgerichtig, ohne den Anschauungsraum zu verwenden. Wir werden im folgen-den aus dem streng begründeten Vektorraumbegriff einen präzisen Begriff eines geometrischenRaumes ableiten, den wir für � � und im dreidimensionalen Falle auch als ein mathematischesModell für den Anschauungsraum ansehen.

Von einem Vektorraum über einem Körper � gelangen wir dabei zum Begriff eines affinen Raum-es über � und von einem reellen Vektorraum mit Skalarprodukt, also einem euklidischen Vek-torraum, zum euklidischen Raum. Ab jetzt müssen wir, insbesondere bei Unterräumen, strengzwischen Vektorraum und Raum unterscheiden. Die projektiven Räume sind eine weitere Art vongeometrischen Räumen, die auf dem Vektorraumbegriff aufgebaut werden können. Die Unter-suchung von geometrischen Räumen, die auf dem Vektorraumbegriff aufbaut, heißt AnalytischeGeometrie, weil über Vektorraum-Koordinaten schnell eine zahlenmäßige, quantitative Analysemöglich ist.

Das Gegenstück wird Synthetische Geometrie genannt. Ihre größtenteils auf Euklid zurückge-henden Axiome sind direkt auf die zu untersuchenden geometrischen Figuren wie Geraden,Strecken, Winkel, Dreiecke und die geometrischen Begriffe wie gleich lange Strecken, gleichgroße Winkel, kongruente Dreiecke usw. bezogen. Vielleicht können wir die Namensgebung„Synthetische Geometrie“ in etwa so nachempfinden, daß aus diesen unmittelbar interessieren-den geometrischen Gebilden und Begriffen eine geometrische Lehre durch „Synthese“ aufgebautwird. In dem durch den Vektorraumbegriff definierten Raum liegt hingegen das fertige Produktbereits vor, das wir „analysieren“, um die einzelnen Begriffe und Sätze herzuleiten. Diese In-terpretationen –ob historisch belegbar oder nicht– verbinden jedenfalls die Namen der beidengeometrischen Lehren mit ihrer Vorgehensweise.

XIII.2 Affiner Raum

2.1 Desargues-Ebenen

Wir nennen im folgenden die in III. 6.1 auf Seite 22 synthetisch definierten affinen EbenenDesargues-Ebenen, um sie zunächst von den analytisch definierten affinen Räumen zu unter-

14A. Riede: Lineare Algebra 2, SS 00

Page 161: Lineare Algebra

156 XIII Grundbegriffe der affinen Geometrie

scheiden, die wir jetzt definieren wollen. (In der Literatur werden unter Desargues-Ebenen auchdiejenigen verstanden, bei denen die Pappos-Eigenschaft nicht gilt, d. h. zu denen ein nicht kom-mutativer geometrischer Körper gehört. Der eigentliche Satz von Desargues ist noch allgemeiner;er folgt aber leicht aus der hier behandelten Parallelitätseigenschaft von Desargues (sogar in derprojektiven Geometrie). Analog verhält es sich mit der Parallelitäts-Eigenschaft von Pappos unddem allgemeinen Satz von Pappos.)

2.2 Beziehung zu geometrischen Vektorräumen

Sei � sei die Menge der Punkte einer Desargues-Ebene.�

der Vektorraum der geometrischen

Vektoren der Desargues-Ebene, wobei Vektoren Äquivalenzklassen von Pfeilen sind;�� be-

zeichne die Äquivalenzklasse des Pfeiles vom Punkt � nach dem Punkt . Dies definiert eineAbbildung

� 1 � � ��� � ' � � �:'� � 1 ��� 'die eine Beziehung zwischen � und

�herstellt mit folgenden Eigenschaften:

(A1) � � � ist die Abbildung � � 1 ��� �, � �

� � 1 ��� bijektiv.

(A2) �5' ' � ��� gilt:��� � � � �� �

Damit können wir eine analytische Definition eines affinen Raumes geben.

2.3 Definition

Ein affiner Raum � über dem Körper � besteht aus einem Tripel � � ��' � ' � � , wobei

1. � eine nicht leere (vgl. jedoch 3.4 auf Seite 160) Menge ist, deren Elemente Punkte ge-nannt werden,

2.�

ein Vektorraum über dem Körper � und

3. � 1 � � �#� �eine Abbildung ist.

Die Dimension eines affinen Raumes wird definiert durch: Dim� � � 1 Dim

� ��� �

Um an das anschauliche Beispiel 2.2 zu erinnern, wird allgemein � � �:'� � mit��� bezeichnet

für� �:'� � � � � � . Das Tripel heißt ein affiner Raum über � , wenn die Axiome (A1) und (A2)

erfüllt sind. In abstrakter Bezeichnung schreibt sich (A2) wie folgt:

(A2*) � � �5' � � � � ' � � � � �5' � �

Page 162: Lineare Algebra

XIII.2 Affiner Raum 157

2.4 Folgerungen

�� � � ' � � � �� 2.5 Definition und Eigenschaften von Translationen

Wir betrachten die Abbildung:

0%1 � � ��� �#' 0 � �('�� � 1 � � ��� � �

Wir definieren 0 1 � � � durch 0 � � � 1 0 � �('�� � . 0 heißt die Translation oder Parallelver-schiebung von � mit Translationsvektor � .Translationen haben folgende Eigenschaften:�A � � � 1 Für alle

� �:'� � ��� � � gibt es genau einen Vektor � mit 0 � � � .�A � 8� 1 0 � � � � � 0 � � 0 � � � � für alle �+'�� � �

und alle � ���Alle Translationen bilden eine Gruppe, die zur additiven Gruppe von

�isomorph ist. Insbeson-

dere ist 0 � Id.

Beweis:

Zu�A � � � 1 0 � � �

! � � ��� � � nach Definition von 0

! � � �� �

D. h.: Haben wir ein � mit 0 � � � , so ergeben diese Äquivalenzen von oben nach untengelesen, die Eindeutigkeit von � . Lesen wir die Äquivalenzen von unten nach oben, so sehen wir,daß �#1 � �

� � die geforderte Eigenschaft hat.

Zu�A � 8� 1 Wir formen die rechte Seite von

�A � 8� um:

0 � � 0 � � � 0 � � � für 1 0 � � � d. h. � � �� � � � �5' � � für � 1 0 � � � d. h. �

��� � � � � � ' � �Die linke Seite von

�A � 8� ergibt:

0 � � � � � � � ��� � � � � � � ��� � � �:'� � � � � ' � � � nach den Definitionen von und � � � ��� � � �:' � � nach

�A�8�

�A � � � ergibt sich

aus�� � � .

Daß alle Translationen eine Gruppe bilden, ergibt sich aus�A � � � ,

�A � 8� und sei als Übungsaufgabe

dem Leser überlassen. Mit Hilfe des Translationsbegriffes erhalten wir:

Page 163: Lineare Algebra

158 XIII Grundbegriffe der affinen Geometrie

2.6 Äquivalente Definition eines affinen Raumes

Ein affiner Raum über dem Körper � ist ein Tripel � � �#' � ' 0 � , das aus einer Menge � , derenElemente Punkte genannt werden, einem � -Vektorraum

�und einer Abbildung 0�1 � � ��� �

besteht mit den Eigenschaften�A�� � ,�A � � � .

Die Abbildung 0 wird in Erinnerung an das anschauliche Beispiel „Abtragen eines Vektors � voneinem Punkt � aus“ genannt.

Ausblick: Eine Abbildung 0 1 � � � � � mit den Eigenschaften�A � 8� und 0 � Id heißt eine

Operation der additiven Gruppe von�

auf der Menge � . Eine solche Operation heißt transitiv,wenn es für alle

� �5' � � � ein � � �gibt mit 0 � � � und einfach transitiv, wenn es

genau ein solches � gibt.�A � � � bedeutet also die einfache Transitivität der Operation 0 . Mit dem

Abtragen von Vektoren haben wir also ein Beispiel einer einfachen transitiven Operation einerGruppe auf einer Punktmenge kennengelernt. Gruppenoperationen spielen eine bedeutende Rollesowohl in der klassischen Geometrie wie in der aktuellen Mathematik.

(Stichwort (klassisch): Felix Kleins Erlanger Programm (1872): Eine Geometrie besteht nachKlein aus der Untersuchung aller Eigenschaften von geometrischen Figuren, die bei der Operati-on der Gruppe, die zu jeder Geometrie gehört, erhalten bleiben. Beispiel: � � � � ist die Gruppe derGeometrie eines euklidischen Vektorraumes, � � � ist eine Eigenschaft, die bei allen orthogo-nalen Abbildungen erhalten bleibt. Siehe G. Fischer: Analytische Geometrie, S. 208, 6. Auflage,vieweg, Wiesbaden 1992)

(Stichwort (aktuell): � -Räume, � eine Symmetrie-Gruppe des Raumes).

Wenn wir mehrere affine Räume betrachten, so verwenden wir für den affinen Raum � dieSchreibweise:

� � � � ' � � ' � � �Wenn aus dem Zusammenhang keine Verwechslungen möglich sind, wird für den affinen Raumund die ihm zugehörige Punktmenge das gleiche Zeichen verwendet!� � �#' � ' � � wird auch mit � bezeichnet und � mit � !

Beweis der Äquivalenz der beiden Definitionen affiner Räume:

Es ist noch zu zeigen, wie wir von der zweiten Definition zur ersten zurückkommen. Dazu sei� � �:'� � per Definition das nach

�A � � � eindeutig bestimmte � � �

mit 0 � � � .� � � Es gilt

dann: 0 � � � �� � � � � � � � �

Zu�A � � 1 Injektivität von � � :� �� � � �

� � �� � �5' � � � �5' � � 1 �

0 � � � und 0 � � � � � ' da 0 eine eindeutige Zuordnung.

Surjektivität von � � :

Sei � � �, setze 1 0 � � �

Page 164: Lineare Algebra

XIII.3 Affine Unterräume 159

� � �:'� � � nach Definition� � � von �

� �� � �

Zu�A 8� 1

0 � � � �� � � � � � � � �

� � � 0 � � � � � �� 0 � � � �

� � � � � � nach�A � 8�

0 � � � � � �� � wegen

� � � ���� � 0 � � � �� � � � � � � � �

� � � � wegen� � � �

Außerdem gilt:����� � 0 � � � � � �� � � � wegen

� � � �Da es genau ein � �

�gibt mit 0 � � � � � , folgt aus

��� � und����� � :

� � �5' � � � � �5' � � � � ' � �

2.7 Beispiele

1. Die Auffassung eines Vektorraumes�

als affiner Raum � :

� � 1 � ' � � 1 � ' � � � �+'�� � 1 ��� � �('�� � �

2. Die sogenannte Nebenklasse � � � 1 � � � � � � � � eines Vektors � � �nach einem

Untervektorraum � von�

bildet eine affinen Raum�

:

��� 1 � � �/' ��� �fest,

�� 1 �/' � � 1 � � � ��� � ��� ( �

�wie im 1. Beispiel)

3. Wegen Łinhom � � � Łhom bilden sowohl die Lösungen eines inhomogenen linearen

Gleichungssystems wie auch eines inhomogenen linearen Differentialgleichungssystemsmit konstanten Koeffizienten einen affinen Raum. (Vgl. V. 8.2 auf Seite 55 bzw. IX. 6.2auf Seite 97)

XIII.3 Affine Unterräume

3.1 Definition

Ein affiner Raum� � ��� ' � � ' � � � heißt ein affiner Unterraum des affinen Raumes �

� � � ' � � ' � � � 1 !

1. ��� � � � (als Mengen),

2.�� ist Untervektorraum von

� �und

3. � � � � � ��� � ��� ' � �

Page 165: Lineare Algebra

160 XIII Grundbegriffe der affinen Geometrie

3.2 Beispiele

1. �#� � aus dem 2. Beispiel von 2.7 auf der vorherigen Seite ist ein affiner Unterraum desaffinen Raumes � �

des 1. Beispiels. Die affinen Unterräume von�

durch Null sindnichts anderes als die Untervektorräume von

�, aufgefaßt als affine Räume im Sinne des

2. Beispiels von 2.7 auf der vorherigen Seite.

2. Ist � � ��' � ' � � ein affiner Raum, � � ��' � ein Untervektorraum von�

, dann bildet

die Teilmenge� 1 ��� � �� � ��� � � ��

�� � einen affinen Unterraum mit

�� � .

Der Unterraum heißt (in beiden Beispielen) der zu � parallele Unterraum von � durch � bzw.durch � .

3.3 Kriterium

Sei � ein affiner Raum und � eine Teilmenge von � . Dann ist � die Punktmenge einesaffinen Unterraumes von � genau dann, wenn � � 1�� � � eine bijektive Abbildung auf einenUntervektorraum � von

�ist für ein � ��� ��� .

3.4 Satz über den Durchschnitt affiner Unterräume

Der Durchschnitt ������

� � affiner Unterräume � � , � � � ( � eine Indexmenge) eines affinen Raumes

� ist ein affiner Unterraum von � . Hierbei ist es zweckmäßig zu definieren, daß die leere Mengeein affiner Unterraum der Dimension � � ist. Weiter gilt

��� � � � � � � für � � � � � .

3.5 Affine Hülle und Verbindungsraumes

Ist � eine Menge von Punkten des affinen Raumes � , so gibt es nach 3.4 den kleinsten affinenUnterraum von � , der � umfaßt. Dieser heißt die affine Hülle von � in � oder der von �aufgespannte (oder erzeugte) affine Unterraum von � . Wir bezeichnen ihn mit

� ��� oder � � � � .Sind � � '�������' � � affine Unterräume von � , so heißt

� � � � �&�&� � � � � der (affine) Verbindungsraumvon � � '������ ' � � . Wir bezeichnen ihn auch mit � ��� �&�&�� � � .

Spezialfall: � � � � , � 8 � , �:'� � � , � � . Dann ist � �� � 8

1�� dieVerbindungsgerade von � und .

3.6 Dimensionsformel

Für affine Unterräume� ' �

des affinen Raumes � gilt, falls � � oder� �

oder� � � � �� :

Dim� � � � � Dim

� � � � Dim� � � � Dim

� � � � �

Page 166: Lineare Algebra

XIII.5 Affine Ebenen 161

Falls � � � und� � � und

� � � ��gilt:

Dim� � � � � Dim

� � � � Dim� � � � Dim

������ ��� � � �

XIII.4 Parallelität

4.1 Definition

Unter einer Figur verstehen wir einfach eine Teilmenge des affinen Raumes � . Eine Figur � �heißt parallel zu einer Figur � 8 , falls eine Parallelverschiebung 0 0 existiert, mit 0 � � � � � � 8oder 0 � � 8

� � � � . Die Bezeichnung für Parallelität ist: � �� � � 8

Sind � � ' � 8 affine Unterräume, dann bedeutet parallel dasselbe wie�� � � �

� � oder�� � ��

� � . Gleichdimensionale afine Unterräume sind also genau dann parallel, wenn ihre zugehörigenVektorräume gleich sind. Daraus folgt:

4.2 Feststellung

Auf der Menge aller -dimensionalen affinen Unterräume ( � � � fest) ist die Parallelität eineÄquivalenzrelation.

XIII.5 Affine Ebenen

� sei eine affine Ebene, d. h. ein zweidimensionaler affiner Raum.

5.1 Feststellung

Auf der Menge der Geraden ist Parallelität eine Äquivalenzrelation. Siehe 4.2!

5.2 Feststellung

Zwei Geraden � ' sind parallel 1 ! ��� � oder � . D. h. der analytische Parallelitäts-begriff stimmt mit dem synthetischen aus III.6.1.2 überein.

Beweis: Wir zeigen, daß die Verneinungen äquivalent sind.

� � � � und � � � �! � � 0-dimensional ! �� � �

� ! � nicht parallel 1) wegen der Dimensionsformel: Dim

� � � � Dim� � � � Dim

� � � Dim� ��� �

Page 167: Lineare Algebra

162 XIII Grundbegriffe der affinen Geometrie

5.3 Feststellung

Es gilt das Parallelenaxiom; d. h. zu jeder Geraden � und jedem Punkt � gibt es genau eineGerade mit �%� und � � .

Beweis:

Eindeutigkeit:

��%� � �� �

�� � � � � �����

� � � � � � �����

� �

Existenz: 1 � � ��� �

� �

5.4 Strahlensatz

� und seien zwei verschiedene Geraden, die sich in dem Punkt � schneiden. � und�

seien zweizueinander parallele Geraden, deren Durchschnitt mit bzw. � jeweils aus genau einem von �verschiedenen Punkt besteht; wir bezeichnen die Schnittpunkte wie folgt: � � 1 � , � � � 1 � ,

�� �5 1 � , � � �: 1 � . Weiter sei 4 1 �� � , ��1 �

� � , � 1 �� � , � 1 �

��� , ��1 �� � , � 1 �

�"� .Dann ist �

� � , weil � � � , � � 4 ' � � � für geeignete Skalare �.'�� ' � .

Behauptung: � � � .

Beweis:

Sei � 1 �� � � . Es ist � � �

� � � und � � �

� � � �

�,� �

�� � � � 4 � � � � �4 ���

��� � � 4 � � � � �� � � � � � � � �#� � � 4 � � � � � � � ��

� � � �#� � � 4 � �"� � � � � �� � � � � 4 � � �"� � � � � wegen�

� � � � �� � � � wegen 4 � � und � � �

5.5 Satz von Desargues

� � � ' � 8 ' � �� und

� � � '�� 8 '�� �� seien Dreiecke in perspektiver Lage mit dem Zentrum � oder in

paralleler Lage (vgl. III.6.1.4). Dann gilt:

� � � 8 � � � � 8 und � � � ��� � � � � � � 8 � ��� � 8 � �

Beweis:

Bei perspektiver Lage: Sei:

Page 168: Lineare Algebra

XIII.5 Affine Ebenen 163

A1

A2

A3

B1

B2

B3

g1

g2

g3

Abbildung 16: Satz von Desargues bei paralleler Lage

��1 � �� � � ' 4 1 � �

� � � ' ��1 � �� � � � ' � 1 � �

� 8 � � ' �#1 � �� � � 8 '

� 1 � �� ��� � ' �;1 � �� 8 � � , ��1 � �� � � 8

Sei � � 4 , dann gilt nach dem Strahlensatz: � �(� und

� � � . Folglich ist:� � � � � � �$� �

� � �� � � � � � � ����

��� ���

���

� 8 � � � � 8 � �Bei paralleler Lage: Es gilt (wegen

� � � s. die untenstehende Aufgabe):� � � � �

� � � 8 � �� � � 8 und

� �� � � � � �� � � � �

� �� 8 � �

� �� 8 � � �

� �� � � �

� �� 8 � � �� �� � � �

� �� 8 � �

5.6 Aufgabe

Für die Geraden �+' ' � ' � gelte: � � '/� � ' � � � ' � � �� ' � � � � . Sei � �"1 ��� -' � �"1 � � -' � 8 1 � � �+' � 8 1

� � � .Dann gilt:

� �� � � 8

� �� � � 8 und� �� � � � � �

� 8 � 8

Page 169: Lineare Algebra

164 XIII Grundbegriffe der affinen Geometrie

A1A2A3

B1

B2

B3g

hZ

Abbildung 17: Parallelitätssatz von Pappos und Kommutativität

5.7 Parallelitätsatz von Pappos

Seien � ' zwei verschiedene Geraden, die sich in einem Punkt � treffen. � � ' � 8 ' � � ��+' � � '�� 8 '�� � � seien jeweils paarweise und von � verschiedene Punkte. Dann gilt:

� � � � � � ��� � und � 8 � � � � ��� 8� � � � 8 � � 8 � �

Beweis:� � � � �

� � � � � �� � 8 ' für ein � � ��� �

� �� � 8

� � �� � � nach dem Strahlensatz� � � � �

� � � �� �

��� �5' für ein � � ��� �

� �� � � �

� �� � � nach dem Strahlensatz

� �� � � 8

� �� � � � � �

� � 8 �� �� � � � �

� �� � �5' wegen

� � � und� � �

��

� �� 8 � � �

� �� � � ' wegen

�� � und

�� �

��

� � �� 8 � � � �� � � �

� �� � � 8

��

� � �� 8 � �� �

� � � 8 � � 8 � �

Page 170: Lineare Algebra

XIII.5 Affine Ebenen 165

5.8 Abschließende Bemerkung

Damit haben wir im wesentlichen bewiesen, daß eine (analytisch definierte) affine Ebene aucheine affine Ebene im Sinne der synthetischen Geometrie, d. h. eine Desargues-Pappos-Ebene ist.

Page 171: Lineare Algebra

166 XIV Aspekte der euklidischen Geometrie

mm15

XIV Aspekte der euklidischen Geometrie

XIV.1 Grundlegendes

1.1 Definition

Ein euklidischer Raum�

ist ein reeller affiner Raum mit einem Skalarprodukt auf seinem zuge-hörigen Vektorraum

�.

1.2 Definition

Ein Punkt � , genannt Grundpunkt oder Nullpunkt und eine orthonormierte Basis� � � '������ ' � � �

von�

heißt ein kartesisches Koordinatensystem von�

.

Fü beliebiges � ��� gilt:

�� � ��� � � � � � � ' � � � �

� ��� '�������' � � � � heißt das Koordinaten- � -tupel von � bezüglich des kartesischen Koordinatensy-stems

� � ' ��� '�������' � � � .

1.3 Transformation kartesischer Koordinaten

Sei� � � ' � � � '�������' � �� � ein zweites kartesiches Koordinatensystem,

� � � '������ ' � � � � das Koordinaten-� -tupel von � bezüglich

� � � ' � � � '�������' � �� � .15A. Riede: Lineare Algebra 2, SS 00

Page 172: Lineare Algebra

XIV.2 Kurven zweiter Ordnung 167

�� � � �� � � �� � ���� � � � � � � �

��� � � � � � � ��

� � � � � � �� ��

� � � � ���� � � � � � � � � � � � � orthogonal

��� � � � � � ��� � � � � ��

� � � ���� � � � � � � � � � �

� � ��� � � � � � � � � � �

� � ��� � � � � � � � � � � �

� 1 � � � ',� � � 1 � � �

1.4 Ergebnis

Kartesische Koordinaten transformieren sich durch Multiplikation mit einer orthogonalen Matrixund Addition eines � -tupels. Das additive � -tupel beschreibt den Translationsanteil der Trans-formation. ��

� ���...� �

��� �

��� � �

...� �

��� �

�����

...��

��� � � � � � � orthogonal

XIV.2 Kurven zweiter Ordnung�

sei ein zweidimensionaler euklidischer Raum, eine euklidische Ebene.

2.1 Definition

� ��� ' � 8� � seien kartesische Koordinaten in

�. Die Lösungsmenge � einer Gleichung 2. Ordnung

� � � � 8 � � � � � 8 ��� � 8 ��� 8 8 � 88 � � � ��� ���.� � � � 8 � 8 ��� � � � ' � � � � � (1)

heißt eine Kurve 2. Ordnung oder eine Quadrik in�

. Der Ausdruck auf der linken Seite heißtein Ausdruck 2. Ordnung.

Setzen wir � � � 1 � � � für � � , � �#1 �und � 1 � � � � � � � � � � � � � 8 , und berücksichtigen wir, daß

dann gilt � � � 8 ��� � 8 � � 8 ��� � 8 � � 8 � � 8 ��� etc., dann schreibt sich (1) in der systematischeren

Form:8�

�� �� � � � � � � � � � (2)

Page 173: Lineare Algebra

168 XIV Aspekte der euklidischen Geometrie

2.2 Transformationsformeln

Eine kartesische Koordinatentransformation können wir folgendermaßen ansetzen:

� � �

��� ��� � � � � ��� � � � � ��� 8 � 8� � ��1 �

� 8 � 8 � � � � � 8 � � � � � 8 8 � 8

Wir setzen weiter:

� 1 �� � � �3� ��� � � 8��� �3��� � ��� 8� 8 �3� 8 � � 8 8

� mit � � ��1 � '*� ���%1 � ' � � 8 1 �

� � 1 � ��� � ��� 8� 8 � � 8 8

� orthogonal

Setzen wir � � � 8� � � � � � � � '*� � � 8� � � � � � � � in die Kurvengleichung ein, so erhalten wir:� 8�

� �� � � � � � � � � � 8� � �

� � 8�� �� � � � � � � � � � �

� � � �

� 8� � �

� � � � � � �

� mit

� � �

� 8�� �� � � � � � � � � � � . Die

� � � � � -Matrizen transformieren sich also nach der Formel:

��1 � � � �� � � � � (3)

Wegen � � � 1 � ' � ����1 � '*� � 8 1 � erhalten wir:

� � �

� 8�� �� � � � � � � � � � � für � '� �� '��

Wenn wir setzen

� � 1 � �

� ��� 8�

8 ��8 8� ' � � 1

�� � � � � 8� 8 � � 8 8

� ,

läßt sich dies in Matrizenform ausdrücken:

� � � �� � � � � (4)

D. h. � � transformiert sich wie bei einer symmetrischen Bilinearform. Es folgt aus diesen Trans-formationsformeln, daß ein Ausdruck zweiter Ordnung gegenüber kartesischen Koordinaten-Transformationen folgende Invarianten hat:

Rg� � � ' Rg

� � � � ' die Eigenwerte ��� ' � 8 von � �&' Det� � � ' Det

� � � �

Was die Determinanten angeht, folgt dies aus:

� � � � � � � � � � � � � � � � � , da� � �

������

� � �� ��� � ��� 8� � 8 � � 8 8

������

� � � � � �

Page 174: Lineare Algebra

XIV.2 Kurven zweiter Ordnung 169

2.3 Klassifikation

Auf Hauptachsen transformiert, erhalten wir:

� � �� � � � � ��� � � 8� � � � � �� 8 � � � 8

� Neue Koeffizienten sind hier der Einfachheit halber wieder mit den gleichen Buchstaben � � �bezeichnet! Die Kurvengleichung lautet:

� � � 8 � � � 8 � 88 � � � ��� ���.� � � � 8 � 8 ��� � � �

1. Fall: Rang� � � � ' Rang

� � � � �;1Dann sind ��� ' � 8 �

� und wir können die quadratische Ergänzung bilden:

� �����-� � ���

� � �� ��� � 1 � �

8� � 8

�� 8 �

� � 8� 8�

� ��� � 1 � 8

8� � 8������ �

� 8� 8� 8��� � �

� ��� � 1 � � �

� ' � � � � � ' da Rang� � � � �

Das transformierte � hat die Form

�� � � � � �� ��� �� � � 8

� und � die Gleichung:

� � � 8� � � 8 � 88 ��� � � � 1 � � � � � � �

� � � 8� ��� 8 � 88 � ' � �/1 � �

� � � � � � '�� 8 1 � �

� � � � � �Unterfälle:

a) � � ' � 8 �� : Ellipse

b) � ���� und � 8 ��� 1 Hyperbel

c) � � ' � 8 ��� : nullteilige Kurve, � �

2. Fall: Rang� � � � ' Rang

� � � � ��

Durch quadratische Ergänzung können wir erreichen:�� � � � � ��� � � 8� � � ��� �� 8 � � �

� ��� � � � � � � 8� ��� �� 8 � � �

� � � 8 � � wegen Rang

� � � �

Page 175: Lineare Algebra

170 XIV Aspekte der euklidischen Geometrie

� � � 8 � � � � � 8 � 8 ��� � � �

� � � 8 � � � � � 8�� 8 �

� � �� � � 8

� �� � � 8� � � � � 8 � 8

� � �/1 ��� ' � 8 1 �� � 8 � � � �

8 � � �

� 8� � � � 8

� 1 � � � 8� � � �

Wir können annehmen: � �� ; andernfalls führen wir die Transformation � 8 �� � � 8 aus.

Die Kurve ist eine Parabel.

3. Fall: Rang� � � � ' Rang

� � � � �

Dann ist ��� � � und � 8 � � .

Unterfälle:

a) ��� ' � 8 �� : � besteht aus genau einem Punkt.

b) ���%�� ',� 8 ��� : � besteht genau aus zwei sich schneidenden Geraden.

4. Fall: Rang� � � � ' Rang

� � � � ��

� besteht aus zwei parallelen Geraden oder ist leer.

5. Fall: Rang� � � � ' Rang

� � � � ��

� besteht aus genau einer Geraden.

XIV.3 Flächen zweiter Ordnung

3.1 Definition

� ��� ' � 8 ' ��� � seien kartesische Koordinaten in einem drei-dimensionalen euklidischen Raum

�.

Die Lösungsmenge � einer Gleichung 2. Ordnung

���� �� � � � � � � � � � � � ��� ���.� � � � 8 � 8 � � � � � �� ��� � � � ' � � � � � (5)

heißt eine Fläche 2. Ordnung oder eine Quadrik in�

. Dabei sei � � � � � � , und wir setzenwieder � ��1 ��

und erhalten die systematischere Schreibweise:� ��

� �� � � � � � � � � �:' in Matrizenform: � � ��� � mit � � � � � � � � � � � � � � 8 � � und � 1 � � �&'�������' �� � � Es wird analog zum zwei-dimensionalen Fall gesetzt: � ��1 � � � � � � � � � � � 8 � �

Page 176: Lineare Algebra

XIV.3 Flächen zweiter Ordnung 171

3.2 Invarianten

Bei kartesischen Koordinaten-Transformationen erhalten wir die zum zwei-dimensionalen Fallanalogen Transformationsformeln für den Ausdruck 2. Ordnung und daher folgende Invarianten:

Rg� � � ' Rg

� � � � ' die Eigenwerte ��� ',� 8 ',�� von � �&' Det� � � ' Det

� � � �

3.3 Klassifikation

Auf Hauptachsen transformiert, ergibt sich:

� � ����� � � � ��� � � 8 � � �� � � � � � �� 8 � � � 8 �� � � � � � �

����

Neue Koeffizienten sind hier der Einfachheit halber wieder mit den gleichen Buchstaben � � �bezeichnet! Die Flächengleichung lautet:

� � � 8 � � � 8 � 88 ��� � � 8� � � � ��� ���-� � � � 8 � 8 � � � � � ��*��� � � �

1. Fall: Rang� � � � ' Rang

� � � � � 1

Durch quadratische Ergänzung bekommen wir:

� � � 8 � ��� 8 � 88 � �� � 8� ��� � � � und durch Gleichungsumformung:

� � � 8 � � � 8 � 88 ����� � 8� ��

Unterfälle:

a) � � ' � 8 ' ������ : � heißt ein Ellipsoid.

Der Schnitt mit der� � � ' � 8

� -Ebene ist eine Ellipse: � � � ' � � � 8 � � � 8 � 88 �

Fürkleine

� � � � sind auch die Schnitte mit Ebenen parallel zur� � � ' � 8

� -Ebene Ellipsen:�� konstant, � � � 8 � � � 8 � 88

� ����� � 8� ; für � � � 8 sind es Kreise und � ist einRotationsellipsoid, das dadurch entsteht, daß eine Ellipse um die � � -Achse rotiert.

b) � ���� ' � 8 �� ' � � ��� : � heißt ein einschaliges Hyperboloid.

Schnitte mit zur� � � ' � 8

� -Ebene parallelen Ebenen sind stets Ellipsen: � � � ' � � � 8 � �� 8 � 88

� � � � � 8� . Zu beachten ist hier, daß die rechte Seite immer größer als 0 ist.Die Schnitte mit den Koordinaten-Ebenen � � � bzw. � 8

� sind Hyperbeln.

c) � ���� ' � 8 ��� ' � � ��� : � heißt ein zweischaliges Hyperboloid.

��� � ' � 8 � 88 � ��� � 8� �

: � �; entsprechend, wie eine Hyperbel aus zwei Ästen

besteht, besteht � aus zwei Teilen, genannt Schalen, die durch die� � 8 ' ��

� -Ebenegetrennt werden; im einen ist � ���� im anderen ��� ��� .

Page 177: Lineare Algebra

172 XIV Aspekte der euklidischen Geometrie

� 8 � ' � � � 8 � ����� � 8� ��

: � ist eine Hyperbel.�� � ' � � � 8 � ��� 8 � 88

�� 1 � ist eine Hyperbel.

2. Fall: Rang� � � � ' Rang

� � � � �

� ����� � � � � � � �� ��� � �� � � 8 �� � � � � �

���� � � ' � 8 �

� � � � � wegen Rang� � � � . Wie bei der Parabel kann erreicht werden, daß � � � �

wird.

� � � 8 � ��� 8 � 88 � � � � � �� �� �� � � � 8 � � � 8 � 88 ' � � ' � 8 �

�Unterfälle:

a) � � ' � 8 �� : � heißt ein elliptisches Paraboloid.

�� konstant ��� leer

�� konstant �� : Ellipse��� konstant oder � 8

konstant: Parabeln

b) � � ' � 8 ��� : Elliptisches Paraboloid, da durch die Tranformation � � �� �:�� in denvorstehenden Fall überführbar.

c) � ���� '�� 8 ��� : � heißt ein hyperbolisches Paraboloid oder Sattelfläche.

Schnitte mit Ebenen ergeben:�� � : Sich schneidendes Geradenpaar.�� konstant �� : Hyperbel�� konstant ��� : Hyperbel��� � oder � 8

� : Parabel

3. Fall: Rang� � � � ' Rang

� � � � ��: Kann nicht auftreten; denn

� ����� � � � ��� � � 8 � � �� � � ��� � �� 8 � � � �� � � � � �

���� � ��� � � Rang

� � � � � , Widerspruch!

4. Fall: Rang� � � � ' Rang

� � � � � :

� ����� � � �

� � � � �� � � 8 �� � � � �

���� ��� ' � 8 ' �� �

Hier erreichen wir die fettgedruckten Nullen durch quadratische Ergänzung, � � � � we-gen Rang

� � � � .

Page 178: Lineare Algebra

XIV.3 Flächen zweiter Ordnung 173

� � � 8 � ��� 8 � 88 � �� � 8� �

Unterfälle:

a) ��� ' � 8 ' � ���� : � besteht aus genau einem Punkt.

b) ��� ' � 8 �� ',� � ��� : � ist ein Kegel.

�� konstant � � : Ellipse

�� � : Punkt

c) Alle weiteren Unterfälle lassen sich durch Multiplikation mit -1 und Vertauschen vonKoordinaten auf die betrachteten zurückführen.

5. Fall: Rang� � � � ' Rang

� � � � � : � ist ein elliptischer oder ein hyperbolischer Zylin-der.

6. Fall: Rang� � � � ' Rang

� � � � ��: � ist ein parabolischer Zylinder.

7. Fall: Rang� � � � ' Rang

� � � � � : � besteht aus zwei verschiedenen sich schneidendenEbenen.

8. Fall: Rang� � � � ' Rang

� � � � �: � besteht aus zwei verschiedenen parallelen Ebenen.

9. Fall: Rang� � � � ' Rang

� � � � ��: � besteht aus einer Ebene.

Page 179: Lineare Algebra

174 XV Der Minkowski-Raum

XV Der Minkowski-Raum

Im folgenden bezeichnen� � � ' � 8 ' ��&' � � Koordinaten zu einer Basis

� � � ' � 8 ' ���&' � � .XV.1 Modell der räumlich-zeitlichen Welt

1.1 Problemstellung

Wir stellen uns die Aufgabe, ein geometrisches Modell unserer räumlich-zeitlichen Welt aufzu-stellen.

1.1.1 Erste AnnahmeWir nehmen an, daß sich die Ereignisse unserer Welt durch drei räumliche reelle Koordinaten� ��� ' � 8 ' ��

� und eine reelle Zeitkoordinate � 1 0 beschreiben lassen und umgekehrt zu jedem� ��� ' � 8 ' ��&' � � � � genau ein Raumzeitpunkt gehört. Mathematisch nehmen wir an, daß dieWelt ein vierdimensionaler reeller affiner Raum ist.

1.1.2 Definition der Lichtgeraden und des LichtkegelsUnserer Erfahrung nach gibt es für unseren dreidimensionalen Lebensraum gewisse (kartesische)Koordinatensysteme,

� � � ' � 8 ' ��� , so daß jeder Lichtstrahl eine Gerade ist.

Ein Lichtstrahl durch den Koordinaten-Ursprung hat also folgende Parameterdarstellung:

� � � 0 � � � 0 ' � � ' � ' � ' � ��� ' � 8 ' ���� � � � konstant ' 0 ein reeller Parameter

Verwenden wir als Parameter für die Lichtausbreitung die Zeit 0 , so ist die Konstante � 1 � � �� � � � 8� als die Ausbreitungsgeschwindigkeit eines Lichtblitzes zu verstehen. Den physikali-schen Beobachtungen zufolge ist die Lichtgeschwindigkeit für alle Lichtstrahlen die gleiche, alsoeine Konstante. Auf die tiefere Bedeutung dieser physikalischen Beobachtung kommen wir nochzurück. Im vierdimensionalen Raum stellt sich die Lichtausbreitung vom Koordinaten-Ursprungaus durch sogenannte Lichtgeraden dar, die durch ein homogenes lineares Gleichungssystemgegeben sind:

� � � � � � � � � '�� ' � mit ��1 ���� ��� � � � 8�

Mathematisch betrachtet, bedeutet die Existenz von Koordinatensystemen, in denen sich Licht-strahlen in einer solchen Weise beschreiben, daß diese Lichtgeraden als Strukturelemente gege-ben sind. Alle Lichtgeraden zusammen bilden den Lichtkegel:

� 1��� � � � 8� �$� 8 � 8 �

Page 180: Lineare Algebra

XV.1 Modell der räumlich-zeitlichen Welt 175

1.1.3 InertialsystemeJedes Koordinatensystem, in dem sich Lichtstrahlen wie beschrieben längs Geraden ausbrei-ten oder mathematisch betrachtet, in denen sogenannte Lichtgeraden oder der Lichtkegel gege-ben sind, nennen wir ein Inertialsystem. In der Physik werden Inertialsysteme anders definiert;sie sind jedenfalls so erklärt, daß in Inertialsystemen die Naturgesetze die gleiche Form ha-ben (Relativitätsprinzip). Wir haben hier nur das eine Naturgesetz berücksichtigt, daß sich Lichtmit konstanter (endlicher) Geschwindigkeit längs Geraden ausbreitet. Wenn das Naturgesetz derLichtausbreitung invariant gegenüber Koordinatentransformationen von einem Inertialsystem zueinem anderen sein soll, so müssen Lichtgeraden in Lichtgeraden oder der Lichtkegel in denLichtkegel übergeführt werden.

1.1.4 Auf dem Lichtkegel verschwindende quadratische FormenDie Gleichung des Lichtkegels legt nahe, die quadratische Form

�� ��� ' � 8 ' ��&' � � 1 � 8 � �$� 88 �$� 8� � � 8 � 8

zu betrachten, die auf dem Lichtkegel verschwindet. Für eine lineare Koordinatentransformation� , die den Lichtkegel in den Lichtkegel überführt, muß dann

��� ��� ' � 8 ' ��&' � � 1 �

��� ��� ' � 8 ' ��&' � � �

wieder eine quadratische Form sein, die auf dem Lichtkegel verschwindet. Gilt etwa ��

� ?Dazu hilft weiter:

1.1.5 Satz über quadratische Formen� ist bis auf einen Faktor � � � '�� � � die einzige nicht ausgeartete quadratische Form, die aufdem Lichtkegel verschwindet. Eine quadratische Form � heißt dabei nicht ausgeartet, wenn diesymmetrische Bilinearform

�, zu der sie gehört, nicht ausgeartet ist.

1.1.6 Minkowski-RaumEine Koordinatentransformation die den Lichtkegel in den Lichtkegel transformiert, transfor-miert also � in sein � -faches mit einem � � � . Diese Transformation von � wird auch bewirktdurch die Skalenänderung auf jeder Achse um den gleichen Faktor

� � � � . Wenn ein� � � � �

auftritt, können wir das deshalb so interpretieren, daß bei � auch noch eine solche Skalenän-derung vorgenommen wird. Die Transformationen, die die Form � invariant lassen, können wiralso als diejenigen ansehen, die den Lichtkegel in den Lichtkegel überführen und keine solcheSkalenänderung hervorrufen.

Damit gelangen wir zu folgendem Modell der Welt: Die Welt ist der � mit der quadratischenForm � bzw. mit der symmetrischen Bilinearform:

� � �.' � � 1 ��� � � � � � � �$� 8 � �

Die Welt ist also ein geometrischer Vektorraum mit einer symmetrischen Bilinearform der Si-gnatur 3 und mit Index 1. Als erster hat der Mathematiker Hermann Minkowski (1864-1909)

Page 181: Lineare Algebra

176 XV Der Minkowski-Raum

diesen Raum als einen Rahmen für die spezielle Relativitätstheorie erkannt. Nach ihm wird erMinkowski-Raum genannt. Da

�bis auf das Minuszeichen wie ein Skalarprodukt aussieht, wird

�auch pseudoeuklidisches Skalarprodukt genannt und

�� ' � � ein pseudoeuklidischer Vektorraum.

XV.2 Lorentztransformationen

2.1 Definition

Die Lorentztransformationen sind die Isometrien des Minkowski-Raumes.

� 1 � � � ' � � � � ����� � 4eine Lorentztransformation heißt homogen, falls 4 � ist.

Daß � eine Isometrie ist bedeutet für die Matrix � nach XI.2.3.3 � � � � � , wobei � dieMatrix von

�bezeichnet. Ausführlich:���

��

��

� �

� ��

����� � � � � � � � �1 11 1� � � � � � � �

� ��

����

��

� �

� ��

����� � � � � � � � � 1 11 1� � � � � � � �

� ��

� � � � ��� � � mit den Kroneckersymbolen� � � und � � 1 � �

für � �� '�� ' �� � für � �

Damit schreibt sich die Isometriebedingung in der folgenden Form, wobei � � die � -te Spalte von� bezeichnet: � � ��� � �

� � � � � � � � ��� � � � � � ' � �

D. h. � ist eine Isometrie genau dann, wenn die Spalten von � pseudo-orthonormiert sind, d. h.,daß � eine pseudo-orthogonale Matrix ist.

2.2 Definition

Ein Vektor heißt raumartig : ! �� � � ��

zeitartig : ! �� � � ���

Lichtvektor : ! �� � � �

2.3 Einheitsvektoren

Einheitsvektoren erfüllen die Gleichung:

� 8 � �$� 88 �$� 8� � � 8 �� �

Page 182: Lineare Algebra

XV.2 Lorentztransformationen 177

Dabei gilt � �für die raumartigen Einheitsvektoren und � � für die zeitartigen. Die raumartigen

Einheitsvektoren liegen auf einem einschaligen (dreidimensionalen) Hyperboloid, die zeitartigenauf einem einschaligen.

2.4 Relativität der Gleichzeitigkeit

Bezüglich zweier Inertialsysteme mit den Basen� � � ' � 8 ' ����' � � und

��� � ' �� 8 ' �����' �� � , so daß � und

�� linear unabhängig sind,sind zwei Ereignisse, die in einem Koordinatensystem gleichzeitigsind, im andern nicht gleichzeitig.

Page 183: Lineare Algebra

178 XVI Eigenvektor-Theorie und Normalformen

mm16

XVI Eigenvektor-Theorie und Normalformen

Wenn nicht ausdrücklich etwas anderes gesagt wird, bezeichnet � 1 � � �einen Endomorphis-

mus eines � -dimensionalen Vektorraumes über dem Körper � ( � ��� ).

XVI.1 Charakteristisches Polynom

Man ist versucht, das charakteristische Polynom durch Det( ��� � Id � ) zu definieren. Jedoch ist� � � Id � � End

� � � � � � d. h. es ist ein Element eines Polynomringes und nicht ein Endomor-phismus. Daher wird zuerst das charakteristische Polynom einer Matrix erklärt. Dazu schickenwir eine andere Betrachtung voraus. Ist

� � � � � � � � � eine Koordinatentransformation, danntransformiert sich nach V. 7.6 auf Seite 53 die Abbildungsmatrix � bezüglich

� � � � in die Abbil-dungsmatrix � � bezüglich

� � � � nach der Formel:� � � � � � � � � � �

1.1 Definition konjugierter oder ähnlicher Matrizen

Zwei�

� � � � -Matrizen � und � � , für die die Formel� � � � gilt, in der � eine reguläre

�� � � � -

Matrix ist, heißen konjugiert oder ähnlich zueiander.

Wegen der Bemerkung zuvor sind � und � � genau dann zueinander ähnlich, wenn sie als Abbil-dungsmatrizen ein und desselben Endomorphismus � bezüglich eines Koordinatensystems

� � � �bzw.

� � � � aufgefaßt werden können.

1.2 Definition des charakteristischen Polynoms

Sei � eine Unbestimmte und � � � ��� � . Dann ist

� � � �<� � �

������ � � � � � � 8 ����� � � �� 8 �

. . . . . ....

.... . . . . . � ��� � � �� � � ����� � ��� ��� � � � � � �

�����

eine Matrix mit Koefizienten im Polynomring �� � � ; alle Koeffizienten außerhalb der Hauptdia-

gonalen sind konstante Polynome, die in der Hauptdiagonalen lineare Polynome (solche vomGrade 1). Jetzt wenden wir die Determinantentheorie für kommutative Ringe an, und zwar für

16A. Riede: Lineare Algebra 2, SS 00

Page 184: Lineare Algebra

XVI.1 Charakteristisches Polynom 179

den Polynomring �� � � . Die Determinante der Matrix

� � � ist ein Polynom, es heißt das charak-teristische Polynom von � ; wir bezeichnen es mit � � � � � .Ist � � � die Abbildungsmatrix von � bezüglich einer Basis

� � � '������ ' � � � von�

, dann heißt� �� � � 1 � � � � � das charakteristische Polynom von � .

1.3 Grundtatsachen über das charakteristische Polynom

1. Grad� � �

� � � � Grad� � � � � � � � ; der höchste Koeffizient ist

� � � � � �2. Von der Basis

� � � '������ ' � � � , bezüglich der die Abbildugsmatrix gebildet wurde, hängt dascharakteristische Polynom � � nicht ab.

3. Ähnliche Matrizen haben das gleiche charakteristische Polynom.

4. � ist diagonalisierbar ! � � � ist ähnlich zu einer Diagonalmatrix � , d. h. � � � � � � für eine reguläre

���� ��� -Matrix � .

5. Beim Einsetzungshomomorphismus � 1 �� � � � �

� � � , bei dem für � Id � eingesetztwird, geht das charakteristische Polynom � �

� � � in die ganzrationale Funktion � �� � � über.

(Vgl. Abschnitt X. 5.5 auf Seite 115!) Damit ist der Anschluß an Kapitel IX auf Seite 81hergestellt. Insbesondere gilt: Die Eigenwerte von � sind genau die Nullstellen aus � descharakteristischen Polynoms von � .

Beweis:

Zu 1: Dies folgt aus der Leibniz-Formel für Det� ��� � �

��

Zu 3:� ��� � �

�� � � � � ��� � �

�� � � � � � � � � ��� � � � � � � �

� � � � � � � � � �

��

� � � � � � ��

2. folgt aus 3.

Zu 4: Nach Definition ähnlicher Matrizen.

Zu 5: � 1 � �� Id �

Det� �<� � �

�� � � �

� � � � sgn� � � ��

� � � � � � ' � � � � � � � � � � � � � �� � Det

� ��� � �

�� � � � 8 � �

� � � � sgn� � � ��

� � � � � � ' � � � � � Id �� �� � � � � � � � �

� � �� � � � sgn

� � � ��� � � � � � ' � � � � � � � � � � � � � �

� � Det

� ��� � � �� � � � � �

Page 185: Lineare Algebra

180 XVI Eigenvektor-Theorie und Normalformen

1) wegen der Leibniz-Formel,

2) da � ein Algebra-Homomorphismus,

3) wegen wertweiser Addition und Multiplikation von Funktionen.

Für die letzte Aussage ist nur zu beachten, daß die in � gelegenen Nullstellen eines Polynoms� � �

� � � per Definition die Nullstellen der ganzrationalen Funktion � � � � sind.

1.4 Beispiel

Durch Entwickeln nach der letzten Zeile von � � � �

� erhalten wir, daß das charakteristischePolynom der Matrix

�������� � � ����� �...

. . . . . . . . ....

.... . . . . . �

� ����� ����� � �

� � ��� ' ����� � ��� 8 � ��� �

�������

wie folgt lautet:

� � � � � � � � � � � � � � � � ��� �!� �&�&� ��� ��� � � ��� � � �� � � � �

Wenn wir für � � '�������' � � �also

� � � � � � � � � � � setzen, sehen wir, daß jedes Polynom� � ��� � �����&�&��� � ��� � � ��� � �

� � � � � � � mit höchstem Koeffizient� � � � � als charakteristisches

Polynom einer Matrix auftaucht.

1.5 Definition und Satz von der Spur

Die Spur einer�

��� ��� -Matrix � � � � � ist definiert durch:

Spur� � � Sp

� � � 1 ��� � � � � �

Die Spur eines Endomorphismus von�

wird über die Abbildungsmatrix � � von � bezüglicheiner Basis

� � � '�������' � � � definiert: Spur� � � Sp

� � � 1 Sp� � � � . Dann gilt:

1. Ähnliche Matrizen haben die gleiche Spur.

2. Die Spur von � hängt nicht von der Basis ab, bezüglich der die Abbildungsmatrix gebildetwird, sondern nur von � .

3. Sp� � � � � � � ��� � � ��� � , wobei

���� � der

�� � � � -te Koeffizient des charakteristischen Poly-

noms von � ist.

Page 186: Lineare Algebra

XVI.1 Charakteristisches Polynom 181

1.6 Charakteristisches Polynom einer�� � � � -Matrix

Das charakteristische Polynom einer�� � � � -Matrix und seine Nullstellen lauten also:

� � � � � � 8 � Sp� � � �!� � � � �

� � 8 �

�Sp� � � � � Sp 8 � � � � � � � � �

Die Untersuchung der Nullstellen eines Polynoms und damit die Untersuchung von Matrizen undEndomorphismen wird vereinfacht, wenn das Polynom in Faktoren von Polynomen (niedrigerenGrades) zerlegt werden kann. Diese Zerlegung ist in einem, wie sich noch herausstellen wird,wichtigen Fall möglich:

1.7 Satz über eine Faktorisierung von � �

Sei � ein kommutativer Ring mit Eins. Sei � � � � � � ' � � � ��� � � ��� � '5� � � � � ��� � , Nullmatrix

��� � ��� � � � , � 1 � � �� � � � � ��� � .

Dann gilt für die Determinanten und die charakteristischen Polynome:

� � � ����� �� �

���� � � � � � � � � � � � � ��� .

Dies verallgemeinert sich leicht auf „Kästchen - Dreiecksmatrizen mit mehr als zwei diagonalenKästchen “.

Beweis:

Dies folgt aus der Leibniz-Formel. Wegen der Nullen in dem linken unteren Kästchen brauchenwir nur die Permutationen zu betrachten mit � � � � �

�/� �für � �

�/� �. D. h., es müssen nur die

Permutationen betrachtet werden, die die letzten � � � Indizes untereinander vertauschen unddie folglich auch die ersten � Indizes untereinander vertauschen. Für eine solche Permutation �setzen wir:

� �� � ����� � �5� � ����� �:� � � �� � � � ����� � � � � � � �5� � � ����� � � ��� 1 ��� � � � ����� 1 ��� � � � 1 �5� � 8 � � � ����� 1 �:� � 8 � � � � �

� Das heißt: ��� � � � 1 � � � � für � � '�������'�� ' ��� � � �� 8 � � � 1 � � �:��� � � � für � � '������ ' � � � ' � 8 � � ��� �Beachten wir � �� � �� für

� � � ' � �� und � � � � � ��� � � � � � für

� � ' � � � � � so erhaltenwir: � � �

�� � � � � � � � ����� � � � � � � � � ��� � � � � ��� � � ����� � ��� � � � �

Page 187: Lineare Algebra

182 XVI Eigenvektor-Theorie und Normalformen

�� � � � �

�� � � � � � � ����� � � � � � � � � �

� � � � � � �

��� � � � � � ����� � ��� � � � � � ��� � � � � � � � �

Daraus folgt:

� � � ��� � �

�� ����

� � � �� �

� � � � �

��� ����� � � � � �

�� � � � � �

��� �� � � � � �

Page 188: Lineare Algebra

XVI.2 Eigenvektorräume 183

XVI.2 Eigenvektorräume

Weiterhin sei ��� End� � � und Dim(

�) = � , � � �:' � ein beliebiger Körper.

2.1 Satz über Eigenvektoren zu verschiedenen Eigenwerten

Für � � '������ ' sei � � Eigenvektor zum Eigenwert� � , und die Eigenwerte

� � seien paarweiseverschieden. Dann sind

� � � '������ ' � � � linear unabhängig.

Beweis durch Induktion nach :

Induktionsbeginn: � 1 � � ��� � � ��� � ' da ��� � � .Induktionsschluß: Sei �

��1��� � � � � � � � � � � �

� �#1��� � � � � � � � � �

� � � � � � 1� � ��� � � � � � � � � � � � � � �

� � � � � � � � � � � � '������ ' � �nach Induktionsannahme

� � � � � '������ ' � �wegen

� � � � � � �Dies in I eingesetzt liefert � � � � � ' woraus folgt � � � ' da � � � � .

2.2 Der Fall � verschiedener Eigenwerte

Gibt es � verschiedene Eigenwerte von � , dann gibt es eine Basis aus Eigenvektoren, d. h. (nachIX. 1.3 auf Seite 81) � ist diagonalisierbar.

2.3 Diagonalisierbarkeit und Zerfallen von � � in Linearfaktoren

Ist � diagonalisierbar, dann zerfällt das charakteristische Polynom in Linearfaktoren, d. h.

� �� � � ��

� � � � � � � � � , wobei die� � nicht paarweise verschieden zu sein brauchen. Die Um-

kehrung gilt jedoch nicht (s. 2. Beispiel von IX. 2.4 auf Seite 82). Mit dem Begriff eines Eigen-vektorraumes läßt sich die Bedingung für die Umkehrung formulieren.

Page 189: Lineare Algebra

184 XVI Eigenvektor-Theorie und Normalformen

2.4 Definition des Eigenvektorraumes

Der Eigenvektorraum zum Eigenwert�

ist�

�� � � �

� 1

Kern� � � � � 4 � � �

Eigenvektoren zum Eigenwert� � � � �

2.5 Satz über die direkte Summe von Eigenvektorräumen

In Verallgemeinerung von 2.1 auf der vorherigen Seite gilt für paarweise verschiedene Eigen-

werte�� '�������' � � : a) � � 1 �

�� � � � �

���� � � � �

�� � � � � � und b)

���� � � �

� � � � �� � � � �

� � � �

Dabei bedeutet b), daß jedes ������� � � �

� eindeutig in der Form � �� � � � ' � � � �

� , darstell-

bar ist (nach Definition einer direkten Summe für endlich viele Summanden).

Beweis: Zu a): Induktion nach :

Induktionsbegin für � : Sei � � � � � ��

� � 8 , dann folgt:

� � � � � � � und � � � � � 8 � ,�� � � 8 � ,

� �� � � 8

� � � , � � , da� �� � � 8

� � �Induktionsschluß: Sei � und ���)� � .

� 1 � �� � � � � � � ' � �

�� ' ��� � �

� � � � � � � �� � 1 � � � ��

� � � � �� �

�� � � � � 1 �

�� � � �

� � � � � � � � �� � � � � �

� �� � � � � �

� � �� � � � � �

��

� �� � � � � � � � � � �� �� � � � � � � nach Induktionsannahme� � ' da

�� � � � �

Zu b): Sei � �� � � �

���� � � ' � ' � � � �

� . Sei � beliebig.

�� � � � � � �

���� � � � � � � � �

�� � � � � �

��

� � � � � �)� � ' � � � � � � (nach a)), � � � � .

2.6 Algebraische und geometrische Vielfachheit

Page 190: Lineare Algebra

XVI.2 Eigenvektorräume 185

2.6.1 DefinitionSei � die Ordnung der Nullstelle

�von � � und � Dim

� ��� � � � .

� heißt die algebraische und � die geometrische Vielfachheit des Eigenwertes�.

2.6.2 Vergleich der beiden VielfachheitenDie geometrische Vielfachheit ist kleiner oder gleich der algebraischen: � �

Beweis:

Sei� ��� '�������' � �

� eine Basis von�

�� � � und

� ��� '�������' � � ' � � � � '�������' � � � eine Ergänzung zu einer Basis von�

.

� �� � � Det

���������

� � �. . . �

� � � �� �

� ������� � � � � � � � � � �

�� �

2.6.3 Satz über DiagonalisierbarkeitSind� � ' � � '������ ' die paarweise verschiedenen Eigenwerte von � , dann sind folgende Aus-

sagen äquivalent:

1. � ist diagonalisierbar.

2. Das charakteristische Polynom von � zerfällt in Linearfaktoren und � � � � �

3. Dim� � �

��� � � Dim

� ��� � � � �

4.� ��

� � � � �� � � �

5.� ��

� � � �

�� � � �

Beweis: 1. � 2.:

Page 191: Lineare Algebra

186 XVI Eigenvektor-Theorie und Normalformen

� eine Basis, so daß � � folgende Diagonalgestalt hat:

� �

�������������������

��

. . .���

8 . . .�

8 . . .��

. . .��

�������������������

Dabei sei � � 1 Anzahl der� � , die in der Hauptdiagonalen auftreten.

� � �� � �

��� � � � � � � � � �

� � � � � �

� � Dim� �

�� � �

� � � � � � � � � ' da � � � � � allgemein gilt.

2. � 3.:

� �� � � ��

� � � � � � � � ���� �

Grad� � �

� � � � Grad

���� � � � � � � � � �

� � ��

��� � � � �

��� � � � �

� ��� � � � �

� wegen 2.5 auf Seite 184

Dim���� � � � �

� � ��� � � Dim

� ��� �

��� � � � �

��� � � � � �

Dim

��� �

3. � 4.: Wenn ein Untervektorraum die Dimension des ganzen Raumes hat, stimmt er mit demganzen Raum überein.

4. � 5.: Wegen 2.5 auf Seite 184

5. � 1.:

Wir nehmen in jedem Summanden eine Basis. Diese setzen sich zu einer Basis aus Eigenvektorenvon

�zusammen. Also ist � diagonalisierbar.

Page 192: Lineare Algebra

XVI.3 Satz von Caley-Hamilton und Minimalpolynom 187

XVI.3 Satz von Caley-Hamilton und Minimalpolynom

Wir behandeln auch in diesem Abschnitt einen Endomorphismus � eines � -dimensionalen Vek-torraumes

�über einem Körper � .

3.1 Invariante Untervektorräume

3.1.1 Definition eines invarianten UntervektorraumesEin Untervektorraum � von

�heißt invariant bei � 1 ! � � � � � �

3.1.2 Beispiele invarianter Untervektorräume

1.� ��� ' � � ' � ein Skalarprodukt, � � oder � , � orthogonal, unitär oder selbstadjun-giert, � Eigenvektor von � . Dann ist � � � � � �

ein invarianter Untervektorraum.

2. Die Eigenvektorräume � �

�� � � sind invariant bei � .

3. Ist � ein Eigenvektor von � , so ist � � � � � invariant. � � � � ist offenbar der kleinsteinvariante Untervektorraum, der � enthält.

4. Sei � � �beliebig. Dann gibt es den kleinsten invarianten Untervektorraum � von

�, der

� enthält.Denn der Durchschnitt von invarianten Untervektorräumen, die � enthalten, ist wieder einsolcher. Daher ist � � � � � invariant bei � und � � ���

3.1.3 Untersuchung des kleinsten Untervektorraumes � mit � � �Wegen der endlichen Dimension von

�gibt es ein kleinstes ��� � , so daß� �(' � � � � '������ ' � � � � � � linear abhängig sind. Weil

� �+' � � � � '������ ' � � � � � � � � linear unabhängig sind,ist � � � � � von

� �(' � � � � '������ ' � � � � � � � � linear abhängig, d. h. es gilt:

� � � � � � � ����� � � � � � � �&�&�&� � � � � �� � �� � � für geeignete � � � � (1)

� � � � �(' � � � � '������ ' � � � � � � � � 1 �� ist invariant bei � ; denn für ��� � gilt:

� � � ��� � � � � �

� � � �

� � � � � � 8�� � � � � �

� � � � � �� ��� �

���

� � � � � � � � � � Beachte hierbei: � � � � � � � wegen ( 1) � �� � ' da � kleinster invarianter Untevektorraum, der � enthält.

� � � � � � � � � ������� � � � � mit � � 1 � � � � � ist eine Basis von � und

Page 193: Lineare Algebra

188 XVI Eigenvektor-Theorie und Normalformen

bezüglich� � � � hat � � � die Matrix � � � �

�������� � ����� � � �� � ����� � � �� � ...

......

. . . . . ....

...� ����� � � � � � �

� �����

� � � � � � � � � � � ��� � � � � � ��� ��� �&�&� ��� � � � � � � � � � � � (nach 1.4) (2)

Durch Vergleich der Formeln ( 1 auf der vorherigen Seite) und ( 2) finden wir folgendes: Set-zen wir in das charakteristische Polynom � � � � � � � für � � ein und wenden den so erhaltenenEndomorphismus auf � an, so erhalten wir 0:

� � � � � � � � � � � (3)

Es gilt aber noch viel mehr, nämlich:

3.2 Satz von Caley-Hamilton

Setzen wir in das charakteristisches Polynom von �� �� � � � � � � � � � � � ��� � � ��� � �<�&�&�&�

�� �7� � �

für � � ein, so erhalten wir den Null-Endomorphismus:

� �� � � � � � � � � � � � ��� ��� ���

� �<�&�&��� � � � � � � Id � �Das Entsprechende gilt für die Einsetzung einer

�� � ��� -Matrix � in ihr charakteristisches Po-

lynom � � � � � :� � � � � � � � � � � � � � ��� � � ���

� � �&�&�&� � � � � � � � � �

Bevor wir dies beweisen, erinnern wir daran, daß das Bild des Einsetzungshomomorphismuseine kommutative Algebra ist, d. h. es gilt:

3.3 Feststellung

� ' ��� �� � � und ��� End

��� � gilt: � � � � � � � � �� � � � � � �

Beweis zum Satz:

Ergänze� �(' � � � � '������ ' � � � � � � � � zu einer Basis von

�. Dann folgt: � �

� � � � � �� � �

� �� � � � � � � � � � � � � � � � � �� � � � � � � � � � �

� �� � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � �

� ��� �� �� � . Da � beliebig war, folgt � �

� � �

� .

Page 194: Lineare Algebra

XVI.3 Satz von Caley-Hamilton und Minimalpolynom 189

3.4 Minimalpolynom3.4.1 BeispieleEndomorphismen � und Polynome �

� � � , die bei Einsetzen von � für � den Nullendomorphis-mus ergeben:

1. Ein idempotenter Endomorphismus � , � 8 � , genügt der Gleichung: � 8 � � � d. h.�� � � � für �

� 8 � � .

2. Eine Involution � � End��� � , � 8 Id � , genügt der Gleichung: � 8 � Id � � d. h. �

� � � �für �

� 8 � �.

3. Eine komplexe Struktur� � End

� � � , � 8 � Id � , auf einem reellen Vektorraum�

genügtder Gleichung:

� 8 � Id � � d. h. �� � � � für �

� 8 � �.

Fazit: Es gibt offenbar manchmal auch Polynome � vom Grad � Dim(�

) mit �� � � � .

3.4.2 Satz und Definition des Minimalpolynoms � �

1. Zu � � End��� � gibt es genau ein normiertes Polynom � � � � von minimalem Grade mit

� �� � � � . Normiert bedeutet, daß der höchste nicht verschwindende Koeffizient gleich 1

ist. � � heißt das Minimalpolynom von � .

2. Es ist Grad�� � � � �

.

3. Die Polynome � � �� � � mit � � � � � sind genau die durch � � teilbaren. � � teilt insbe-

sondere das charakteristische Polynom � � von � .

Beweis:� � � � � �

� � � � � � � � �� � � mit Grad

��� � � � � Grad

�� � � .

� � � �� ��� �� �

� �� � �

� ��� �� � �� � � � �

� � � � �� � � � � Wäre � � � , so hätten wir ein Polynom kleineren

Grades als � � , das die Nullstelle � in End� � � hat.

3.4.3 Einige Fakten über Polynome

1. Ein Polynom � heißt ein echter Teiler eines Polynoms � , wenn � ein Teiler von � ist mit� � Grad

�� � � Grad

� � � �2. � � ' � 8 � �

� � � heißen teilerfremd : ! � keine echten gemeinsamen Teiler von � � und � 8 .3. Es gibt zu ��� ' � 8 � �

� � � genau einen normierten gemeinsamen Teiler � von maximalemGrad; er heißt der größte gemeinsame Teiler von � � und � 8 . Bezeichnung: �

�9� ����� ' � 8

Es gibt Polynome � ' 0 � �� � � , so daß der größte gemeinsame Teiler von � � und � 8 ge-

schrieben werden kann in der Form:

� � ���-�$0 � 8

Page 195: Lineare Algebra

190 XVI Eigenvektor-Theorie und Normalformen

3.4.4 Berechnung des größten gemeinsamen TeilersWir beachten, daß per Definition Grad

� � � � � sei. Sei Grad� � � ' Grad

�� � � . Dann kann der

größte gemeinsame Teiler wie folgt durch Polynom-Divisionen berechnet werden. Wir setzen� � �%1

� ' � � 1 � und führen folgende Polynom-Divisionen durch:� � � �

� � � � ���� Grad���� � � Grad

�� � �

� � �

8 ���.�� 8 Grad�� 8� � Grad

���� �

...� � � �

� � � � � � � � � Grad�� � � � � � Grad

�� � �

� � � � � ��� � � �-� � � � 8 Grad

�� � � � � � Grad

�� � �

...� ��� �

��� ��� ��� 8 �� ��� � Grad�� ��� �

� � Grad�� ��� 8

�� ��� 8

� � ��� �-�� � Grad�� �� � Grad

�� ��� �

Dann gibt es genau ein � , so daß � �&'���� '������ '�� ��� ��� � und � � � ist. Dann ist � ��� �

ggT

� � ' � � .Dieser Verfahren heißt Euklidischer Algorithmus.

3.4.5 Beispiele

1. Für eine Drehung � eines zweidimensionalen euklidischen Vektorraumes, die � Id und� � Id ist, gilt � �

� �

Dies liegt daran, daß � keine Eigenwerte hat.

Denn � � kann keine echten Teiler haben, weil diese dann linear wären; es würde gelten� �� � � � � �*� � � � � 8 � � � und � hätte Eigenwerte.

2. Für � � � � �

� � � bezüglich einer Basis ist � �� � � � � � � � 8 �

Gilt � � � � � � � ?

� �� � � Id � � hat die Matrix

� � � �� � � . Also ist � �

� � � � � . Die Antwort ist nein.

Dann muß gelten � � � � .

3. � mit � �

�� � � � � �� � � �� ��� �

� hat nach dem 4. Beispiel aus IX. 2.4 auf Seite 82 das

charakteristische Polynom � �� � � � � � � � � � � � � � 8 und eine Basis aus Eigenvek-

toren� � � ' � 8 ' ��

� ' ��� Eigenvektor zum Eigenwert � � � � , � 8 ' �� Eigenvektoren zumEigenwert � 8

�.

� � �� � � � . Dann wäre Id ��� � , d. h. � � Id , Widerspruch!

� � �� � � � . Dann wäre Id �<� � � , d. h. � Id , Widerspruch!

Page 196: Lineare Algebra

XVI.3 Satz von Caley-Hamilton und Minimalpolynom 191

� � �� � � � � � � � � � � � 1 � � � � .

Wir können ein beliebiges � � �schreiben als � � � ���-��� 8 � 8 � �� �� und erhalten:

�� � � � � � � � Id ��� � � Id ��� � � � �

����� � Id ��� � � Id ��� � � � � �� ��� �� � ��� 8

�Id ��� � � Id ��� � � � 8

�� ��� �� � ���� � Id ��� � � Id ��� � � �� �

� ��� �� � �

Dies alles zeigt, daß � das Minimalpolynom ist; denn:

� �� � � � , wie gerade gezeigt.

� � ist normiert.� � ist ein Teiler von � � .� Jeder Teiler 0 von � � von kleinerem Grad als � annuliert � nicht. ( 0 � � � � � )

Ergebnis: � �� � � � � � � � � � � � � �

3.5 Kriterium für Diagonalisierbarkeit

��� End��� � diagonalisierbar ! � � zerfälllt in Linearfaktoren und hat nur einfache Nullstellen.

Vgl. die Beispiele 2 und 3 in 3.4.5! Der Beweis des Kriteriums beruht auf folgendem:

3.6 Lemma

Sei � �

���%� �&�&� � � � mit paarweise teilerfremden ��� '�������' � � � �� � � . Sei � � 1 Kern

�� �� � � � .

Dann gilt:� � � � � 8 � �&�&� � � �

Beweis: Für � (Allgemeiner Fall mit Induktion nach ):� � � � � ��� � � � � 0 � � � � 8

� � � wegen Punkt 3 von 3.4.3�� � � Id

� � � � � � � � � � � � � � �� ��� �

��� ���� 0 � � � � 8

� � � � � �� ��� �

� � � � denn:

���� � � 0 � � � � 8

� � � � � � 0 � � � ��� � � � � 8� � � � � � 0 � � � � � � � � � �

� ��� �� � �

� � �.� � 8Sei � � � � � � 8

� Rechte Seite von (*) ist 0. � � � .� � � � � 8Bemerkung: Statt � � könnte hier auch beliebiges Polynom � mit �

� � � � stehen.

Beweis des Kriteriums:

„ � “: Seien�� '�������' � � die paarweise verschiedenen Eigenwerte von � .

Page 197: Lineare Algebra

192 XVI Eigenvektor-Theorie und Normalformen

�� � � 1 � �

� � � � � � 8 � � � � �&�&� �� �� � � �

Ein beliebiges � � �kann geschrieben werden in der Form:

� ��� � � � � '*� � � � �

� nach 2.6.3

�� � � � � �

��� � �

�� � � � � �

� � ��� � � � � ��� � � � � �� ��� �� �

�� � � ist ein Polynom mit �

� � � � .� � ist ein Teiler von � .

� � zerfällt in Linearfaktoren und hat nur einfache Nullstellen, weil dies für � gilt.

„ � “: � �� � � � � � � � � � �&�&� � � �� � � � ' � � '�������' � � paarweise verschieden.

Wegen des Lemmas 3.6 auf der vorherigen Seite folgt:� ��

� � � Kern� � � � � �

��� � � � �

� � � � �� diagonalisierbar, da direkte Summe von Eigenvektorräumen (vgl. 2.6.3).

3.7 Definition der Trigonalisierbarkeit

� heißt trigonalisierbar 1 ! Es gibt eine Basis von�

, so daß die Matrix � � von � bezogenauf diese Basis eine obere Dreiecksmatrix ist.

3.8 Kriterium über Trigonalisierbarkeit

Das charakteristische Polynom � �� � � von � zerfällt in Linearfaktoren. !

� ist trigonalisierbar.

Beweis: „ � “:

� �� � �

�������

� � �*� � �. . .

� � � � � �

�������

��� � � � � � � � � �

„ � “: Induktiv nach � , Beginn bei � ��

trivial.

Sei � �� � � � �

� � � � � �&�&� � � � � � � � .Sei ��� ein Eigenvektor zum Eigenwert

�� und

� ��� '�������' � � � eine Basis von�

.

� �

������� � �&�&� ��... ��

�����

Page 198: Lineare Algebra

XVI.4 Das Normalformenproblem 193

� �� � � � � � � � � � ��� � �

� � � � � � �8 � � � � �&�&� �

� �� � � �

Sei � 1 � � � 8 '�������' � � � und �$1 � � � diejenige lineare Abbildung mit � � � bezüglich� � 8 '�������' � � � . � �

� � � � �� � � zerfällt in Linearfaktoren. Per Induktionsannahme gibt es eineBasis

� � � 8 '�������' � �� � von � , sodaß diesbezüglich � � trigonal. Dann ist � � trigonal bezüglich� ��� ' � � 8 '������ ' � �� � .3.9 Folgerung

Jeder Endomorphismus eines Vektorraumes�

über � ist trigonalisierbar.

XVI.4 Das Normalformenproblem

Wir wenden uns nun dem Problem zu, für einen Endomorphismus � eines � -dimensionaflenVektorraumes

�über einem Körper � eine Normalform der Abbildungsmatrix zu finden. Unter

Normalform verstehen wir zunächst eine möglichst einfache Gestalt der Abbildungsmatrix. Wirwerden diesen Begriff präzisieren. Wir schicken eine Definition voraus.

4.1 Definition

Ein Untervektorraum � von�

heißt zyklisch bezüglich � : !��� � � , sodaß � der kleinste � enthaltende, bei � invariante Untervektorraum von

�ist (vgl. 3.1

auf Seite 187). Mit andern Worten: Ein zyklischer Untervektorraum ist ein bei � invarianterUntervektorraum, zu dem es einen Vektor � und ein � � � gibt, so daß

� �(' � � � � '������ ' � � � � � � � �eine Basis von � ist.

Wir hatten schon gesehen, daß jedes � in einem zyklischen Untervektorraum enthalten ist unddaß � � � bezüglich der genannten Basis eine einfache Form hat:

� � � �

�������� � ����� � � �� � ����� � � �� � ...

......

. . . . . ....

...� ����� � � � � � �

� �����

4.2 Definition

So eine Matrix heißt Begleitmatrix des Polynoms

�� � � � � � � ��� � � � � � ��� �!�<�&�&����� � � � � � � � � � � � � � � � � �

Page 199: Lineare Algebra

194 XVI Eigenvektor-Theorie und Normalformen

4.3 Frage

Können wir�

in eine direkte Summe von zyklischen Untervektorräumen zerlegen? Dann be-kämen wir eine Normalform, die aus lauter diagonalen Kästchen von Begleitmatrizen besteht.(Außerhalb der diagonalen Kästchen Nullen)

Wenn wir eine direkte Summenzerlegung von�

suchen, können wir obiges Lemma 3.6 aufSeite 191 nochmals heranziehen. Dazu brauchen wir eine geeignete Zerlegung von � � in einProdukt paarweise teilerfemder Faktoren. Da gibt es aber eine kanonische, nämlich die Zerlegungin die irreduziblen Faktoren (gleichbedeutend mit Primfaktorzerlegung). Dabei ist definiert:

4.4 Definition

� � �� � � heißt irreduzibel ! Grad

� � � �� und � kein echter Teiler von � .

4.5 Definition

Jedes normierte Polynom � positiven Grades kann auf genau eine Weise als Produkt endlichvieler normierter irreduzibler Polynome dargestellt werden (Produkte, die sich nur um die Rei-henfolge der Faktoren unterscheiden, werden hierbei als gleich angesehen.)

4.6 Satz

Sei � � � � �� � ������� � � die Zerlegung von � � in die irreduziblen Faktoren, wobei gleiche

Faktoren zusammengefaßt sind; � � '�������' � � sind also insbesondere paarweise teilerfremd. Sei� � 1 Kern

� � � �� � � � � . Dann gilt:

1.� � � � � 8 � �&�&� � � �

2. � � ist invariant bei � für � � '������ ' � .

3. � � � � � �

� ��

4.7 Beispiel

Für � � könnte � � etwa so aussehen:

� �� � � � � � �

� ��� �

� �

� 8 � � � �� ��� �

� �

� � � � 8 � �� ��� �

� �

� 8 � � 8 � � �!� �� ��� �

� ��

� � ' ��� � ' � 8 � ' � � � ' � �

Beachte: Über � � sind die linearen und die quadratischen Polynome ohne reelle Nullstellendie irreduziblen.

Page 200: Lineare Algebra

XVI.4 Das Normalformenproblem 195

Beweis zum Satz:

1. Nach dem Lemma 3.6 auf Seite 191 .

2. Sei ��� � � . Wegen 3.3 auf Seite 188 folgt: � � �� � � � � � � � � � � �� � � � � � �� ��� �� �

� � � � � � � � �

3. Offenbar gilt � � �� � � � � � � � � � � � � � � � � � � � � �

� �� , da es ein Teiler von � � �� sein

muß.

Um also zu einer positiven Antwort auf die Frage 4.3 auf der vorherigen Seite zu kommen, istnoch zu zeigen, daß jedes � � mit � � � � � �

� �� in eine direkte Summe zyklischer Untervektorräume

zerlegt werden kann. Dies geht tatsächlich, es gilt:

4.8 Satz

Sei � � �

�' � normiert und irreduzibel. Dann gibt es zyklische Untervektorräume

���&' � � '�������' � � mit� ��� � � � � �&�&� � � � .

Dem Beweis schicken wir einige Bezeichnungen, Feststellungen und einen Hilfssatz voraus.

4.9 Bezeichnungen

Sei � � � '�� � � und � � � � der kleinste � -invariante Untervektorraum, der � enthält. �

heißt ein � -erzeugender Vektor von � und � heißt auch der von � � -erzeugte Untervektorraum.� � �

1 � � � �

4.10 Feststellungen

A. Für ��� �� � � und � � � �

gilt:

�� � � � � � ! �

� � � � � � � � ! �� � � � � � �

B. � � � ist ein Teiler von � � .

C. � � -invariant � �� � � � � � � � ��� �

� � �Beweis:

A. �� � � � � � ! �

� � � � � � � � � � �! �� � � � � � �

Zu 1): „ � “: klar. „ � “: �� � � � � � � � � � � � � � � � �

� ��� �� � �

Insbesondere bildet �� � � eine Basis von � nach 0 ab, also auch ganz � .

Page 201: Lineare Algebra

196 XVI Eigenvektor-Theorie und Normalformen

B. � �� � � � � � �

� � � � � � � � � ist also ein Polynom, welches � � � annuliert. � � � � � ist einTeiler von � � .

C. Sei �� � � � �� � � � � � �

dann ist �� � � � � � � �� � � � � � � � � �� ��� �

���� � � � �

4.11 Hilfssatz

Sei � � � � und � � �

��� � mit � ' � � �� � � Dann folgt: �

� � � � � � � � Kern��� � � �

Beweis: „ � “: Sei � � � � Kern��� � � � .

� � � ��� � � � � �

� � � � wegen � � � , d. h. für � 1 � � ��� � � � � �

�gilt:

� � � � � � � � � � ��� � � � � � � wegen � � Kern

��� � � � Durch einsetzen von

� � � erhalten wir:

�� � � � � � � � � � �

� � � � � � � � � � Daraus folgt für das Minimalpolynom: � � � � � � d. h.

� � 0 � � � 0 � � für ein 0�� �

� � � Hier läßt sich � rauskürzen:� 0 � dies in

� � � einsetzen:

� � � � � 0 � � � � � �� ��� �

� � wegen C

��� � � � � � � �„ � “:

�� � � � � � � � � � � � �

� � � �� � � � � � � � � � � � Kern �� � �� � � � � � � � � � � � � � wegen C.

� � � � und� � � � � �

� � � � � � � � � � Kern �� � �

Beweis zum Satz:

Durch Induktion nach �

Dim� � � , Beginn für �

�klar. Sei � �

.

a) Wahl des 1. Summanden...

Sei � � �und � � � ' � 1 � � �

� Wegen B ist � � � Teiler von � � .

� � � � � ' � � � �

Sei ��� � ein � � � ' für das maximal wird. � ist zyklisch mit der Basis

� � �&'�������' � � � � � ,��� 1 � � � � � '� � '�������'���� �

Grad�� � �

� Grad� � �

Ist � �, dann sind wir fertig. Andernfalls:

Page 202: Lineare Algebra

XVI.4 Das Normalformenproblem 197

b) Zerlegung eines algebraischen Komplementes � von � in zyklische Untervektorräume

Sei � � �und � ein algebraisches Komplement zu � , d. h.

� � � � , � � � �9' Dim�� � � � .� 1 � ��� � � � sei die Parallelprojektion von

�auf � längs � . Sei � 1 � � �

definiert durch � 1 �� � � � � � � Wir ergänzen� � �&'������ ' � � � � � durch eine Basis

� �von �

zu einer Basis von�

. Dann hat � eine Matrix der Form:

� �

�������������

� � ����� � � �� � ����� � � �� � ...

... �...

. . . . . ....

...� ����� � � � � � �

� � �

�������������

Dabei ist das linke obere Kästchen die Matrix � � � � .

� � � � � � � � � nach 1.7 auf Seite 181

�� � � � � � ' � �

��� � '�� �

�� �

Für � ist die Voraussetzung des Satzes erfüllt. Induktiv folgt:

� � � � �&�&� ��� � ' � � zyklisch bei � , � '������ ' .

c) Einige technische Formeln

� � � � (4)

Denn für � � �gilt: � �;� � ' � � �/' � � � .

� � � � � � � � � � � � � � � � � � � � � � � � � � � ��� � � � � ' da � � � � � � und daher � � � � � � � � � � � � �� � � � � � � � � �

� � � � � � (Induktion nach � ) (5)

�� � � � � � � � � ��� �

� � � (6)

Denn ist �� � �

��� � � � � �

�dann folgt:

Page 203: Lineare Algebra

198 XVI Eigenvektor-Theorie und Normalformen

�� � � � � � � � � � � � � � � � � � � �

�� � � � � � � �

Distributives Gesetz �� � � �

� � � � � � � � � � � � � � � � � � � � � � � �

� � �Distributives Gesetz �

� � � � �

d) Sei � � � -erzeugender Vektor von � � . Dann gilt:

� � � � � '�� � � �

� � � � '�� � � �� � � � ' (wegen B)

� � (wegen a).

� � � ; denn:

� � � � � � � � � � �� � � � � � � � � � � �� � � � � � � � � � � �

� � � � � � � � � � �

� � � teilt � � �

e) Übergang von zyklischen Untervektorräumen bezüglich � zu solchen bezüglich �

Page 204: Lineare Algebra

XVI.4 Das Normalformenproblem 199

� � � �� � � � � � � � �

� � � �� � � � � � � � � �"' da � � � � � � �� � � � �� � � � � � � � �

�� � � � 1 � � � �

� � � � � � � � � Kern� � � �

� � � �

� � � � � � � �� � � � � � �

� � � � � � � � � � denn:� � � �

� � � � � � � � � � � �� � � � � � � � � � � � � � � � � � � � � � � � � � �

� � � �� �

� ��� �

� � � � � � � � � � ���� � � � � � � Kern

� � � � �� � � � � ' wegen (4) und (5)

��� � � � � � � � � � � � � Kern� � � � �

� � � � � � nach dem Hilfssatz, angewendet auf:

� � �

��� � ' mit � � � � �

� ' � � � � ��� � �� � � � �

� � � �� � � � � �� � � ' �� � � � �

� � minus� � � �

� � � � �� � � � � � � � �� � � � � � �

� � � � � � � � ' mit � � 1 � � � �� � �� � � � � � �

� ist ein Teiler von � � � ��

� � � �� � � � � � � � � � � �

� � � � � � � �� ��� �� � ��� � � �

� � � � � �� �� ��� �

� � � �� � 1) da � � -invariant

� � � � �� � � � � � � � �

� � � �� � � � � � � � � �

� � � �� � � � � � � � �"' da � � � � � � �

� � � � � � � �� ist ein Teiler von � � � �

� � � � und� � � � �

� � � � � � � �� � � � �

f)� ��� � � � � �&�&� � � �

Sei � � 1 Grad�� � � �

� � Grad�� � � �

� �

� � � � 1 �� � � � � ' � � '�������' � � � �

bilden eine Basis von � � �� � � � 1 �

� �� � � ' � � '�������' � � � �

bilden eine Basis von � � �� �

� � � �� � ' �� � � � ���� � � �

�� � � � � �� �� � � ���

� ��� � �

�� �� � � � �� � � � �

� �� ��� �

�� ��� � �

� ��� � 1 �� � � � � �� � � �

� � � � � �� � � �

� � � � � � � � � � �

� � ���� � � � � � � � � �

Page 205: Lineare Algebra

200 XVI Eigenvektor-Theorie und Normalformen

Die letzte Gleichung zeigt, daß die � � � � zusammen mit den � � eine Basis von�

bilden, inder sukzessive die � � � � durch die � � � � ausgetauscht werden können, so daß die � � und die� � � � zusammen eine Basis von

�bilden. Daraus folgt f). Zur Verdeutlichung:

� ��� � � � � ����� � � � � ����� � � �� � � �� � � � �

� � � � � �� � � � � � �

� ��� � � � � ����� � � � � ����� � � �� � � �� � � � �

� � � � � �� � � � � � �

4.11.1 Satz über die NormalformEs gibt eine Basis von

�, bezüglich der die Matrix von � folgende Normalform hat:

� �

������������

� �

� 8. . .

� �

������������

Hierbei stehen außerhalb der Kästchen Nullen und jedes � � '� � '������ '�� ist Begleitmatrix einergewissen Potenz eines irreduziblen Faktors des Minimalpolynoms von � .

4.11.2 HilfssatzIst � zyklisch bei � mit erzeugendem Vektor � und � � � � � � , � irreduzibel, dann sei 1 � � � � ,�� 1 � � � � , ���1 � � � � , ���� � . Es folgt:

�� ist zyklisch bei � mit erzeugendem Vektor �� und � � � �� � � � � .

4.11.3 Satz über die die Feinstruktur der Normalform für den Fall � � �

Wir vertauschen die Kästchen so, daß zuerst alle Begleitmatrizen zu � � kommen, dann die zu � 8 ,usw. Es gebe in der Normalform � � Begleitmatrizen zu � �

,� � � � . Diese bezeichnen wir mit

� � � � '������ ' � � � � � . Dem Vertauschen von Kästchen entspricht eine Vertauschung der Basisvektoren,

Page 206: Lineare Algebra

XVI.4 Das Normalformenproblem 201

so daß wir bezüglich der vertauschten Basisvektoren folgende Normalform bekommen:

�� �

����������������������

� � � �. . . � � � � �

. . . �� � �

. . . �� � �

. . . � �� �

. . . � �� ���

�����������������������

(7)

Zu dieser Normalform gehört eine direkte Summen-Zerlegung von�

:

� �

� �� � �

mit � � � � � � � ��� �

Hierbei wird über alle mit� � � � und � � � � und alle � �� '������ ' � � summiert.

Daß � � � Begleitmatrix zu � �ist, bedeutet:

� � � � ��� � � � (8)

Für �1 � � � � gilt: Die � � sind die eindeutig bestimmten Lösungen des folgenden linearenGleichungssystems:

��� � � � � Grad

� � � Rang � � � � � � � � Rang � � � � � ' �� '������ ' � ' ausführlich: (9)

�� �-� �

8 � �&�&�&��� � Grad

� � � Rang

� � � � Rang� � �

...���9� �&�&�&� �

� � Grad� � �

Rang� � � � � � Rang

� � �...

��

Grad� � �

Rang� �� � � � Rang

� ��

�� Rang

� �� � �

Grad� � � �� (10)

Page 207: Lineare Algebra

202 XVI Eigenvektor-Theorie und Normalformen

4.11.4 Folgerung über die Zahl �

Vorbemerkung: Die Zahl � ist per Definition der Exponent, mit dem � im Minimalpolynom von� vorkommt. Damit haben wir aber noch keine Möglichkeit, � zu berechnen. Eine Berechnung-möglichkeit läßt sich jedoch leicht finden:

� Min

� Rang � � � � � Rang � � � � � � � � oder�

Min � Kern � � � � � Kern � � � � � � � �

4.11.5 Satz zur Feinstruktur im allgemeinen Fall: � � �

��� � �&�&� � �

��

Es gilt:� ��

� � � � � ' mit � � Kern �

� �� � � � und Kern � �� � � � Kern

� � �� � � � � � � � �

Wir können die Ergebnisse des Spezialfalles auf � � � � anwenden: Statt einem irreduziblen Poly-nom � haben wir � irreduzible Polynome � � ' � � '������ ' � , statt einer Zahl � haben wir die� Zahlen � � ' � � '������ ' � . Alle � � bekommen noch den zweiten Index � � � '������ ' � � undfür jedes � � � '������ ' � � erhalten wir ein lineares Gleichungssystem, das die � � �

� ' � '������ ' � �eindeutig bestimmt:� ��

� � � � � �� Grad

� � � � Rang � � � � � � � � � Rang � � � � � � ' �� '������ ' � � (11)

Es gilt jedoch nicht Rang� � �� � � �

Rang� � �� � � � � � � ' vielmehr gilt:

Rang� � �� � � �

Rang � �� � � � � � ��

� � � Dim�� � und daher

Rang � �� � � � � Rang � � � �� � � � Rang � �� � � � � � � Rang � � � �� � � � � �

Die Normalform ist dann eine Matrix, die sich aus � diagonalen Blöcken und sonst Nullenzusammensetzt, wobei jeder Block eine Matrix wie im Spezialfall ist.

4.11.6 Satz von Frobenius über die irreduziblen Faktoren von � � und � �

� � und � � haben die gleichen irreduziblen normierten Faktoren � � '������ ' � � . Insbesondere ha-ben sie die gleichen irreduziblen Faktoren vom Grade 1 und damit die gleichen Nullstellen.Sie unterscheiden sich nur durch die Vielfachheiten, mit der die irreduziblen Faktoren in derPrimfaktor-Zerlegung vorkommen. Ist

� � � � �� � �&�&� � � � � � � � � � �

das charakteristische Polynom von � , so ist die Vielfachheit � � , � � '������ ' � , mit der � � imMinimalpolynom

� � �

��� � �&�&� � �

��

vorkommt, bestimmt durch:

� � Min

� Rang � �� � � � Rang � � � �� � � � � oder� �

Min � Kern � �� � � � Kern � � � �� � � � �

Page 208: Lineare Algebra

XVI.4 Das Normalformenproblem 203

4.11.7 Präzisierung des NormalformenproblemsEs soll eine Liste von Matrizen aufgestellt werden, so daß jedem ��� End

��� � eine Matrix � derListe eindeutig zugeordnet ist, für die � �

� ist bezüglich einer geeigneten Basis� � � '������ ' � � �

von�

. Jede Matrix der Liste heißt eine Matrix in Normalform oder kurz eine Normalform.Eine Lösung des Normalformenproblems besteht in der Aufstellung einer solchen Liste und derAngabe einer solchen eindeutigen Zuordnung.

Mit den Normalformen im Sinne von 4.4.2 wird das Normalformenproblem gelöst. Wir müssennur noch darauf achten, von jeder Menge von Matrizen, die Normalformen im Sinne von 4.4.2sind und die sich nur um die Reihenfolge der Kästchen unterscheiden, nur eine Matrix in dieListe aufzunehmen. Dann gilt:

4.11.8 Satz über die Eindeutigkeit der NormalformDie Normalform von � ist eindeutig bestimmt.

4.11.9 Satz über die Klassifikation von EndomorphismenVorbemerkung: Ein Ziel der Aufstellung von Normalformen war ja, Endomorphismen bis aufKonjugation (mit einem Isomorphismus � ) zu charakterisieren. Dieses ist durch eine solche Listeerreicht.

�+' � � End��� � sind zueinander konjugiert ! Die Normalformen von � und � stimmen

überein.

Erläuterung: Daß zwei Endomorphismen �(' � konjugiert sind können wir uns auch so vorstellen,daß sie den gleichen Typ haben; denn bei Wahl geeigneter Basen –im allgemeinen für � eineandere als für � – haben sie ja die gleiche Matrix. Der Satz sagt aus, daß der Typ eindeutig durchdie Normalform bestimmt wird.

4.11.10 Satz und Definition der Normalform einer MatrixZu � � � � � � gibt genau eine ähnliche Matrix in Normalform. Diese heißt Normalform von � .

4.11.11 Satz über Ähnlichkeit von MatrizenVorbemerkung: Mit Satz 4.4.10 ist auch die äquivalente Frage gelöst: „Wann sind zwei

�� � ��� -

Matrizen ähnlich ?“

� '�� � � ��� � sind ähnlich zueinander ! Ihre Normalformen sind gleich.

4.11.12 HaupträumeWegen ihrer Bedeutung hat der oben aufgetretene Raum

� � 1 Kern � � � � �� �

Kern � � � � � ��

einen besonderen Namen bekommen, er wird Hauptraum zu � � genannt.

Für lineares � � � � � � � � ist der Hauptraum � � zu � � nichts anderes als der verallgemeinerterEigenraum zum Eigenwert

� � :

� � 1 Kern� � � � � �

� � Kern

� � � � � � � �