lineare algebra

89
Kapitel 1 Lineare Gleichungssysteme und Matrizen 1.1 Lineare Gleichungssysteme und Matrizen Definition 1.1.1. Seien m, n N. Eine reelle m-mal-n-Matrix A =(a ij ) 1im 1j n =(a ij ) ist eine Familie reeller Zahlen a 11 ,a 12 ,...,a 1n ,a 21 ,a 22 ,...,a 2n ,...,a m1 ,...,a mn R. Die Menge aller reellen m-mal-n-Matrizen bezeichnen wir mit m R n . Wir wollen uns eine m-mal-n-Matrix stets als ein rechteckiges Zahlenschema vorstellen: A = a 11 a 12 ... a 1n a 21 a 22 ... a 2n . . . . . . . . . . . . a m1 a m2 ... a mn Klarstellung: Wir wissen nicht so genau, was eine Familie ist. Es soll aber (im Gegensatz zur Gleichheit von Mengen von Zahlen) jedenfalls folgendes gelten: Zwei Matrizen A =(a ij ) m R n und B =(b ij ) p R q sind genau dann gleich, wenn sie das gleiche Format, und Stelle f¨ ur Stelle dieselben Eintr¨ age haben, also genau dann wenn gilt m = p und n = q und 1 i m1 j n[a ij = b ij ]. Spezialf¨alle: Die Elemente von m R := m R 1 heißen Spaltenvektoren der L¨ ange m. Wir schreiben nat¨ urlich nur einen Index an die Koeffizienten, etwa a = a 1 a 2 . . . a m m R. Die Elemente von R n := 1 R n heißen Zeilenvektoren der L¨ ange n, etwa a = (a 1 a 2 ... a n )=(a 1 ,a 2 ,...,a n ) R n . 1

Upload: baireraum

Post on 25-Jul-2015

70 views

Category:

Documents


4 download

TRANSCRIPT

Page 1: Lineare Algebra

Kapitel 1

Lineare Gleichungssysteme undMatrizen

1.1 Lineare Gleichungssysteme und Matrizen

Definition 1.1.1. Seien m,n ∈ N.

Eine reelle m-mal-n-Matrix A = (aij)1≤i≤m1≤j≤n

= (aij) ist eine Familie reeller

Zahlen a11, a12, . . . , a1n, a21, a22, . . . , a2n, . . . , am1, . . . , amn ∈ R.

Die Menge aller reellen m-mal-n-Matrizen bezeichnen wir mit mRn.

Wir wollen uns eine m-mal-n-Matrix stets als ein rechteckiges Zahlenschemavorstellen:

A =

a11 a12 . . . a1n

a21 a22 . . . a2n...

.... . .

...am1 am2 . . . amn

Klarstellung: Wir wissen nicht so genau, was eine Familie ist. Es soll aber (im

Gegensatz zur Gleichheit von Mengen von Zahlen) jedenfalls folgendes gelten:Zwei Matrizen A = (aij) ∈ m

Rn und B = (bij) ∈ p

Rq sind genau dann gleich,

wenn sie das gleiche Format, und Stelle fur Stelle dieselben Eintrage haben, alsogenau dann wenn gilt m = p und n = q und ∀1 ≤ i ≤ m∀1 ≤ j ≤ n[aij = bij].

Spezialfalle: Die Elemente von mR := m

R1 heißen Spaltenvektoren der Lange

m. Wir schreiben naturlich nur einen Index an die Koeffizienten, etwa a =a1

a2...am

∈ mR.

Die Elemente von Rn := 1Rn heißen Zeilenvektoren der Lange n, etwa a =

(a1 a2 . . . an) = (a1, a2, . . . , an) ∈ Rn.

1

Page 2: Lineare Algebra

2 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

Ein typisches Lineares Gleichungssystem sieht so aus:

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2

...

am1x1 + am2x2 + · · ·+ amnxn = bm.

Die drei verschiedenen Sorten Großen hierin haben die Gestalt einer m-mal-n-Matrix A ∈ m

Rn von Koeffizienten, eines Spaltenvektors b ∈ m

R der Lange m,und (am wenigsten einleuchtend, weil die x’e ja nebeneinander liegen) eines Spal-tenvektors x ∈ n

R von Unbekannten. Die Multiplikation von Matrizen wird (ausder Luft gegriffen!) so definiert, daß sich diese m Gleichungen fur n Unbekannte,

die jeweils als bi =n∑j=1

aijxj daherkommen, in der Kurzform Ax = b schreiben

lassen.

Definition 1.1.2. Seien m,n, p ∈ N, A = (aij) ∈ mRn und B = (bij) ∈ n

Rp.

Wir definieren eine neue Matrix AB ∈ mRp, das Produkt von A und B, wie

folgt: AB := (cij) ∈ mRp, wobei wir fur 1 ≤ i ≤ m und 1 ≤ j ≤ n definieren:

cij :=n∑k=1

aikbkj

Beispiele und Erlauterungen 1.1.3. Zunachst beobachtet man, daß im Falle

p = 1, also B =: x =

x1...xn

∈ nR, tatsachlich erreicht ist, daß das Produkt Ax

die Koeffizientenn∑k=1

aikxk hat.

Die das Produkt definierende Formel ist noch fur die einfachsten Beispielezum

”von Hand Rechnen“ unbrauchbar. Man

”muß“ sich das folgende Schema

(das man eigentlich nur mit wildem Armerudern erklaren kann) vorstellen, umetwas rechnen zu konnen: AB = C

”geht so“:b11 . . . b1j . . . b1p

.... . . ↓ . . .

...bn1 . . . bnj . . . bnp

a11 . . . a1n...

. . ....

ai1 → ain...

. . ....

am1 . . . amn

c11 . . . ↓ . . . c1p...

. . . ↓ . . ....

→ → cij...

. . . . . ....

cm1 . . . . . . cmp

Page 3: Lineare Algebra

1.1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN 3

Schreibt man also die drei Matrizen (die zwei Faktoren und das Produkt) wieangedeutet neben- und ubereinander, dann wird ein Koeffizient im Produkt Caus der Zeile in A und der Spalte in B gebildet, die sich in diesem Koeffizienten

”treffen“ oder

”schneiden“. Was an diese Stelle genau kommt: Die Summe der

Produkte von einem Eintrag aus A und einem aus B, wobei die Spaltennummerin A gleich der Zeilennummer in B ist.

Ein beliebiges Beispiel:

1 22 10 12 −2

( 2 3 1−1 0 −2

)=

0 3 −33 6 0−1 0 −26 6 6

Ein besonders gemeines Beispiel:

(1 2 3

)456

= 32 ∈ R =: 1R

1, aber

456

(1 2 3)

=

3 6 94 8 125 10 15

∈ 3R

3.

Klarstellung: Wenn die Spaltenzahl von A nicht mit der Zeilenzahl vonB uber-einstimmt, dann ist das Produkt AB nicht definiert, man kann auch beim besten

Willen keine vernunftige Definition geben. Zum Beispiel ist also(1 2 3

)(45

)nicht definiert, wahrend(

45

)(1 2 3

)=

(3 6 94 8 12

)∈ 2R

3.

In den Beispielen kam schon der folgende Spezialfall vor: IstA =(a1 a2 . . . an

)∈

Rn ein Zeilenvektor, und B =

b1

b2...bn

∈ nR ein Spaltenvektor, dann ist das Pro-

dukt AB eine Zahl, namlich AB =n∑i=1

aibi, die Summe der paarweisen Produkte

eines Eintrags aus A mit dem Eintrag aus B zu demselben Index.Seien nun A = (aij) ∈ m

Rn und B = (bij) ∈ n

Rp.

Die Zeilenvektoren z1, . . . , zm ∈ Rn mit zi =(ai1 ai2 . . . ain

)nennen wir

die Zeilen von A, und schreiben auch A =

z1

z2...zm

.

Die Spaltenvektoren s1, . . . , sp ∈ nR mit sj =

b1j

b2j...bnj

nennen wir die Spalten

Page 4: Lineare Algebra

4 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

von B, und schreiben auch B =(s1 s2 . . . sp

).

Damit ergeben sich die folgenden Beobachtungen fur das Produkt AB:

AB =

z1s1 z1s2 . . . z1spz2s1 z2s2 . . . z2sp

......

. . ....

zms1 zms2 . . . zmsp

=(As1 As2 . . . Asp

)=

z1Bz2B

...zmB

Satz 1.1.4. Seien m,n, p, q ∈ N, A ∈ m

Rn, B ∈ n

Rp und C ∈ p

Rq. Dann gilt

A(BC) = (AB)C.

Beweis. (Hauptarbeit des Beweises ist es, Bezeichnungen fur alle Beteiligten ein-zufuhren.)

Sei A = (aij), B = (bij), C = (cij). Wir schreiben AB = (xij) ∈ mRp,

BC = (yij) ∈ nRq, (AB)C = (rij) ∈ m

Rq und A(BC) = (sij) ∈ m

Rq. Wir wollen

zeigen: rij = sij fur alle i, j.Definitionsgemaß gelten

∀1 ≤ i ≤ m∀1 ≤ k ≤ p : xik =n∑j=1

aijbjk

∀1 ≤ j ≤ n∀1 ≤ ` ≤ q : yj` =

p∑k=1

bjkck`

also weiter, ∀1 ≤ i ≤ m∀1 ≤ ` ≤ q

ri` =

p∑k=1

xikck` =

p∑k=1

(n∑j=1

aijbjk

)ck` =

p∑k=1

n∑j=1

aijbjkck`

si` =n∑j=1

aijyj` =n∑j=1

aij

(p∑

k=1

bjkck`

)=

n∑j=1

p∑k=1

aijbjkck`.

Die jeweils letzte Umformung macht dabei vom Distributivgesetz fur reelle ZahlenGebrauch. Die beiden Endergebnisse sind gleich, weil es auf die Reihenfolge derSummanden nicht ankommt.

Definition und Satz 1.1.5. Sei n ∈ N. Die n-mal-n-Einheitsmatrix En ∈ nRn

ist definiert durch

En = (δij)1≤i≤n1≤j≤n

∈ nRn, mit δij :=

{1 falls i = j

0 sonst,

also

En =

1 0 . . . . . . 00 1 0 . . . 0... 0

. . . . . ....

.... . . 1 0

0 . . . . . . 0 1

Page 5: Lineare Algebra

1.1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN 5

(mit Einsen auf der Diagonalen, Nullen uberall sonst).δij wird in dieser Bedeutung auch als Kronecker-Symbol bezeichnet.Es gilt fur alle m,n ∈ N und A ∈ m

Rn:

AEn = A = EmA.

Beweis. Wieder sei A = (aij), und AEn = (bij). Es gilt

bij =n∑k=1

aikδkj = aij,

denn wegen der Definition des Kronecker-Symbols sind alle Summanden gleichNull, außer dem einen, fur den der Summationsindex k gerade den Wert j an-nimmt. Dieser Summand ist (weil δjj = 1) aber eben aij. Der Beweis der anderenFormel geht ganz analog.

Definition 1.1.6. Seien m,n ∈ N.Fur A = (aij) ∈ m

Rn, B = (bij) ∈ m

Rn und λ ∈ R definieren wir

A+B := (aij + bij)1≤i≤m1≤j≤n

λA := (λaij)1≤i≤m1≤j≤n

−A := (−1)A = (−aij)A−B := A+ (−1)B = (aij − bij)

Weiter definieren wir 0 ∈ mRn als die Matrix, deren Koeffizienten samtlich gleich

Null sind.

Satz 1.1.7. Seien m,n ∈ N, A,B,C ∈ mRn und λ, µ ∈ R.

Dann gelten:

A+B = B + A

A+ (B + C) = (A+B) + C

A+ 0 = A

A− A = 0

0 · A = 0

λ(A+B) = λA+ λB

(λ+ µ)A = λA+ µA

(λµ)A = λ(µA)

1 · A = A

Beweis. Klar!

Page 6: Lineare Algebra

6 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

Satz 1.1.8. Seien m,n, p, q ∈ N, A ∈ mRn, B,C ∈ n

Rp, D ∈ p

Rq und λ ∈ R.

Dann gelten

A(B + C) = AB + AC

(B + C)D = BD + CD

(λA)B = λ(AB) = A(λB)

A · 0 = 0 = 0 · A

Beweis. Seien A = (aij), B = (bij), C = (cij), AB = (xij), AC = (yij), B + C =(zij), A(B + C) = (rij) und AB + AC = (sij). Dann ist

rij =n∑k=1

aikzkj =n∑k=1

aik(bkj + ckj) =n∑k=1

(aikbkj + aikckj)

=n∑k=1

aikbkj +n∑k=1

aikckj = xij + yij = sij

fur alle 1 ≤ i ≤ m und 1 ≤ j ≤ p.Das beweist A(B +C) = AB +AC. Die zweite Formel beweist man genauso.Mit λ(AB) = (rij) und A(λB) = (sij) ist

rij = λn∑k=1

aikbkj =n∑k=1

aik(λbkj) = sij

also λ(AB) = A(λB). Die Gleichung λ(AB) = (λA)B beweist man genauso. Dieletzte Gleichung ist banal.

Definition 1.1.9. Ein lineares Gleichungssystem ist die folgende Aufgabe: Ge-geben sind eine m-mal-n-Matrix A ∈ m

Rn (genannt Koeffizientenmatrix) und ein

Spaltenvektor b ∈ mR der Lange m (genannt rechte Seite).

Gesucht sind alle x ∈ nR mit Ax = b.

Wir nennen L(A, b) := {x ∈ nR|Ax = b} den Losungsraum des LGS.

Falls b = 0, nennen wir das LGS homogen, anderenfalls inhomogen. Das LGSAx = 0 heißt das zu Ax = b gehorige homogene LGS.

Ein homogenes lineares Gleichungssystem hat stets mindestens eine Losung,namlich x = 0. Diese nennen wir die triviale Losung.

Folgerung 1.1.10. Seien m,n ∈ N, A ∈ mRn und b ∈ m

R.

(1) ∀x, y ∈ L(A, 0)∀λ ∈ R[x+ y ∈ L(A, 0) ∧ λx ∈ L(A, 0)].

(2) Falls x0 ∈ L(A, b), ist L(A, b) = x0 + L(A, 0) := {x0 + x|x ∈ L(A, 0)}.

Die letzte Aussage lautet in Worten: Wenn eine Losung des inhomogenen Sy-stems Ax = b bekannt ist, dann erhalt man jede Losung, indem man zu diesersogenannten partikularen Losung eine beliebige Losung des homogenen Systemsaddiert.

Page 7: Lineare Algebra

1.2. ZUSAMMENGEWURFELTE BEISPIELE 7

Beweis. Zu (1): Ax = 0∧Ay = 0⇒ A(x+y) = Ax+Ay = 0, A(λx) = λ(Ax) = 0.

Zu (2): Um die Gleichheit von Mengen zu beweisen, zeigen wir, daß beideMengen dieselben Elemente haben.

Sei also y ∈ L(A, b). Wir setzen x := y − x0, so daß also y = x0 + x. WeilAx = A(y − x0) = Ay − Ax0 = b− b = 0, ist x ∈ L(A, 0).

Sei umgekehrt y ∈ x0 + L(A, 0), etwa y = x0 + x mit x ∈ L(A, 0). Dann istAy = A(x0 + x) = Ax0 + Ax = b+ 0 = b, also y ∈ L(A, b).

1.2 Zusammengewurfelte Beispiele

Vorbemerkung: Dank dem Assoziativgesetz fur die Matrizenmultiplikation sindfur A ∈ n

Rn die Potenzen Ak, k ∈ N, erklart. Die meisten Beispiele in diesem

Abschnitt zeigen, wie solche Potenzen”im wirklichen Leben“ auftreten.

Definition 1.2.1. Ein gerichteter Graph ist ein Paar G = (V,E) von Mengen,wobei jedes Element von E ein Paar von Elementen von V ist.

[Klarstellung am Rande: Ein Paar (x, y) soll ein Konstrukt sein mit der Ei-genschaft (x, y) = (a, b)⇔ x = a ∧ y = b.]

Die Elemente von V heißen die Ecken (engl. vertices) des Graphen, die Ele-mente von E heißen die Kanten (engl. edges). Fur (v, v′) ∈ E sagen wir auch: Indem Graphen gibt es einen Pfeil, oder eine Kante, von v nach v′.

Beispielsweise ist

1 //

��

2

���������

3 // 4

OO

der Graph mit V = {1, 2, 3, 4}, E = {(1, 2), (1, 3), (2, 3), (3, 4), (4, 2)}.

Die Adjazenzmatrix eines Graphen G = (V,E) mit V = {1, . . . , n} ist dieMatrix A = (aij) ∈ n

Rn mit

aij =

{1 falls (i, j) ∈ E0 sonst.

Im obigen Beispiel also A =

0 1 1 00 0 1 00 0 0 10 1 0 0

.

Ein Weg in G von v0 nach v` der Lange ` ist eine Abfolge von Ecken (v0, . . . , v`)mit (vi, vi+1) ∈ E fur i = 0, . . . , `− 1. Im obigen Beispiel ist etwa (1, 2, 3, 4, 2) einWeg von 1 nach 2 der Lange 4.

Page 8: Lineare Algebra

8 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

Satz 1.2.2. Sei G = (V,E) ein Graph mit Eckenmenge V = {1, . . . , n} und

Adjazenzmatrix A = (aij). Bezeichne a(`)ij die Anzahl der Wege von i nach j der

Lange `. Dann gilt fur alle ` ∈ N:

A` = (a(`)ij )1≤i≤n

1≤j≤n

Beweis. Wir beweisen die Behauptung durch vollstandige Induktion uber `.Der Fall ` = 1 ist die Definition der Adjazenzmatrix.Sei die Behauptung fur Wege der Lange ` schon bekannt. Wir zahlen Wege

der Lange `+ 1 von i nach k wie folgt:

• Fur jede Ecke j zahlen wir die Wege der Lange ` von i nach j. Das sind a(`)ij

Stuck.

• Alle Wege der Lange `+ 1 ergeben sich aus einem Weg der Lange `, gefolgtvon einer letzten Kante. Wir mussen also die Anzahlen aller in i startendenWege der Lange ` aufsummieren, aber nur derjenigen, deren letzte Eckeweiter nach k verbunden werden kann.

a(`+1)ik =

∑j mit

(j,k)∈E

a(`)ij =

n∑j=1

a(`)ij ajk

Wir erkennen die Formel fur ein Produkt von Matrizen. Da a(`)ij die Koeffi-

zienten von A` sind, sind a(`+1)ik also die Koeffizienten von A`+1.

Beispiel 1.2.3. (Unsterbliche Hasen...)Wir betrachten folgendes Modell der Entwicklung einer Hasenpopulation: Im

ersten Lebensjahr sind Hasen noch nicht erwachsen. Wenn sie ab dem zweitenLebensjahr erwachsen sind, dann wirft jedes Hasenpaar jedes Jahr ein Paar Junge.Hasen sterben nie!

Wie entwickelt sich die Hasenpopulation im Lauf der Jahre?Wir bezeichnen mit a

(1)n die Anzahl der Hasenpaare im ersten Lebensjahr, und

mit a(2)n die Anzahl der erwachsenen Hasenpaare, jeweils im Jahr Nummer n.

Es gelten die Rekursionsformeln a(1)n+1 = a

(2)n (es gibt fur jedes im Jahr n

erwachsene Hasenpaar ein Paar Junge im nachsten Jahr), und a(2)n+1 = a

(2)n + a

(1)n

(denn zu den schon im Jahr n erwachsenen Hasenpaaren kommen im folgendenJahr noch die erwachsen gewordenen Junghasen des Jahres n hinzu).

In Matrixform ist also(a

(1)n+1

a(2)n+1

)= A

(a

(1)n

a(2)n

)mit A =

(0 11 1

).

Page 9: Lineare Algebra

1.2. ZUSAMMENGEWURFELTE BEISPIELE 9

Die Hasenpopulation im Jahr n wird damit durch(a

(1)n

a(2)n

)= An−1

(a

(1)1

a(2)1

)

beschrieben.

”Weil“ die Hasen in unserem Modell nicht sterben, ist es einfach, die Ent-

wicklung auf andere Art zu beschreiben: Wir fuhren hier nur Buch uber dieGesamtzahl an der Hasenpaare im Jahr n. Die Zahl der im Jahr n erwachsenenHasen ist einfach die Gesamtzahl der Hasen, die schon im Jahr zuvor da waren.Damit ergibt sich die Formel an+2 = an+1 + an, denn im Jahr n + 2 kommen zuden an+1 Hasenpaaren des Vorjahres noch die von den erwachsenen, also schonim Jahr n vorhandenen Hasenpaaren geborenen Junghasen hinzu.

Die Folge a1, a2, a3, a4, . . . ist vollstandig durch die Rekursionsformel und dieAngabe von a1, a2 festgelegt. Die Rekursionsformel laßt sich auch als(

an+1

an+2

)= A

(anan+1

)schreiben, zufallig mit derselben Matrix A wie oben.

Der Spezialfall a1 = a2 = 1 heißt auch Fibonacci-Folge. Die Folge startet so:

1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, . . .

Es ist offensichtlich, daß es sich nicht um einen exponentiellen Anstieg han-delt (wo man doch sagen wurde, daß sich Hasen sicher exponentiell vermehren...),sondern um etwas ausgesprochen unubersichtliches. Die Frage nach der Entwick-lung der Population ist wieder die Frage nach den Potenzen von A. (Hierzu gibtes ein Computerexperiment und eine Ubungsaufgabe!)

Definition 1.2.4. Ein stochastischer Vektor ist ein (Spalten)vektor x = (xi) ∈nR mit

n∑i=1

xi = 1 und ∀1 ≤ i ≤ n[0 ≤ xi] (damit ist naturlich automatisch

xi ≤ 1).Insbesondere sind die kanonischen Einheitsvektoren Wahrscheinlichkeitsvek-

toren.Deutung: Die Indizes 1 ∈ {1, . . . , n} numerieren die moglichen Zustande eines

Systems; ein Wahrscheinlichkeitsvektor listet die Wahrscheinlichkeiten auf, daßsich das System in dem jeweiligen Zustand befindet. Die kanonischen Einheits-vektoren stellen ein System dar, das mit Sicherheit in einem bestimmten Zustandist.

Beispiel 1.2.5. Beispielsweise n = 3, x1 die Wahrscheinlichkeit, daß es am24.12.2001 in Munchen schneit, x2 die Wahrscheinlichkeit, daß es nicht schneit,

Page 10: Lineare Algebra

10 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

aber schon Schnee liegt, x3 die Wahrscheinlichkeit, daß es weder schneit, nochSchnee liegt. (Das ist ein schlechtes Beispiel, da man Einzelereignissen nicht soohne weiteres eine Wahrscheinlichkeit zuschreiben kann, aber wir lassen mal funfegerade sein...)

Fur das Wetter in den letzten Jahren im Dezember mogen folgende rein hypo-thetischen Beobachtungen vorliegen: Wenn es an einem gegebenen Tag schneit,dann ist das mit 20-prozentiger Wahrscheinlichkeit auch noch am folgenden Tagso, mit 70-prozentiger Wahrscheinlichkeit schneit es dann nicht mehr, aber es liegtSchnee, mit 10-prozentiger Wahrscheinlichkeit ist kein Schnee am Boden und inder Luft. Wenn es an einem gegebenen Tag nicht schneit, aber Schnee liegt, dannist es am folgenden Tag mit 80-prozentiger Wahrscheinlichkeit immer noch so,mit je 10-prozentiger Wahrscheinlichkeit schneit es, oder es ist alles getaut, undes schneit nicht. Schneit es schließlich an einem gegebenen Tag nicht, und liegtauch kein Schnee, dann liegt am folgenden Tag sicher kein Schnee, ohne daß esschneit. Immerhin besteht aber eine Chance von 20 Prozent, daß es dann schneit.

Das laßt sich so ausdrucken: Ist x ∈ 3R der Wahrscheinlichkeitsvektor, der die

Wahrscheinlichkeiten fur die drei moglichen”Schneelagen“ an einem gegebenen

Tag ausdruckt, dann ist Ax, mit A =

0, 2 0, 1 0, 20, 7 0, 8 00, 1 0, 1 0, 8

, die Wahrscheinlichkeits-

verteilung fur den folgenden Tag.

Definition 1.2.6. Eine Matrix A ∈ nRn heißt stochastische Matrix, wenn die

Spalten von A Wahrscheinlichkeitsvektoren sind.Sei A ∈ n

Rn eine stochastische Matrix, und x ∈ n

R ein Wahrscheinlichkeits-vektor. Dann heißt die Folge der Wahrscheinlichkeitsvektoren Akx, k = 1, 2, . . . ,ein Markov-Prozeß.

Deutung: Eine stochastische Matrix beschreibt die Entwicklung des betrach-teten Systems in einer Zeiteinheit, die Potenzen der Matrix beschreiben die Ent-wicklung nach Ablauf mehrerer Zeiteinheiten. Der Koeffizient in der i-ten Zeileund j-ten Spalte ist die bedingte Wahrscheinlichkeit, daß sich das System, falls essich zu einem Zeitpunkt im Zustand j befunden hat, sich nach Ablauf einer Zeit-einheit im Zustand i befindet. Nach den (uns formal naturlich nicht bekannten)Rechenregeln fur bedingte Wahrscheinlichkeiten ist dann die Wahrscheinlichkeit,nach einem Zeitschritt im Zustand i anzukommen, tatsachlich durch

n∑j=1

aijxj

gegeben, wenn die x = (xi) die zuvor gegebene Wahrscheinlichkeitsverteilungwar. Der j-te Summand ist die Wahrscheinlichkeit fur

”erst j, und dann i“.

An dem Schneebeispiel haben wir mit Maple-Hilfe den folgenden Satz”be-

obachtet“, den zu beweisen aber bei weitem unsere Moglichkeiten sprengt (malabgesehen davon, daß wir nicht wissen, was ein Limes ist):

Page 11: Lineare Algebra

1.2. ZUSAMMENGEWURFELTE BEISPIELE 11

Satz 1.2.7. Sei A ∈ nRn eine stochastische Matrix, so daß ein ` ∈ N existiert so

daß alle Koeffizienten von A` von Null verschieden sind.Dann gibt es einen Wahrscheinlichkeitsvektor s ∈ n

R so daß

limk→∞

Ak = (s, s, . . . , s)

die Matrix ist, deren Spalten alle = s sind.Weiter ist s der eindeutig bestimmte Wahrscheinlichkeitsvektor, der die Glei-

chung As = s lost.

Beispiel 1.2.8 (Input-Output-Matrizen). Wir betrachten eine Anzahl vonGutern (Waren, Dienstleistungen), durchnumeriert von 1 bis n. Einen Vektorx = (xi) ∈ n

R deuten wir als Mengenangaben fur diese Guter.Durch eine Matrix A = (aij) ∈ n

Rn beschreiben wir, wieviel von den jeweiligen

Gutern benotigt wird, um ein gewisses dieser Guter herzustellen. Der Koeffizientaij gibt an, wieviel von Gut Nummer i bei der Produktion von einer Einheit vonGut Nummer j verbraucht wird.

Beispielsweise betrachten wir die Produktion von Stahl. Zur Produktion ei-ner Tonne Stahl mogen drei Tonnen Steinkohle benotigt werden, zur Forderungvon einer Tonne Steinkohle wiederum 100 kg Stahl (in Form des Verbrauchsvon Geraten). Wir numerieren in der Reihenfolge 1. Kohle, 2. Stahl. Die Ma-

trix A =

(0 3

0, 1 0

)beschreibt den zur Produktion notigen Verbrauch: Um x zu

produzieren, wird Ax verbraucht. Matrizen wie

(0, 1 30, 1 0, 1

)sind qualitativ plau-

sibler (schließlich wird auch bei der Stahlproduktion wieder Stahl verbraucht...).In der Okonomie sind Modelle mit weitaus mehr Gutern gebrauchlich, verwandteMatrizen werden fur ganze Volkswirtschaften erstellt (mit einigen hundert Zeilenund Spalten).

Eine Fragestellung fur das obige Modell: Wieviel muß produziert werden, wenn1000t Stahl verkauft werden sollen? Im einfachsten Beispiel oben mussen dazu3000t Steinkohle bereitgestellt werden, fur deren Forderung wiederum 300t Stahlverbraucht werden, zu dessen Produktion 900t Steinkohle notig waren, zu de-ren Forderung 90t Stahl gebraucht werden, zu dessen Produktion 270t Steinkoh-le....Insgesamt sind wir soweit schon bei 1390t Stahl und 4170t Steinkohle, und esist klar, daß sich die Rechnung im Prinzip beliebig fortsetzt, allerdings absehbarmit immer kleineren, am Ende bedeutungslosen Mengen.

Etwas formaler: Um b ∈ nR zu verkaufen muß naturlich b produziert werden,

aber zusatzlich wird Ab benotigt, zur Produktion von Ab wiederum A2b, zurProduktion von A2b zusatzlich A3b, und so weiter, insgesamt

x := b+ Ab+ A2b+ · · · =∞∑k=0

Akb

Page 12: Lineare Algebra

12 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

(was immer das formal heißen mag.)[Mit ein bißchen Maple haben wir dazu ein paar Zahlenbeispiele angeschaut,

auch ein Beispiel, A =

(0, 2 40, 2 0, 2

), bei dem die Potenzen von A immer großer

werden, und im Endeffekt nichts verkauft werden kann].Die exakte Bestimmung von x (ohne Grenzwert) lauft so: Wir betrachten

(informell!!)

x = b +Ab +A2b +A3b + . . .Ax = Ab +A2b +A3b + . . .

x− Ax = b +0 +0 +0 + . . .

und schließen daraus, daß die gesuchte notige Gesamtproduktion x ∈ nR sich als

Losung des LGS (En − A)x = b ergibt.

1.3 Das Gauß’sche Eliminationsverfahren

Definition 1.3.1. Eine m-mal-n-Matrix A ∈ mRn hat Zeilenstufenform, mit r

Stufen an den Stellen j1, . . . , jr ∈ {1, . . . , n}, mit j1 < j2 < · · · < jr, wenn gelten:

∀i ∈ {1, . . . , r}[ai,ji 6= 0] und

∀i ∈ {1, . . . ,m}∀j ∈ {1, . . . , n}[aij 6= 0⇒ i ≤ k ∧ j ≥ ji]

Wir wollen vereinbaren, daß auch A = 0 eine Zeilenstufenmatrix (mit Null Stufen)ist.

Definition 1.3.2. Seien A ∈ mRn und b ∈ m

R. Die Matrix (A, b) ∈ mRn heißt

die erweiterte Matrix des LGS Ax = b.

Satz 1.3.3. Seien A ∈ mRn und b ∈ m

R. Wir nehmen an, daß die erweiterteMatrix (A, b) Zeilenstufenform mit r Stufen an den Stellen j1, . . . , jr hat.

(1) Wenn r 6= 0 und jr = n+ 1, dann hat Ax = b keine Losung.

(2) Wenn r = 0, dann erfullt jedes x ∈ nR das LGS Ax = b.

(3) Sei r 6= 0 und jr ≤ n. Sei d := n − r, und sei {1, . . . , n} \ {j1, . . . , jr} ={k1, . . . , kd} mit k1 < k2 < · · · < kd. Dann gibt es fur jede Wahl vont1, . . . , td ∈ R genau eine Losung x = (xi) ∈ n

R von Ax = b mit derEigenschaft

∀1 ≤ i ≤ d[xki = ti].

Die Koeffizienten von x konnen in absteigender Reihenfolge xn, xn−1, . . . , x1

wie folgt berechnet werden: Fur jedes j ∈ {1, . . . , n} ist nach unseren Be-nennungen entweder j = ki fur ein eindeutig bestimmtes i ∈ {1, . . . , d},

Page 13: Lineare Algebra

1.3. DAS GAUSS’SCHE ELIMINATIONSVERFAHREN 13

oder j = ji fur ein eindeutig bestimmtes i ∈ {1, . . . , r}. Nun setzen wir

xj :=

{ti falls j = ki

1ai,ji

(bi −

∑n`=ji+1 ai`x`

)falls j = ji

Beweis. Zu (1): Die r-te Gleichung des Systems lautet 0 = br, und es ist br 6= 0nach Voraussetzung. (2) ist banal.

Nun zu (3). Wir wahlen t1, . . . , td aus. Es sind Existenz und Eindeutigkeit derLosung zu beweisen.

Zur Existenz: Wir definieren den Vektor x wie angegeben. Die r + 1-te bism-te Gleichung des LGS lauten 0 = 0 und sind also erfullt. Fur 1 ≤ i ≤ r ist

n∑`=1

ai`x` = ai,jixji+n∑

`=ji+1

ai`x` = ai,ji1

ai,ji

(bi −

n∑`=ji+1

ai`x`

)+

n∑`=ji+1

ai`x` = bi

also ist Ax = b. Außerdem gilt xki = ti nach Definition.Zur Eindeutigkeit: Sei auch x′ = (x′j) eine Losung mit x′ki = zi fur alle i ∈

{1, . . . , d}. Angenommen x′ 6= x. Dann gibt es einen großten Index j ∈ {1, . . . , n}mit x′j 6= xj. Zwangslaufig ist j 6∈ {k1, . . . , kd}. Also gibt es i ∈ {1, . . . , r} mitj = ji. Aus

bi =n∑`=1

ai`x′t = ai,jixji +

n∑`=ji+1

ai`x′`

folgt

x′ji =1

ai,ji

(bi −

n∑`=ji+1

ai`x′`

)=

1

ai,ji

(bi −

n∑`=ji+1

ai`x`

)= xji ,

ein Widerspruch.

Wir fahren nochmal fort in den Bezeichnungen des vorhergehenden Satzes.Zusatzlich nehmen wir d 6= 0 an.

Sei T =

ek1

...ekd

∈ dRn, wobei hier ek1 , . . . , ekd ∈ Rn kanonische Einheitszei-

lenvektoren sind. Dann ist fur x = (xi) ∈ nR Tx = (xki)1≤i≤d, also sagt der

Satz: Fur jedes t ∈ dR existiert genau ein x ∈ L(A, 0) mit Tx = t. Insbeson-

dere gibt es x(1), . . . , x(d) ∈ L(A, 0) so daß Tx(i) = ei ∈ dR fur 1 ≤ i ≤ d. Wir

setzen L = (x(1), . . . , x(d)) ∈ nRd. Dann gilt AL = (Ax(1), . . . , Ax(d)) = 0 und

TL = (Tx(1), . . . , Tx(d)) = (e1, . . . , ed) = Ed. Ist also t ∈ dR, dann ist die ein-

deutig bestimmte Losung x ∈ L(A, 0) mit Tx = t gegeben durch x = Lt, dennALt = 0, und TLt = Edt = t. Weil fur t = (ti) ∈ d

R gilt t =∑d

i=1 tiei, folgtLt = L(

∑tiei) =

∑tiLei =

∑tix

(i). Sind andererseits auch λ1, . . . , λd ∈ R mit

Page 14: Lineare Algebra

14 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

Lt =∑λix

(i), dann folgt (ti)1≤i≤d = t = TLt = T (∑λix

(i)) =∑λiTx

(i) =∑λiei = (λi)1≤i≤d, und es folgt λi = ti fur alle i. Wir haben damit den Fall d 6= 0

des folgenden Satzes bewiesen, der Fall d = 0 ist trivial, wenn man ihn richtigliest.

Satz 1.3.4. Sei A ∈ mRn eine Zeilenstufenmatrix mit r Stufen an den Stellen

j1, . . . , jr, d = n − r. Dann gibt es Vektoren x(1), . . . , x(d) ∈ L(A, 0) dergestalt,daß sich jedes x ∈ L(A, 0) in der Form x =

∑di=1 λix

(i) fur eindeutig bestimmteλ1, . . . , λd ∈ R schreiben laßt.

Sind noch b ∈ mR und x(0) eine partikulare Losung des Gleichungssystems

Ax = b, dann laßt sich jede andere Losung x′ in der Form x′ = x(0) +∑d

i=1 λix(i)

fur eindeutig bestimmte λ1, . . . , λd ∈ R schreiben.

Definition 1.3.5. Eine elementare Zeilenumformung ist eine der folgenden Ma-nipulationen an einer Matrix A ∈ m

Rn:

(1) Addieren des λ-fachen der i-ten Zeile zur j-ten Zeile, mit i, j ∈ {1, . . . ,m},i 6= j, und λ ∈ R.

(2) Multiplizieren der i-ten Zeile mit λ ∈ R \ {0}.

(3) Vertauschen zweier Zeilen von A.

Sind z1, . . . , zm ∈ Rn die Zeilen von A, ersetzen also die elementaren Zeilenum-formungen A durch, respektive

z1...

zj + λzi ← j...zm

z1...λzi ← i...zm

z1...zj ← i...zi ← j...zm

(wobei fur die letzte Umformung die Zeilen i und j mit i < j vertauscht werden).

Zwei Matrizen A,A′ ∈ mRn heißen zeilenaquivalent, wir schreiben auch A ∼

A′, wenn es Matrizen A0, . . . , Ak mit A = A0, Ak = A′ gibt, so daß jeweils A`+1

aus A` durch eine elementare Zeilenumformung hervorgeht.

Man beobachtet sogleich, daß jede elementare Zeilenumformung durch eineelementare Zeilenumformung ruckgangig gemacht werden kann; das gleiche giltdann naturlich auch fur hintereinander ausgefuhrte Zeilenumformungen, so daßA ∼ A′ ⇔ A′ ∼ A.

Satz 1.3.6. Seien A,A′ ∈ mRn und b, b′ ∈ m

R so daß (A, b) ∼ (A′, b′). Dann istL(A, b) = L(A′, b′).

Page 15: Lineare Algebra

1.3. DAS GAUSS’SCHE ELIMINATIONSVERFAHREN 15

Beweis. Es genugt, den Fall zu betrachten, daß (A′, b′) durch eine einzige ele-mentare Zeilenumformung aus (A, b) hervorgeht. Außerdem genugt es, L(A, b) ⊂L(A′, b′) zu zeigen.

Wir nennen die Zeilen von A wieder z1, . . . , zm, und schreiben b = (bi). DasLGS Ax = b lautet etwas expliziter ∀1 ≤ i ≤ m[zix = bi]. Sei x ∈ L(A, b). Weiterbezeichnen wir die Zeilen von A′ mit z′i, die Koeffizienten von b′ mit b′i, so daßA′x = b′ genauer ∀1 ≤ i ≤ m[z′ix = b′i] bedeutet.

Werden bei der Umformung zwei Zeilen vertauscht, andert sich nur die Rei-henfolge der Gleichungen. Wird die i-te Zeile mit λ ∈ R \ {0} multipliziert, soandert sich lediglich die i-te Gleichung, mit z′i = λzi und b′i = λbi ist z′ix =(λzi)x = λzix = λbi = b′i. Wird das λ-fache der i-ten zur j-ten Zeile addiert,andert sich nur die j-te Gleichung. Mit z′j = zj + λzi und b′j = bj + λbi ist

z′jx = (zj + λzi)x = zjx+ λzix = bj + λbi = b′j

In jedem Fall haben wir x ∈ L(A′, b′) gepruft.

Satz 1.3.7. Sei A ∈ mRn. Dann gibt es eine Zeilenstufenmatrix A′ ∈ m

Rn mit

A ∼ A′.

Beweis. (Gauß’sches Eliminationsverfahren). Wir beweisen die Behauptung durchInduktion uber m + n. Der Fall m + n = 2, also m = n = 1 ist offensichtlich.Seien nun m, n, und A vorgegeben; wir nehmen an, daß die Behauptung fur allekleineren Matrizen schon bewiesen ist.

Falls A = 0, ist nichts zu zeigen, ebenso falls A nur eine Zeile hat. Sei also abjetzt A 6= 0 und m ≥ 2.

Falls die erste Spalte von A verschwindet, ist n ≥ 2 und A = (0, B) mit 0 ∈ mR

und B ∈ mRn−1. Nach Voraussetzung ist B ∼ B′ mit einer Zeilenstufenmatrix

B′ ∈ mRn−1. Dann ist aber auch A ∼ (0, B′), und letzteres ist eine Zeilenstufen-

matrix (wenn B′ r Stufen an den Stellen j1, . . . , jr hat, dann hat (0, B′) r Stufenan den Stellen j1 + 1, . . . , jr + 1).

Falls die erste Spalte von A nicht verschwindet, gibt es einen Index k mitak1 6= 0. Ist i 6= 1, so konnen wir die erste mit der k-ten Zeile vertauschen; dadurcherhalten wir eine Matrix (a′ij) = A′ ∼ A mit a′11 6= 0. Also konnen wir ebensoguta11 6= 0 annehmen. Jetzt fuhren wir m−1 elementare Zeilenumformungen durch,

indem wir jeweils das −ak1

a11

-fache der ersten Zeile zur k-ten addieren, fur alle

k ∈ {2, . . . ,m}. Die entstehende Matrix sei A′ = (a′ij). Nach Konstruktion ist furk ∈ {2, . . . ,m}

a′k1 = ak1 −ak1

a11

a11 = 0.

Falls n = 1, ist also A′ =

a11

0...0

eine Zeilenstufenmatrix. Falls n > 1, ist

Page 16: Lineare Algebra

16 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

A′ =

(a11 ∗0 B

)mit B ∈ m−1

Rn−1. Nach Voraussetzung ist B ∼ B′ fur eine

Zeilenstufenmatrix B′ ∈ m−1Rn−1, und damit folgt A ∼ A′ ∼

(a11 ∗0 B′

), und

letzteres hat Zeilenstufenform (wenn B′ r−1 Stufen an den Stellen j2, . . . , jr hat,

dann hat die Matrix

(a11 ∗0 B′

)r Stufen an den Stellen 1, j2 + 1, j3 + 1, . . . , jr +

1).

Bemerkung 1.3.8. Man kann das Verfahren fortsetzen, bis man zu einer Zei-lenstufenmatrix A mit derselben Anzahl von Stufen an denselben Stellen kommt,aber so daß zusatzlich fur alle 1 ≤ i ≤ r gelten Eigenschaften aiji = 1 und a`ji = 0fur ` < i.

Das so zu Ende gefuhrte Verfahren wird auch als Gauß-Jordan-Verfahren ge-nannt.

Folgerung 1.3.9. Ein LGS Ax = b kann man also wie folgt losen. Man betrachtetdie erweiterte Koeffizientenmatrix (A, b), bringt sie durch elementare Zeilenum-formungen auf Zeilenstufenform (A′, b′) (das kann man, muß man aber nicht somachen, wie der Beweis von Satz 1.3.7 angibt!), und liest dann die Losungen ab,wie es Satz 1.3.3 angibt; insbesondere kann man auch wie in Satz 1.3.4 Vektorenx(1), . . . , x(d) angeben, so daß jede Losung von Ax = b eindeutig die Form

∑λix

(i)

hat.Solche Vektoren nennt man auch eine Basis des Losungsraumes, und die Zahl

d heißt die Dimension des Losungsraumes L(A, 0). Es wird noch unbedingt zubeweisen sein, daß die Zahl d nicht von dem gewahlten Rechenweg abhangt! (daßalso die Dimension eine wohldefinierte Zahl ist).

Definition und Satz 1.3.10. Sei A ∈ mRn. Die Anzahl der Stufen in einer zu

A zeilenaquivalenten Zeilenstufenmatrix heißt der Rang von A, rang(A).Diese Definition ist tatsachlich sinnvoll, weil zwei zueinander zeilenaquivalen-

te Zeilenstufenmatrizen immer gleich viele Stufen haben.Aus Platzgrunden gilt naturlich rang(A) ≤ min(m,n).

Beweis. Seien A ∼ A′ zwei Zeilenstufenmatrizen mit r und r′ Stufen. OBdA seir ≥ r′.

Falls r = n, ist L(A, 0) = {0}, also auch L(A′, 0) = {0}, also r′ = n.Nun sei r < n. Indem man aus A und A′ diejenigen Spalten streicht, in denen

A keine Stufe hat, erhalt man Matrizen B,B′ ∈ mRr, wobei B Zeilenstufen-

form mit r Stufen hat, und B′ nur r′ von Null verschiedene Zeilen hat. Damit istB′ ∼ B“ fur eine Zeilenstufenmatrix B“ hochstens r′ Stufen (das Gauß-Verfahrenzum Beispiel erzeugt keine von Null verschiedenen Zeilen aus den zuvor verschwin-denden). Nach dem zunachst abgehandelten Fall

”Stufenzahl gleich Spaltenzahl“

folgt r = r′.

Page 17: Lineare Algebra

1.4. ELEMENTARMATRIZEN 17

Folgerung 1.3.11. Fur A ∈ mRn gilt:

(1) rang(A) ≤ min{m,n}.

(2) Fur b ∈ mR hat das Gleichungssystem Ax = b genau dann eine Losung,

wenn rang(A, b) = rang(A). Wenn das so ist, lassen sich Losungen mitd = m− rang(A) freien Parametern angeben.

(3) L(A, 0) hat eine Basis der Lange d = m− rang(A).

(4) rang(A) = n gilt genau dann, wenn das Gleichungssystem Ax = 0 nur dietriviale Losung hat, und genau dann wenn jedes losbare GleichungssystemAx = b eindeutig losbar ist.

(5) rang(A) = m gilt genau dann, wenn jedes Gleichungssystem Ax = b eineLosung hat.

(6) Falls m = n = rang(A), hat jedes Gleichungssystem Ax = b genau eineLosung.

(7) Ist n > m, dann hat jedes LGS Ax = 0 eine nichttriviale Losung.

Beweis. Alle Aussagen außer einen lassen sich trivial auf die Beobachtungen aus1.3.3 zuruckfuhren. Beispielsweise (2): Man betrachte (A′, b′) ∼ (A, b), so daß(A′, b′) Zeilenstufenform hat. genau dann ist A′x = b′ und damit Ax = b losbar,wenn in b′ unterhalb der rang(A)-ten Zeile nichts mehr steht, also genau dannwenn rang(A′, b′) = rang(A′), und rang(A′, b′) = rang(A, b) sowie rang(A′) =rang(A).

Einzig etwas spannender ist eine der beiden Implikationen in (5), namlich die,daß aus der Losbarkeit jedes Gleichungssystems Ax = b schon rang(A) = m folgt.Sei A′ ∼ A so daß A′ Zeilenstufenform hat. Angenommen rang(A′) = rang(A) <m. Dann gibt es offenbar b′ so daß A′x = b′ nicht losbar ist. Durch Umkehren derUmformungen, die von A auf A′ fuhren, findet man b mit (A, b) ∼ (A′, b′). Dannist auch Ax = b nicht losbar.

1.4 Elementarmatrizen

Definition 1.4.1. Seien m,n ∈ N, i ∈ {1, . . . ,m} und j ∈ {1, . . . , n}. DieMatrixeinheit Eij ∈ m

Rn hat eine Eins als Koeffizienten in der i-ten Zeile und

j-ten Spalte, und Nullen uberall sonst. Es ist also Eij = (δikδj`)1≤k≤m1≤`≤n

, oder

Eij =(0 . . . 0 ei 0 . . . 0

), mit dem i-ten kanonischen Einheitsspaltenvek-

Page 18: Lineare Algebra

18 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

tor in der j-ten Spalte, oder Eij =

0...0ej0...0

mit dem j-ten kanonischen Einheitszei-

lenvektor in der i-ten Zeile.

Satz 1.4.2. Seien m,n, p ∈ N.

(1) Fur jedes A = (aij) ∈ mRn gibt es eindeutig bestimmte λij ∈ R fur i ∈

{1, . . . ,m}, j ∈ {1, . . . , n} mit A =m∑i=1

n∑j=1

λijEij, namlich λij = aij.

Speziell notieren wir nRn 3 En =

∑ni=1 Eii.

(2) Es gelten die Rechenregeln EijEk` = δjkEi`. Dabei darf Eij ∈ mRn und

Ek` ∈ nRp fur p ∈ N verstanden werden, was zu Ei` = m

Rp fuhrt.

(3) Ist A ∈ nRp mit den Zeilen z1, . . . , zn gilt EijA =

0...0zj0...0

, mit der j-ten Zeile

von A in der i-ten Zeile von EijA ∈ mRp.

Beweis. (1) ist fast klar. (2) ergibt sich am leichtesten aus

EijEk` =

0...0ej0...0

·(0 . . . 0 ek 0 . . . 0

).

(3) Fur A = (ak`) ist

EijA = Eij(∑k,`

ak`Ek`) =∑k,`

ak`EijEk` =∑k,`

ak`δjkEi` =∑`

aj`Ei`

also hat EijA in der i-ten Zeile die Koeffizienten aus der j-ten Zeile von A.

Page 19: Lineare Algebra

1.4. ELEMENTARMATRIZEN 19

Definition 1.4.3. Elementarmatrizen sind die folgenden Typen von Matrizen innRn:

(1) T (i, j;λ) := En + λEij fur i, j ∈ {1, . . . , n} mit i 6= j,

(2) T (i, j) := En − Eii − Ejj + Eij + Eji fur i, j ∈ {1, . . . , n},

(3) T (i;λ) := En + (λ− 1)Eii fur i ∈ {1, . . . , n} und λ 6= 0.

Satz 1.4.4. Sei A ∈ nRp.

(1) T (i, j;λ)A geht aus A durch Addition des λ-fachen der j-ten zur i-ten Zeilehervor.

(2) T (i, j)A geht aus A durch Vertauschen der i-ten und j-ten Zeile hervor.

(3) T (i;λ)A geht aus A durch Multiplikation der i-ten Zeile mit λ hervor.

Beweis. Sind z1, . . . , zn die Zeilen von A. Weil EijA die Matrix

0...0zj0...0

mit der

j-ten Zeile von A in der i-ten Zeile, und ansonsten nur Nullen ist, werden dieBehauptungen durch

(En + λEij)A = A+ λEijA

(En − Eii − Ejj + Eij + Eji)A = A− EiiA− EjjA+ EijA+ EjiA

=∑k 6=i,j

EkkA+ EijA+ EjiA

und

(En + (λ− 1)Eii)A =∑k 6=i

EkkA+ λEiiA

bewiesen.

Folgerung 1.4.5. Fur zwei Matrizen A,A′ ∈ nRp sind aquivalent:

(1) A ∼ A′

(2) Es gibt Elementarmatrizen T1, . . . , T` ∈ nRn mit A′ = T`T`−1 · · · · · T2T1A.

Page 20: Lineare Algebra

20 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

Sei T die Matrix, die durch eine gewisse Abfolge von elementaren Zeilenumfor-mungen aus En ∈ n

Rn entsteht. Dann ist TA die Matrix, die aus A durch dieselbe

Abfolge von elementaren Zeilenumformungen entsteht.Man kann also auch schreiben: Wenn (A,Em) ∼ (A′, T ), dann ist TA = A′.Ist dann b ∈ m

R, dann ist L(A, b) = L(A′, T b), weil (A, b) ∼ (TA, Tb). Daszeigt eine Methode, alle linearen Gleichungssysteme mit Koeffizientenmatrix Aund beliebigen rechten Seiten b zu losen: Man findet A′, T mit A′ Zeilenstufen-matrix und (A,Em) ∼ (A′, T ). Wenn dann eine rechte Seite b daherkommt, loseman A′x = Tb, was ohne abermaligen

”Aufruf“ des Eliminationsverfahrens geht.

Insbesondere ergibt sich aus der Folgerung ein weiterer Beweis fur 1.3.6:(A, b) ∼ (A′, b′) impliziert die Existenz von T mit (A′, b′) = T (A, b) = (TA, Tb),woraus fur x ∈ L(A, b) aus Ax = b folgt, daß auch A′x = TAx = Tb = b′, alsoL(A, b) ⊂ L(A′, b′).

1.5 Invertierbare Matrizen

Definition 1.5.1. Eine Matrix A ∈ mRn heißt invertierbar, wenn es Matrizen

B,C ∈ nRm gibt mit AB = Em und CA = En.

Satz 1.5.2. Sei A ∈ mRn.

Gibt es B ∈ nRm mit BA = Em, so folgt n ≤ m.

Fur B,C ∈ nRm mit BA = Em und AC = En folgen B = C, und m = n.

Beweis. Seien A ∈ mRn und B ∈ n

Rm mit BA = Em. Angenommen, m < n.

Nach Teil (5) von Satz 1.3.11 hat Ax = 0 eine nichttriviale Losung x 6= 0. Esfolgt 0 = B · 0 = BAx = Enx = x, ein Widerspruch.

Gibt es nun auch noch C mit AC = En, folgt ebenso m ≤ n, also m = n.Die Aussage B = C hangt gar nicht so sehr von der Betrachtung von Matrizen,

sondern nur von den formalen Rechenregeln fur die Matrizenrechnung ab: B =EnB = (CA)B = C(AB) = CEm = C.

Definition 1.5.3. Nach dem eben bewiesenen Satz gibt es fur eine invertierbareMatrix A ∈ n

Rn insbesondere nur eine Matrix B mit AB = En, und ebenso nur

eine Matrix B mit BA = En. Wir nennen diese Matrix die Inverse von A, undschreiben A−1 := B.

Die Menge aller invertierbaren Matrizen in nRn wird mit GL(n,R) bezeichnet.

Satz 1.5.4. Seien A,B ∈ nRn invertierbar. Dann ist auch AB invertierbar, mit

(AB)−1 = B−1A−1. Die Einheitsmatrix En ist invertierbar mit sich selbst alsInverser. Fur λ ∈ R \ {0} und A ∈ GL(n,R) ist λA ∈ GL(n,R) mit (λA)−1 =λ−1A−1.

Beweis. WeilABB−1A−1 = AEnA−1 = AA−1 = En undB−1A−1AB = B−1EnB =

B−1B = En, ist AB ∈ GL(n,R) mit Inverser B−1A−1. Der Rest ist recht ba-nal.

Page 21: Lineare Algebra

1.5. INVERTIERBARE MATRIZEN 21

Satz 1.5.5. Die folgenden Aussagen fur A ∈ nRn sind aquivalent:

(1) A ist invertierbar.

(2) Es gibt B ∈ nRn mit AB = En.

(3) Es gibt C ∈ nRn mit CA = En.

(4) rang(A) = n.

(5) A ∼ En.

(6) A ist Produkt von Elementarmatrizen.

(7) Jedes Gleichungssystem Ax = b ist losbar.

(8) Das homogene Gleichungssystem Ax = 0 hat nur die triviale Losung.

(9) Jedes Gleichungssystem Ax = b ist eindeutig losbar.

Beweis. (1)⇒(2) ist banal.(2)⇒(7) war eine Ubungsaufgabe: Ist b ∈ n

R gegeben, so lost Bb das Glei-chungssystem, weil A(Bb) = (AB)b = Enb = b.

(7)⇒(4) folgt aus 1.3.11.(4)⇒(5) folgt aus 1.3.8.(5)⇒(3) folgt aus 1.4.5.(3)⇒(8): Ist Ax = 0, so folgt 0 = CAx = Enx = x.(8)⇒(4): Wieder nach 1.3.11.(5)⇒(6): Weil auch En ∼ A, folgt das aus 1.4.5.(6)⇒(1): Elementarmatrizen sind invertierbar: Das folgt im wesentlichen aus

der Tatsache, daß sich jede elementare Zeilenumformung durch eine solche ruckgangigmachen laßt: T (i, j;−λ) geht aus En durch Addition des −λ-fachen der j-ten zuri-ten Zeile hervor, und T (i, j;λ)T (i, j;−λ) wiederum aus T (i, j;−λ) durch Addi-tion des λ-fachen der j-ten zur i-ten Zeile; das Ergebnis ist also die Einheitsma-trix. Ebenso folgt T (i, j;−λ)T (i, j;λ) = En. Analog beweist man T (i, j)2 = Enund T (i;λ)T (i;λ−1) = T (i;λ−1)T (i;λ) = En. Da das Produkt von invertierbarenMatrizen invertierbar ist, folgt die Behauptung.

Das erledigt die Aquivalenz aller Teile, außer (9), wie man sich an folgendemSchema klarmachen kann:

(2) +3 (7) +3 (4)

��

(8)ks

(1)

KS

(6)ks (5)ks +3 (3)

KS

Weil aber (9) ⇔ ((7) ∧ (8)) nach 1.1.10 gilt, und nach dem bisher bewiesenenauch (7)⇔ (8), ist auch (9) zu den restlichen Aussagen aquivalent.

Page 22: Lineare Algebra

22 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

Folgerung 1.5.6. Eine Matrix A ∈ nRn kann man nach dem folgenden Rezept

invertieren: Man bringe (A,En) auf Zeilenstufenform. Ergibt sich dabei rang(A) <n, ist A nicht invertierbar. Anderenfalls mache man nach Gauß-Jordan weiter,bis an den Stufen nur Einser stehen, und oberhalb der Stufen Nullen. Das heißt(A,En) ∼ (En, A

′), und hierin ist A′ = A−1.

Folgerung 1.5.7. Zwei Matrizen A,A′ ∈ mRn sind genau dann zeilenaquivalent,

wenn es eine invertierbare Matrix T ∈ mRm gibt mit A′ = TA.

1.6 Transponieren

Definition 1.6.1. Sei A = (aij)1≤i≤m1≤j≤n

∈ mRn. Die Transponierte Matrix At von

A ist At = (aji) 1≤i≤n1≤j≤m

∈ nRm. Der Koeffizient von At in der i-ten Zeile und j-

ten Spalte ist also der Koeffizient von A in der j-ten Zeile und i-ten Spalte. DieMatrix At ergibt sich durch

”Spiegeln von A an der Diagonalen“.

Wir notieren: (At)t = A.

Satz 1.6.2. Fur A ∈ mRn und B ∈ n

Rp gilt (AB)t = BtAt ∈ p

Rm.

Beweis. Seien A = (aij), B = (bij), BtAt = (cij) und AB = (dij). Dann ist

cij =∑

k bkiajk =∑

k ajkbki = dji, was BtAt = (AB)t beweist.

Folgerung 1.6.3. Eine Matrix A ∈ nRn ist genau dann invertierbar, wenn At

invertierbar ist, und in diesem Fall ist (A−1)t = (At)−1.

Beweis. Ist A invertierbar, so gilt

At(A−1)t = (A−1A)t = Etn = En = (AA−1)t = (A−1)tAt,

also At invertierbar mit Inverser (A−1)t.Ist At invertierbar, so auch (At)t = A.

Insbesondere gilt also fur A ∈ nRn genau dann rang(A) = n, wenn rang(At) =

n ist. Viel allgemeiner andert sich der Rang uberhaupt nicht beim Transponieren.Vorneweg noch zwei Selbstverstandlichkeiten, die auch schon verwendet wurden:

Folgerung 1.6.4. Sei A ∈ mRn. Hat A nur s von Null verschiedene Zeilen (oder

Spalten), so ist rang(A) ≤ s.

Beweis. Fur Zeilen folgt das aus dem Gauß’schen Eliminationsverfahren, das aufeine Matrix mit nur s von Null verschiedenen Zeilen angewendet automatischeine Zeilenstufenmatrix mit hochstens s von Null verschiedenen Zeilen liefert,also auch hochstens s Stufen.

Fur Spalten: Die in A verschwindenden Spalten verschwinden automatischauch in jeder zu A zeilenaquivalenten Matrix. Aber eine Zeilenstufenmatrix kannnur Stufen in ihren von Null verschiedenen Spalten haben.

Page 23: Lineare Algebra

1.6. TRANSPONIEREN 23

Satz 1.6.5. Sei A ∈ mRn.

Fur jedes T ∈ nRp gilt rang(AT ) ≤ rang(A).

Fur jedes T ∈ GL(n,R) gilt rang(AT ) = rang(A).

Beweis. Sei r = rang(A). Dann gibt es S ∈ GL(m,R), so daß die letzten m − rZeilen von SA verschwinden. Das heißt, fur jedes i > r gilt fur ei ∈ Rm dieGleichung eiSA = 0. Dann ist aber auch eiSAT = 0, also verschwinden dieletzten m − r Zeilen von SAT ebenfalls. Es folgt rang(SAT ) ≤ r, und weil Sinvertierbar ist, also SAT ∼ AT , folgt rang(SAT ) ≤ r.

Ist T auch noch invertierbar, folgt r = rang(A) = rang(AT−1T ) ≤ rang(AT ) ≤rang(A) = r, also uberall Gleichheit.

Bemerkung 1.6.6. Es gibt genau dann eine Matrix T ∈ GL(n,R) mit AT = A′,wenn es eine Matrix S ∈ GL(n,R) gibt mit SAt = (A′)t, wenn also At und (A′)t

zueinander zeilenaquivalent sind. Das heißt genau, daß A und A′ durch”elementa-

re Spaltenumformungen“ auseinander hervorgehen, und der vorhergehende Satzbedeutet mithin, daß sich der Rang einer Matrix bei solchen Umformungen nichtandert.

Warnung: Bei elementaren Spaltenumformungen andert sich zwar der Rangnicht, jedwede Information uber die Losungen der durch die Matrix definiertenlinearen Gleichungssysteme geht aber ziemlich hoffnungslos verloren!

Will man nur den Rang einer Matrix wissen, kann es aber sehr praktisch sein,Zeilen- und Spaltenumformungen wild zu mischen.

Folgerung 1.6.7. Fur A ∈ mRn gilt stets rang(A) = rang(At).

Beweis. Weil (At)t = A, genugt es, eine Ungleichung zu zeigen. Man wahle alsoT ∈ GL(m,R) so daß TA Zeilenstufenmatrix mit r := rang(A) Stufen ist. Daauch T t ∈ GL(m,R), ist rang(At) = rang(AtT t) = rang((TA)t). Da aber TAnur r von Null verschiedene Zeilen hat, also (TA)t nur r von Null verschiedeneSpalten, folgt rang(At) = rang((TA)t) ≤ r = rang(A).

Folgerung 1.6.8. Sei A ∈ mRn und r := rang(A). Dann gibt es S ∈ GL(m,R)

und T ∈ GL(n,R) mit SAT =

(Er 00 0

)(wobei die Nullen Matrizen sind, die

vielleicht auch nicht da sind, falls r = n oder r = m, oder r = 0 gilt, und Er nurda ist, wenn r 6= 0.

Beweis. Es gibt S ∈ GL(m,R) so daß SA Zeilenstufenform hat. Dann hat (SA)t

Rang r und nur r von Null verschiedene Spalten, namlich die ersten r. Damit gibt

es nach Gauß-Jordan Q ∈ GL(n,R) so daß Q(SA)t =

(Er 00 0

), also

(Er 00 0

)=

(Q(SA)t)t = SAQt. Man nehme T = Qt.

Page 24: Lineare Algebra

24 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

1.7 (Andere) Korper

Definition 1.7.1. Seien M eine Menge und ∗ eine zweistellige Operation auf M .Bis zu weiterer Prazisierung soll das heißen, daß fur je zwei Elemente x, y ∈ Mein Produkt x ∗ y erklart ist.

(1) Gilt ∀x, y, z ∈ M : x ∗ (y ∗ z) = (x ∗ y) ∗ z, heißt die Operation assoziativ,und (M, ∗) eine Halbgruppe.

(2) Sei M eine Halbgruppe. Ein Element e ∈M mit ∀x ∈M : x ∗ e = x = e ∗xheißt neutrales Element fur M . Eine Halbgruppe, in der es ein neutralesElement gibt, heißt ein Monoid.

(3) Sei (M, ∗) ein Monoid mit neutralem Element e, und sei x ∈M . Ein inversesElement zu x ist ein Element x ∈ M mit x ∗ x = e = x ∗ x. Wenn jedesElement eines Monoids invertierbar ist, heißt das Monoid eine Gruppe.

(4) Die Verknupfung ∗ (oder die Halbgruppe M) heißt kommutativ, wenn∀x, y ∈M : x ∗ y = y ∗ x. Kommutative Gruppen nennt man auch abelscheGruppen.

Definition 1.7.2. Ein Korper ist eine Menge K, auf der zwei Operationen erklartsind, eine Addition, d. h. fur je zwei Elemente λ, µ ∈ K ist ihre Summe λ + µerklart, sowie eine Multiplikation, d. h. fur je zwei Elemente von K ist ein Produktλµ erklart. Die zwei Operationen sollen den folgenden Axiomen genugen:

(1) (K,+) ist eine abelsche Gruppe. Das neutrale Element in dieser Gruppeheißt die Null des Korpers, 0 ∈ K. Das Inverse von x ∈ K bei der Additionwird mit −x bezeichnet.

(2) (K, ·) ist ein kommutatives Monoid. Das neutrale Element heißt hier dieEins des Korpers, 1 ∈ K. Es soll 0 6= 1 gelten.

(3) Es gelten die Distributivgesetze ∀x, y, z ∈ K : x(y + z) = xy + xz und∀x, y, z ∈ K : (x+ y)z = xz + yz.

(4) Jedes Element x ∈ K \ {0} ist bezuglich der Multiplikation invertierbar.Das Inverse wird mit x−1 bezeichnet.

Definition 1.7.3. Sei K eine Menge mit zwei Operationen +, · wie oben. Ist(K,+) eine abelsche Gruppe, (K, ·) ein Monoid, und gilt das Distributivgesetz,so nennt man K einen Ring. Ist auch die Multiplikation kommutativ, spricht manvon einem kommutativen Ring.

Die Definition von Monoiden und Gruppen wurde oben nur angegeben, damitman schneller sagen kann, was ein Korper ist. Ringe spielen vorerst keine Rolle,obwohl wir schon Beispiele kennen.

Page 25: Lineare Algebra

1.7. (ANDERE) KORPER 25

Bei gewissen kommutativen Halbgruppen ist es ublich, die Verknupfung ad-ditiv (also mit einem Pluszeichen) zu schreiben; man schreibt dann 0 fur einneutrales Element und −x fur ein Inverses zu x. Gewisse andere Halbgruppenschreibt man gerne multiplikativ, und dann schreibt man oft 1 fur ein neutralesElement, und x−1 fur ein Inverses zu x. Diese Notationen haben wir beispielsweiseschon in Ringen benutzt, und sie kommen auch in den folgenden Beispielen vor:

Beispiele 1.7.4. Die Menge N ist ein Monoid unter der Multiplikation, und eineHalbgruppe unter der Addition.

Die Menge N0 ist ein Monoid sowohl unter der Multiplikation als auch unterder Addition.

Die Menge Z ist mit der ublichen Addition und der ublichen Multiplikationein kommutativer Ring.

Die Mengen R,Q sind mit der ublichen Addition und Multiplikation Korper.Fur m,n ∈ N ist m

Rn eine abelsche Gruppe unter der fruher schon definierten

Multiplikation.Fur n ∈ N ist n

Rn ein nicht-kommutativer Ring.

Die Menge GL(n,R) ist eine Gruppe unter der Multiplikation von Matrizen.Die Menge der positiven rationalen Zahlen bildet eine (multiplikative) Gruppe

Q+, ebenso die Menge R+ der positiven reellen Zahlen.

Lemma und Definition 1.7.5 (Division mit Rest). Seien m,n ∈ Z mitn 6= 0. Wir sagen, m ist teilbar durch n, oder n teilt m, geschrieben n|m, wennes q ∈ Z gibt mit m = qn.

Seien m ∈ Z und n ∈ N. Dann gibt es eindeutig bestimmte Zahlen q ∈ Z undr ∈ {0, . . . , n − 1} mit m = qn + r. Wir nennen r =: m den Rest bei Divisionvon m durch n. Die Bedeutung des Symbols m hangt naturlich entschieden vonder unsichtbaren Wahl von n ab!

Es ist m = 0 genau dann wenn n|m. Weiter gilt m = k genau dann wennn|(m− k).

Beweis. Es gibt zunachst uberhaupt eine nichtnegative Zahl s ∈ N0 und k ∈ Zmit m = kn+ s: Falls m ≥ 0, nehme man einfach k = 0 und s = m. Falls m < 0,nehme man k = m und s = m − mn > 0. Nun nehme man q ∈ Z und r ∈ N0

mit m = qn+ r, und so daß r so klein ist, wie moglich. Ware nun r ≥ n, so wareauch m = (q+ 1)n+ (r−n), und 0 ≤ r−n < r, im Widerspruch zur Minimalitatvon r.

Fur m ∈ Z sei m = qn + r mit r ∈ {0, . . . , n − 1}. Dann ist r = 0 ⇔ n|m.(Denn ⇒ ist klar, und wenn n|m, gibt es k mit kn = m, also (k − q)n = r, unddas kann ja wohl nicht angehen fur r < n, außer wenn r = 0.)

Seien m, k ∈ Z. Seien q, ` ∈ Z und r, s ∈ {0, . . . , n − 1} mit m = qn + r undk = `n+s. OBdA sei r ≥ s. Dann ist m−k = (q−`)n+(r−s) und 0 ≤ r−s < n.Also ist n|m− k ⇔ r − s = 0⇔ r = s⇔ m = k.

Page 26: Lineare Algebra

26 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

Satz 1.7.6. Sei n ∈ N. Die Menge

Z/(n) := {k|k ∈ Z} = {0, . . . , n− 1} = {0, . . . , n− 1}

ist ein Ring mit folgenden Operationen: Fur alle x, y ∈ Z ist x+ y := x+ y undx · y := xy. Die Null ist 0, das additive Inverse von x ist −x, und die Eins ist 1.

Beweis. Problem: Durch die angegebenen Formeln lassen sich Addition und Mul-tiplikation nicht so ohne weiteres definieren; Es kann namlich x = a sein, obwohlx 6= a. Aber dann sagt die Formel fur die Multiplikation

x+ y = x+ y = a+ y = a+ y,

obwohl die ganz links und ganz rechts stehenden Formeln ja verschieden aussehen.Man uberzeugt sich an Beispielen, daß in solchen Fallen glucklicherweise immerx+ y = a+ y gilt, also das Problem gar nicht wirklich hinderlich ist. Das mußman aber jetzt irgendwie ordentlich begrunden!

Wir definieren also die Addition und Multiplikation zunachst durch die For-meln

x+ y = x+ y und x · y = xy,

aber nur fur x, y ∈ {0, . . . , n − 1}. Fur diese speziellen Werte gibt es gar keinProblem, weil x = x und y = y. Dann zeigen wir, daß mit dieser Definitiontatsachlich x + y = x+ y sowie x · y = xy fur alle x, y ∈ Z gilt. Hierzu seix = nq + r und y = n` + s mit q, ` ∈ Z und r, s ∈ {0, . . . , n − 1}. Dannist nach Definition x + y = r + s = r + s = r + s+ nq + n` = x+ y, undxy = (r + nq)(s+ n`) = rs+ n(qs+ r`+ nq`) = rs = x · y.

Ab hier ist alles ganz einfach:

x+ (y + z) = x+ y + z = x+ (y + z) = (x+ y) + z = x+ y + z = (x+ y) + z.

x+ y = x+ y = y + x = y + x

0 + x = 0 + x = x

x+ (−x) = x+ (−x) = 0

zeigen, daß Z/(n) bei der Addition eine abelsche Gruppe mit neutralem Element0 und (−x) als additivem Inversen zu x ist. Die ubrigen Rechenregeln fur einenRing beweist man sehr ahnlich.

Satz 1.7.7. Sei p ∈ N \ {1}. Genau dann ist Z/(p) ein Korper, wenn n einePrimzahl ist. In diesem Fall schreibt man auch gerne Fp := Z/(p).

Beweis. Sei p eine Primzahl und n ∈ Z mit n 6= 0. Dann gilt erst einmal n ·m 6= 0fur alle 0 6= m ∈ Z/(p). Denn 0 = mn bedeutet p|mn, und weil p Primzahl ist,folgt p|m oder p|n, das heißt m = 0 oder n = 0, letzteres war aber ausgeschlossen.

Page 27: Lineare Algebra

1.7. (ANDERE) KORPER 27

Nun konnen nicht alle Elemente nk fur k ∈ N verschiedene Elemente von Z/(p)sein. Also gibt es k, ` ∈ N mit nk = n`. OBdA sei k < `, also 0 = nk(1 − n`−k),also 1 = n`−k = n`−k−1n. Wir haben ein multiplikatives Inverses von n gefunden.

Nun sei umgekehrt Z/(p) ein Korper, und sei n ∈ {1, . . . , p − 1} ein Teilervon p. Wir wollen zeigen, daß zwangslaufig n = 1. Da n|p, gibt es m ∈ N mitnm = p. Es folgt 0 = p = nm = n · m. Weil nach Wahl n 6= 0 ist, folgt0 = (n)−1 · 0 = (n)−1n ·m = 1 ·m = m, also p|m, also p = m und n = 1.

Metatheorem 1.7.8. Alles, was in der Vorlesung bisher an Aussagen uber Ma-trizen und lineare Gleichungssysteme bewiesen wurde, gilt auch, wenn man uberallden Korper R der reellen Zahlen durch einen beliebigen Korper K ersetzt, alsoMatrizen aus mKn, Vektoren aus mK oder Kn betrachtet. Die

”Zahlen“ aus R

sind dabei uberall durch”

Skalare“ aus K zu ersetzen, so bei der Definition vonelementaren Zeilenumformungen, bei den

”freien Parametern“ in linearen Glei-

chungssystemen, usf.

Eine Ausnahme vom Metatheorem machen naturlich samtliche konkreten Bei-spiele. Um ein solches Beispiel zu behandeln, muß man naturlich einen konkretenKorper wahlen. Wir haben bisher immer R gewahlt, und von den bisherigenAnwendungsbeispielen war das auch in naturlicher Weise vorgegeben.

Beispiel 1.7.9. Wir wollen Nachrichten durch einen etwas verrauschten Kanalversenden. Damit nichts verloren geht, wollen wir zu unserer Nachricht (die inForm einer Folge von Nullen und Einsen, also von Elementen aus F2 vorliegt)zusatzlich jeweils zu einer Gruppe von Bits noch eine Gruppe von Prufbits ver-senden. Das soll so geschehen, daß der Empfanger an der Form seiner empfange-nen Nachricht erkennen kann, ob Fehler vorgefallen sind, und soll solche Fehlersogar korrigieren konnen.

Das soll so aussehen: Die Botschaft ist ein Vektor x ∈ k(F2), die Codierungerfolgt mittels einer Codiermatrix C ∈ `(F2)k, versendet wird anstelle von x derlangere Vektor s = Cx. Der empfangene Vektor soll mittels einer DecodiermatrixD ∈ k(F2)` erfolgen, die DC = Ek erfullt, also Ds = DCx = x. Die Prufung desempfangenen Vektors s′ auf Fehler erfolgt mittels einer Prufmatrix P ∈ m(F2)`.Unter der Annahme, daß bei der Ubertragung hochstens ein Bit verandert wurde,soll dieser Fehler erkannt werden konnen, und sogar ermittelt werden konnen, anwelcher Stelle der Fehler aufgetreten ist, so daß der Fehler vom Empfanger gleichbehoben werden kann.

Wir legen uns auf ein konkretes Beispiel fest, indem wir zunachst die Anzahlm der Prufbits auf 3 festlegen.

Unter den geschilderten Bedingungen ist 0 ∈ `(F2) ein Vektor, der bei feh-lerfreier Ubertragung durchaus vorkommen kann (namlich fur x = 0). Hingegenkonnen alle kanonischen Einheitsvektoren ej fur 1 ≤ j ≤ ` durch Verandern einesBits bei der Ubertragung entstehen, und das soll als Fehler erkannt werden. Esmuß also Pej 6= 0 sein fur alle j. Genauer soll uns Pej sogar Auskunft daruber

Page 28: Lineare Algebra

28 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

geben, an welcher Stelle der Fehler entstanden ist, also muß j aus Pej ∈ 3(F2) er-kennbar sein. Da 3(F2) genau sieben von Null verschiedene Elemente hat, konnenwir ` = 7 wahlen, und fur die j-te Spalte von P wahlen wir die Binardarstellung

von j in folgendem Sinne: Ist P = (pij), so soll j =3∑i=1

pij2i−1 ∈ N0 sein (dabei

spielen wir gefahrlich damit, daß pij ∈ {0, 1} ⊂ N0 ist). Konkret ist also

P =

1 0 1 0 1 0 10 1 1 0 0 1 10 0 0 1 1 1 1

∈ 3(F2)7.

Man sieht, daß P eine Zeilenstufenmatrix mit drei Stufen an den Stellen 1, 2, 4ist. Es gibt also zu jeder Wahl von x ∈ 4(F2) genau einen Vektor s ∈ 7(F2) mit

Ps = 0 und Ds = x, wobei D =

0 0 1 0 0 0 00 0 0 0 1 0 00 0 0 0 0 1 00 0 0 0 0 0 1

∈ 4(F2)7. Dieser Vektor

s wird gegeben durch s = Cx, wobei die Spalten von C die Vektoren s(i) mitPs(i) = 0 und Ds(i) = ei fur i = 1, . . . , 4 sind. Man rechnet diese durch dasubliche Ruckwarts-Einsetzen aus, und erhalt die Codiermatrix

C =

1 1 0 11 0 1 11 0 0 00 1 1 10 1 0 00 0 1 00 0 0 1

∈ 7(F2)4.

Um die Nachricht x zu versenden, berechnet der Absender s := Cx und schicktdies ab. Der Empfanger erhalt s′, von dem wir annehmen, daß es in hochstenseinem Bit von s abweicht. Der Empfanger berechnet Ps′. Ist Ps′ = 0, so ists = s′, und der Empfanger kann x = Ds = Ds′ ausrechnen. Ist Ps′ 6= 0, dannweiß der Empfanger s′ 6= s. Also ist nach unseren Annahmen s′ = s + ei fur eini ∈ {1, . . . , 7}, und Ps′ = Ps + Pei = Pei, die Binardarstellung von i wie obenbesprochen. Der Empfanger kann also i an Ps′ ablesen, und er kann s = s′ + eiund weiter x = Ds zuverlassig berechnen.

Wir werden noch ein bißchen untermauern, daß man in beliebigen Korpern

”alles“ machen kann, was man (insbesondere fur die bisher entwickelte Ma-

trizentheorie) braucht. Zunachst aber noch eine Versicherung, daß die Theorietatsachlich mehr Beispiele umfaßt, als man auf den ersten Blick meinen konnte.

Satz 1.7.10. Wenn n Potenz einer Primzahl ist, n = pk fur ein k ∈ N und einePrimzahl p, dann gibt es einen Korper K mit genau n Elementen. Anderenfallsgibt es keinen Korper mit n Elementen.

Page 29: Lineare Algebra

1.7. (ANDERE) KORPER 29

(Ohne Beweis, viel zu schwer!)

Satz 1.7.11. Sei (G, ∗) ein Monoid.

(1) Das neutrale Element von G ist eindeutig bestimmt.

(2) Falls x ∈ G ein Inverses hat, ist dieses eindeutig bestimmt.

(3) Ist x invertierbar, so gelten die Kurzungsregeln ∀y, z[x ∗ y = x ∗ z ⇒ y = z]und ∀y, z[y ∗ x = z ∗ x⇒ y = z].

(4) Sind x, y ∈ G invertierbar, so auch x ∗ y mit x ∗ y = y ∗ x.

(5) hat x ∈ G ein Inverses x, dann ist auch x invertierbar mit Inversem x.

Beweis. (1) Seien e, e′ neutrale Elemente. Dann gilt e = e ∗ e′ = e′, die ersteGleichung, weil e′ neutral ist, die zweite, weil e es ist.

(2) Seien x, x−1 zwei Inverse zu x. Dann gilt x = x ∗ e = x ∗x ∗x−1 = e ∗x−1 =x−1.

(3) Ist x invertierbar, so folgt aus x∗y = x∗z schon y = x∗x∗y = x∗x∗z = z.

(4) (x ∗ y) ∗ (y ∗ x) = e = (y ∗ x) ∗ (x ∗ y).

(5) Klar! (Definitionen hinschreiben!)

Satz 1.7.12. (1) Sei R ein Ring. Dann gilt 0 · r = r · 0 = 0 fur alle r ∈ R, und(−r)s = −rs = r(−s) fur alle r, s ∈ R.

(2) Sei K ein Korper. Dann gilt fur alle x, y ∈ K: xy = 0 ⇔ x = 0 ∨ y = 0.Insbesondere ist K \ {0} eine abelsche Gruppe bei der Multiplikation.

(3) Man kann in K mit Bruchen rechnen: Man definiere dazux

y= xy−1 fur

x, y ∈ K mit y 6= 0, und hat dann

x

y· ab

=xa

ybx

y=xb

ybx

y+a

b=xb+ ya

yb

−xy

=−xy

=x

−y(yb

)=b

y

fur alle x, y, a, b ∈ K mit y 6= 0 6= b.

Page 30: Lineare Algebra

30 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

Beweis. (1) 0 + 0 · r = 0 · r = (0 + 0) · r = 0 · r + 0 · r, und daraus folgt schon0 · r = 0.

(2) r(−s) + rs = r(−s+ s) = r · 0 = 0, ebenso (−r)s+ rs = (−r + r)s = 0.

(3) Ist eh schon klar, weil ein Element genau dann 6= 0 ist, wenn es invertierbarist.

(4) Beispielsweise

x

y+a

b= xy−1+ab−1 = xby−1b−1+ayb−1y−1 = (xb+ay)(by)−1 =

xb+ ay

by

Definition und Lemma 1.7.13. Sei K ein Ring. Fur n ∈ N definieren wirnK := (1+1+ · · ·+1) ∈ K (n Summanden), Fur m ∈ Z mit m < 0 definieren wirmK ∈ K durch mK := −(−m)K, und schließlich definieren wir 0K := 0 ∈ K. Esgelten dann die Rechenregeln: mK+nK = (m+n)K, mK ·nK = (mn)K. Hierdurchermutigt lassen wir den Index K einfach weg, und schreiben n := (1+· · ·+1) ∈ K,etc.

Warnung: Auf diese Weise haben wir zwar in jedem Korper Stellvertreter dernaturlichen Zahlen

”wiedergefunden“, aber es kann passieren, daß beispielsweise

1 + 1 = 0 (in F2) gilt, oder 5 = 2 (in F3, wo also funfe gerade sind...). Ineinem endlichen Korper muß es zwangslaufig eine naturliche Zahl n geben mitn = 0 ∈ K, denn es muß m,m′ ∈ K mit m = m′ ∈ K geben.

Definition 1.7.14. Sei K ein Korper. Gilt n 6= 0 ∈ K fur alle n ∈ N, dann sagenwir, K hat die Charakteristik Null, char(K) = 0. Anderenfalls ist char(K) perdefinitionem die kleinste naturliche Zahl n mit n = 0 ∈ K.

Lemma 1.7.15. Sei K ein Korper. Dann ist char(K) = 0, oder char(K) ist einePrimzahl.

Beweis. Sei char(K) = p 6= 0. Sei p = mn mit m,n ∈ N. Dann ist (mit dersorgfaltigeren Notation mK := 1 + · · · + 1: 0 = pK = mKnK , also mK = 0 odernK = 0. Nach der Minimalitat von p folgt m ≥ p oder n ≥ p, also m = p odern = p.

Endliche Korper haben immer endliche Charakteristik. char(R) = 0 = char(Q).Es gibt unendliche Korper, die endliche Charakteristik haben; solche sind aberschwieriger herzustellen.

Bemerkung 1.7.16. Sei K ein Korper der Charakteristik Null. Dann schreiben

wir fur x ∈ Q, etwa x =m

nmit m,n ∈ Z, n 6= 0, K 3 x :=

mK

nK. Man mußte

Page 31: Lineare Algebra

1.7. (ANDERE) KORPER 31

naturlich noch zeigen, daß das wohldefiniert ist (also zum Beispiel stets5K3K

immer

gleich15K9K

ist).

Auch ohne den (einfachen) Beweis vermerken wir, daß man mit den so ge-fundenen rationalen Zahlen

”in K“ ganz genauso rechnen kann wie mit den Ele-

menten von Q. Außerdem gilt fur x, y ∈ Q nur dann x = y ∈ K, wenn schonx = y ∈ Q.

Nach diesem Beleg, daß Korper der Charakteristik Null”genauso gut“ sind

wie die ublichen Zahlen, noch ein Beleg dafur, daß in Korpern endlicher Charak-teristik recht merkwurdige Dinge passieren konnen:

Schmankerl 1.7.17. Sei K ein Korper mit char(K) = p 6= 0. Dann gilt ∀a, b ∈K[(a+ b)p = ap + bp]

Beweis. (etwas skizzenhaft...) Die Behauptung steht naturlich in einem offenba-ren Widerspruch zu den altbekannten binomischen Formeln! Der Widerspruch istaber keiner: Es gilt

(a+ b)p = ap + bp +

p−1∑k=1

(p

k

)akbp−k

”wie immer“, aber die angeschriebenen Binomialkoeffizienten sind in K samtlich

gleich Null: Es ist

(p

k

)=

p!

(p− k)!k!∈ N, also

(p

k

)(p− k)!k! = p!. Diese Formel

fur naturliche Zahlen gilt auch in K, und dort ist p! = 0. Aber weder (p − k)!noch k! verschwinden in K, falls 1 ≤ k < p, weil (p−k)!, k! ∈ N beide nicht durchp teilbar sind. Also ist

(pk

)= 0 ∈ K.

Wir wenden uns der Herstellung eines sehr prominenten Korpers der Charak-teristik Null zu.

Satz 1.7.18. Die Menge C := R× R ist ein Korper mit folgenden Operationen:

(x, y) + (a, b) := (x+ a, y + b)

(x, y)(a, b) := (xa− yb, xb+ ya)

Das neutrale Element der Addition ist 0 := (0, 0); das additive Inverse von (x, y)ist (−x,−y), das neutrale Element der Multiplikation ist 1 := (1, 0). Das Inverse

von 0 6= (x, y) bei der Multiplikation ist (x, y)−1 :=

(x

x2 + y2,− y

x2 + y2

).

Bemerkung 1.7.19. Die Elemente von C heißen komplexe Zahlen.Folgende Terminologie ist ublich: Fur z := (x, y) ∈ C heißen x := Re(z) der

Realteil, und y := Im(z) der Imaginarteil von z. Wir beobachten die Rechenregeln

Page 32: Lineare Algebra

32 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

(x, 0)(a, 0) = (xa, 0), (x, 0) + (a, 0) = (x + a, 0). Aufgrund dieser Tatsachenfassen wir R (illegal) als Teilmenge von C auf, indem wir x ∈ R mit (x, 0) ∈ Cidentifizieren.

Die komplexe Zahl i := (0, 1) heißt imaginare Einheit. Es gilt i2 = −1.Jedes z ∈ C laßt sich in der Form α + βi fur eindeutig bestimmte α, β ∈ R

schreiben, namlich fur α = Re(z) und β = Im(z).Fur z = x+iy ∈ C heißt z := x−iy das komplex Konjugierte von z. Es gelten

die Rechenregeln w + z = w + z und wz = w z. Eine komplexe Zahl ist genaudann reell, wenn z = z. Sie heißt rein imaginar, wenn sie ein reelles Vielfachesvon i ist, oder gleichbedeutend, wenn z = −z gilt.

Fur z = x + iy ist zz = x2 + y2. Die nichtnegative reelle Zahl |z| =√zz =√

x2 + y2 heißt der Modulus oder Betrag von z. Es gilt |wz| = |w| · |z|, und falls

z 6= 0, ist z−1 =z

|z|2.

Das ist in aller Regel alles, was man zum elementaren Rechnen in C braucht.Daruber hinaus haben die komplexen Zahlen eine geometrische Deutung alsPunkte in der Ebene, mit dem Realteil als x-Koordinate und dem Imaginarteilals y-Koordinate. Diese Deutung ist anschaulich hilfreich und manchmal aucheinfach praktisch, und daruber hinaus fur die tieferen Eigenschaften von C ganzentscheidend.

Die folgenden Eigenschaften der komplexen Zahlen sollen ohne Beweis (manch-mal mit der Andeutung eines solchen) aufgelistet werden, um eine gewisse Vor-stellung zu vermitteln.

Der Modulus von z ∈ C ist die Lange der Strecke von 0 zu z (Schulgeometrie!Pythagoras!). Bezeichnet man den Winkel, den diese Strecke mit der x-Achseeinschließt, mit ϕ, erhalt man die Polardarstellung z = r(cosϕ + i sinϕ) mitr = |z|. (wieder: Schulgeometrie!). Die Zahl ϕ heißt auch ein Argument von z.Fur zwei komplexe Zahlen z = r(cosϕ+ i sinϕ) und w = s(cosϕ+ i sinϕ) ergibtsich aus den Additionstheoremen fur Sinus und Cosinus:

zw = rs(cosϕ+ i sinϕ)(cosψ + i sinψ)

= rs((cosϕ cosψ − sinϕ sinψ) + i(sinϕ cosψ + cosϕ sinψ))

= rs(cos(ϕ+ ψ) + i sin(ϕ+ ψ))

Das heißt also: Zwei komplexe Zahlen werden multipliziert, indem man ihre Mo-duli multipliziert, und ihre Argumente addiert.

Als Spezialfall stellen wir fur eiϕ := cosϕ + i sinϕ fest: ∀ϕ, ψ ∈ R[ei(ϕ+ψ) =eiϕeiψ], und ei·0 = 1. Spaßeshalber notieren wir auch die beruhmte Formel eiπ =−1. Nach unserer Definition hat naturlich eiϕ nichts mit irgendeiner Potenz zutun. Wir notieren aber (eiϕ)

n= einϕ fur ϕ ∈ R und n ∈ Z.

Mit der Multiplikationsformel in Polarkoordinaten ergibt sich sogleich zn =rneinϕ fur eine komplexe Zahl z mit Modulus r und Argument ϕ, und n ∈ N.Damit ist es auch leicht, zu z beliebige n-te Wurzeln zu finden: Man hat z =

Page 33: Lineare Algebra

1.7. (ANDERE) KORPER 33(n√rei

ϕn

)n. Es hat allerdings keinen Sinn, auf diese Weise eine n-te Wurzel ei-

ner komplexen Zahl zu definieren, denn zu einem z gibt es immer unendlichviele Argumente, weil e2kπi = 1 fur alle k ∈ Z, so daß also mit ϕ stets auchϕ + 2kπ ein mogliches Argument ist. Damit ist die gefundene n-te Wurzel obendurch eine mehrdeutige Formel gegeben. Insbesondere gibt es fur n ∈ N immern verschiedene

”Wurzeln aus 1“, also Losungen der Gleichung zn = 1, genannt

die n-ten Einheitswurzeln, und gegeben durch zk = e2kπni fur k ∈ Z. Die Werte

1 = z0, . . . , zn−1 sind schon alle Losungen, danach (und davor) wiederholt sich dieListe. Geometrisch sind die n-ten Einheitswurzeln die Ecken eines regelmaßigenn-Ecks mit dem Einheitskreis als Umkreis. Die Einheitswurzel ζn := z1 = e

2πin

hat die besondere Eigenschaft, daß jede andere n-te Einheitswurzel eine Potenzvon ihr ist: zk = ζkn fur k ∈ Z. Eine solche Einheitswurzel nennt man primitiv. Istw ∈ C und z ∈ C eine Losung von zn = w, dann sind ζknz fur k ∈ {0, . . . , n− 1}samtliche Losungen.

Daß man aus beliebigen komplexen Zahlen wieder beliebige Wurzeln ziehenkann, ist ein einfacher Fall des folgenden, fur diese Vorlesung bei weitem zuschwierigen Satzes:

Satz 1.7.20 (Fundamentalsatz der Algebra). Der Korper C der komplexenZahlen ist algebraisch abgeschlossen

Definition 1.7.21. Ein Korper K heißt algebraisch abgeschlossen, wenn jedesnicht-konstante Polynom mit Koeffizienten aus K eine Nullstelle in K hat. Ge-nauer also, wenn fur jedes n ∈ N und alle α0, . . . , αn ∈ C mit αn 6= 0 gilt: Es gibtein z ∈ C mit αnz

n + αn−1zn−1 + · · ·+ α1z + α0 = 0.

Der Fundamentalsatz der Algebra schließt die Liste der ungenau oder garnicht bewiesenen Tatsachen uber komplexe Zahlen ab. Die Existenz der komple-xen Zahlen als Korper, wie sie in 1.7.18 ausgedruckt ist, ist allerdings durchaus inunserer Reichweite. Wir beweisen sogar einen allgemeineren, aber nicht schwieri-geren Satz, der 1.7.18 als Spezialfall (K = R, t = −1) enthalt.

Satz 1.7.22. Seien K ein Korper und t ∈ K. Sei t kein Quadrat in K, d. h. esgebe kein x ∈ K mit x2 = t.

Dann ist K(√t) := K ×K ein Korper bei den folgenden Operationen:

(x, y) + (a, b) := (x+ a, y + b)

(x, y)(a, b) := (xa+ ybt, xb+ ya)

Das neutrale Element der Addition ist 0 := (0, 0); das additive Inverse von (x, y)ist (−x,−y), das neutrale Element der Multiplikation ist 1 := (1, 0). Das Inverse

von 0 6= (x, y) bei der Multiplikation ist (x, y)−1 :=

(x

x2 − ty2,− y

x2 − ty2

).

Page 34: Lineare Algebra

34 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

Beweis. Zunachst mal ist K(√t) wie angegeben ein kommutativer Ring: Es ist

klar, daß K(√t) eine abelsche Gruppe ist (dieselbe wie K2, der Raum der Zei-

lenvektoren). Die Multiplikation ist assoziativ wegen

((x, y)(a, b))(p, q) = (xa+ ybt, xb+ ya)(p, q)

= ((xa+ ybt)p+ (xb+ ya)qt, (xa+ ybt)q + (xb+ ya)p)

= (xap+ (ybp+ xbq + yaq)t, xaq + xbq + yap+ ybqt)

und

(x, y)((a, b)(p, q)) = (x, y)(ap+ bqt, aq + bp)

= (x(ap+ bqt) + y(aq + bp)t, x(aq + bp) + y(ap+ bqt))

= (xap+ (xbq + yaq + ybp)t, xaq + xbp+ yap+ ybqt)

Offensichtlich ist die Multiplikation kommutativ, und (1, 0) ist ein Einselementweil (1, 0)(a, b) = (1 · a+ 0 · bt, 1 · b+ 0 · a) = (a, b). Man uberpruft das Distribu-tivgesetz:

(x, y)((a, b)+(p, q)) = (x, y)(a+p, b+q) = (x(a+p)+y(b+q)t, x(b+q)+y(a+p))

= (xa+ ybt, xb+ ya) + (xp+ yqt, xq + yp) = (x, y)(a, b) + (x, y)(p, q)

und ist fertig mit der Aussage, daß K(√t) ein kommutativer Ring ist.

Bisher ging nicht ein, daß t kein Quadrat ist. Ist nun t kein Quadrat, soist x2 − ty2 6= 0 fur alle (x, y) 6= 0, denn x2 = ty2 impliziert entweder y = 0

und damit auch x = 0, oder t =(xy

)2

. Damit gibt es fur jedes (x, y) 6= 0

tatsachlich das Element

(x

x2 − ty2,− y

x2 − ty2

)von dem wir behaupten, daß

es das multiplikative Inverse von (x, y) ist. Das folgt auch tatsachlich aus derRechnung

(x, y)

(x

x2 − ty2,− y

x2 − ty2

)=

(x

x

x2 − ty2− y y

x2 − ty2t,−x y

x2 − ty2+ y

x

x2 − ty2

)=

(x2 − y2t

x2 − y2t, 0

)= (1, 0).

Folgerung 1.7.23. Es gibt einen Korper mit genau neun Elementen, namlichF3(√

2), ebenso einen mit genau 25 Elementen, namlich F5(√

2). Allgemeiner seiK ein Korper mit genau n Elementen, und char(K) 6= 2. Dann kommt wegen

Page 35: Lineare Algebra

1.8. PA = LR (ENGLISCH: PA = LU) 35

(−x2) = x2 und x 6= −x fur x 6= 0 jedes von Null verschiedene Element von K,das ein Quadrat ist, als Quadrat von zwei verschiedenen Elementen von K vor.Dann kann aber nicht jedes Element ein Quadrat sein, und wenn t kein Quadratist, dann hat K(

√t) genau n2 Elemente.

1.8 PA = LR (englisch: PA = LU)

(Serioser gesagt, handelt dieser Abschnitt von der LR-Zerlegung einer Matrix.Dabei kommt L von

”linke untere Dreiecksmatrix“ und R von

”rechte obere Drei-

ecksmatrix“. Im Englischen kommt L von”lower triangular“ und U von

”upper

triangular matrix“.)Im folgenden sei K stets ein Korper.

Definition 1.8.1. P ∈ nKn heißt eine Permutationsmatrix, wenn P durch eineAbfolge von Zeilenvertauschungen aus der Einheitsmatrix hervorgeht.

Lemma 1.8.2. Fur P ∈ nKn sind aquivalent:

(1) P ist Permutationsmatrix.

(2) P ist Produkt von Elementarmatrizen vom Typ T (i, j) fur 1 ≤ i < j ≤ n.

(3) P t ist Permutationsmatrix.

(4) In jeder Zeile und in jeder Spalte von P kommt genau eine Eins vor, unddie ubrigen Eintrage sind Nullen.

Ist P eine Permutationsmatrix, so geht fur jedes A ∈ nKp die Matrix PA durchZeilenvertauschungen aus A hervor.

Das Produkt von Permutationsmatrizen ist wieder eine. Permutationsmatri-zen sind regular, und ihre Inversen sind wieder welche. Genauer ist P−1 = P t furjede Permutationsmatrix P .

Satz 1.8.3. Sei A ∈ nKp. Dann gibt es eine Permutationsmatrix P ∈ nKn, einelinke untere Dreiecksmatrix L ∈ nKn, deren Diagonalelemente Einsen sind, undeine Zeilenstufenmatrix R ∈ nKp, so daß PA = LR.

Bemerkung 1.8.4. Sei A ∈ GL(n,K), und PA = LR die LR-Zerlegung von A.Ist dann b ∈ nK, dann lost man Ax = b, indem man aquivalent Pb = PAx = LRxlost. Das ist genau so aufwendig, als wenn man die Inverse von A kennen wurde!Denn um x = A−1b zu berechnen, braucht man n2 Multiplikationsoperatio-nen (und Additionsoperationen, die wir nicht

”in Rechnung stellen“). Um Pb

zu”berechnen“, braucht man gar nix. Um L−1Pb durch

”Vorwarts-Einsetzen“

zu berechnen, braucht man n2/2 − n Multiplikationen. Um R−1L−1Pb durch

”Ruckwarts-Einsetzen“ zu berechnen, braucht man noch einmal n2/2 Operatio-

nen. Das sind zusammen n2 − n Operationen. Jetzt kommt es naturlich noch

Page 36: Lineare Algebra

36 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN

drauf an, ob die Bestimmung der LR-Zerlegung nicht allzu aufwendig ist. Esstellt sich im Beweis heraus, daß zur Bestimmung der LR-Zerlegung deutlich we-niger (ohne daß das hier quantifiziert werden soll) Operationen notig sind, als zurBestimmung der Inversen.

Lemma 1.8.5. Seien K ein Korper. Es gilt(A BC D

)·(W XY Z

)=

(AW +BY AX +BZCW +DY CX +DZ

)fur alle Matrizen A,B,C,D,W,X, Y, Z mit Koeffizienten aus K, die solche For-mate haben, daß die rechte Seite definiert ist.

Beweis von 1.8.3. Es sei r := rang(A). Wir beweisen induktiv, daß es fur 0 ≤k ≤ r folgendes Arrangement gibt: Eine Permutationsmatrix Pk ∈ GL(n,K),

eine Matrix Lk =

(Sk 0Tk En−k

), in der Sk ∈ kKk eine untere Dreiecksmatrix

mit Einsen auf der Diagonalen ist, und Tk ∈ n−kKk, und eine Matrix Rk =(Uk Vk0 Wk

), in der Uk eine Zeilenstufenmatrix mit k Zeilen ist, und PkA = LkRk.

Fur k = 0 ist das klar (oder Interpretationssache!).

Fur k = r sehen wir aus rang(Rk) = rang(A) = r, daß Wk = 0 sein muß, alsoliefert P = Pr, L = Lr, R = Rr eine LR-Zerlegung von A.

Wie geht nun der Schluß von k auf k + 1? (dabei naturlich k < r.) Wirkonnen ohne Einschrankung davon ausgehen, daß die erste Spalte von Wk nichtverschwindet.

Nun kann man zunachst in Pk, Tk,Wk zwei”entsprechende“ Zeilen vertau-

schen, ohne die Lage zu andern, denn fur Q = T (i, j) ∈ GL(n− k,K) gilt

(Ek 00 Q

)PkA =

(Ek 00 Q

)(Sk 0Tk En−k

)(Uk Vk0 Wk

)=

(Sk 0QTk Q

)(Uk Vk0 Wk

)=

(Sk 0QTk En−k

)(Ek 00 Q

)(Uk Vk0 Wk

)=

(Sk 0QTk En−k

)(Uk Vk0 QWk

)Nach so einem Tauschschritt sei nun die linke obere Ecke von Wk nicht Null, etwa

Wk =

(λ zs B

)mit 0 6= λ ∈ K, einer Zeile z, Spalte s und passenden Matrix

B. Dann ist Wk = MW ′ mit M =

(1 0

λ−1s En−k−1

), und W ′ =

(λ z0 B′

)(Die

Matrix W ′ erhalt man aus Wk, indem man die passenden Vielfachen der erstenZeile von den folgenden abzieht. Die Vorfaktoren dafur stehen in dem Vektor

Page 37: Lineare Algebra

1.8. PA = LR (ENGLISCH: PA = LU) 37

(1/λ)s verzeichnet. Genauer ist B′ = B − λ−1s) Es folgt

PkA =

(Sk 0Tk En−k

)(Uk Vk0 Wk

)=

(Sk 0Tk En−k

)(Uk Vk0 MW ′

)=

(Sk 0Tk En−k

)(Ek 00 M

)(Uk Vk0 W ′

)=

(Sk 0Tk M

)(Uk Vk0 W ′

)Damit konnen wir Pk+1 = Pk nehmen (Erinnerung: Ein Vertauschschritt warmoglicherweise vorher schon eingeschoben...), Lk+1 erhalt man aus Lk, indemman anstelle der Nullen unter der Diagonalen in der k+ 1-ten Spalte den Vektor(1/λ)s eintragt, und Rk+1 entsteht durch passende Zeilenumformungen (Abziehenvon Vielfachen der k + 1-ten Zeile von den darunter stehenden) aus Rk.

Folgerung 1.8.6. Man beachte, daß sich daraus ein Protokoll zur Bestimmungder LR-Zerlegung ergibt. Abgesehen davon, daß man uber die PermutationsmatrixBuch fuhren muß (dazu muß man naturlich keine Matrix aufschreiben, sondernnur die Abfolge der Zeilennummern), benotigt man fur dieses Protokoll nichtmehr Platz als fur A selbst: Man kann jeweils den Vektor (1/λ)s in dem in dem-selben Schritt freiwerdenden Platz in der k + 1-ten Spalte von Rk+1 notieren.

Folgerung 1.8.7. Sei A ∈ nKp. Dann gibt es eine Permutationsmatrix P ∈ nKn,eine linke untere Dreiecksmatrix L ∈ nKn mit Einsen auf der Diagonalen, eineDiagonalmatrix D ∈ nKn und eine Zeilenstufenmatrix R ∈ nKp mit Einsen aufden Stufen, so daß PA = LDR.

Page 38: Lineare Algebra

Kapitel 2

Vektorraume

2.1 Vektorraume und Unterraume

Definition 2.1.1. Sei K ein Korper. Ein K-Vektorraum (manchmal auch nurVektorraum, wenn K sich von selbst versteht) ist ein Tripel (V,+, ·) bestehendaus einer Menge V und Abbildungen

+: V × V → V, (v, w) 7→ v + w

· : K × V → V, (α, v) 7→ α · v = αv

genannt Addition und Skalarmultiplikation, fur die die folgenden Axiome gelten:

(1) (V,+) ist eine abelsche Gruppe,

(2) Fur alle α, β ∈ K, v, w ∈ K gelten

(a) α(βv) = (αβ)v,

(b) 1 · v = v,

(c) (α + β)v = αv + βv und

(d) α(v + w) = αv + αw.

Die Elemente von V heißen Vektoren, die Elemente von K heißen Skalare.

Beispiele 2.1.2. (1) {0} ist ein K-Vektorraum mit den einzig moglichen Ope-rationen.

(2) K ist ein K-Vektorraum mit der Addition in K als Addition, und derMultiplikation in K als Skalarmultiplikation.

(3) Seien V,W Vektorraume. Dann ist auch V ×W ein Vektorraum mit denOperationen

(v, w) + (v′, w′) = (v + v′, w + w′)

α(v, w) = (αv, αw)

1

Page 39: Lineare Algebra

2 KAPITEL 2. VEKTORRAUME

fur v, v′ ∈ V,w,w′ ∈ W,α ∈ K. [Das muß man beweisen! Die Addition istassoziativ, weil ((v, w) + (v′, w′)) + (v′′, w′′) = (v + v′, w + w′) + (v′′, w′′) =((v + v′) + v′′, (w + w′) + w′′) = (v + (v′ + v′′), w + (w′ + w′′)) == (v, w) +(v′ + v′′, w′ + w′′) = (v, w) + ((v′, w′) + (v′′, w′′)) fur v, v′, v′′ ∈ V undw,w′, w′′ ∈ W . Ahnlich zeigt man die Kommutativitat. Das Element (0, 0)ist eine Null, und zu (v, w) ist (−v,−w) das additive Inverse (prufen Sie!).Damit ist V ×W eine abelsche Gruppe. Von den Rechengesetzen fur dieSkalarmultiplikation prufen wir wieder nur exemplarisch eines. Machen Sieden Rest!: α((v, w) + (v′, w′)) = α(v+v′, w+w′) = (α(v+v′), α(w+w′)) =(αv+αv′, αw+αw′) = (αv, αw)+(αv′, αw′) = α(v, w)+α(v′, w′) fur α ∈ K,v, v′ ∈ V und w,w′ ∈ W .]

(4) Seien V ein Vektorraum und M eine Menge. Dann ist V M ein Vektorraummit den

”punktweisen“ Operationen

(f + g)(m) = f(m) + g(m)

(αf)(m) = αf(m)

[Das muß man wieder beweisen! Wir machen einige Teile, den Rest machenSie! Die Addition ist assoziativ, weil fur f, g, h ∈ V M und m ∈ M gilt:((f + g) + h)(m) = (f + g)(m) + h(m) = (f(m) + g(m)) + h(m) = f(m) +(g(m) + h(m)) = f(m) + (g + h)(m) = (f + (g + h))(m). Die Null ist0 ∈ V M , definiert durch 0(m) = 0 ∈ V fur alle m ∈ M . Das Inverse zuf ∈ V M ist −f , definiert durch (−f)(m) = −f(m) ∈ V fur m ∈ M . Furα, β ∈ K und f ∈ V M gilt, fur alle m ∈M ((α+β)f)(m) = (α+β)f(m) =αf(m) + βf(m) = (αf)(m) + (βf)(m) = (αf + βf)(m).]

(5) Beispielsweise sind Kn,mK,mKn Vektorraume.

(6) R ist ein Q-Vektorraum, C ist ein R-Vektorraum. Allgemeiner ist jeder R-Vektorraum ein Q-Vektorraum, jeder C-Vektorraum ein R-Vektorraum.

Definition 2.1.3. Seien V ein K-Vektorraum, und U ⊂ V eine Teilmenge. Uheißt ein Unter(vektor)raum von V , wenn gelten: 0 ∈ U , ∀u, v ∈ U : x + y ∈ U ,∀u ∈ U,α ∈ K : αu ∈ U .

Beispiele 2.1.4. Fur jedes A ∈ mKn ist L(A, 0) ⊂ nK ein Untervektorraum.Weiter ist U = Bi(`A) = {Ax|x ∈ nK} ⊂ mK ein Untervektorraum, weil 0 =A · 0 ∈ U , Ax+ Ay = A(x+ y), α(Ax) = A(αx).

In RR bilden die stetigen, die differenzierbaren, die stetig differenzierbaren, diebeliebig oft differenzierbaren Funktionen prominente Untervektorraume, weil...

In C∞([0, 1],R) bilden die Funktionen mit f ′+ f = 0 einen Untervektorraum,ebenso die Funktionen mit f ′′ − 2f ′ + f = 0.

Page 40: Lineare Algebra

2.1. VEKTORRAUME UND UNTERRAUME 3

Lemma 2.1.5. Seien V ein K-Vektorraum und U ⊂ V ein Unterraum. Dann istauch U ein Vektorraum, dessen Operationen durch die Operationen in V definiertwerden.

Beweis. Die Abbildungen

U × U 3 (u, v) 7→ u+ v ∈ UK × U 3 (α, u) 7→ αu ∈ U

sind nach Definition eines Untervektorraums wohldefiniert. Das Assoziativ- unddas Kommutativgesetz fur die Additionen gelten

”erst recht“ in U , weil sie in V

gelten, und 0 ∈ U ist eine Null fur das Monoid (U,+). Fur u ∈ U ist u+(−1)u =1u + (−1)u = (1 + (−1))u = 0u = u, denn 0u = (0 + 0)u = 0u + 0u, also0u = 0, weil V Gruppe. Also ist (U,+) eine abelsche Gruppe. Die restlichenRechengesetze gelten wieder

”erst recht“

Bemerkung 2.1.6. Aus dem Beweis halten wir fest: Fur alle v ∈ V gilt 0v = 0und (−1)v = −v. Ebenso gilt α · 0 fur alle α ∈ K, α(−v) = −αv = (−α)v.

Lemma 2.1.7. Seien V ein Vektorraum und U,U ′ zwei Unterraume von V . Dannist auch U ∩ U ′ ⊂ V ein Unterraum.

Sei (Ui)i∈I eine Familie von Unterraumen von V . Dann ist auch⋂i∈I

Ui ⊂ V

ein Unterraum.

Beweis. Weil 0 ∈ Ui fur alle i ∈ I, ist 0 ∈⋂i∈I

Ui =: U .

Seien jetzt v, v′ ∈ U . Dann ist v+v′ ∈ U . Denn sei i ∈ I. Dann sind v, v′ ∈ Ui,also v + v′ ∈ Ui.

Ebenso folgt αv ∈ U fur α ∈ K.

Lemma 2.1.8. Seien U,U ′ zwei Unterraume von V . Dann ist

U1 + U2 := {v ∈ V |∃u1 ∈ U1∃u2 ∈ U2[u1 + u2 = v]}

ein Unterraum von V .

U1 +U2 ist der kleinste Unterraum von V , der sowohl U1 als auch U2 umfaßt.

Beweis. Naturlich ist 0 ∈ U1 +U2. Seien v, v′ ∈ U1 +U2. Dann gibt es ui, u′i ∈ Ui

mit u1 + u2 = v und u′1 + u′2 = v′, und es folgt v + v′ = u1 + u2 + u′1 + u′2 =(u1 +u′1)+(u2 +u′2) ∈ U1 +U2, weil ui+u′i ∈ Ui. Ebenso zeigt man αv ∈ U1 +U2.

Sei nun W ⊂ V ein Unterraum von V mit Ui ⊂ W fur i = 1, 2. Dann istU1 + U2 ⊂ W , denn ein beliebiges v ∈ U1 + U2 hat die Form v = u1 + u2 furui ∈ Ui, und weil ui ∈ W nach Voraussetzung, ist auch v ∈ W .

Page 41: Lineare Algebra

4 KAPITEL 2. VEKTORRAUME

Definition und Lemma 2.1.9. Seien I eine Menge, und V ein Vektorraum.Dann ist V (I) ⊂ V I , definiert durch

V (I) = {f ∈ V I |f(i) 6= 0 fur nur endlich viele i ∈ I}

ein Untervektorraum.

Die Elemente von V (I) heißen auch endlichwertige Familien, oder man sagt(ai)i∈I ∈ V (I) genau dann wenn ai = 0 fur

”fast alle i ∈ I“, was also heißt: fur

alle bis auf endlich viele.

Definition 2.1.10. Wir wollen den Ausdruck∑i∈I

vi fur eine Familie (vi)i∈I nur

dann definieren, wenn (vi)i∈I ∈ V (I). Dann definieren wir

∑i∈I

vi :=n∑j=1

vij ,

wenn i1, . . . , in ∈ I paarweise verschiedene Elemente sind und ∀i ∈ I\{i1, . . . , in}[vi =0]

Streng genommen sollte man jetzt beweisen, daß die Definition nicht von derWahl der i1, . . . , in abhangt. Wenn man das glaubt, sind die folgenden Eigen-schaften leicht einzusehen:

Lemma 2.1.11. Fur (vi), (wi) ∈ V (I) und α ∈ K gilt∑i∈I

(vi + wi) =∑i∈I

vi +∑i∈I

wi∑i∈I

αvi = α∑i∈I

vi

Vertrauen in”unendliche Summen“ vorausgesetzt, sieht man

Definition und Lemma 2.1.12. Seien V ein Vektorraum, und (Ui)i∈I eineFamilie von Unterraumen von V . Dann ist

∑i∈I

Ui :=

{v ∈ V

∣∣∣∣∣Es gibt ui ∈ Ui fur i ∈ I, fast alle ui = 0, mit v =∑i∈I

ui

}

ein Unterraum von V , und zwar der kleinste Unterraum, der jedes Ui umfaßt.

Page 42: Lineare Algebra

2.2. LINEARE ABBILDUNGEN 5

2.2 Lineare Abbildungen

Definition 2.2.1. Seien V,W zwei K-Vektorraume. Eine Abbildung f : V → Wheißt K-linear, oder ein (Vektorraum)homomorphismus, wenn

∀v, v′ ∈ V [f(v + v′) = f(v) + f(v′)]

∀v ∈ V ∀α ∈ K[f(αv) = αf(v)]

Aquivalent dazu kann man fordern:

∀v, v′ ∈ V ∀α, α′ ∈ K[f(αv + α′v′) = αf(v) + α′f(v′)].

Beispiele 2.2.2. Sei A ∈ mKn. Dann ist `A : nK → mK linear, ebenso

nKp 3 B 7→ AB ∈ mKp

pKm 3 B 7→ BA ∈ pKn

fur alle p ∈ NFur jeden Vektorraum V , jede Menge I und jedes x ∈ I ist die Abbildung

ax : V I 3 f 7→ f(x) ∈ V

linear. Zum Beispiel ist also auch die Abbildung RR → R, die jeder reellenFunktion ihren Wert an einer gewissen Stelle zuweist, R-linear. Zum Beweis: Furf, g ∈ V I und x ∈ I ist

ax(f + g) = (f + g)(x) = f(x) + g(x) = ax(f) + ax(g),

und ax(αf) = (αf)(x) = αf(x) = αax(f).Allgemeiner seien V ein Vektorraum, I, J Mengen, und ϕ : I → J eine Abbil-

dung. Dann ist

V φ : V J → V I ; f 7→ f ◦ ϕ

eine lineare Abbildung. Denn fur f, g ∈ V J und x ∈ I ist

V φ(f + g)(x) = ((f + g) ◦ φ)(x) = (f + g)(φ(x)) = f(φ(x)) + g(φ(x))

= V φ(f)(x) + V φ(g)(x) = (V φ(f) + V φ(g))(x),

und so ahnlich zeigt man auch V φ(αf) = αV φ(f) fur α ∈ K.Die Abbildung

V (I) 3 (vi)i∈I 7→∑i∈I

vi ∈ V

ist K-linear, wie wir schon in 2.1.11 aufgeschrieben haben.

Page 43: Lineare Algebra

6 KAPITEL 2. VEKTORRAUME

Die Ableitung definiert R-lineare Abbildungen

C1([0, 1],R)→ C0([0, 1],R)

C∞(R,R)→ C∞(R,R)

(da gibt es offensichtlich noch viele Varianten!).Ebenso das Integral

C0([0, 1],R) 3 f 7→∫ 1

0

f(t)dt ∈ R

C0(R,R) 3 f 7→ (x 7→∫ x

0

f(t)dt) ∈ C1(R,R)

Linearitat von Ableitung und Integral sind wichtige Eigenschaften, die in derAnalysis-Vorlesung bewiesen werden.

Die Abbildung C 3 z 7→ z ∈ C ist R-linear, aber nicht C-linear.Die Identitat ist ein Homomorphismus V → V .Allgemeiner ist die Inklusionsabbildung U → V fur jeden Unterraum U ⊂ V

eine lineare Abbildung.

Lemma 2.2.3. Seien f : V → W und g : U → V zwei K-lineare Abbildungen.Dann ist auch fg : U → W K-linear.

Beweis. Seien v, v′ ∈ V und α, α′ ∈ K. Dann ist

(fg)(αv + α′v′) = f(g(αv + α′v′)) = f(αg(v) + α′g(v′)) =

αf(g(v)) + α′f(g(v′)) = α(fg)(v) + α′(fg)(v′)

Definition 2.2.4. Sei f : V → W ein Vektorraumhomomorphismus. Wir sagen:

(1) f ist ein Monomorphismus, wenn f injektiv ist,

(2) f ist ein Epimorphismus, wenn f surjektiv ist,

(3) f ist ein Isomorphismus, wenn f bijektiv ist,

(4) f ist ein Endomorphismus, wenn V = W gilt,

(5) f ist ein Automorphismus, wenn V = W gilt, und f bijektiv ist.

Lemma 2.2.5. Sei f : V → W ein Isomorphismus von K-Vektorraumen. Dannist auch f−1 : W → V ein Homomorphismus (also Isomorphismus).

Page 44: Lineare Algebra

2.2. LINEARE ABBILDUNGEN 7

Beweis. Seien w,w′ ∈ W und α, α′ ∈ K. Wir wollen zeigen:

f−1(αw + α′w′) = αf−1(w) + α′f−1(w′).

Weil f bijektiv, also injektiv ist, genugt es dafur, zu zeigen, daß f(rechte Seite) =f(linke Seite) gilt. Und tatsachlich:

f(αf−1(w) + α′f−1(w′)) = αff−1(w) + α′ff−1(w′)

= αw + α′w′ = f(f−1(αw + α′w′))

Bemerkung 2.2.6. Ein Isomorphismus zwischen zwei Vektorraumen V und Wbedeutet also einen eins-zu-eins-Ubersetzungsmechanismus zwischen Elementenvon V und Elementen von W , der sogar noch mit den Rechenoperationen ver-traglich ist. Es ist also egal, ob man eine Rechnung mit Elementen von V ausfuhrt,und das Ergebnis dann nach W ubersetzt, oder ob man erst alle vorkommendenVektoren nach W ubersetzt, und die Rechnung dann dort ausfuhrt. V und Wsind also

”praktisch dasselbe“. Es sollte keine wesentlichen Eigenschaften geben,

die der Vektorraum V hat, aber W nicht.Gibt es einen Isomorphismus von V nach W , sagen wir auch, V und W sind

isomorph, V ∼= W .

Lemma 2.2.7. Seien V und W zwei K-Vektorraume und f : V → W ein Ho-momorphismus. Dann ist Bi(f) ein Untervektorraum von W .

Allgemeiner ist fur jeden Untervektorraum U ⊂ V auch f(U) ⊂ W ein Un-tervektorraum.

Beispiel: {Ax|x ∈ nK} ⊂ mK, das Bild von `A, ist die Menge aller rechtenSeiten b, fur die Ax = b losbar ist (wobei A ∈ mKn).

Beweis. Die Null ist in f(U), weil 0 ∈ U und f(0) = f(0K · 0V ) = 0Kf(0V ) = 0.Seien w,w′ ∈ f(U). Dann gibt es u, u′ ∈ U mit f(u) = w und f(u′) = w′. Es

folgt

w + w′ = f(u) + f(u′) = f(u+ u′) ∈ f(U)

weil u+ u′ ∈ U . Ahnlich zeigt man αw ∈ f(U) fur α ∈ K.

Die bisherigen”Operationen“ mit Homomorphismen (Verknupfen, Invertieren

von Isomorphismen, das Bild als Unterstruktur) kann man auch bei allen anderen

”vernunftigen“ algebraischen Strukturen genau so beweisen. Zum Beispiel geht

”alles genauso“ fur Gruppenhomomorphismen, Ringhomomorphismen. Insbeson-

dere spielt der Begriff der Isomorphie eine ahnliche Rolle. Was im folgenden nochbehandelt wird, sind Begriffe, die speziell fur die Theorie der Vektorraume gelten.

Page 45: Lineare Algebra

8 KAPITEL 2. VEKTORRAUME

Lemma 2.2.8. Seien V,W zwei K-Vektorraume. Die Linearen Abbildungen vonV nach W bilden einen Untervektorraum

HomK(V,W ) := {f : V → W |f ist linear} ⊂ W V .

Beweis. Man sieht sofort 0 ∈ HomK(V,W ). Seien f, g ∈ HomK(V,W ) und α ∈K. Dann gilt fur alle v, v′ ∈ V , λ ∈ K:

(f + g)(v + v′) = f(v + v′) + g(v + v′)

= f(v)+f(v′)+g(v)+g(v′) = f(v)+g(v)+f(v′)+g(v′) = (f+g)(v)+(f+g)(v′)

und (f+g)(αv) = f(αv)+g(αv) = αf(v)+αg(v) = α(f(v)+g(v)) = α(f+g)(v),also ist f + g wieder K-linear. Weil

(αf)(v+v′) = α(f(v+v′)) = α(f(v)+f(v′)) = αf(v)+αf(v′) = (αf)(v)+(αf)(v)

und (αf)(λv) = αf(λv) = αλf(v) = λαf(v) = λ(αf)(v), ist αf ebenfalls K-linear.

Definition 2.2.9. Sei f : V → W ein Homomorphismus von K-Vektorraumen.Dann heißt

Ker(f) := f−1(0) = {v ∈ V |f(v) = 0}der Kern von f .

Satz 2.2.10. Sei f : V → W ein Vektorraumhomomorphismus.

(1) Ker(f) ⊂ V ist ein Untervektorraum.

(2) Genau dann ist f injektiv, wenn Ker(f) = {0} gilt.

Beispiel: Sei A ∈ mKn. Dann ist

Ker(`A) = L(A, 0) = {x ∈ nK|Ax = 0}

der Losungsraum des homogenen linearen Gleichungssystems Ax = 0. Wie wirwissen ist `A tatsachlich genau dann injektiv (d.h. jedes Gleichungssystem Ax = bgar nicht oder eindeutig losbar) wenn Ax = 0 nur die triviale Losung hat.

Beweis des Satzes. (1) Wegen f(0) = 0 ist 0 ∈ Ker(f). Seien v, v′ ∈ Ker(f),also f(v) = f(v′) = 0. Dann folgt f(v+ v′) = f(v) + f(v′) = 0 + 0 = 0, alsov+v′ ∈ Ker(f), und fur α ∈ K auch f(αv) = αf(v) = 0, also αv ∈ Ker(f).

(2) Da f(0) = 0, kann f nur injektiv sein, wenn es kein weiteres v ∈ V \{0} mitf(v) = 0 gibt, wenn also Ker(f) = 0 ist. Sei umgekehrt Ker(f) = 0, undseien v, v′ ∈ V mit f(v) = f(v′). Dann folgt 0 = f(v′) − f(v) = f(v′ − v),also v′ − v ∈ Ker(f) = 0, also v′ − v = 0 oder v′ = v.

Page 46: Lineare Algebra

2.2. LINEARE ABBILDUNGEN 9

Satz 2.2.11. Seien I eine Menge und V ein Vektorraum. Fur j ∈ I sei ej ∈ K(I)

definiert durch ej = (δij)i∈I .Dann gibt es fur jede Familie (vi)i∈I ∈ V I genau einen Homomorphismus

f : K(I) → V mit f(ei) = vi fur alle i ∈ I, namlich

f : K(I) 3 (ai)i∈I 7→∑i∈I

aivi ∈ V

Beweis. Es sei zunachst f durch die angegebene Formel definiert. Das geht, weil(aivi)i∈I ∈ V (I). Die so definierte Abbildung ist ein Homomorphismus, weil

f((ai) + (bi)) = f((ai + bi)i∈I) =∑i∈I

(ai + bi)vi =∑i∈I

(aivi + bivi)

=∑i∈I

aivi +∑i∈I

bivi = f((ai)i∈I) + f((bi)i∈I)

und ahnlich f(α(ai)i∈I) = αf((ai)i∈I) fur alle α ∈ K, (ai), (bi) ∈ K(I). Schließlichist f(ej) = f((δij)i∈I) =

∑i∈I δijvi = vj fur jedes j ∈ I.

Jetzt sei g : K(I) → V noch ein Homomorphismus mit g(ei) = vi fur alle i. Sei(ai) ∈ K(I). Dann ist (ai)i∈I =

∑i∈I aiei, also g((ai)) = g(

∑aiei) =

∑aig(ei) =∑

aivi = f((ai)).

Folgerung 2.2.12. Seien V ein Vektorraum und I eine Menge. Dann ist

Φ: Hom(K(I), V )→ V I ,

definiert durch Φ(f) = (f(ei))i∈I , ein Isomorphismus von K-Vektorraumen.

Beweis. Wir haben gerade bewiesen, daß Φ bijektiv ist. Außerdem ist Φ linear,zum Beispiel gilt

Φ(f + g) = ((f + g)(ei))i∈I = (f(ei) + g(ei))i∈I

= (f(ei))i∈I + (g(ei))i∈I = Φ(f) + Φ(g)

fur alle f, g ∈ Hom(K(I), V ).

Folgerung 2.2.13. Seien m,n ∈ N und K ein Korper. Dann ist

` : mKn 3 A 7→ `A ∈ HomK(nK,mK)

ein Isomorphismus von K-Vektorraumen.

Beweis. Die Abbildung ist injektiv, weil fur A ∈ Ker ` alle Spalten Aei = `A(ei)von A verschwinden, also A = 0 gilt.

Die Abbildung ist surjektiv, denn sei f ∈ HomK(nK,mK), und sei A =(f(e1), . . . , f(en)) die Matrix mit den f(ei) als Spalten. Dann ist `A(ei) = f(ei)

Page 47: Lineare Algebra

10 KAPITEL 2. VEKTORRAUME

fur alle i, also folgt f = `A. (Dieser letzte Schluß benutzt tatsachlich 2.2.11, abernur einen sehr kleinen Teil. Besser benutzt man 2.3.2 unten.)

` ist ein Homomorphismus, weil `A+B = `A + `B, `(αA) = α`A, und dieseGleichungen gelten weil

`A+B(x) = (A+B)x = Ax+Bx = `A(x) + `B(x) = (`A + `B)(x)

und`αA(x) = (αA)x = α(Ax) = α`A(x) = (α`A)(x)

fur alle x ∈ nK.

2.3 Basen und Dimension

Lemma und Definition 2.3.1. Fur jede Teilmenge X ⊂ V gibt es einen klein-sten Unterraum U mit der Eigenschaft X ⊂ U . Diesen Unterraum bezeichnenwir mit 〈X〉. Er kann als

〈X〉 =⋂{U ⊂ V |U Unterraum und X ⊂ U}

gewonnen werden.Der Unterraum 〈X〉 heißt der von X erzeugte Unterraum von V . Gilt 〈X〉 =

V , so heißt die Menge X eine Erzeugendenmenge von V .

Beweis. Die Menge M = {U ⊂ V |U Unterraum und X ⊂ U} ist nicht leer, weilV ∈M. Also ist der Schnitt aller Elemente von M ein Unterraum von V . NachDefinition ist X ⊂

⋂M, und fur jeden Unterraum U ⊂ V mit X ⊂ U ist U ∈M,

also⋂

M ⊂ U .

Diese”Technik“ zum Hinschreiben des kleinsten Unterraums funktioniert bei

”allen vernunftigen algebraischen Strukturen“. Die recht abstrakte Beschreibung

ist auch oft nutzlich:

Lemma 2.3.2. Seien f, g : V → W zwei Vektorraumhomomorphismen, und X ⊂V eine Erzeugendenmenge.

Wenn f |X = g|X gilt (also f(x) = g(x) fur alle x ∈ X), dann ist schon f = g.

Beweis. Sei h = g − f . Dann ist h(x) = 0 fur alle x ∈ X, also X ⊂ Ker(h). WeilKer(h) ⊂ V ein Unterraum ist, ist auch V = 〈X〉 ⊂ Ker(h), also h(v) = 0 unddamit f(v) = g(v) fur alle v ∈ V .

Definition und Lemma 2.3.3. Sei (vi)i∈I eine Familie von Elementen desVektorraums V .

Einen Ausdruck der Form∑

i∈I aivi fur (ai) ∈ K(I) und (vi) ∈ V I nennt maneine Linearkombination der vi mit den Koeffizienten ai.

Der von den vi erzeugte Unterraum von V besteht genau aus allen Linear-kombinationen der vi.

Page 48: Lineare Algebra

2.3. BASEN UND DIMENSION 11

Beweis. Die Linearkombinationen bilden genau das Bild des Homomorphismus

f : K(I) 3 (ai) 7→∑i∈I

aivi ∈ V,

und das Bild eines Homomorphismus ist ein Unterraum. Außerdem sind alle viim Bild von f , namlich vi = f(ei). Also ist 〈vi|i ∈ I〉 ⊂ Bi(f). Andererseits istmit jedem vi auch jede Linearkombination im Unterraum 〈vi|i ∈ I〉, weil letztereseben ein Unterraum ist. Also gilt auch die andere Inklusion.

Definition 2.3.4. Seien V ein K-Vektorraum und (vi)i∈I ∈ V I . Die Familie (vi)heißt linear unabhangig, wenn die Null nur auf triviale Weise als Linearkombina-tion der vi dargestellt werden kann, also

∀(ai)i∈I ∈ K(I)[∑i∈I

aivi = 0⇒ ∀i ∈ I[ai = 0]]

Ein Vektor v heißt von der Familie (vi) linear unabhangig, wenn v 6∈ 〈vi|i ∈ I〉.

Bemerkung 2.3.5. Man kann auch kurz sagen: Die vi sind linear unabhangiggenau dann, wenn die Abbildung

Λ: K(I) 3 (ai) 7→∑i∈I

aivi ∈ V

den Kern Ker(Λ) = 0 hat. Aquivalent dazu ist Λ injektiv, es gilt also

∀(ai), (bi) ∈ K(I)[∑i∈I

aivi =∑i∈I

bivi ⇒ ∀i ∈ I[ai = bi]]

(Stichwort:”Koeffizientenvergleich“).

Definition 2.3.6. Eine Basis(familie) eines Vektorraums ist eine linear unabhangi-ge Erzeugendenfamilie.

Bemerkung 2.3.7. Nach Definition ist B = (vi)i∈I genau dann eine Basisfamiliefur V , wenn ΛB : K(I) → V ein Isomorphismus ist.

Definition 2.3.8. Sei A ∈ mKn, und seien s1, . . . , sn ∈ mK die Spalten von A.Den Aufspann 〈s1, . . . , sn〉 ⊂ mK nennt man auch den Spaltenraum von A.

Analog definiert man den Zeilenraum.

Wir wissen schon lange, wie man eine Basis des Losungsraumes eines li-nearen Gleichungssystems ausrechnet, also des Kerns einer linearen AbbildungnK → mK. Eine andere Sorte von Unterraumen sind Bilder von solchen linearenAbbildungen, oder, was dasselbe ist, Unterraume, die uns durch ein endliches Er-zeugendensystem gegeben sind. Fur solche Unterraume von mK sagt der folgendeSatz, wie man eine Basis bestimmt:

Page 49: Lineare Algebra

12 KAPITEL 2. VEKTORRAUME

Satz 2.3.9. Sei A ∈ mKn mit den Spalten s1, . . . , sn.

(1) Der Spaltenraum von A ist das Bild von `A : nK → mK.

(2) Die Spalten von A sind genau dann linear unabhangig, wenn rang(A) = n.

(3) Sei A ∼ A′, und sei A′ eine Zeilenstufenmatrix mit den Stufen an denStellen j1, . . . , jr. Dann ist (sj1 , . . . , sjr) eine Basis des Spaltenraums vonA.

(4) Sei D := (A,Em) ∼ D′, und sei D′ eine Zeilenstufenmatrix mit den Stufenan den Stellen j1, . . . , jm. Dann bilden die j1-te bis jm-te Spalte von D eineBasis von mK, die eine Basis des Spaltenraums von A umfaßt.

Beweis. Es ist `A = Λ(s1,...,sm) : nK → mK, wo Λ(s1,...,sm) die lineare Abbildungmit Λ(s1,...,sm)(ei) = si fur alle i ist.

Damit ist (1) schon klar. Fur (2) beachte man, daß rang(A) = n genau danngilt, wenn `A injektiv ist.

(3): Die Matrix B = (sj1 , . . . , sjr) hat nach (2) linear unabhangige Spalten.Naturlich ist Bi(`B) ⊂ Bi(`A). Wir mussen nur noch Gleichheit zeigen. Dazu seiv ∈ Bi(`A). Dann ist rang(A, v) = rang(A) = r, und rang(B, v) ≤ rang(A, v) =rang(A) = rang(B), also v ∈ Bi(`B).

(4): Folgt aus (3).

Nun wissen wir schon viel uber Erzeugendenmengen, linear unabhangige Teil-mengen und Basen in nK. Wir sammeln jetzt wichtige Aussagen uber diese Be-griffe in beliebigen, abstrakten Vektorraumen.

Lemma 2.3.10. Folgende Aussagen uber eine Teilmenge B ⊂ V sind aquivalent:

(1) B ist linear unabhangig.

(2) Fur jedes b ∈ B ist b von B \ {b} linear unabhangig.

(3) B ist leer, oder es gibt ein b ∈ B so daß B \ {b} linear unabhangig ist, undb von B \ {b} linear unabhangig ist.

Beweis. Sei b ∈ 〈B\{b}〉, also etwa b =∑

c∈B\{b}

αcc. Dann wird∑c∈B

αcc = 0 sobald

man αb = −1 6= 0 setzt. Das zeigt (1)⇒(2).Klar ist (2)⇒(3).Nun sei b ∈ B so daß B \ {b} linear unabhangig ist, und b 6∈ 〈B \ {b}. Sei

(αc) ∈ K(B) mit∑c∈B

αcc = 0. Falls αb = 0, ist∑

c∈B\{b}

αcc = 0, also alle αc = 0,

weil B \ {b} linear unabhangig. Aber αb 6= 0 ist unmoglich, weil daraus

b = −α−1b

∑c∈B\{b}

αcc ∈ 〈B \ {b}〉

Page 50: Lineare Algebra

2.3. BASEN UND DIMENSION 13

folgen wurde.

Lemma 2.3.11. Folgende Aussagen uber eine Teilmenge B ⊂ V sind aquivalent:

(1) B ist ein minimales Erzeugendensystem von V .

(2) B ist eine maximale linear unabhangige Teilmenge von V .

(3) B ist eine Basis von V .

Beweis. Sei B ein minimales Erzeugendensystem. Angenommen, B ist linearabhangig. Dann gibt es b ∈ B mit b ∈ 〈B \ {b}〉. Aber dann ist B ⊂ 〈B \ {b}〉,und damit V = 〈B〉 ⊂ 〈B \ {b}〉 im Widerspruch zur Minimalitat von B.

Sei B eine Basis. Dann ist naturlich B ein Erzeugendensystem, und auchminimal. Denn sei C ⊂ B auch ein Erzeugendensystem, und angenommen esgibt b ∈ B \ C. Dann ist b ∈ 〈C〉 ⊂ 〈B \ {b}〉, und damit B linear abhangig.

Sei B eine maximale linear unabhangige Teilmenge von V , und angenommen〈B〉 6= V , etwa v ∈ V \ 〈B〉. Dann ist B ∪ {v} linear unabhangig, Widerspruch.

Sei nun B eine Basis. Dann ist B linear unabhangig. Angenommen es gibtB ⊂ C so daß C linear unabhangig und C 6= B. Sei etwa c ∈ C \ B. Weil c vonC \ {c}, also auch von B linear unabhangig ist, ist c 6∈ 〈B〉, ein Widerspruch

Der folgende Satz gilt auch ohne die Zusatze”endlich erzeugt“ bzw.

”endlich“,

ist dann aber sehr viel schwieriger zu beweisen (und nur unter Zuhilfenahme dessogenannten Auswahlaxioms der Mengenlehre; man kann auch Mengenlehre ohneAuswahlaxiom betreiben). Wir beweisen nur den

”endlichen“ Fall. Man beachte,

daß der Satz insbesondere besagt, daß jeder endlich erzeugte Vektorraum zu einemVektorraum der Form nK isomorph ist. Außer diesen

”typischen“ Beispielen gibt

es also bis auf Isomorphie keine weiteren.

Satz 2.3.12. Jeder endlich erzeugte Vektorraum hat eine endliche Basis.

Beweis. Sei E ein endliches Erzeugendensystem. Dann umfaßt E ein minimalesErzeugendensystem (man nehme einfach unter den endlich vielen Teilmengen, dieErzeugendensysteme sind, eine mit moglichst wenigen Elementen), und dieses isteine Basis.

Satz 2.3.13. Sei V ein Vektorraum. Sei V = 〈g1, . . . , gn〉, und W = (wi)i∈I einelinear unabhangige Familie in V . Dann ist I endlich mit hochstens n Elementen.

Hat I genau n Elemente, so sind (g1, . . . , gn) und W Basen von V .

Ist insbesondere V endlich erzeugt, so ist jede Basis von V endlich, und zwarmit derselben, nur von V abhangigen Anzahl von Elementen.

Beweis. Es genugt (!) den Fall zu betrachten, daß I endlich ist, etwa I = {1, . . . ,m}.

Page 51: Lineare Algebra

14 KAPITEL 2. VEKTORRAUME

Nach dem Beweis von 2.3.12 gibt es eine Basis B = (b1, . . . , bd) von V mitd ≤ n. Nun kann man den Mono ΛW : mK → V mit dem Iso Λ−1

B : V → dKverknupfen, und erhalt einen Mono

f := Λ−1B ΛW : mK → dK

der nach 2.2.13 die Form f = `A fur eine Matrix A ∈ dKm hat. Aber `A Monoimpliziert schon m ≤ d.

Ist n = m, dann folgt wegen d ≤ n auch d = n. Also ist (g1, . . . , gn) Basis.Außerdem ist A quadratisch und invertierbar, also ist ΛW auch Iso, also W Basis.

Nur weil wir bewiesen haben, daß verschiedene Basen desselben Vektorraumsimmer gleich viele Elemente haben, durfen wir nun die folgende Definition aus-sprechen:

Definition 2.3.14. Sei V ein endlich erzeugter Vektorraum. Dann heißt dieAnzahl der Elemente einer Basis von V die Dimension von V , dimV .

Man nennt endlich erzeugte Vektorraume auch endlichdimensional.

Folgerung 2.3.15. Sei V ein K-Vektorraum mit dimV = n, und sei B ⊂ Veine Teilmenge. Dann sind aquivalent:

(1) B ist eine Basis (und damit insbesondere |B| = n).

(2) B ist linear unabhangig und |B| ≥ n.

(3) B ist Erzeugendenmenge und |B| ≤ n.

Der folgende Satz gilt auch ohne den Zusatz”endlichdimensional“, ist aber

dann wieder sehr viel schwerer zu beweisen. Wir schaffen’s, weil mit der Dimen-sion eine obere Schranke fur die Große linear unabhangiger Teilmengen da ist.

Satz 2.3.16. Sei V ein endlichdimensionaler Vektorraum. Seien X ⊂ V linearunabhangig, und Y ⊂ V so daß 〈X∪Y 〉 = V . Dann gibt es eine Teilmenge Z ⊂ Ymit Z ∩X = ∅, so daß X ∪ Z eine Basis von V ist.

Insbesondere kann man jede linear unabhangige Teilmenge durch Elementeeiner vorgegebenen Erzeugendenmenge zu einer Basis erganzen.

Beweis. Ist Z ⊂ Y eine Teilmenge so daßX∩Z = ∅, undX∪Z linear unabhangig,dann hat nach 2.3.15 die Menge X∪Z hochstens dimV Elemente. Man kann alsoeine solche Teilmenge Z mit moglichst vielen Elementen betrachten. Dann ist aberX∪Y ⊂ 〈X∪Z〉, und damit 〈X∪Z〉 = V , denn sonst gabe es y ∈ Y \〈X∪Z〉, undfur Z ′ := Z∪{y} waren immer noch Z ′∩X = ∅, und Z ′∪X linear unabhangig.

Page 52: Lineare Algebra

2.3. BASEN UND DIMENSION 15

Um zu verstehen, daß die nachste Folgerung nicht schon vollig selbstverstand-lich ist, beachte man: Wenn man ein Erzeugendensystem eines Vektorraums Vkennt (z.B. die kanonische Basis von V = nK) und einen Unterraum U ⊂ Vbetrachtet, kennt man zunachst kein Erzeugendensystem von U . Schließlich mußkein einziger der Vektoren aus unserem Erzeugendensystem von V ein Elementvon U sein (zum Beispiel enthalt der Losungsraum eines LGS ublicherweise nichtunbedingt einen der kanonischen Basisvektoren).

Folgerung 2.3.17. Jeder Untervektorraum U eines endlichdimensionalen Vek-torraums V ist endlichdimensional mit dimU ≤ dimV .

Beweis. Linear unabhangige Teilmengen von U konnen hochstens dimV Ele-mente haben. Sei B ⊂ U eine linear unabhangige Teilmenge mit moglichst vielenElementen. Dann ist B eine Basis, denn wenn es u ∈ U \ 〈B〉 gabe, dann wareauch B ∪ {u} eine linear unabhangige Teilmenge von U .

Der nachste Satz ist uns fur die kanonische Basis B von V = K(I) schonbekannt. Er sagt: Um eine lineare Abbildung anzugeben, genugt es, zu sagen, wasmit den Elementen einer Basis geschehen soll. Daß man nicht mehr Informationbraucht, um eine lineare Abbildung festzulegen, wissen wir auch schon aus 2.3.2(und es wird im letzten Schritt des Beweises auch benutzt). Neu ist, daß esuberhaupt eine lineare Abbildung gibt, die die beliebige Vorgabe auf der Basiserfullt.

Satz 2.3.18. Seien V ein Vektorraum und B = (bi)i∈I eine Basisfamilie von V .Dann gibt es zu jedem Vektorraum W und jeder Familie (wi)i∈I ∈ W I genau

eine lineare Abbildung f : V → W mit f(bi) = wi fur alle i ∈ I.

Beweis. f = Λ(wi)Λ−1(bi)

tut’s, weil Λ(wi)Λ−1(bi)

(bj) = Λ(wi)(ej) = wj. Ist umgekehrt

g : V → W linear mit g(bi) = wi fur alle i, dann ist g = f , weil gΛ(bi) = Λ(wi),wie die Rechnung gΛ(bi)(ej) = g(bj) = wj = Λ(wi)(ej) zeigt.

Und weil’s so gut zu”Basen und Homomorphismen“ paßt, hier wichtige Infor-

mationen daruber, wie sich linear unabhangige bzw. erzeugende Familien unterHomomorphismen verhalten. Mehr dazu siehe Ubungen!

Satz 2.3.19. Seien V,W Vektorraume, I eine Menge, (vi)i∈I ∈ V I , und f : V →W ein Homomorphismus.

(1) Ist (vi) eine Erzeugendenfamilie und f surjektiv, dann ist auch (f(vi))i∈I ∈W I eine Erzeugendenfamilie von W .

(2) Ist (vi) linear unabhangig und f injektiv, dann ist auch (f(vi))i∈I ∈ W I

linear unabhangig.

(3) Ist (vi) eine Basis von V und f ein Iso, dann ist (f(vi)) eine Basis von W .

Page 53: Lineare Algebra

16 KAPITEL 2. VEKTORRAUME

Beweis. Naturlich folgt (3) aus (1) und (2). Wir uberzeugen uns erst einmal, daßΛ(f(vi)) = f ◦ Λ(vi) : K(I) → W gilt. Dazu genugt die Rechnung Λ(f(vi))(ej) =f(vj) = f(Λ(vi)(ej)) fur j ∈ I. Nun ist (vi) Erzeugendensystem genau wenn Λ(vi)

Epi. Ist dann auch f Epi, so auch die Verkettung Λ(f(vi)), und damit (f(vi))Erzeugendensystem. Das zeigt (1). Zu (2) verfahre man genauso: (vi) linear un-abhangig heißt Λ(vi) Mono, woraus mit f Mono auch Λ(f(vi)) Mono, also (f(vi))linear unabhangig folgt.

Page 54: Lineare Algebra

Kapitel 3

Euklidische und unitareVektorraume

3.1 Skalarprodukte

Definition 3.1.1. Seien U, V,W drei K-Vektorraume. Eine Abbildung σ : U ×V → K heißt K-bilinear, wenn gilt

(1) Fur jedes u ∈ U ist die Abbildung

V 3 v 7→ σ(u, v) ∈ W

linear.

(2) Fur jedes v ∈ V ist die Abbildung

U 3 u 7→ σ(u, v) ∈ W

linear.

Das bedeutet also genau, daß die folgenden Beziehungen gelten:

(1) ∀u, u′ ∈ U∀v ∈ V [σ(u+ u′, v) = σ(u, v) + σ(u′, v)]

(2) ∀u ∈ U∀v, v′ ∈ V [σ(u, v + v′) = σ(u, v) + σ(u, v′)]

(3) ∀u ∈ U∀α ∈ K∀v ∈ V [σ(αu, v) = ασ(u, v) = σ(u, αv)]

Eine bilineare Abbildung σ : V ×V → K heißt auch Bilinearform auf V . EineBilinearform σ heißt nicht ausgeartet, wenn

∀v ∈ V [∀w ∈ V [σ(v, w) = 0]⇒ v = 0]

∀w ∈ V [∀v ∈ V [σ(v, w) = 0]⇒ w = 0]

Sie heißt symmetrisch, wenn

∀v, w ∈ V [σ(v, w) = σ(w, v)].

1

Page 55: Lineare Algebra

2 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

Beispiele 3.1.2. (1) Fur n ∈ N ist σ : nK × nK → K, σ(v, w) = vtw einesymmetrische Bilinearform.

(2) Fur m,n, p ∈ N definiert die Matrizenmultiplikation eine bilineare Abbil-dung

σ : mKn × nKp → mKp.

(3) Sind f : U ′ → U , g : V ′ → V und h : W → W ′ linear, sowie σ : U × V → Wbilinear, dann ist auch

σ′ : U ′ × V ′ → W ′; (u′, v′) 7→ h(σ(f(u′), g(v′)))

wieder bilinear.

(4) Seien m,n, p, q ∈ N und A ∈ nKp. Dann ist

σ : mKn × pKq → mKq, (X, Y ) 7→ XAY

bilinear.

(5) Insbesondere ist

σ : nK × nK → K, (v, w) 7→ vtAw

bilinear fur jedes A ∈ nKn.

(6) Die Abbildung

nKn × nKn 3 (A,B) 7→ Spur(AB) ∈ K

ist bilinear.

Definition 3.1.3. Seien V ein R-Vektorraum und σ eine symmetrische Bilinear-form auf V .

(1) σ heißt positiv semidefinit, wenn ∀v ∈ V [σ(v, v) ≥ 0]

(2) σ heißt positiv definit, wenn ∀v ∈ V \ {0}[σ(v, v) > 0]

(3) σ heißt negativ semidefinit (bzw. negativ definit, wenn ∀v ∈ V [σ(v, v) ≤ 0](bzw. zusatzlich σ(v, v) = 0⇒ v = 0.

Eine positiv definite symmetrische Bilinearform nennt man ein Skalarprodukt aufV .

Ein euklidischer Vektorraum ist ein reeller Vektorraum mit einem Skalarpro-dukt.

Naturlich (bitte einfach Definitionen anschauen!) ist jedes Skalarprodukt einenicht ausgeartete Bilinearform.

Page 56: Lineare Algebra

3.1. SKALARPRODUKTE 3

Definition 3.1.4. Sei V ein C-Vektorraum. Eine hermite’sche Form σ auf V isteine Abbildung σ : V × V → C, so daß fur alle v, v′, w ∈ V und α ∈ V gilt:σ(v + v′, w) = σ(v, w) + σ(v′, w), σ(αv, w) = ασ(v, w), und σ(v, w) = σ(w, v).

Eine hermite’sche Form σ heißt positiv definit, wenn σ(v, v) > 0 fur allev ∈ V \ {0} gilt.

Ein Skalarprodukt auf V ist eine positiv definite hermite’sche Form. Einunitarer Vektorraum ist ein komplexer Vektorraum mit einem Skalarprodukt.

Bemerkung 3.1.5. Eine hermite’sche Form ist nicht bilinear, sondern”sesqui-

linear“, das heißt, fur alle u, u′, v, v′ ∈ V , α ∈ C gilt

σ(u+ u′, v) = σ(u, v) + σ(u′, v)

σ(αu, v) = ασ(u, v)

σ(u, v + v′) = σ(u, v) + σ(u, v′)

σ(u, αv) = ασ(u, v)

Man pruft leicht: Ist σ sesquilinear, dann auch die Abbildung τ : V ×V 3 (v, w) 7→σ(w, v).

Bemerkung 3.1.6. Im folgenden sei stets K einer der beiden Korper R, C.Falls K = R, ist x = x fur alle x ∈ K. Ein Vektorraum mit Skalarprodukt istdann

”je nachdem“ ein (reeller) euklidischer, oder eben ein (komplexer) unitarer

Vektorraum.Fur Familien x = (xi) ∈ KI schreiben wir x := (xi)i∈I ∈ KI .Skalarprodukte schreiben wir oft 〈v, w〉 statt σ(v, w).

Beispiele 3.1.7. (1) Auf nK ist das kanonische Skalarprodukt gegeben durch〈v, w〉 = vtw =

∑nk=1 viwi.

(2) Sei A ∈ nKn. Dann wird auf nK durch σ(v, w) = vtAw eine Sesquilinearform

definiert. Sie ist hermite’sch genau dann wenn A = At

=: A∗ gilt.

Beweis. Naturlich ist σ(–, w) linear. Aber auch σ(v, αw+w′) = vtAαw + w′ =vtA(α · w + w′) = αvtAw + vtAw′ = ασ(v, w) + σ(v, w′).

Falls A = A∗, gilt ist σ(v, w) = vtAw = vtAw = (vtAw)t = wtAtv =

σ(w, v).

Jetzt sei umgekehrt σ hermite’sch, A = (aij). Dann ist aij = etiAej =

etiAej = σ(ei, ej) = σ(ej, ei) = etjAei = aji fur alle i, j, also A = A∗.

(3) Sei B ∈ nKn. Dann wird (als Spezialfall des vorhergehenden Beispiels durch

σ(v, w) = vtBtBw eine hermite’sche Form auf nK definiert. Sie ist immer

positiv semidefinit, und positiv definit genau dann wenn W ∈ GL(n,K).

Page 57: Lineare Algebra

4 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

Beweis. Es ist (W tW )t = WtW = W tW , also ist σ hermite’sch. Wenn

〈, 〉 das kanonische Skalarprodukt auf nK bezeichnet, dann ist σ(v, w) =

〈Bv,Bw〉, also ist σ positiv semidefinit. Wenn B 6∈ GL(n,K), dann gibtes v ∈ n

K mit v 6= 0 aber Bv = 0, also σ(v, v) = 〈Bv,Bv〉 = 0. Istaber B ∈ GL(n,K), dann ist fur jedes v 6= 0 auch Bv 6= 0 und damitσ(v, v) > 0.

(4) Auf dem Vektorraum der stetigen komplexwertigen Funktionen auf dem

Einheitsintervall [0, 1] wird durch 〈f, g〉 :=

∫ 1

0

f(x)g(x)dx ein Skalarpro-

dukt definiert.

Definition 3.1.8. Sei A ∈ mKn. Die Matrix A∗ := A

theißt die zu A hermite’sch

konjugierte Matrix (falls K = R, ist das einfach die transponierte).

Die Matrix A ∈ nKn heißt hermite’sch, falls A = A∗.

Eine hermite’sche Matrix A heißt positiv definit, wenn vtAv > 0 fur alle0 6= v ∈ n

K. (Positiv semidefinit, falls vtAv ≥ 0 fur alle v ∈ nK.

Bemerkung 3.1.9. Ist W ∈ nKn, dann ist W ∗W immer positiv semidefinit,

und falls W regular ist, sogar positiv definit. Tatsachlich wird sich herausstellen,daß alle positiv definiten Matrizen diese Form haben, aber das ist nicht so leicht!Auch nicht leicht ist es, einer vorgelegten Matrix anzusehen, ob sie positiv definit

ist. Beispielsweise A =

(1 22 3

)nicht.

Bemerkung 3.1.10. Ein Skalarprodukt auf V ist stets”nicht ausgeartet“. Das

heißt, wenn fur einen Vektor v ∈ V gilt: 〈v, w〉 = 0 fur jedes w ∈ V , dann istschon v = 0. Es genugt naturlich schon zu testen: 〈v, bi〉 = 0 fur alle i, denn dieAbbildung w 7→ 〈w, v〉 ist ja linear.

Lemma 3.1.11. Seien σ eine hermite’sche Form auf V , und b1, . . . , bn ∈ V .

(1) Fur v =∑vibi und w =

∑wjbj gilt σ(v, w) =

∑viwjσ(bi, bj).

(2) Ist B = (b1, . . . , bn) Erzeugendensystem von V , und auch τ eine Sesqui-linearform, dann ist σ = τ genau dann wenn σ(bi, bj) = τ(bi, bj) fur allei, j.

(3) Ist B Erzeugendensystem, dann ist σ genau dann hermite’sch, wenn σ(bi, bj) =

σ(bj, bi) fur alle i, j.

(4) Sei σ ein Skalarprodukt. Dann ist B genau dann linear unabhangig, wenndie Matrix (σ(bi, bj))i,j regular ist.

Page 58: Lineare Algebra

3.1. SKALARPRODUKTE 5

Beweis. (1), (2) nicht der Rede wert. Zu (3): Mit Notationen aus (1) ist σ(w, v) =∑viwjσ(bj, bi) = σ(v, w) falls σ(bi, bj) = σ(bj, bi). Die andere Richtung ist klar!

Zu (4) sei OBdA B ein Erzeugendensystem. Sei w =∑wjbj. Dann ist w =

0 genau dann wenn fur alle j gilt 0 = σ(bi, w) =∑σ(bi, bj)wj. Das ist fur

nichttriviale wj genau dann moglich wenn die Matrix nicht regular ist.

Definition und Satz 3.1.12. Sei V ein endlichdimensionaler K-Vektorraummit Basis B = (b1, . . . , bn).

Fur eine hermite’sche Form σ auf V heißt MB(σ) := (σ(bi, bj)) ∈ nKn die

darstellende Matrix von σ bezuglich der Basis B. Dies ist eine hermite’sche Ma-trix.

Es gilt σ(v, w) = kB(v)tMB(σ)kB(w) fur alle v, w ∈ V .

Umgekehrt sei A ∈ nKn hermite’sch. Dann wird durch σA(v, w) := kB(v)tAkB(w)

eine hermite’sche Form auf V erklart.

Es ist MB(σA) = A und σMB(σ) = σ fur alle hermite’schen Formen σ undhermite’schen Matrizen A. Mit anderen Worten: Die Abbildung

{hermite’sche Formen auf V } 3 σ 7−→MB(σ) ∈ {A ∈ nKn|A∗ = A}

ist eine Bijektion zwischen der Menge aller hermite’schen Formen auf V und derMenge der hermite’schen Matrizen.

Genau dann ist σ : V × V → K positiv (semi)definit, wenn MB(σ) positiv(semi)definit ist.

Ist B′ eine weitere Basis von V , und T = TB′

B so gilt MB′(σ) = T tMB(σ)T .

Beweis. Man rechnet leicht nach (...!) daß MB(σ) hermite’sch ist.

Ist andererseits A ∈ nKn hermite’sch, und definiert man σ := σB,A : V ×

V → K durch σB,A(v, w) = kB(v)tAkB(w), so ist σ(–, w) linear, weil kB und

Kn,1 3 x 7→ xtAkB(w) ∈ K linear sind. Außerdem ist σ(v, w) = kB(v)tAkB(w) =

kB(w)tA∗kB(v) = σ(w, v).

SeiA ∈ Kn,n hermite’sch. Dann istMB(σB,A) = (σB,A(bi, bj)) = kB(bi)tAkB(bj) =

etiAej = αij fur A = (αij), also MB(σB,A) = A.

Umgekehrt sei σ eine hermite’sche Form. Fur kB(v) = (αi) und kB(w) =(βi) σ(v, w) = σ(

∑αibi,

∑βjbj) =

∑i,j αiβjσ(bi, bj) = kB(v)MB(σ)kB(w), also

σB,MB(σ) = σ.

Ist B′ = (b′1, . . . , b′n) so ist b′j =

∑τijbi fur T = (τij), also σ(b′i, b

′j) =

σ(∑

k τkibk,∑

` τ`jb`) =∑

k,` τkiσ(bk, b`)τ`j.

σ ist positiv definit genau dann wenn σ(v, v) > 0 fur alle v 6= 0, genau dannwenn kB(v)tMB(σ)kB(v) > 0 fur alle v 6= 0, genau dann wenn xtMB(σ)x fur allex ∈ Kn,1, genau dann wenn MB(σ) positiv definit ist.

Page 59: Lineare Algebra

6 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

3.2 Cauchy-Schwarz, Norm und Winkel

Satz 3.2.1 (Cauchy-Schwarz’sche Ungleichung). Seien V ein K-Vektorraummit Skalarprodukt, und v, w ∈ V . Dann gilt

|〈v, w〉|2 ≤ 〈v, v〉〈w,w〉,

und wenn |〈v, w〉|2 = 〈v, v〉〈w,w〉, dann sind v und w linear abhangig.

Beweis. Wir konnen annehmen, daß 〈v, w〉 = |〈v, w〉| ist, denn sonst wahlenwir φ ∈ C mit |φ| = 1 und φ〈v, w〉 = |〈v, w〉|, und ersetzen v durch φv, mit|〈φv, w〉| = |〈v, w〉|, 〈φv, φv〉 = φφ〈v, v〉 = 〈v, v〉.

Da 〈, 〉 ein Skalarprodukt ist, gilt fur alle λ ∈ R: 0 ≤ 〈λv+w, λv+w〉〈v, v〉 =λ2〈v, v〉2 +〈w,w〉〈v, v〉+λ〈v, w〉〈v, v〉+λ〈w, v〉〈v, v〉 = λ2〈v, v〉2 +2λ〈v, w〉〈v, v〉+〈w,w〉〈v, v〉 =

(λ〈v, v〉+ 〈v, w〉

)2+ 〈w,w〉〈v, v〉 − 〈v, w〉2 Aber das Quadrat kann

den Wert Null annehmen: Fur v = 0 eh immer, und sonst nehme man λ =

−〈v, w〉〈v, v〉

.

Ist tatsachlich 0 = 〈v, w〉2−〈v, v〉〈w,w〉, so war entweder 〈v, v〉 = 0 und damitv = 0, oder 0 = 〈λv + w, λv + w〉 und daher λv + w = 0.

Folgerung 3.2.2. Sei V ein K-Vektorraum mit Skalarprodukt. Dann wird durch‖v‖ =

√〈v, v〉 eine Norm auf V definiert, d. h. es gelten

(1) ‖v‖ ≥ 0 fur alle v ∈ V , und ‖v‖ = 0 impliziert v = 0,

(2) ‖λv‖ = |λ|‖v‖ fur alle v ∈ V ,

(3) ‖v + w‖ ≤ ‖v‖+ ‖w‖ fur alle v, w ∈ V (Dreiecksungleichung)

Beweis. ‖v + w‖2 = 〈v + w, v + w〉 = 〈v, v〉+ 〈v, w〉+ 〈w, v〉+ 〈w,w〉 = 〈v, v〉+2<(〈v, w〉) + 〈w,w〉 ≤ 〈v, v〉 + 2|〈v, w〉| + 〈w,w〉 ≤ ‖v‖2 + 2‖v‖‖w‖ + ‖w‖2 =(‖v‖+ ‖w‖)2.

Folgerung 3.2.3. Sei V ein euklidischer Vektorraum. Fur alle v, w ∈ V \ {0}gilt

−1 ≤ 〈v, w〉‖v‖‖w‖

≤ 1.

Die eindeutig bestimmte reelle Zahl φ ∈ [0, π] mit

cosφ =〈v, w〉‖v‖‖w‖

heißt der Winkel zwischen v und w.

Page 60: Lineare Algebra

3.3. ORTHOGONALE PROJEKTION UND KLEINSTE QUADRATE 7

Die Definition des Winkels stellt also die Formel 〈v, w〉 = ‖v‖‖w‖ cos(φ) furφ den Winkel zwischen v und w auf den Kopf.

Fur v, w ∈ V ist 〈v, w〉 = 0 genau dann, wenn der Winkel zwischen v und wgleich π/2 ist.

Definition 3.2.4. Sei V ein Vektorraum mit Skalarprodukt. Zwei Vektorenv, w ∈ V heißen orthogonal, v ⊥ w, wenn 〈v, w〉 = 0 ist.

Folgerung 3.2.5 (Satz von Pythagoras,Cosinussatz). Seien V ein Vek-torraum mit Skalarprodukt und v, w ∈ V mit v ⊥ w. Dann ist ‖v + w‖2 =‖v‖2 + ‖w‖2.

Sind V ein euklidischer Vektorraum v, w ∈ V , und φ der Winkel zwischen vund w, so ist allgemeiner ‖v + w‖2 = ‖v‖2 + ‖w‖2 + 2‖v‖‖w‖ cos(φ).

3.3 Orthogonale Projektion und kleinste Qua-

drate

Lemma 3.3.1 (Riesz’scher Darstellungssatz). Sei V ein endlichdimensio-naler Vektorraum mit Skalarprodukt. Dann gibt es zu jedem linearen ϕ : V → K

genau ein v ∈ V mit ϕ(w) = 〈w, v〉 fur alle w ∈ V .

Beweis. Sei B = (b1, . . . , bn) eine Basis von V . Dann ist ϕ(w) = 〈w, v〉 fur alle wgenau dann, wenn ϕ(bi) = 〈bi, v〉 fur alle i, oder gleichbedeutend 〈v, bi〉 = ϕ(bi).Die Abbildung f : V 3 v 7→ (〈v, bi〉)i=1,...,n ∈ n

K ist linear, injektiv (siehe 3.1.10),

also surjektiv (...!) Also gibt es genau ein v mit f(v) = (ϕ(bi)).

Der Beweis ist fertig, aber das wollen wir doch nochmal genauer verste-hen. Wir suchen also v =

∑vibi mit ϕ(bj) = 〈v, bj〉 =

∑vi〈bi, bj〉. Das sind

n lineare Gleichungen fur n Unbekannte vi, und es gibt genau eine Losung,weil die darstellende Matrix von σ regular ist. Noch genauer: A := MB(σ),F := MB

1 (ϕ) = (ϕ(bi)) ∈ Kn, die darstellende Matrix von ϕ. Dann wollen

wir kB(v)tA = F , oder AtkB(v) = Ft

losen. Und noch konkreter: Jetzt haben

wir vielleicht Gluck, und A = En. Dann haben wir einfach kB(v) = Ft, oder

v =∑ϕ(bi)bi. Und nochmal konkreter konnten wir uns ja in V = n

K bewegen.Dann steht schließlich die Gleichung v = (ϕ(ei)) da. Bis auf die lastige Konju-gation und Transposition kann man also sagen: v ist einfach der Vektor, dessenKomponenten die Werte von ϕ auf der kanonischen Basis sind.

Satz 3.3.2. Seien V ein Vektorraum mit Skalarprodukt, und U ein endlichdi-mensionaler Unterraum von V . Sei v ∈ V .

Dann gibt es genau ein u0 ∈ U mit der Eigenschaft v − u0 ⊥ U . u0 heißt dieorthogonale Projektion von v auf U .

Fur jedes u ∈ U gilt ‖u− v‖ ≥ ‖u0 − v‖, und Gleichheit nur wenn u = u0.

Page 61: Lineare Algebra

8 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

Beweis. Wir nehmen erst einmal an, daß es die orthogonale Projektion gibt. Danngilt fur u ∈ U : ‖u−v‖2 = ‖u−u0 +u0−v‖2 = ‖u−u0‖2 +‖u0−v‖2 ≥ ‖u0−v‖2,und Gleichheit genau wenn ‖u− u0‖ = 0, d.h. u = u0.

Jetzt zur Existenz von u0: wir wollen gerne v − u0 ⊥ u fur alle u ∈ U , also〈u, u0〉 = 〈u, v〉 =: ϕ(u) fur alle u ∈ U . Dabei ist ϕ : U → K linear, also gibt esnach Riesz genau ein u0 ∈ U wie gewunscht.

Das uberlegen wir uns auch noch mal konkreter: Hier ist also MB1 (ϕ) =

(〈bi, v〉), und damit Ft

= (〈v, bi〉). Es ist also, mit der darstellenden Matrix A desSkalarprodukts, zu losen AtkB(u) = (〈v, bi〉). Man kann auch noch einen Schrittzuruckgehen: Wir suchen u ∈ U mit 〈u, bi〉 = 〈v, b〉 fur alle i.

Ist speziell A = En, ist das Leben einfacher; wir bekommen kB(u) = (〈v, bi〉),oder u =

∑〈v, bi〉bi.

Definition 3.3.3. Seien V ein Vektorraum mit Skalarprodukt und U ⊂ V einUnterraum. Dann heißt U⊥ := {v ∈ V |∀u ∈ U : v ⊥ u} das orthogonale Komple-ment von U .

Man sieht sogleich: U ⊂ (U⊥)⊥, und U ∩ U⊥ = 0.

Satz 3.3.4. Seien V ein Vektorraum mit Skalarprodukt, und U ⊂ V ein endlich-dimensionaler Unterraum von V .

Dann ist V = U + U⊥. Genauer gilt: Jedes v ∈ V laßt sich auf eindeutigeWeise in der Form v = p(v) + v′ mit p(v) ∈ U und v′ ∈ U⊥ schreiben. Dabei istp(v) die orthogonale Projektion aus dem vorhergehenden Satz. Es gilt (U⊥)⊥ = U .

Die Abbildung p : V → V ist p linear. Es gelten p2 = p und 〈p(v), w〉 =〈v, p(w)〉 fur alle v, w ∈ V . Weiter ist U = Bi(p) und U⊥ = Ker(p).

p heißt der orthogonale Projektor auf U . Der Vektor p(v) − v heißt das Lotvon v auf U , seine Lange ist der Abstand von v zu U .

Beweis. Die orthogonale Projektion p(v) ist per Definition der einzige Vektor u0

in U mit v − u0 = v′ ∈⊥ U , also hat man die behauptete eindeutige Zerlegungvon v. Um zu beweisen, daß p linear ist, genugt es, zu zeigen, daß fur v, w ∈ Vund λ ∈ K gilt: (v + w)− (p(v) + p(w)) ⊥ U , und λv − λp(v) ⊥ U . Ersteres giltweil (v + w)− (p(v) + p(w)) = (v − p(v)) + (w − p(w)), beide Summanden sindin U⊥, letzteres weil λv − λp(v) = λ(v − p(v)) ∈ U⊥.

Es gilt ohnehin U ⊂ (U⊥)⊥. Ist andererseits v ∈ (U⊥)⊥, und v = p(v) + v′,dann ist v ⊥ v′ (denn v′ ∈ U⊥), also v′ = v − p(v) ⊥ v′ wegen p(v) ⊥ v′, unddaher schließlich v′ = 0 und v = p(v) ∈ U .

Wir haben schon bewiesen, daß die Lange von v− p(v) der Abstand von v zuU ist. Bleiben die weiteren Aussagen uber p.

Fur u ∈ U ist p(u) = u nach Definition von p. Fur jedes v ∈ V ist p(v) ∈ U .Also ist p2(v) = p(p(v)) = p(v), und damit p2 = p. Sowieso ist Bi(p) ⊂ U ,andererseits fur u ∈ U schon u = p(u) ∈ Bi(p). Nach Definition von p ist p(v) = 0fur jedes v ∈ U⊥. Ist andererseits p(v) = 0, dann ist v = v′ − p(v) ∈ U⊥.

Page 62: Lineare Algebra

3.3. ORTHOGONALE PROJEKTION UND KLEINSTE QUADRATE 9

Fur u ∈ U ist 〈u, v〉 = 〈u, p(v) + v′〉 = 〈u, p(v)〉, weil v′ ∈ U⊥. Also ist〈p(v), w〉 = 〈p(v), p(w)〉 = 〈v, p(w)〉, ersteres weil p(v) ∈ U , letzteres weil p(w) ∈U .

Der nachste Satz sagt konkreter, wie man einen Vektor auf den Spaltenraumeiner Matrix projiziert. Genauer mochte man das Gleichungssystem Ax = bmoglichst genau losen, das heißt gesucht sind diejenigen x0, fur die Ax0 − bmoglichst kleine Lange hat. Dann ist naturlich Ax0 die Projektion von b aufden Spaltenraum von A. Das heißt nun wieder genau, daß Ax0 − b ⊥ Ax fur allex ∈ n

K gelten muß, also

0 = 〈Ax0 − b, Ax〉∗= 〈A∗(Ax0 − b), x〉

fur alle x ∈ nK. An der Stelle mit dem Sternchen haben wir verwendet:

〈v, Ax〉 = vtAx = (Atv)tx = 〈A∗v, x〉

und diese Rechnung beruht wieder darauf, daß wir mK mit dem kanonischen

Skalarprodukt versehen.Nun bedeutet 〈A∗(Ax0 − b), x〉 = 0 fur alle x ∈ n

K nichts anderes als 0 =A∗(Ax0−b), oder A∗Ax0 = A∗b. Wir haben den großten Teil des folgenden Satzesbewiesen:

Satz 3.3.5. Sei A ∈ mKn und b ∈ m

K. Wir betrachten mK mit dem kanonischen

Skalarprodukt. Fur x0 ∈ nK sind aquivalent:

(1) ‖Ax0 − b‖ = min{‖Ax− b‖|x ∈ nK}

(2) A∗Ax0 = A∗b.

Es gilt rang(A∗A) = rang(A). Wenn insbesondere rang(A) = n ist, dann istA∗A ∈ GL(n,K), und der eindeutig bestimmte Vektor x0 der die obigen Bedin-gungen erfullt, ist durch x0 = (A∗A)−1A∗b gegeben. Die Matrix (A∗A)−1A∗ ∈ n

Km

nennt man in diesem Fall auch die Pseudoinverse von A.

Beweis. Es ist nur noch die Aussage uber die Range zu beweisen. Wir uberlegenerst mal L(A∗, 0) = Bi(`A)⊥ (fur jede rechteckige Matrix, also auch) L(A, 0) =Bi(`A∗)

⊥. Tatsachlich seien s1, . . . , sn die Spalten von A. Dann sind s∗1, . . . , s∗n

die Zeilen von A∗. Fur x ∈ mK gilt x ∈ L(A∗, 0) genau dann wenn 0 = s∗ix

fur alle i, genau dann wenn 0 = stix = 〈si, x〉 fur alle i, genau dann wenn x ∈〈s1, . . . , sn〉⊥ = Bi(`A)⊥.

Jetzt sei A∗Ax = 0. Dann ist Ax ∈ Bi(`A) ∩ L(A∗, 0) = 0. Damit istL(A∗A, 0) = L(A, 0), und weil die Matrizen A∗A und A gleich viele Spaltenhaben, sind die Range gleich.

Im Verlauf des Beweises haben wir das nachfolgende Lemma bewiesen, das zunotieren sich lohnt:

Page 63: Lineare Algebra

10 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

Lemma 3.3.6. Sei A ∈ mKn. Dann gelten

Ker(`A)⊥ = Bi(`A∗)

Ker(`A∗)⊥ = Bi(`A)

Theorem 3.3.7. Sei A ∈ mKn und b ∈ m

K. Sei x0 ∈ nK mit

‖Ax0 − b‖ = min{‖Ax− b‖|x ∈ nK} =: d

Dann sind aquivalent:

(1) ‖x0‖ = min{‖x‖|x ∈ nK, ‖Ax− b‖ = d},

(2) x0 ∈ Ker(`A)⊥,

(3) x0 ∈ Bi(`A∗).

Es existiert genau ein x0 ∈ nK, das diese Eigenschaften hat.

Beweis. Daß (2) und (3) aquivalent sind, wissen wir eh schon.Sei x0 ∈ n

K mit ‖Ax − b‖ = d, also A∗Ax0 = A∗b, und zusatzlich x0 ∈Ker(`A)⊥. Ist dann noch x ∈ n

K mit ‖Ax − b‖ = d, dann auch A∗Ax = A∗b =A∗Ax0, also A∗A(x− x0) = 0, also A(x− x0) = 0, also x− x0 ∈ Ker(`A). Damitist

‖x‖2 = ‖x− x0 + x0‖2 = ‖x− x0‖2 + ‖x0‖2 ≥ ‖x0‖2,

und Gleichheit gilt nur wenn ‖x − x0‖ = 0, also x = x0. Das beweist (2) =⇒(1), und wenn es ein solches x0 uberhaupt gibt ist auch (1) =⇒ (2) und dieEindeutigkeit gezeigt.

Zur Existenz sei x ∈ nK irgendeine Losung von A∗Ax = A∗b. Schreibe x =

x0+x′ mit x0 ∈ Ker(`A)⊥ und x′ ∈ Ker(`A). Dann ist auchA∗Ax0 = A∗A(x−x′) =A∗Ax = A∗b.

Bemerkung: Man sieht, wie man ein x0 wie im gerade bewiesenen Satzbekommen kann. Man nehme einfach irgendeine Losung x von A∗Ax = A∗b, unddann projiziere man diese auf Bi(`A∗).

Jetzt fassen wir die Zuordnung, die aus einem b ∈ mK das eindeutige x0 ∈ n

K

wie im vorhergehenden Satz gewinnt, als Abbildung h : mK → n

K auf. DieseAbbildung ist linear (!!!) und also durch eine Matrix A+ ∈ n

Km gegeben, die die

Pseudoinverse von A heißt.Spaßeshalber prufen wir jetzt mal direkt, daß h linear ist (in der Vorlesung

haben wir das ubersprungen und wie unten begrundet). h(b) ist eindeutig be-stimmt durch A∗Ah(b) = A∗b und h(b) ∈ Bi(`A∗). Sei nun noch c ∈ m

K. Dannist A∗A(h(b) + h(c)) = A∗Ah(b) + A∗Ah(c) = A∗b + A∗c = A∗(b + c) undh(b) + h(c) ∈ Bi(`A∗), also h(b) + h(c) = h(b + c). Ebenso ist αh(b) = h(αb) furα ∈ K, denn A∗A(αh(b)) = αA∗Ah(b) = αA∗b = A∗(αb) und αh(b) ∈ Bi(`A∗).

Page 64: Lineare Algebra

3.3. ORTHOGONALE PROJEKTION UND KLEINSTE QUADRATE 11

Theorem 3.3.8. Sei A ∈ mKn. Dann gibt es genau eine Matrix A+ ∈ n

Km so

daß fur alle b ∈ mK gilt:

(1) ‖AA+b− b‖ = min{‖Ax− b‖|x ∈ nK} =: d(b),

(2) ‖A+b‖ = min{‖x‖|x ∈ nK, ‖Ax− b‖ = d(b).

Die Matrix A heißt die Pseudoinverse von A.

Beweis. Sei p : mK→ mK der orthogonale Projektor auf Bi(`A).

Die Abbildung f : Bi(`A∗) → Bi(`A), x 7→ Ax ist (selbstverstandlich) linear,injektiv weil Ker(f) = Bi(`A∗) ∩ Ker(`A) = Ker(`A)⊥ ∩ Ker(`A) = 0, und daherbijektiv, weil Quelle und Ziel dieselbe Dimension, namlich rang(A) = rang(A∗),haben. Die Umkehrabbildung f−1 ist ebenfalls linear, also auch die Abbildung

h : mK→nK,b 7→ f−1(p(b)).

(Die Abbildung ist wohldefiniert, weil p(b) ∈ Bi(`A) fur alle b.) Es gibt eine MatrixA+ ∈ n

Km mit A+b = h(b) fur alle b ∈ m

K. Nach Konstruktion ist A+b ∈ Bi(`A∗).Bleibt noch zu prufen, daß auch A∗AA+b = A∗b gilt. Und tatsachlich: A∗AA+b =A∗Ah(b) = A∗Af−1(p(b)) = A∗f(f−1(p(b))) = A∗p(b) = A∗b, letzteres weil p(b)−b ∈ Bi(`A)⊥ = Ker(`A∗).

Als Lohn der Konstruktion hat man eine Matrix A+, die”alle“ Informationen

uber die irgendwie zu A gehorigen orthogonalen Projektoren enthalt:

Folgerung 3.3.9. Sei A ∈ mKn.

(1) AA+ ist der Projektor auf Bi(`A).

(2) A+A ist der Projektor auf Ker(`A)⊥.

(3) En − A+A ist der Projektor auf Ker(`A).

Als Lohn fur den nicht so optimalen Beweis von 3.3.8 bekommt man einenette Beschreibung der Pseudoinversen: Es ist A+b = 0 fur alle b ∈ Bi(`A)⊥,denn p(b) = 0 im Beweis von 3.3.8 fur solche b. Auf Bi(`A) operiert A+ dagegenals die Inverse des von A induzierten Isomorphismus Bi(`A∗) → Bi(`A). Andersausgedruckt ist A+b = x wenn b = Ax und x ∈ Bi(`A∗). Weil m

K = Bi(`A) +Bi(`A)⊥, ist hierdurch A+ schon eindeutig festgelegt.

Folgerung 3.3.10. Die Pseudoinverse A+ von A ∈ mKn ist charakterisiert durch

die Eigenschaften A+b = 0 fur b ⊥ Bi(`A) und A+Ax = x fur x ∈ Bi(`A∗).

Weil A+A und AA+ orthogonale Projektoren sind, sind sie hermite’sch (dennwenn fur eine Matrix M die Gleichung 〈x,My〉 = 〈Mx, y〉 gilt, dann ist die Formσ(x, y) = 〈x,My〉 hermite’sch.) Fur x ∈ n

K gilt AA+Ax = Ax, weil AA+ derorthogonale Projektor auf das Bild von `A ist. Fur b ∈ m

K gilt A+AA+b = A+b,denn A+b ∈ Bi(`A∗) = Ker(`A)⊥, und A+A ist der orthogonale Projektor aufdiesen Unterraum. Die eben gewonnenen Eigenschaften reichen schon aus, umA+ zu charakterisieren:

Page 65: Lineare Algebra

12 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

Satz 3.3.11. Die Pseudoinverse A+ von A ∈ mKn ist charakterisiert durch fol-

gende Eigenschaften:

(1) AA+A = A,

(2) A+AA+ = A+,

(3) A+A und AA+ sind hermite’sch.

Beweis. Wir haben schon vorweg gezeigt, daß A+ die angegebenen Eigenschaf-ten hat. Nun sei X ∈ n

Km mit AXA = A, XAX = X, AX und XA her-

mite’sch. Dann ist AXb − b ⊥ Bi(`A), weil fur alle x ∈ nK gilt: 〈AXb,Ax〉 =

〈b, (AX)∗Ax〉 = 〈b, AXAx〉 = 〈b, Ax〉. Also ist AXb die orthogonale Projektionvon b auf Bi(`A). Bleibt zu zeigen, daß Xb ∈ Bi(`A∗) = Ker(`A)⊥. Dazu sei x ∈ n

K

mit Ax = 0. Dann ist 〈Xb, x〉 = 〈XAXb, x〉 = 〈Xb, (XA)∗x〉 = 〈Xb,XAx〉 =0.

Folgerung 3.3.12. Fur A ∈ mKn gilt (A+)+ = A, und (A∗)+ = (A+)∗.

Die Pseudoinverse A+ ist nicht gerade einfach auszurechnen. Wir haben dieFormel A+ = (A∗A)−1A∗ fur A ∈ m

Kn mit rang(A) = n gesehen. Eine allgemeine

Formel kann man mit Hilfe einer geeigneten Zerlegung von A angeben. Dabei istaber Vorsicht geboten: Im allgemeinen ist (BC)+ 6= C+B+.

Satz 3.3.13. Sei A ∈ mKn.

(1) Falls rang(A) = n, ist A+ = (A∗A)−1A∗ und A+A = En.

(2) Falls rang(A) = m, ist A+ = A∗(AA∗)−1 und AA+ = Em.

(3) Falls A = BC, wobei B ∈ mKr, C ∈ r

Kn, r = rang(A), dann ist A+ =

C+B+ = C∗(CC∗)−1(B∗B)−1B∗.

Beweis. (1) wissen wir schon. Zu (2): Das kann man durch Anwenden von (–)∗ aus(1) folgern, aber wir machen es lieber nochmal zu Fuß: Wie schon fruher gezeigt,ist rang(AA∗) = rang(A∗) = m, also (AA∗) invertierbar und X = A∗(AA∗)−1

wohldefiniert. Es ist AX = A(A∗(AA∗)−1) = Em, also AXA = A und XAX = X,und (AX)∗ = AX. Aber auch (XA)∗ = A∗(A∗(AA∗)−1)∗ = A∗((AA∗)∗)−1A =A∗(AA∗)−1A = XA.

Nun zu (3). Da r = rang(BC) ≤ min(rang(B), rang(C)), haben B und Cbeide Rang r. Aus (1), (2) folgt B+B = Er = CC+. Sei X = C+B+. Dann istAXA = BCC+B+BC = BC und XAX = C+B+BCC+B+ = C+B+, XA =C+B+BC = C+C und AX = BCC+B+ = BB+ sind hermite’sch.

Naturlich mochte man sich jetzt noch vergewissern, daß es eine Zerlegungwie in (3) vorausgesetzt uberhaupt gibt. Dazu ein abstraktes und ein konkretrechnerisches Argument.

Page 66: Lineare Algebra

3.3. ORTHOGONALE PROJEKTION UND KLEINSTE QUADRATE 13

Bemerkung 3.3.14. (1) Sei f : V → W ein Vektorraumhomomorphismus.Dann ist f = ιg, wobei g : V → Bi(f), v 7→ f(v) surjektiv ist, und g : Bi(f)→W die Inklusionsabbildung, also injektiv.

Sei speziell f = `A fur A ∈ mKn. Dann ist dim Bi(f) = r := rang(A).Wahle eine Basis D von Bi(f). Dann ist

A = MEE (f) = ME

E (ιg) = MDE (ι)ME

D (g) = BC

wobei B = MDE (ι) ∈ mKr und C = ME

D (g) ∈ rKn.

(2) Sei PA = LR eine LR-Zerlegung von A ∈ mKn (also P ∈ GL(m,K) einePermutationsmatrix, L ∈ GL(m,K) eine regulare linke untere Dreiecksma-trix, und R ∈ m

Kn eine Zeilenstufenmatrix. Sei rang(A) = r. Dann sind

die letzten m − r Zeilen von R gleich Null. Sei C ∈ rKn die Matrix, diedurch Streichen der Nullzeilen aus R entsteht, und B ∈ mKr die Matrix,die durch das Streichen der letzten m− r Spalten aus L entsteht. Dann istBC = LR = PA, also A = BC fur B = PB ∈ mKr.

Jetzt betrachten wir mK mit einem anderen Skalarprodukt, gegeben durch

〈v, w〉 = vtHw fur eine positiv definite hermite’sche Matrix H. Wieder wollenwir ein LGS Ax = b mit einer Matrix A ∈ m

Kn und einer rechten Seite b ∈ m

K

losen, und zwar (fur den Fall, daß wir keine Losung finden konnen) moglichstgut im Sinne der durch das Skalarprodukt definierten Norm. Dazu sind wiederdiejenigen x0 ∈ n

K zu finden, fur die Ax0 die orthogonale Projektion von b aufBi(`A) ist. Dazu muß wieder Ax0 − b ⊥ Ax fur alle x ∈ n

K gelten. Nun istaber ⊥ durch das neue Skalarprodukt bestimmt! Wir beobachten erst einmal〈v, Ax〉 = vtHAx = (A∗H tv)tx = 〈A∗Hv, x〉 fur alle x ∈ n

K und v ∈ mK. Damit

ist

∀x ∈ nK[Ax0 − b ⊥ Ax]

⇔ ∀x ∈ nK[〈Ax0 − b, Ax〉 = 0]

⇔ ∀x ∈ nK[〈A∗H(Ax0 − b), x〉 = 0]

⇔ A∗H(Ax0 − b) = 0

⇔ A∗HAx0 = A∗Hb

Satz 3.3.15. Wir betrachten mK mit dem durch die positiv definite hermite’sche

Matrix H ∈ mKm definierten Skalarprodukt 〈v, w〉 = vtHw.

Sei A ∈ mKn und b ∈ m

K. Fur x0 ∈ nK sind aquivalent:

(1) ‖Ax0 − b‖ = min{‖Ax− b‖|x ∈ nK},

(2) A∗HAx0 = A∗Hb.

Es gilt rang(A∗HA) = rang(A).

Page 67: Lineare Algebra

14 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

Beweis. Nur die letzte Gleichung ist noch zu beweisen. Wir machen’s knapp:A∗HAx = 0 impliziert 0 = x∗A∗HAx = (Ax)∗HAx, also Ax = 0 weil H positivdefinit ist.

Bemerkung 3.3.16. Wenn W ∈ mKm den Rang m hat, dann ist H = W tW her-

mite’sch und positiv definit (und tatsachlich sieht so jede positiv definite hermi-te’sche Matrix aus, siehe spater). Zum Beispiel kann man eine Matrix W betrach-ten, die eine Diagonalmatrix mit positiven Diagonalelementen w1, . . . , wm ist.Dann kann man wi als

”Gewichte“ interpretieren. Bei der Abstandsbestimmung in

mK werden die Koordinaten mit den Gewichten wi gewertet: ‖(bi)‖2 =

∑|wibi|2.

In diesem Fall ist A∗HA = (WA)∗(WA), und die Bedingung (2) liest sich(WA)∗(WA)x0 = (WA)∗Wb. Das ist ganz vernunftig: Statt das ursprunglicheProblem in der neuen Norm zu losen, approximieren wir Wb moglichst gut imSinne der kanonischen Norm durch einen Vektor der Form WAx.

Jetzt machen wir uns das Leben noch komplizierter: Wir haben auch auf nKein neues, durch die positiv definite hermite’sche Matrix S definiertes, Skalarpro-dukt. Nun wollen wir unter den Vektoren, die ‖Ax − b‖ minimieren, noch denkleinster Lange heraussuchen. Wie zuvor sollte dazu x im orthogonalen Komple-ment von Ker(`A) liegen, aber jetzt bezuglich des neuen Skalarprodukts. Zuvorhaben wir hierzu Ker(`A) = Bi(`A∗)

⊥ benutzt. Und jetzt?Fur x ∈ n

K rechnen wir

x ∈ Ker(`A)⇔ Ax = 0⇔ ∀v ∈ mK[〈v, Ax〉 = 0]

⇔ ∀v ∈ mK[vtHAx = 0]

⇔ ∀v ∈ mK[vtHAS−1Sx = 0]

⇔ ∀v ∈ mK[((S−1)tA

∗H tv)Sx = 0]

⇔ ∀v ∈ mK[〈S−1

A∗Hv, x = 0]

⇔ x ∈ Bi(`A)⊥

mit A = S−1A∗H. Wir wollen das ursprungliche Problem gar nicht weiter ver-

folgen (etwa bis wir zu einer”Pseudoinversen“ fur in Quelle und Ziel gegebene

Skalarprodukte...), halten aber fest: Wenn die Skalarprodukte in mK und n

K

durch positiv definite hermite’sche Matrizen H, S gegeben werden, hat man

∀x ∈ nK∀v ∈ m

K[〈v, Ax〉 = 〈Av, x〉] mit A = S−1A∗H

man kann also A auf die andere Seite im Skalarprodukt ziehen, aber es kommtnicht mehr einfach A∗ dort an.

Definition und Lemma 3.3.17. Seien V,W endlichdimensionale Vektorraumemit Skalarprodukt, und sei f : V → W linear. Dann gibt es genau eine linea-re Abbildung f ∗ : W → V mit 〈f(v), w〉 = 〈v, f ∗(w)〉 (oder aquivalent dazu

Page 68: Lineare Algebra

3.3. ORTHOGONALE PROJEKTION UND KLEINSTE QUADRATE 15

〈w, f(v)〉 = 〈f ∗(w), v〉) fur alle v ∈ V und w ∈ W . f ∗ heißt die zu f adjun-gierte Abbildung.

Sind B und C Basen von V bzw. W , und σ bzw τ die Skalarprodukte in Vbzw. W , so ist

MCB (f ∗) = MB(σ)

−1MB

C (f)∗MC(τ)

Beweis. Sei erst einmal w ∈ W fest. Dann ist die Abbildung

φ : V 3 v 7→ 〈f(v), w〉 ∈ K

linear (weil f linear und das Skalarprodukt in seinem ersten Argument line-ar ist). Nach Riesz gibt es genau ein Element f ∗(w) ∈ V mit 〈v, f ∗(w)〉 =φ(v) = 〈f(v), w〉 fur alle v ∈ V . So wird eine (eindeutig bestimmte) Abbildungf ∗ : W → V definiert, die die Gleichung 〈v, f ∗(w)〉 = 〈f(v), w〉, oder aquivalentdazu 〈f ∗(w), v〉 = 〈w, f(v)〉 fur alle v ∈ V und w ∈ W erfullt. Wir mussen nochzeigen, daß f ∗ linear ist. Um fur w,w′ die Gleichung f ∗(w)+f ∗(w′) = f ∗(w+w′)zu zeigen, muß man nur nachweisen, daß die linke Seite die Eigenschaft erfullt,die fur die rechte Seite charakteristisch ist: 〈f ∗(w) + f ∗(w′), v〉 = 〈f ∗(w), v〉 +〈f ∗(w′), v〉 = 〈w, f(v)〉 + 〈w′, f(v)〉 = 〈w + w′, f(v)〉 fur alle v ∈ V zeigt genaudies. Genauso zeigt man f ∗(λw) = λf ∗(w) fur alle λ ∈ K und w ∈ W .

Jetzt seien noch Basen wie angegeben gewahlt. Es ist τ(f(v), w) = σ(v, f ∗(w))fur alle v ∈ V und w ∈ W . Weiter τ(f(v), w) = kC(f(v))tMC(τ)kC(w) =(MB

C (f)kB(v))tMC(τ)kC(w) = kB(v)tMBC (f)MC(τ)kC(w), und σ(v, f ∗(w)) = kB(v)tMB(σ)kB(f ∗(w)) =

kB(v)tMB(σ)MCB (f ∗)kC(w). Da kB und kC bijektiv sind, heißt das fur alle x ∈

dimVK und y ∈ dimW

K: xtMBC (f)MC(τ)y = xtMB(σ)MC

B (f ∗)y, alsoMBC (f)tMC(τ) =

MB(σ)MCB (f ∗), also MC

B (f ∗) = MB(σ)−1MB

C (f)∗MC(τ).

Bemerkung 3.3.18. Falls V = nK, W = m

K, jeweils mit dem kanonischenSkalarprodukt ausgestattet, ist f : V → W immer von der Form f = `A mitA ∈ m

Kn, und in diesem Fall ist f ∗ = `A∗ .

Definition 3.3.19. Seien V ein endlichdimensionaler Vektorraum mit Skalar-produkt, und f : V → V ein Endomorphismus. f heißt

(1) selbstadjungiert, falls f = f ∗. [Falls V = nK mit dem kanonischen Skalar-

produkt, f = `A, heißt das genau, daß A hermite’sch ist.]

(2) unitar (im reellen Fall orthogonal), falls f ein Isomorphismus ist mit f−1 =f ∗. Dazu genugt es, eine der zwei Gleichungen ff ∗ = idV oder f ∗f = idV zuprufen, denn aus ff ∗ folgt zum Beispiel f surjektiv, also bijektiv nach demDimensionssatz fur Homomorphismen. [Ist wieder V = n

K und f = `A,heißt dies A regular und A−1 = A∗, oder AA∗ = En = A∗A, wovon eswieder genugt, nur eine Gleichung zu prufen. Solche Matrizen nennt manunitar, im reellen Fall orthogonal.]

Page 69: Lineare Algebra

16 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

(3) normal, falls f ∗f = ff ∗. Offensichtlich sind selbstadjungierte ebenso wieunitare (orthogonale) Endomorphismen normal. [Die zugehorigen Matrizennennt man auch normal.]

(4) Nur zum schnellen Nachweis, daß es außer den selbstadjungierten und denunitaren noch weitere gibt: Auch antiselbstadjungierte Endomorphismen(die per definitionem f ∗ = −f erfullen) oder uberhaupt alle f mit f ∗ = λffur irgendeinen Skalar λ sind normal.

Bemerkung 3.3.20. Sei V ein endlichdimensionaler Vektorraum mit Skalarpro-dukt.

Ein unitarer Endomorphismus f : V → V erhalt Skalarprodukte und insbeson-dere Normen. Denn fur x, y ∈ V gilt immer 〈f(x), f(y)〉 = 〈f ∗f(x), y〉 = 〈x, y〉,und insbesondere ‖f(x)‖ = ‖x‖. Im reellen Fall folgt hieraus auch, daß f winkel-treu ist: Fur x, y ∈ V \ {0} ist der Winkel zwischen f(x) und f(y) immer gleichdem Winkel zwischen x und y. Orthogonale Endomorphismen sind also solche,die die durch das Skalarprodukt in V eingefuhrte

”Geometrie“ erhalten.

Lemma 3.3.21. Umgekehrt sei f : V → V ein Endomorphismus eines endlich-dimensionalen Vektorraums V mit Skalarprodukt, und es gelte ‖f(v)‖ = ‖v‖ furalle v ∈ V . Dann ist f unitar.

Beweis. Das beweisen wir nur im Fall K = R. Der komplexe Fall ist tatsachlichkomplizierter. Es sei also ‖f(x)‖ = ‖x‖ fur alle x ∈ V . Wir nehmen erst einmalan, daß wir schon allgemeiner wissen, daß 〈f(x), f(y)〉 = 〈x, y〉 fur alle x, y ∈ Vgilt. Dann folgt 〈x, f ∗f(y)〉 = 〈f(x), f(y)〉 = 〈x, y〉 fur alle x, y ∈ V , und deshalbf ∗f(y) = y fur alle y ∈ V , oder f ∗f = idV . Dann ist auch ff ∗ = idV , weilV endlichdimensional ist, und also f orthogonal. Der Beweis von 〈f(x), f(y)〉 =〈x, y〉 beruht auf der interessanten Tatsache, daß das Skalarprodukt auf V durchdie Norm schon vollstandig bestimmt ist. Es gilt namlich ‖x+y‖2 = 〈x+y, x+y〉 =〈x, x〉+ 2〈x, y〉+ 〈y, y〉 = ‖x‖2 + ‖y‖2 + 2〈x, y〉 (hier sieht man, daß der komplexe

Fall komplizierter ist!), und daher 〈x, y〉 =1

2(‖x+y‖2−‖x‖2−‖y‖2). Damit folgt

2〈f(x), f(y)〉 = ‖f(x) + f(y)‖2 − ‖f(x)‖2 − ‖f(y)‖2 = ‖f(x + y)‖2 − ‖f(x)‖2 −‖f(y)‖2 = ‖x+ y‖2 − ‖x‖2 − ‖y‖2 = 2〈x, y〉 fur alle x, y ∈ V .

Beispiel 3.3.22. Die Drehmatrizen D(φ) =

(cosφ − sinφsinφ cosφ

)∈ 2

R2 erfullen

D(0) = E2 und D(φ + ψ) = D(φ)D(ψ) fur alle φ, ψ ∈ R (das rechnet mannach! Additionstheoreme!). Offenbar ist weiter D(−φ) = D(φ)t, und andererseitsD(φ)D(−φ) = D(0) = E2, also D(φ) orthogonal.

3.4 Orthonormalbasen und die QR-Zerlegung

Definition 3.4.1. Seien V einK-Vektorraum mit Skalarprodukt, und b1, . . . , bn ∈V . B = (b1, . . . , bn) heißt

Page 70: Lineare Algebra

3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 17

(1) Ein Orthogonalsystem, wenn bi ⊥ bj fur alle i 6= j, und bi 6= 0 fur alle i.

(2) Eine Orthogonalbasis, wenn B ein Orthogonalsystem ist und V erzeugt.

(3) Ein Orthonormalsystem, wenn bi ⊥ bj fur alle i 6= j, und zusatzlich ‖bi‖ = 1fur alle i, also kurz 〈bi, bj〉 = δij fur alle i, j.

(4) Eine Orthonormalbasis, wenn B ein Orthonormalsystem ist, das V erzeugt.

Bemerkungen 3.4.2. (1) Orthogonalsysteme sind immer linear unabhangig.Denn ist (b1, . . . , bn) ein Orthogonalsystem, und λi ∈ K mit

∑λibi = 0,

dann folgt fur jedes j schon 0 = 〈∑λibi, bj〉 =

∑λi〈bi, bj〉 =

∑λiδij‖bj‖ =

λj‖bj‖, und damit λj = 0.

(2) Sei B eine Basis von V , und σ das Skalarprodukt. Dann ist B genau danneine ONB, wenn MB(σ) = En, und B ist genau dann eine Orthogonalba-sis, wenn MB(σ) eine Diagonalmatrix ist. Da MB(σ) an vielen Stellen imvorherigen Abschnitt sehr unangenehm vorkam, wird vieles einfacher, wennman sich den Luxus einer ONB leisten kann, etwa

(3) Seien f : V → W ein Homomorphismus zwischen endlichdimensionalenVektorraumen mit Skalarprodukt. Seien B,C ONBasen von V bzw. W .Dann ist MC

B (f ∗) = MBC (f)∗. Insbesondere ist im Fall V = W und B = C

f selbstadjungiert genau dann wenn MBC (f) hermite’sch, f unitar (ortho-

gonal, normal) genau dann wenn MB(f) unitar (orthogonal, normal).

(4) Seien V ein Vektorraum mit Skalarprodukt, U ⊂ V ein endlichdimensio-naler Unterraum, und b1, . . . , bn eine ONB von U . Dann ist fur v ∈ Vdie orthogonale Projektion von v auf U durch p(v) =

∑ni=1〈v, bi〉bi ge-

geben. [Das beweisen wir nochmal direkt: Es ist nur zu zeigen, daß v −∑〈v, bi〉bi ∈ U⊥. Aber fur jedes j ist tatsachlich 〈v −

∑〈v, bi〉bi, bj〉 =

〈v, bj〉 −∑〈v, bi〉〈bi, bj〉 = 〈v, bj〉 −

∑δij〈v, bi〉 = 0.]

(5) Ist bi nur eine Orthogonalbasis von U , dann muß die Formel in p(v) =∑ni=1

〈v, bi〉‖bi‖2

bi verbessert werden.

Beispiele 3.4.3. (1) In nK ist die kanonische Basis eine ONB bezuglich des

kanonischen Skalarprodukts. Das gleiche gilt auch fur Kn.

(2) In 3R ist aber zum Beispiel auch

111

,

1−10

,

11−2

eine Orthogonal-

basis. Die Normen der drei Vektoren sind√

3,√

2,√

6. Also ist

1√3

111

,1√2

1−10

,1√6

11−2

eine ONB.

Page 71: Lineare Algebra

18 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

(3) Auf nKn wird durch 〈A,B〉 = Spur(AtB) ein Skalarprodukt erklart. Die

Matrixeinheiten bilden hier eine ONB, denn 〈Eij, Ek`〉 = Spur(EijEk`) =δjk Spur(Ei`) = δjkδi`, die Basisvektoren sind also paarweise orthogonal undhaben Norm Eins.

(4) In C([0, 2π],R) mit dem durch 〈f, g〉 =∫ 2π

0f(x)g(x)dx gegebenen Skalar-

produkt bilden die Funktionen sin(nx), cos(nx) fur n ∈ N ein Orthogonal-system. Dazu mußte man (machen wir aber nicht) ausrechnen:∫ 2π

0

cos(nx) sin(mx)dx = 0∀m,n ∈ N∫ 2π

0

sin(nx) sin(mx)dx =

∫ 2π

0

cos(nx) cos(mx)dx = 0∀m 6= n

Man kann auch noch ausrechnen:∫ 2π

0

cos2(nx)dx =

∫ 2π

0

sin(nx)dx = π

fur alle n ∈ N. Daraus folgt dann, daß die Funktionen

1√π

cos(nx),1√π

sin(nx)

ein Orthonormalsystem bilden.

Satz 3.4.4. Seien V ein Vektorraum mit Skalarprodukt, und v1, . . . , vn ∈ V eineBasis. Dann gibt es eine ONB b1, . . . , bn von V mit

∀1 ≤ j ≤ n[〈b1, . . . , bj〉 = 〈v1, . . . , vn〉].

Beweis. (Gram-Schmidt’sches Orthonormalisierungsverfahren)Wir konstruieren orthonormale Vektoren b1, . . . , bj mit 〈b1, . . . , bj〉 = 〈v1, . . . , vj〉

durch Rekursion: Fur j = 1 haben wir nur einen Vektor b1 der Lange 1 zu finden,

der ein Vielfaches von v1 ist. Da nehmen wir einfach b1 :=1

‖v1‖v1.

Jetzt seien b1, . . . , bj schon gefunden. Dann ziehen wir erst einmal von vj+1

die Projektion auf 〈b1, . . . , bj〉 ab, dabei kommt

cj+1 := vj+1 −j∑i=1

〈vj+1, bi〉bi

heraus. Weil wir eben die Projektion auf 〈b1, . . . , bj〉 abgezogen haben, ist cj+1 ∈〈b1, . . . , bj〉⊥. Außerdem ist cj+1 6= 0, weil ja sonst vj+1 ∈ 〈b1, . . . , bj〉 = 〈v1, . . . , vj〉ware. Wenn wir also bj+1 :=

1

‖cj+1‖setzen, dann ist b1, . . . , bj+1 ein ONS, und in

〈v1, . . . , vj+1〉 enthalten, also eine ONB hiervon.

Page 72: Lineare Algebra

3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 19

Variante. Im eben gegebenen Beweis haben wir jeden Vektor”gleich“ normiert.

Das ist manchmal fur das Rechnen von Hand nicht so praktisch, weil die Normentypischerweise irgendwelche Wurzelausdrucke sind. Man kann aber ebensogut ersteinmal eine Orthogonalbasis c1, . . . , cn mit 〈c1, . . . , cj〉 = 〈v1, . . . , vj〉 fur alle j be-stimmen, nach dem folgenden Verfahren: Man nehme zunachst c1 := v1. Hat manc1, . . . , cj schon gefunden, ziehe man wieder von vj+1 die orthogonale Projektionauf 〈v1, . . . , vj〉 = 〈c1, . . . , cj〉 ab, diesmal nach der Formel

cj+1 := vj+1 −n∑i=1

〈vj+1, ci〉‖ci‖2

ci.

Sind wir mit der Bestimmung einer OGB c1, . . . , cn fertig, erhalten wir eine ONB

b1, . . . , bn indem wir bi :=1

‖ci‖ci setzen.

Bemerkung 3.4.5. Die Bedingung 〈b1, . . . , bj〉 = 〈v1, . . . , vj〉 fur alle j im Satz

bedeutet, daß die Transformationsmatrizen T(v1,...,vn)(b1,...,bn) und T

(b1,...,bn)(v1,...,vn) fur die Basis-

wechsel jeweils obere Dreiecksmatrizen sind.

Bemerkung 3.4.6. Seien jetzt v1, . . . , vn ∈ V , und sei noch nicht bekannt,daß diese Vektoren linear unabhangig sind. Wir wenden trotzdem das Gram-Schmidt-Verfahren an. Wir sehen: Das einzige, was schiefgehen kann, ist, daß ineinem Schritt des Verfahrens cj+1 = 0 herauskommt. Dann geht’s halt nicht (undvj+1 ∈ 〈v1, . . . , vj〉). Wenn dieses Problem aber nicht auftaucht, erhalten wir amEnde b1, . . . , bn orthonormal in 〈v1, . . . , vn〉, und insbesondere waren die Vektorenv1, . . . , vn tatsachlich linear unabhangig.

Folgerung 3.4.7. Sei A ∈ nKn eine positiv definite hermite’sche Matrix. Dann

gibt es eine regulare obere Dreiecksmatrix W ∈ nKn mit A = W tW .

(Die Umkehrung dieser Aussage haben wir schon fruher gesehen.)

Beweis. Die Matrix A definiert ein Skalarprodukt auf nK durch 〈x, y〉 = xtAy.

Wir konnen also aus der kanonischen Basis e1, . . . , en von nK nach Gram-Schmidt

eine ONB b1, . . . , bn gewinnen. Sei T die Matrix (b1, . . . , bn). Das ist eine obereDreiecksmatrix, weil ja bj ∈ 〈e1, . . . , ej〉 fur alle j. Außerdem bedeutet δij =〈bi, bj〉 = btiAbj fur alle i, j dasselbe wie T tAT = En. Das formen wir einfach

um zu A = (T t)−1T−1

, oder A = W tW fur W = T−1, was auch eine obereDreiecksmatrix ist.

Bemerkung 3.4.8. Sei jetzt A eine hermite’sche Matrix, aber nicht unbedingtpositiv definit. Wir wenden trotzdem Gram-Schmidt auf die kanonische Basise1, . . . , en an, mit der hermite’schen Form (vielleicht ist es ja kein Skalarprodukt),die durch A definiert wird. Diesmal kann etwas anderes schiefgehen: Es konntein einem Schritt passieren, daß 〈cj, cj〉 = ctjAcj ≤ 0. Wenn das so ist, dann ist A

Page 73: Lineare Algebra

20 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

naturlich nicht positiv definit. Wenn aber dieses Problem nicht auftaucht, erhaltenwir am Ende eine ONB, also Vektoren b1, . . . , bn mit 〈bi, bj〉 = δij. Hieraus siehtman leicht, daß A positiv definit ist.

Beispiel 3.4.9. (Die Legendre-Polynome bis zum Grad 3).

Beispiel 3.4.10. Wir bilden eine ONB aus den Spalten von A =

1 0 11 1 00 1 1

=

(v1, . . . , v3). Das geht so: c1 = v1, mit ‖c1‖2 = 2, c2 = v2 −〈c1, v2〉‖c1‖2

c1 =

011

−1

2

110

=

−1/21/21

, mit ‖c2‖2 =3

2. c3 := v3 −

〈v3, c1〉‖c1‖2

c1 −〈v3, c2〉‖c2‖2

c2 =

101

−1

2c1 −

1

3c2 =

2/3−2/32/3

, mit ‖c3‖2 = 4/3. Die zugehorige ONB ergibt sich durch

Normieren. b1 =1√2

110

=

12

√2

12

√2

0

, b2 =

√2

3c2 =

−16

√6

16

√6

13

√6

, b3 =

√3

2c3 =

13

√3

−13

√3

13

√3

. Als Abfallprodukt des Verfahrens haben wir auch die Transformatio-

nen zwischen den Basen (v1, v2, v3), (c1, c2, c3) und (b1, b2, b3) erhalten. Wir lesen

ab: v1 = c1 =√

2b1, v2 =1

2c1 + c2 =

1

2

√2b1 +

1

2

√6b2, v3 =

1

2c1 +

1

3c2 + c3 =

1

2

√2b1 +

1

6

√6b2 +

2

3

√3b3. Das kann man schließlich auch kurz in Matrixschreib-

weise fassen:

A = (c1, c2, c3) ·

1 1/2 1/20 1 1/30 0 1

= (b1, b2, b3) ·

√2 12

√2 1

2

√2

0 12

√6 1

6

√6

0 0 23

√3

= (b1, b2, b3) ·

√2 0 0

0 12

√6 0

0 0 23

√3

·1 1/2 1/2

0 1 1/30 0 1

Folgerung 3.4.11. Sei A ∈ m

Kn eine Matrix mit rang(A) = n. Dann gibt es

eine Matrix Q ∈ mKn mit orthonormalen Spalten, eine regulare obere Dreiecks-

Page 74: Lineare Algebra

3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 21

matrix R ∈ nKn mit positiven Elementen auf der Diagonalen, eine Matrix Q′

mit orthogonalen Spalten, eine regulare obere Dreiecksmatrix R′ mit Einsen aufder Diagonalen, und eine Diagonalmatrix D mit positiven Diagonalelementen, sodaß A = QR = Q′R′ = QDR′. Insbesondere die erste Zerlegung nennt man eineQR-Zerlegung der Matrix A.

Beweis. (Es geht halt genau wie im Beispiel): Man bildet aus den Spalten v1, . . . , vnvon A eine ONB b1, . . . , bn nach Gram-Schmidt. Dabei ergeben sich ganz zwang-los die Darstellungen vj =

∑j−1i=1 〈vj, bi〉bi + ‖cj‖bj der vj als Linearkombinationen

der bi; die Koeffizienten muß man nur noch in R hineinschreiben. Die j-te Spalte

von R ist also

〈vj, b1〉...

〈vj, bj−1〉‖cj‖

0...0

. So ergibt sich die QR-Zerlegung, die zwei Varianten

lassen wir großzugig weg.

Die zusatzlichen Komplikationen, die sich ergeben, wenn die Spalten von Anicht linear unabhangig sind, sind eigentlich nicht der Rede wert...es handeltsich nur um zusatzliche argerliche Notationen. Wenn man in einem Vektorraummit Skalarprodukt Gram-Schmidt auf eine linear abhangige Teilmenge anwen-det, kann es eben passieren, daß einer der Vektoren cj verschwindet. In diesemFall ist vj Linearkombination der vorherigen vi, und man erhalt keinen neuenONBasisvektor hinzu.

Satz 3.4.12. Seien V ein Vektorraum mit Skalarprodukt, und 0 6= v1, . . . , vn ∈ V .Dann gibt es ein ONS b1, . . . , br in V und 1 ≤ j1 ≤ · · · ≤ jn = r mit 〈v1, . . . , vs〉 =〈b1, . . . , bjs〉 fur alle 1 ≤ s ≤ n.

Beweis. Wir bestimmen jk und b1, . . . , bjk wieder rekursiv. Wir fangen an mit

j1 = 1 und b1 =1

‖v1‖v1. Seien jk und b1, . . . , bjk schon bestimmt. Wir setzen

dk+1 := vk+1−∑jk

i=1〈vj+1, bi〉bi. Wie zuvor ist dk+1 ∈ 〈b1, . . . , bjk〉⊥. Falls dk+1 = 0,setzen wir einfach jk+1 := jk. Falls dk+1 6= 0, setzen wir jk+1 = jk + 1, und

bjk+1=

1

‖dk+1‖dk+1.

Als Abfallprodukt erhalten wir wieder die Koeffizienten, die man braucht, umdie vk als Linearkombination der b1, . . . , bjk zu schreiben, namlich

vk =

jk−1∑i=1

〈vj+1, bi〉bi +

{‖djk‖bjk falls notig

0 falls nicht notig.

Page 75: Lineare Algebra

22 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

Diese Koeffizienten brauchen wir nurmehr in einer Zeilenstufenmatrix R zu sam-meln, und erhalten

Folgerung 3.4.13. Sei A ∈ mKn, und 0 6= r := rang(A). Dann gibt es eine

Matrix Q ∈ mKr mit orthonormalen Spalten, und eine Zeilenstufenmatrix R ∈

rKn mit positiven Elementen an den Stufen, so daß A = QR.

Die Kenntnis einer ONB erleichtert das Projizieren. Fur Matrizen steckt dieONB eben in einer QR-Zerlegung. Siehe dazu Ubungsaufgabe: In Spezialfallen(Rang gleich Spaltenzahl) ist die Pseudoinverse aus einer QR-Zerlegung besondersleicht zu bestimmen. Als Spezialfall wollen wir schon mal zeigen:

Lemma 3.4.14. Sei Q ∈ mKn eine Matrix mit orthonormalen Spalten. Dann ist

Q∗ = Q+, Q∗Q = En, und Multiplikation mit QQ∗ ist der orthogonale Projektorauf Bi(`Q).

Beweis. Seien b1, . . . , bn die Spalten von Q. Dann ist δij = 〈bi, bj〉 = btibj = b∗jbi

fur alle 1 ≤ i, j ≤ n. Das heißt nichts anderes als Q∗Q =

b∗1...b∗n

· (b1 . . . bn) =

(δij)i,j = En. Dann ist aber Q∗QQ∗ = Q∗, QQ∗Q = Q, und sowieso sind QQ∗ undQ∗Q hermite’sch (sogar positiv definit, das haben wir schon mal nachgerechnet).Es folgt Q+ = Q∗, und damit ist auch schon bekannt, daß QQ∗ der Projektor aufBi(`Q) ist.

Bemerkung 3.4.15. Die Aussage, daß QQ∗ der Projektor auf Bi(`Q) ist, mußuns nicht wundern: Sind wieder b1, . . . , bn die Spalten vonQ, istQQ∗ =

(b1 . . . bn

)·b

∗1...b∗n

=n∑i=1

bib∗i . Fur v ∈ m

K ist also QQ∗v =∑bib∗i v =

∑〈v, bi〉bi, und diese

Formel fur den Projektor war uns schon bekannt.

Lemma 3.4.16. Seien V ein endlichdimensionaler Vektorraum mit Skalarpro-dukt und L = v + U ein affiner Unterraum von V . Dann laßt sich L in derForm

L = {x ∈ V |∀1 ≤ i ≤ k[〈x, bi〉 = ai]} (*)

schreiben, wobei b1, . . . , bk eine ONB von U⊥ sind, und ai = 〈v, bi〉. Diese Art, Lanzugeben, nennt man eine Hesse’sche Normalform von L. Ist speziell V = n

K

mit dem kanonischen Skalarprodukt, kann man

L = {x ∈ nK|Q∗x = a}

schreiben, wobei die Spalten von Q ∈ nKk eine ONB von U⊥ bilden, und a = Q∗v.

Page 76: Lineare Algebra

3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 23

Beweis. Wir wahlen b1, . . . , bk und a1, . . . , ak wie angegeben. In (*) sind zweiInklusionen zu zeigen:

”⊂“: Sei x = v + u mit u ∈ U . Dann gilt 〈x, bi〉 = 〈v +

u, bi〉 = 〈v, bi〉 + 〈u, bi〉 = 〈v, bi〉 = ai, weil u ⊥ bi. Nun”⊃“: Sei x ∈ V mit

〈x, bi〉 = ai fur alle i. Wir schreiben x = v + u mit u = x − v, und mussen jetztu ∈ U zeigen. Aber fur jedes i ist 〈u, bi〉 = 〈x− v, bi〉 = 〈x, bi〉 − 〈v, bi〉 = 0, weildie bi eine Basis von U⊥ bilden also u ∈ (U⊥)⊥ = U .

Die Hesse’sche Normalform ist besonders bequem, wenn man den Abstandeines Punktes von einem affinen Unterraum ausrechnen will. Dazu vorneweg:

Lemma 3.4.17. Seien V ein Vektorraum mit Skalarprodukt, b1, . . . , bn ein ONS

in V , und v ∈ V . Dann ist ‖v‖2 ≥n∑i=1

|〈v, bi〉|2, und Gleichheit gilt genau dann,

wenn v ∈ 〈b1, . . . , bn〉.

Beweis.∑〈v, bi〉bi ist die orthogonale Projektion von v auf U = 〈b1, . . . , bn〉. Also

ist v =∑〈v, bi〉bi+v′, mit v′ ∈ U⊥. Nach Pythagoras folgt ‖v‖2 =

∑‖〈v, bi〉bi‖2+

‖v′‖2 =∑|〈v, bi〉|2‖bi‖2 + ‖v′‖2 =

∑|〈v, bi〉|2 + ‖v′‖2 ≥

∑|〈v, bi〉|2, und Gleich-

heit gilt genau dann wenn v′ = 0, also v ∈ U .

Folgerung 3.4.18. Seien V ein endlichdimensionaler Vektorraum mit Skalar-produkt, und ∅ 6= L ⊂ V ein affiner Unterraum mit Hesse’scher NormalformL = {x ∈ V |∀1 ≤ i ≤ k[〈v, bi〉 = ai]}. Sei y ∈ V . Dann ist dist(y, L)2 =∑|〈y, bi〉 − ai〉|2 =

∑|〈y − v, bi〉|2, wenn v ∈ L.

Ist speziell V = nK, und L = {x ∈ n

K|Q∗x = a}, wobei Q orthonormaleSpalten hat, und a ∈ k

K, dann ist dist(y, L) = ‖Q∗y − a‖.

Beweis. Aus den Ubungen wissen wir, daß der gesuchte Abstand die Norm desLotes ` von y auf L ist, und daß dieses Lot wiederum die orthogonale Projektionvon v − y auf das orthogonale Komplement von U ist, wenn L = v + U . Miteiner ONB b1, . . . , bk von U⊥ ist also ` =

∑〈v−y, bi〉bi, und nach dem vorherigen

Lemma folgt ‖`‖2 =∑|〈v − y, bi〉|2 =

∑|〈y, bi〉 − ai|2. Die Formel fur den Fall

V = nR ist nur ein Spezialfall hiervon.

Wir wenden uns jetzt nochmal den Matrizen Q zu, die in einer QR-Zerlegungvorkommen, also solchen, deren Spalten orthonormal sind. Wir haben schon ge-sehen, daß das gerade Q∗Q = E bedeutet, wahrend QQ∗ normalerweise nicht dieEinheitsmatrix ist. Wenn Q aber quadratisch ist, dann ist naturlich Q∗ einfachdie Inverse von Q (und dieses insbesondere regular...).

Folgerung 3.4.19. Sei Q ∈ nKn. Folgende Aussagen sind aquivalent:

(1) Die Spalten von Q sind orthonormal.

(2) Die Spalten von Q sind eine ONB von nK.

Page 77: Lineare Algebra

24 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

(3) Die Zeilen von Q sind orthonormal.

(4) Die Zeilen von Q sind eine ONB von Kn.

(5) Q∗Q = En.

(6) QQ∗ = En.

(7) Q ist unitar (bzw. orthogonal, falls K = R).

Definition 3.4.20. Die Menge U(n) :={Q ∈ n

Cn Q ist unitar

}heißt unitare

Gruppe, die MengeO(n) :={Q ∈ n

Rn Q ist orthogonal

}heißt die orthogonale

Gruppe.

Lemma 3.4.21. Die U(n) ⊂ GL(n,C) und O(n) ⊂ GL(n,R) sind Untergruppen.

Beispiele 3.4.22. (1) (Aus dem letzten Abschnitt...) Drehmatrizen

(cosα − sinαsinα cosα

).

Man kann sich leicht uberzeugen (...) daß die Spalten einer solchen Dreh-matrix tatsachlich orthonormal sind. (also (1) gilt. Im letzten Abschnitthatten wir uns uberzeugt, daß Q−1 = Qt, also (7) gilt).

(2) Seien V ein endlichdimensionaler Vektorraum mit Skalarprodukt, U ⊂ Vein Untervektorraum, und p : V → V der orthogonale Projektor auf U .Dann ist f := idV −2p unitar.

[Tatsachlich gilt

ff ∗ = (id−2p)(id−2p)∗

= (id−2p)(id∗−(2p)∗) Rechenregel siehe unten!

= (id−2p)(id−2p∗) Rechenregeln siehe unten!

= (id−2p)(id−2p) wir wissen, daß p selbstadjungiert ist

= id−4p+ (2p)2 nach Alessandro Binomi

= id−4p+ 4p2

= id weilp2 = p

...und wir haben sogar noch mehr gesehen:]

Daruber hinaus ist f auch selbstadjungiert, und damit f 2 = f . Zur Deutungvon f schreiben wir v ∈ V in der Form v = u+ u′ mit u ∈ U und u′ ∈ U⊥.Dann wird f(u+u′) = f(u)+f(u′) = u−2p(u)+u′−2p(u′) = u−2u+u′−0 =u′ − u. Man erkennt, daß es vernunftig ist, f als die Spiegelung an U⊥ zubezeichnen. Ist speziell dim(U) = 1, also dim(U⊥) = dim(V ) − 1, sprichtman von der Hyperebenenspiegelung an der zu U senkrechten HyperebeneU⊥.

Page 78: Lineare Algebra

3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 25

(3) Ist V = nK, konnen wir den Projektor auf U als Linksmultiplikation mit

der Matrix QQ∗ schreiben, wobei die Spalten von Q ∈ nKr eine ONB von

U sind. Damit ist also A = En − 2QQ∗ eine unitare Matrix, und Links-multiplikation mit A ist die Spiegelung am orthogonalen Komplement desSpaltenraums von Q.

(4) Im Fall der Spiegelung an einer Hyperebene in nK ist Q =: q ∈ n

K1 = n

K

ein Vektor. Die Matrix H = En−2qq∗ heißt auch eine Householder-Matrix.Man kann naturlich auch an der Hyperebene senkrecht zu 0 6= a ∈ n

K

spiegeln, wenn 0 6= ‖a‖ 6= 1. Dann ist die zugehorige Householder-Matrix

H = En −2

‖a‖2aa∗.

(5) Ein Beispiel: Zu a =

110

mit ‖a‖2 = 2 ergibt sich H =

0 −1 0−1 0 00 0 1

.

Wir haben oben schon die folgenden Rechenregeln benutzt:

Lemma 3.4.23. Seien V,W endlichdimensionale Vektorraume mit Skalarpro-dukt. Dann ist die Abbildung

Hom(V,W ) 3 f 7→ f ∗ ∈ Hom(W,V )

semilinear. Ist U ein weiterer endlichdimensionaler Vektorraum mit Skalarpro-dukt, und g : U → V , f : V → W linear, so ist (fg)∗ = g∗f ∗.

Satz 3.4.24. Sei A ∈ mKn. Dann gibt es eine unitare Matrix Q ∈ m

Km und eine

Zeilenstufenmatrix R ∈ mKn mit A = QR. Genauer gilt: Q kann als Produkt von

hochstens m Householder-Matrizen gewahlt werden.

Ohne den Zusatz uber die Wahl von Q handelt es sich um eine leichte Varianteunserer bisherigen QR-Zerlegung: Wir konnen schon A = Q′R′ mit einer MatrixQ′ ∈ m

Kr mit orthonormalen Spalten, und einer Zeilenstufenmatrix R′ ∈ r

Kn

schreiben. Zu Q und R wie im Satz kommt man, indem man die Spalten von Q′

zu einer ONB von mK erganzt, und die Matrix R′ durch Nullzeilen zu R ∈ m

Kn

auffullt. Jetzt aber ein ganz anderer

Beweis. Wir bestimmen sukzessive Householder-MatrizenH1, . . . , Hk so daßHk . . . H1A

die Form einer Blockmatrix Hk . . . H1A =

(R(k) S(k)

0 A(k)

)hat, wobei R eine Zei-

lenstufenmatrix mit k Zeilen und k Stufen ist, und S(k) und A(k) irgendwie vonpassender Große. Wir fangen an mit A(k) = k und

”ohne“ R und S. Wir horen

auf, wenn A(k) = 0 ist. Dann ist Hk . . . H1A =: R =

(R(k) S(k)

0 0

)eine Zeilenstu-

fenmatrix, und A = H1 . . . HkA.

Page 79: Lineare Algebra

26 KAPITEL 3. EUKLIDISCHE UND UNITARE VEKTORRAUME

Wie geht nun der Schritt von k auf k + 1? Wir konnen ohne Einschrankungannehmen, daß die erste Spalte v von A(k) nicht verschwindet (sonst schieben wireinfach die Grenze in der Blockzerlegung nach rechts...). Unten werden wir zeigen,daß es eine Householder-Matrix Hk+1 ∈ s

Ks gibt (wo s = m−k), sowie ein λ ∈ K,

so daß Hk+1v = λe1 ∈ sK. Die Matrix Hk+1 =

(Ek 0

0 Hk+1

)= Em− 2

(0q

)(0q

)∗ist auch eine Householder-Matrix. Wenn wir jetzt A(k+1) = (v, A(k+1)) schreiben,erhalten wir

Hk+1Hk . . . H1A =

(Ek 0

0 Hk+1

)(R(k) S(k)

0(v A(k+1)

))=

(R(k) S(k)

0(λe1 Hk+1A

(k+1))) =

(R(k+1) S(k+1)

0 A(k+1)

)wobei die Matrizen R(k+1), S(k+1) und A(k+1) durch die offensichtlichen

”Grenz-

verschiebungen“ aus der vorherigen Blockzerlegung entstehen.

Wir mussen jetzt noch nachliefern, daß es die verwendeten Householder-Matrizen auch wirklich gibt. Das hat eine sehr anschauliche Grundlage (im n

R):Es gibt zu je zwei Vektoren v, w immer eine Spiegelung, die v auf die von w aufge-spannte Gerade spiegelt. Dazu spiegele man einfach an der Winkelhalbierendendes Winkels zwischen v und w, oder an der Winkelhalbierenden des Winkelszwischen v und −w.

Lemma 3.4.25. Seien v, w ∈ nK \ {0}. Dann gibt es eine Householder-Matrix

H ∈ nKn mit Hv ∈ Kw.

Beweis. (Wir suchen also λ ∈ K mit Hv = λw. Weil ‖Hv‖ = ‖v‖, sollte malbesser |λ| · ‖w‖ = ‖v‖ sein.) Wir wahlen λ ∈ K so daß |λ| = ‖v‖/‖w‖, und sodaß 〈v, λw〉 ∈ R. Das heißt, wenn K = R wahlen wir einfach λ = ±‖v‖/‖w‖,und wenn K = C, haben wir auch genau zwei Auswahlmoglichkeiten, die man soahnlich findet, wie im Beweis der Cauchy-Schwarzschen Ungleichung. Nun setzenwir a = v + λw. (In der reellen Ebene ist dann bei negativem λ der Vektor aorthogonal zur Winkelhalbierenden des Winkels zwischen v und w.) Es ist ‖a‖2 =‖v‖2 + ‖λw‖2 + 2<(〈v, λw〉) = ‖v‖2 + |λ|2‖w‖2 + w〈v, λw〉 = 2(‖v‖2 + λ〈v, w〉),also ist fur H := En−

2

‖a‖2aa∗ tatsachlich Hv = v− 1

‖v‖2 + λ〈v, w〉(v+λw)(v+

λw)∗v = v − v∗v + λw∗v

‖v‖2 + λ〈v, w〉(v + λw) = v − (v + λw) = −λw.

Bemerkung 3.4.26. Wir sehen aus den beiden Beweisen, daß wir in der QR-Zerlegung einer reellen Matrix A stets erreichen konnen, daß R positive Elementean den Stufen stehen hat.

Page 80: Lineare Algebra

3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 27

Folgerung 3.4.27. Jedes A ∈ O(n) laßt sich als Produkt von hochstens n Hy-perebenenspiegelungen schreiben.

Beweis. Wir haben gesehen, daß A = QR gilt, wobei Q Produkt von hochstens nHyperebenenspiegelungen ist, und R eine obere Dreiecksmatrix mit positiven Dia-gonalelementen. Nun ist R aber auch noch orthogonal, weil A und Q es sind, undR = Q−1A. Also ist die obere Dreiecksmatrix R−1 gleich der unteren Dreiecksma-trix Rt, und damit sind beide Diagonalmatrizen, und R−1 = Rt = R impliziert,daß die Diagonalelemente (die ja positiv sind!) alle gleich Eins sind. Kurz: Es istR = En und damit ist A = Q Produkt von Hyperebenenspiegelungen.

Page 81: Lineare Algebra

Kapitel 4

Determinanten

4.1 Multilineare Abbildungen

Definition 4.1.1. Seien V1, . . . , Vm und W K-Vektorraume. Eine Abbildungf : V1 × · · · × Vm → W heißt multilinear (oder K-multilinear, wenn wir denKorper betonen wollen, oder m-multilinear, wenn wir die Anzahl der Argumentebetonen wollen), wenn fur alle 1 ≤ j ≤ m und alle (v1, . . . , vj−1, vj+1, . . . , vm) ∈V1× · · · × Vi−1× Vi+1× · · · × Vm die Abbildung fj : Vj 3 vj 7→ f(v1, . . . , vm) ∈ Wlinear ist, wenn also fur alle vi, v

′i ∈ Vi, λ ∈ K und 1 ≤ j ≤ m gilt:

f(v1, . . . , vj−1, vj + v′j, vj+1, . . . , vm)

= f(v1, . . . , vj−1, vj, vj+1, . . . , vm) + f(v1, . . . , vj−1, v′j, vj+1, . . . , vm)

und f(v1, . . . , vj−1, λvj, vj+1, . . . , vm) = λf(v1, . . . , vm).

Beispiele 4.1.2. (1) Bilineare Abbildungen sind also 2-multilinear.

(2) Man kann (ebenso wie bei linearen Abbildungen)”leicht erkennen“, ob eine

Abbildung multilinear ist. f : 2R× 2

R× 3R→ R gegeben durch f(u, v, w) =

u1v1w3 + u2v1w1 − 34u2v2w2 ist beispielsweise trilinear, aber f(u, v, w) =u1v1 + v2w2 − u2w3 nicht, und f(u, v, w) = u2

1v1w3 nicht.

(3) Die Matrixmultiplikation definiert jede Menge multilineare Abbildungen,zum Beispiel 2K3 × 3K4 × 4K2 × 2K5 → 2K5.

Lemma 4.1.3. Seien V ein endlichdimensionaler Vektorraum und B = (b1, . . . , bn)eine Basis von V . Dann ist eine multilineare Abbildung f : V m → K durch ihreWerte auf der Basis B eindeutig festgelegt.

Beweis. Setze αi1,...,ip := f(bi1 , . . . , bim) fur alle i1, . . . , im ∈ {1, . . . , n}. Jedesv ∈ V laßt sich in der Form v =

∑λibi fur gewisse Skalare λi schreiben, und es

ist

f(n∑i=1

λ1i1bi1 , . . . ,

n∑ip=1

λpipbip) =n∑

i1,...,ip=1

λ1i1 · · · · · λpipαi1,...,ip

1

Page 82: Lineare Algebra

2 KAPITEL 4. DETERMINANTEN

fur alle λjij ∈ K. Also ist f durch die αi1,...,im eindeutig festgelegt.Umgekehrt sieht man, daß es zu jeder Vorgabe von Werten αi1,...,im ∈ K auch

eine multilineare Abbildung f : V m → K gibt mit αi1,...,im = f(bi1 , . . . , bim) furalle i1, . . . , im. Man muß dazu nur

f(v1, . . . , vm) =n∑

i1,...,im=1

λ1i1 · · · · · λmimαi1,...,im

setzen fur vj =∑λjijbij .

Definition 4.1.4. Seien V ein endlichdimensionaler Vektorraum undB = (b1, . . . , bn)eine Basis von V . Sei f : V m → K eine m-multilineare Abbildung. Die darstel-lende Matrix von f ist

MB(f) = (αi1,...,im) ∈ K{1,...,n}m ,

definiert durch αi1,...,im := f(bi1 , . . . , bim).

Definition 4.1.5. Eine multilineare Abbildung f : V m → W heißt alternierend,wenn fur alle 1 ≤ i < m und v1, . . . , vm ∈ V mit vi = vi+1 gilt: f(v1, . . . , vm) = 0.

Beispiele 4.1.6. (Die zwei-mal-zwei-Determinante und das Vektorprodukt, nurganz kurz)

Lemma 4.1.7. Sei f : V m → K alternierend. Dann gelten

(1) Sind 1 ≤ i < j ≤ m mit vi = vj, so ist f(v1, . . . , vm) = 0.

(2) Fur 1 ≤ i < j ≤ m ist f(v1, . . . , vj, . . . , vi, . . . , vm) = −f(v1, . . . , vm).

(3) Fur alle 1 ≤ i, j ≤ m mit i 6= j ist f(v1, . . . , vi+λvj, . . . , vm) = f(v1, . . . , vm).

Beweis. Zunachst ist

0 = f(v1, . . . , vi + vi+1, vi + vi+1, . . . , vm)

= f(v1, . . . , vi, vi + vi+1, . . . , vm) + f(v1, . . . , vi+1, vi + vi+1, . . . , vm)

= f(v1, . . . , vi, vi, . . . , vm) + f(v1, . . . , vi, vi + 1, . . . , vm)

+ f(v1, . . . , vi+1, vi, . . . , vm) + f(v1, . . . , vi+1, vi+1, . . . , vm)

= f(v1, . . . , vi, vi+1, . . . , vm) + f(f1, . . . , vi+1, vi, . . . , vm)

so daß also (2) zumindest fur j = i+ 1 gilt.Beweis von (1) durch Induktion uber j, mit Anfang bei j = i+ 1. Schluß von

j auf j + 1, mit j < m: Sei vi = vj+1, dann f(v1, . . . , vi, . . . , vj, vj+1, . . . , vm) =−f(v1, . . . , vi, . . . , vj+1, vj, . . . , vm) = 0.

(2) folgt aus (1) genau wie der Spezialfall j = i+ 1 aus der Definition folgte.

Page 83: Lineare Algebra

4.1. MULTILINEARE ABBILDUNGEN 3

(3) folgt sofort aus (1):

f(v1, . . . , vi + λvj, . . . , vm)

= f(v1, . . . , vm) + λf(v1, . . . , vj, . . . , vj, . . . , vm)

= f(v1, . . . , vm)

Lemma 4.1.8. Sei f : V m → K multilinear.

(1) Ist char(K) 6= 2 und f(v1, . . . , vi+1, vi, . . . , vm) = −f(v1, . . . , vm) fur allev1, . . . , vm ∈ V und 1 ≤ i < m, so ist f alternierend.

(2) Ist char(K) 6= 2 und f(v1, . . . , vi + λvj, . . . , vm) = f(v1, . . . , vm) fur allev1, . . . , vm ∈ V , i 6= j und λ ∈ K, so ist f alternierend.

(3) Ist b1, . . . , bn eine Basis von V und gelten

f(bi1 , . . . , bim) = 0 falls ij = ij+1 fur ein 1 ≤ j < m

f(bi1 , . . . , bij+1, bij , . . . , bim) = f(bi1 , . . . , bim)

fur alle i1, . . . , im ∈ {1, . . . , n}, so ist f alternierend.

Beweis. Teil (1) folgt aus f(v1, . . . , vi, vi, . . . , vm) = −f(v1, . . . , vi, vi, . . . , vm).Zu Teil (2):

f(v1, . . . , vi, vi+1, . . . , vm) = f(v1, . . . , vi, vi+1 + vi, . . . , vm)

= f(v1, . . . , vi− (vi+1 +vi), vi+1 +vi, . . . , vm) = f(v1, . . . ,−vi+1, vi+1 +vi, . . . , vm)

= f(v1, . . . ,−vi+1, vi+1 + vi + (−vi+1), . . . , vm) = f(v1, . . . ,−vi+1, vi, . . . , vm)

= −f(v1, . . . , vi+1, vi, . . . , vm).

Damit ist nach Teil (1) f alternierend.Teil (3): Sei vi = vi+1 =

∑λjbj. Dann

f(v1, . . . , vm) = f(v1, . . . ,∑

λjbj,∑

λkbk, . . . , vm)

=∑j,k

λjλkf(v1, . . . , bj, bk, . . . , vm)

=∑j<k

λjλkf(v1, . . . , bj, bk, . . . , vm) +∑j>k

λjλkf(v1, . . . , bj, bk, . . . , vm)

=∑j<k

λjλkf(v1, . . . , bj, bk, . . . , vm)−∑j>k

λkλjf(v1, . . . , bk, bj, . . . , vm) = 0

Page 84: Lineare Algebra

4 KAPITEL 4. DETERMINANTEN

Folgerung 4.1.9. Sei f : V m → K multilinear und alternierend.

(1) Falls dimV < m, ist f = 0.

(2) Ist dimV = m, f 6= 0, und g : V m → K auch multilinear und alternierend,dann gibt es λ ∈ K mit g = λf .

Beweis. (1) f ist durch seine Werte auf den Elementen einer Basis B von Veindeutig bestimmt. Andererseits gibt es gar nicht m verschiedene Basisele-mente, die man einsetzen konnte, also kommt auf jedem m-Tupel von Ba-siselementen Null heraus.

(2) Es gibt i1, . . . , im ∈ {1, . . . ,m}, zwangslaufig paarweise verschieden, mitf(bi1 , . . . , bim) 6= 0. OBdA sei ij = j, sonst numerieren wir halt anders. Setzeλ = g(b1, . . . , bm)/f(b1, . . . , bm). Seien nun i1, . . . , im ∈ {1, . . . ,m}. Falls dieij nicht paarweise verschieden sind, ist λf(bi1 , . . . , bim) = 0 = g(bi1 , . . . , bim).Ansonsten kann das m-Tupel (i1, . . . , im) durch, sagen wir mal, ` Vertau-schungen aus (1, . . . ,m) gewonnen werden, und es folgt λf(bi1 , . . . , bim) =λ(−1)`f(b1, . . . , bm) = (−1)`g(b1, . . . , bm) = g(bi1 , . . . , bim).

Satz 4.1.10. Sei dimV = n. Dann gibt es eine multilineare, alternierende Ab-bildung f : V n → K mit f 6= 0.

Beweis. Der Beweis wird auf unbestimmte Zeit vertagt!

4.2 Die Determinante

Definition 4.2.1. Eine Abbildung f : nKn → K heißt multilinear in den Spalten,wenn die Abbildung f ′ : nK × · · · × nK → K mit f(A) = f ′(a1, . . . , an) furA = (a1, . . . , an) multilinear ist.

Definition 4.2.2. Eine Determinante(nfunktion) ist eine in den Spalten alter-nierende multilineare Abbildung det : nKn → K mit det(En) = 1 (

”det ist nor-

miert“).

Satz 4.2.3. Fur jedes n ∈ N existiert eine Determinante det : nKn → K, undsie ist eindeutig bestimmt. Genauer gilt: wenn f : nKn → K eine alternierendemultilineare Abbildung ist, dann ist f = f(En) det.

Beweis. Wie wir oben nicht bewiesen haben, gibt es 0 6= f : nKn → K multilinearund alternierend in den Spalten. Es ist f(En) 6= 0, weil sonst 0 = f(ei1 , . . . , ein) =±f(e1, . . . , en) fur alle paarweise verschiedenen i1, . . . , in, und damit f = 0. Man

nehme nun det :=1

f(En)f . Dann ist det(En) = 1 und naturlich f = f(En) det.

Die letzte Formel gilt ohnehin, falls f = 0.

Page 85: Lineare Algebra

4.2. DIE DETERMINANTE 5

Folgerung 4.2.4. (1) Es ist det(A′) = det(A), wenn A′ aus A durch Additioneines Vielfachen einer Spalte zu einer anderen entsteht.

(2) Es ist det(A′) = − det(A), wenn A′ durch Vertauschen zweier Spalten ausA entsteht.

(3) Es ist det(A′) = λ det(A), wenn A′ aus A durch Multiplikation einer Spaltemit λ ∈ K entsteht.

(4) Es ist det(λA) = λn det(A) fur A ∈ nKn und λ ∈ K. Fur det(A + B) gibtes keinerlei brauchbare Aussagen.

(5) Die Determinante einer Diagonalmatrix/oberen Dreiecksmatrix /unterenDreiecksmatrix (letztere als regular vorausgesetzt) ist das Produkt der Dia-gonalelemente.

Beweis. Es muß hochstens (5) bewiesen werden: Man sieht, daß alle nicht diago-nalen Elemente sukzessive durch Abziehen von Vielfachen einer Spalte von denubrigen zum Verschwinden gebracht werden konnen. Fur eine Diagonalmatrixfolgt die Aussage aus der Multilinearitat.

Beispiel 4.2.5. (Ausrechnen einer beliebigen 4-mal-4-Determinante, wobei mansieht, daß die oben aufgelisteten Regeln vollig ausreichen.)

Satz 4.2.6 (Determinanten-Multiplikationssatz). Fur A,B ∈ nKn gilt det(AB) =det(A) det(B).

Beweis. Wir halten A ∈ nKn fest und betrachten die Abbildung f : nKn → Kmit f(B) = det(AB). Da fur B = (b1, . . . , bn) mit bi ∈ nK die Beziehungf(b1, . . . , bn) = det(AB) = det(Ab1, . . . , Abn) gilt, ist f offenbar multilinearund alternierend in den Spalten. Also ist det(AB) = f(B) = f(En) det(B) =det(A) det(B).

Folgerung 4.2.7. Sei A ∈ nKn. Genau dann ist A invertierbar, wenn det(A) 6=0.

Die Determinante induziert einen Gruppenhomomorphismus det : GLn(K)→K \ {0}.

Beweis. IstA invertierbar, so folgt aus 1 = det(En) = det(AA−1) = det(A) det(A−1)daß det(A) 6= 0 und det(A)−1 = det(A−1) ist.

Ist umgekehrt A nicht invertierbar, so ist eine der Spalten a1, . . . , an Line-arkombination der restlichen. OBdA sei an =

∑n−1i=1 λiai. Dann ist det(A) =∑n−1

i=1 λi det(a1, . . . , an−1, ai) = 0, weil in jedem Summanden eine Spalte doppeltvorkommt.

Folgerung 4.2.8. Sei A ∈ nKn. Dann gilt det(At) = det(A).

Page 86: Lineare Algebra

6 KAPITEL 4. DETERMINANTEN

Beweis. A laßt sich als Produkt von Elementarmatrizen A = T1 · · · · · Tk schrei-ben. Da det(A) = det(T1) · · · · · det(Tk), und det(At) = det((T1 · · · · · Tk)t) =det(T tk · · · · · T t1) = det(T tk) · · · · · det(T t1) = det(T t1) · · · · · det(T tk), genugt es,det(T t) = det(T ) fur jede Elementarmatrix T zu zeigen. Da machen wir dasdurch Inspektion: Alle Elementarmatrizen T (i, j) und T (i;λ) sind symmetrisch,und T (i, j;λ)t = T (j, i;λ), mit det(T (i, j;λ)) = 1, weil T (i, j;λ) eine obere oderuntere Dreiecksmatrix mit Einsen auf der Diagonalen ist.

Folgerung 4.2.9. Die Determinante det : nKn → K ist alternierend und mul-tilinear in den Zeilen. Insbesondere andert sich die Determinante nicht, wennman ein Vielfaches einer Zeile zu einer anderen addiert, sie multipliziert sichmit λ ∈ K, wenn man eine Zeile mit λ multipliziert, sie andert das Vorzeichen,wenn man zwei Zeilen vertauscht.

Lemma 4.2.10. Sei n ∈ N. Fur i, j ∈ {1, . . . , n+1} definieren wir dij : nKn → Kdurch

dij(A) = det

α11 · · · α1,j−1 0 α1,j . . . α1n...

. . ....

......

. . ....

αi−1,1 · · · αi−1,j−1 0 αi−1,j · · · αi−1,n

0 · · · 0 1 0 · · · 0αi1 · · · αi,j−1 0 αij · · · αin...

. . ....

......

. . ....

αn1 · · · αn,j−1 0 αnj · · · αnn

fur A = (αij). Dann ist dij(A) = (−1)i+j det(A).

Beweis. Die Abbildung dij ist offensichtlich alternierend und multilinear in denSpalten. Es genugt daher, dij(En) = (−1)i+j zu prufen. Da det alternierend inden Spalten ist, gilt di,j+1(A) = −dij(A), und weil det alternierend in den Zeilenist, gilt di+1,j(A) = −dij(A). Also ist

dij(En) = (−1)j−1di1(En) = (−1)j−1(−1)i−1d11(En) = (−1)j+i det(En+1) = (−1)i+j

Satz 4.2.11 (Entwicklung nach der j-ten Spalte). Fur A ∈ nKn bezeichneAij ∈ n−1Kn−1 die Matrix, die aus A durch Streichen der i-ten Zeile und derj-ten Spalte entsteht.

Dann gilt fur A = (αk`) ∈ nKn und j ∈ {1, . . . , n}

det(A) =n∑i=1

(−1)i+jαij det(Aij).

Page 87: Lineare Algebra

4.3. ADJUNGIERTE MATRIX UND CRAMER’SCHE REGEL 7

Beweis. Da det in der j-ten Spalte linear ist, haben wir

det(A) = det(a1, . . . ,∑

αijei, . . . , an)

=n∑i=1

αij det(a1, . . . , ei, . . . , an)

=n∑i=1

αij det(a1 − αi1ei, . . . , ei, . . . , an − αinei)

=n∑i=1

αijdij(Aij) =n∑i=1

(−1)i+j det(Aij)

Folgerung 4.2.12 (Entwicklung nach der i-ten Zeile). Fur A ∈ nKn undi ∈ {1, . . . , n} ist

det(A) =n∑j=1

(−1)i+jαij det(Aij).

Beweis. Entwicklung von At nach der i-ten Spalte.

4.3 Adjungierte Matrix und Cramer’sche Regel

Wir schreiben die Entwicklung nach der `-ten Spalte nochmal um:

n∑j=1

(−1)`+jα`j det(A`j)

oder, fur beliebiges k:

n∑j=1

αkj · (−1)`+j det(A`j) = det(a1, . . . ,

`-te Stelle︷︸︸︷ak , . . . , an) = δ`k det(A),

wenn a1, . . . , an die Spalten von A sind. Das zeigt A · A = det(A)En im folgendenSatz, die andere Gleichung zeigt man analog:

Definition und Satz 4.3.1. Sei A ∈ nKn. Die adjungierte Matrix zu A istA = (aij) ∈ nKn, definiert durch aij = (−1)i+j det(Aji).

Es gilt A · A = A · A = det(A)En. Ist also A regular, so ist A−1 =1

det(A)A.

Page 88: Lineare Algebra

8 KAPITEL 4. DETERMINANTEN

Beispiel 4.3.2. (a bc d

)−1

=1

ad− bc

(d −b−c a

)falls

(a bc d

)regular.

Fur A =

a b cd e fg h i

∈ GL(3, K) ist

A−1 =1

det(A)

∣∣∣∣e fh i

∣∣∣∣ −∣∣∣∣b ch i

∣∣∣∣ ∣∣∣∣b ce f

∣∣∣∣−∣∣∣∣d fg i

∣∣∣∣ ∣∣∣∣a cg i

∣∣∣∣ −∣∣∣∣a cd f

∣∣∣∣∣∣∣∣d eg h

∣∣∣∣ −∣∣∣∣a bg h

∣∣∣∣ ∣∣∣∣a bd e

∣∣∣∣

Im allgemeinen gibt die adjungierte eine

”Formel“ fur die Inverse. Das wird

noch richtiger, wenn wir eine Formel fur die Determinante haben. Erst mal aber:

Folgerung 4.3.3 (Cramersche Regel). Sei A = (a1, . . . , an) ∈ GL(n,K) undb ∈ nK. Die eindeutige Losung x = (xi) des Gleichungssystems Ax = b istgegeben durch

xi =1

det(A)det(a1, . . . ,

i-te︷︸︸︷b , . . . , an).

Beweis. det(A)x = Ab, also

det(A)xj =n∑i=1

bi(−1)i+j det(Aij) = det(a1, . . . ,

i-teStelle︷︸︸︷b , . . . , an)

4.4 Permutationen und Leibniz’sche Formel

Definition 4.4.1. Sn ist die Menge aller bijektiven Abbildungen {1, . . . , n} →{1, . . . , n}. Die Elemente von Sn heißen Permutationen. Sn heißt die Permutati-onsgruppe oder symmetrische Gruppe. Tatsachlich ist Sn eine Gruppe bezuglichder Hintereinanderausfuhrung von Abbildungen.

Seien i, j ∈ {1, . . . , n} mit i 6= j. Die Bijektion τi,j ∈ Sn mit

σ(k) =

j falls k = i

i falls k = j

k sonst

Page 89: Lineare Algebra

4.5. DIE DETERMINANTE EINES ENDOMORPHISMUS 9

heißt eine Transposition. τi := τi,i+1 heißt eine Nachbartransposition.

Lemma 4.4.2. Jedes Element von Sn kann als Produkt von Nachbartransposi-tionen geschrieben werden.

Lemma 4.4.3. Sei K ein Korper. Die Abbildung Φ: Sn → GL(n,K) mit Φ(σ) =(eσ(1), . . . , eσ(n)) ist ein Gruppenhomomorphismus.

Beweis. Es genugt Φ(σ)Φ(τ) = Φ(στ) zu beweisen, indem man beide Matrizenauf einen Einheitsvektor ei wirken laßt: Φ(σ)Φ(τ)ei = Φ(σ)eτ(i) = eσ(τ(i)) =Φ(στ)ei.

Folgerung 4.4.4. Es gibt einen Gruppenhomomorphismus ε : Sn → {1,−1} ⊂Q \ {0} mit

ε(σ) =

{1 falls σ Produkt einer geraden Anzahl von Transpositionen ist

−1 falls σ Produkt einer ungeraden Anzahl von Transpositionen ist

Beweis. Wir setzen ε(σ) = det(Φ(σ)). Dann ist ε als Verknupfung zweier Grup-penhomomorphismen wieder einer. Die Form von ε ist klar weil det alternierendin den Spalten ist!

Folgerung 4.4.5 (Leibniz’sche Formel). Sei A = (aij) ∈ nKn. Dann ist

det(A) =∑σ∈Sn

ε(σ)a1,σ(1) · · · · · an,σ(n)

4.5 Die Determinante eines Endomorphismus

Lemma 4.5.1. Seien A,B ∈ nKn ahnlich. Dann ist det(A) = det(B).

Beweis. Nach Voraussetzung gibt es T mit B = TAT−1. Dann ist aber det(B) =det(TAT−1) = det(T ) det(A) det(T )−1 = det(A).

Definition 4.5.2. Seien V ein endlichdimensionaler Vektorraum, und f : V → Vein Endomorphismus. Wir setzen det(f) = det(MB(f)), wenn B eine Basis vonV ist. det(f) ist wohldefiniert, denn wenn C eine weitere Basis von V ist, dannist MC(f) eine zu MB(f) ahnliche Matrix, hat also dieselbe Determinante.

Folgerung 4.5.3. det(f) 6= 0 genau dann, wenn f ein Isomorphismus ist. det(fg) =det(f) det(g) fur zwei Endomorphismen f, g von V .

Beispiel 4.5.4. Sei H eine Householder-Matrix. Dann ist det(H) = −1.Denn det(H) = det(f), wenn f = `H : nK → n

K. Sei nun H = En − 2aa∗.Wahle eine ONB b1, . . . , bn von n

K mit b1 = a. Dann ist MB(f) eine Diagonal-matrix, mit −1 in der linken oberen Ecke, und sonst Einsen.