ein skript fur lineare algebra¨ - uni-bielefeld.depreston/teaching/...1 lineare gleichungssysteme...

75
Ein Skript f¨ ur Lineare Algebra (Spezielle Aspekte der Mathematik) Chris Preston Sommersemester 2008

Upload: others

Post on 30-Jan-2021

3 views

Category:

Documents


0 download

TRANSCRIPT

  • Ein Skript für Lineare Algebra

    (Spezielle Aspekte der Mathematik)

    Chris Preston

    Sommersemester 2008

  • Inhaltsverzeichnis

    1 Lineare Gleichungssysteme 2

    2 Untervektorräume 16

    3 Basen 25

    4 Matrizen 31

    5 Diagonalisierbarkeit von Matrizen 44

    6 Die Fibonacci-Zahlen 59

    7 Das Skalarprodukt 65

  • 1 Lineare Gleichungssysteme

    Sei n ≥ 1; mit Rn wird die Menge aller n-Tupel reeller Zahlen bezeichnet. EinElement von Rn hat also die Form (x1, . . . , xn) mit x1, . . . , xn Elemente aus R.Die Elemente von Rn werden Vektoren genannt. Zum Beispiel sind (3,−4, 6),(1, 0, 42) und (−1,−1,−2) Vektoren in R3, (3, 4, 5, 1) ist ein Vektor in R4 und(1, 2, 3, 4, 5, 6, 7, 8, 9) ein Vektor in R9.

    Ist v = (x1, . . . , xn) ∈ Rn ein Vektor und ist 1 ≤ k ≤ n, so heißt xk die k-teKomponente von v. Per Definition gilt (x1, . . . , xn) = (y1, . . . , yn) genau dann,wenn xk = yk für jedes k = 1, . . . , n. Zwei Vektoren u, v ∈ Rn sind also genaudann gleich, wenn für jedes k = 1, . . . , n ihre k-ten Komponenten gleich sind.

    Der Vektor (0, . . . , 0) ∈ Rn heißt Null-Vektor und wird mit 0 bezeichnet. DieVektoren e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . ., en = (0, . . . , 0, 1) heißen dieEinheitsvektoren in Rn.

    Eine Addition auf Rn wird erklärt durch

    (x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)

    und eine Multiplikation eines Elements von Rn mit einer reellen Zahl durch

    c (x1, . . . , xn) = (cx1, . . . , cxn) .

    Zum Beispiel ist in R3

    (2, 3, 4) + (4, 8, 1) = (2 + 4, 3 + 8, 4 + 1) = (6, 11, 5) ,

    (4,−2, 0) + (−4,−5, 4) = (4 +−4,−2 +−5, 0 + 4) = (0,−7, 4) ,4(2, 3,−7) = (4 · 2, 4 · 3, 4 · (−7)) = (8, 12,−28) ,

    (−3)(4,−2, 5) = (−3 · 4,−3 · (−2),−3 · 5) = (−12, 6,−15)

    und in R4

    (1, 2, 3, 4) + (−7, 4, 8, 1) = (1 +−7, 2 + 4, 3 + 8, 4 + 1) = (−6, 6, 11, 5) ,(6, 4,−2, 0) + (2,−4,−5, 4) = (6 + 2, 4 +−4,−2 +−5, 0 + 4) = (8, 0,−7, 4) ,

    4(8, 2, 3,−7) = (4 · 8, 4 · 2, 4 · 3, 4 · (−7)) = (32, 8, 12,−28) ,(−3)(2, 4,−2, 5) = ((−3) · 2,−3 · 4,−3 · (−2),−3 · 5)

    = (−6,−12, 6,−15) .

    Aus den entsprechenden Regeln für die Addition und Multiplikation von reellenZahlen sieht man leicht, dass die Addition und die Skalar-Multiplikation vonVektoren in Rn den folgenden Regeln unterliegen:

    2

  • 1 Lineare Gleichungssysteme 3

    (A1) Für alle u, v, w ∈ Rn gilt (u + v) + w = u + (v + w).

    (A2) Für alle u, v ∈ Rn gilt u + v = v + u.(A3) Für alle v ∈ Rn ist 0 + v = v.

    (A4) Zu jedem v ∈ Rn gibt es ein eindeutiges −v ∈ Rn mit (−v) + v = 0. Istv = (x, y), so ist −v = (−x,−y).

    (M1) Für alle c, d ∈ R und alle v ∈ Rn gilt (cd)v = c(dv).

    (M2) Für alle v ∈ Rn ist 1v = v.

    (D1) Für alle c ∈ R und alle u, v ∈ Rn gilt c(u + v) = cu + cv.

    (D2) Für alle c, d ∈ R und alle v ∈ Rn gilt (c + d)v = cv + dv.

    Man beachte: Für alle v ∈ Rn, c ∈ R ist cv 6= 0 genau dann, wenn c 6= 0 undv 6= 0. Insbesondere ist c0 = 0v = 0.Seien u, v ∈ Rn; dann wird der Vektor v +−u meistens mit v− u bezeichnet. Istu = (x1, . . . , xn) und v = (y1, . . . , yn), so ist v−u = (x1− y1, . . . , xn− yn). Fernerist v − u der eindeutige Vektor mit v = u + (v − u).Seien u, v ∈ Rn; dann heißt v ein Vielfaches von u, wenn es ein t ∈ R mit v = tugibt. Für jedes u ∈ Rn ist der Null-Vektor 0 ein Vielfaches von u, da 0 = 0u.Andererseits ist 0 das einzige Vielfache von 0, da t 0 = 0 für alle t ∈ R.Da die Addition in Rn assoziativ ist (d.h. (A1) gilt), können wir eine Summe

    v1 + · · ·+ vmvon m Vektoren v1, . . . , vm ohne Klammern schreiben. Genauso schreiben wir

    c1v1 + · · ·+ cmvmfür eine Summe von Vielfachen der Vektoren v1, . . . , vm. Zum Beispiel ist

    2(2, 3, 4) + 3(4, 8, 1) + 4(2, 1, 6)

    = (2 · 2, 2 · 3, 2 · 4) + (3 · 4, 3 · 8, 3 · 1) + (4 · 2, 4 · 1, 4 · 6)= (4, 6, 8) + (12, 24, 3) + (8, 4, 24) = (4 + 12 + 8, 6 + 24 + 4, 8 + 3 + 24)

    = (24, 34, 35) .

    Seien m, n ≥ 1; eine m × n Matrix ist eine Anordnung von mn Elementen vonR nach folgendem Schema

    a11 a12 · · · a1na21 a22 · · · a2n...

    ......

    am1 am2 · · · amn

    .

  • 1 Lineare Gleichungssysteme 4

    Zum Beispiel sind

    1 2 3 40 4 5 33 3 3 3

    und

    −1 −4 3 42 4 −5 −3−1 3 −3 3

    3× 4 Matrizen und

    2 3 44 5 38 7 43 3 3

    und

    −4 3 44 −5 −33 −8 −93 −3 3

    sind 4× 3 Matrizen.Die Menge der m× n Matrizen wird mit M(m× n, R) bezeichnet. Sei

    A =

    a11 · · · a1n...

    ...am1 · · · amn

    ∈ M(m× n, R) ;

    eine m × n Matrix; dann schreibt man auch A = (aij)1≤i≤m, 1≤j≤n oder nurA = (aij). Seien 1 ≤ i ≤ m, 1 ≤ j ≤ n; der waagerecht geschriebene n-Tupel(ai1, . . . , ain) wird die i-te Zeile von A und der senkrecht geschriebene m-Tupel

    a1j...

    amj

    die j-te Spalte von A genannt. Die Zeilen von A werden als Elemente von Rn unddie Spalten von A als Elemente von Rm betrachtet. Zum Beispiel ist

    352

    die 3-te Spalte und (0, 4, 5, 3) die 2-te Zeile der 3× 4 Matrix

    1 2 3 40 4 5 33 3 2 3

    .

    Die Matrix

    0 · · · 0...

    ...0 · · · 0

    ∈ M(m× n, R)

  • 1 Lineare Gleichungssysteme 5

    wird mit 0 bezeichnet.

    Da die Spalten von A ∈ M(m × n, R) als Elemente von Rm betrachtet werden,können wir die Spalten addieren und mit Elementen von R multilplizieren. ZumBeispiel ist

    4

    352

    + 2

    433

    + 3

    103

    =

    4 · 34 · 54 · 2

    +

    2 · 42 · 32 · 3

    +

    3 · 13 · 03 · 3

    =

    12208

    +

    866

    +

    309

    =

    12 + 8 + 320 + 6 + 08 + 6 + 9

    =

    232623

    .

    Seien m, n ≥ 1 und A = (aij) ∈ M(m× n, R), b = (b1, . . . , bm) ∈ Rm; dann heißt

    a11x1 + a12x2 + · · ·+ a1nxn = b1a21x1 + a22x2 + · · ·+ a2nxn = b2

    ...

    am1x1 + am2x2 + · · ·+ amnxn = bmdas zu A und b gehörige lineare Gleichungssystem.

    Ein Vektor (y1, . . . , yn) ∈ Rn heißt Lösung des zu A und b gehörigen linearenGleichungssystems, wenn y1, . . . , yn die m Gleichungen erfüllen, d.h., wenn

    a11y1 + a12y2 + · · ·+ a1nyn = b1a21y1 + a22y2 + · · ·+ a2nyn = b2

    ...

    am1y1 + am2y2 + · · ·+ amnyn = bmDie Menge aller Lösungen des Systems wird mit Lös(A, b) bezeichnet.

    Beispiel: Betrachte die 3× 4 Matrix

    A =

    4 2 3 42 4 5 33 3 2 3

    .

    und den Vektor b = (9, 3, 7) ∈ R3. Dann ist

    4x1 + 2x2 + 3x3 + 4x4 = 9

    2x1 + 4x2 + 5x3 + 3x4 = 3

    3x1 + 3x2 + 2x3 + 3x4 = 7

  • 1 Lineare Gleichungssysteme 6

    das zu A und b gehörige lineare Gleichungssystem und der Vektor (1, 0,−1, 2) isteine Lösung, da

    4 · 1 + 2 · 0 + 3 · (−1) + 4 · 2 = 92 · 1 + 4 · 0 + 5 · (−1) + 3 · 2 = 33 · 1 + 3 · 0 + 2 · (−1) + 3 · 2 = 7 .

    Satz 1.1 Seien A ∈ M(m × n, R), b ∈ Rm; seien v1, . . . , vn ∈ Rm die Spaltenvon A. Dann ist (y1, . . . , yn) ∈ Rn eine Lösung des zu A und b gehörigen linearenGleichungssystems genau, wenn

    y1v1 + · · ·+ ynvn = b .

    Beweis Sei A = (aij), und insbesondere ist

    vj =

    a1ja2j...

    amj

    die j-te Spalte von A für jedes j = 1, . . . , n; sei b = (b1, . . . , bm). Nun ist

    y1v1 + · · ·+ ynvn = y1

    a11...

    am1

    + · · ·+ yn

    a1n...

    amn

    =

    y1a11...

    y1am1

    + · · ·+

    yna1n...

    ynamn

    =

    y1a11 + · · ·+ yna1n...

    y1am1 + · · ·+ ynamn

    =

    a11y1 + · · ·+ a1nyn...

    am1y1 + · · ·+ amnyn

    und folglich gilt y1v1 + · · ·+ ynvn = b genau dann, wenn

    a11y1 + · · ·+ a1nyn = b1...

    am1y1 + · · ·+ amnyn = bm ,

    d.h. genau dann, wenn (y1, . . . , yn) eine Lösung des zu A und b gehörigen linearenGleichungssystems ist.

  • 1 Lineare Gleichungssysteme 7

    Beispiel: Betrachte wieder die 3× 4 Matrix

    A =

    4 2 3 42 4 5 33 3 2 3

    .

    und den Vektor b = (9, 3, 7) ∈ R3. Seien

    v1 =

    423

    , v2 =

    243

    , v3 =

    352

    , v4 =

    433

    die Spalten von A. Dann ist

    1 · v1 + 0 · v2 + (−1) · v3 + 2 · v4 = 1

    423

    + 0

    243

    + (−1)

    352

    + 2

    433

    =

    1 · 4 + 0 · 2 + (−1) · 3 + 2 · 41 · 2 + 0 · 4 + (−1) · 5 + 2 · 31 · 3 + 0 · 3 + (−1) · 2 + 2 · 3

    =

    937

    = b

    und damit ist der Vektor (1, 0,−1, 2) eine Lösung.Das Gleichungssystem heißt lösbar, wenn Lös(A, b) mindestens ein Element vonR

    n enthält. Es heißt eindeutig lösbar, wenn Lös(A, b) aus genau einem Elementvon Rn besteht.

    Das zu A und b gehörige lineare Gleichungssystem heißt homogen, wenn b = 0,d.h., wenn bj = 0 für jedes j = 1, . . . , m. Ein homogenes Gleichungssystembesitzt stets die triviale Lösung 0 = (0, . . . , 0). (Insbesondere ist ein homogenesGleichungssystem stets lösbar.)

    Satz 1.2 Seien A ∈ M(m×n, R), b ∈ Rm, u ∈ Lös(A, b) und u′ ∈ Rn. Dann giltu′ ∈ Lös(A, b) genau, wenn u′ − u ∈ Lös(A, 0).

    Beweis Sei u = (y1, . . . , yn), u′ = (y′1, . . . , y

    ′n) und seien v1, . . . , vn ∈ Rm die

    Spalten von A. Da u ∈ Lös(A, b), ist nach Satz 1.1 y1v1 + · · · + ynvn = b undfolglich ist

    y′1v1 + · · ·+ y′nvn = (y1v1 + · · ·+ ynvn) + ((y1 − y′n)v1 + · · ·+ (yn − y′n)vn)= b + ((y1 − y′n)v1 + · · ·+ (yn − y′n)vn) .

  • 1 Lineare Gleichungssysteme 8

    Nach Satz 1.1 gilt also u′ ∈ Lös(A, b) genau dann, wenn

    (y1 − y′n)v1 + · · ·+ (yn − y′n)vn = 0

    und wieder nach Satz 1.1 gilt (y1−y′n)v1 + · · ·+(yn−y′n)vn = 0 genau dann, wenn(y1 − y′1, . . . , yn − y′n) ∈ Lös(A, 0), d.h. genau dann, wenn u′ − u ∈ Lös(A, 0).

    Nach Satz 1.2 erhält man alle Lösungen des zu A und b gehörigen Gleichungs-systems, indem man zu einer speziellen Lösung dieses Systems alle Lösungen deshomogenen Gleichungssystems addiert: Sei u ∈ Lös(A, b); ist w ∈ Lös(A, 0), soist u′ = u + w ∈ Lös(A, b), da w = u′ − u. Ist umgekehrt u′ ∈ Lös(A, b), so istu′ = u + w mit w = u′ − u und u′ − u ∈ Lös(A, 0).Beispiel: Betrachte die 3× 4 Matrix

    A =

    1 2 1 42 1 4 51 3 6 5

    .

    und den Vektor b = (8, 12, 15) ∈ R3. Dann ist

    1x1 + 2x2 + 1x3 + 4x4 = 8

    2x1 + 1x2 + 4x3 + 5x4 = 12

    1x1 + 3x2 + 6x3 + 54 = 15

    das zu A und b gehörige lineare Gleichungssystem und der Vektor (1, 1, 1, 1) isteine Lösung, da

    1 · 1 + 2 · 1 + 1 · 1 + 4 · 1 = 82 · 1 + 1 · 1 + 4 · 1 + 5 · 1 = 121 · 1 + 3 · 1 + 6 · 1 + 5 · 1 = 15 .

    Ferner ist (−2,−1, 0, 1) eine Lösung des homogenen Gleichungssytems, da

    1 · (−2) + 2 · (−1) + 1 · 0 + 4 · 1 = 02 · (−2) + 1 · (−1) + 4 · 0 + 5 · 1 = 01 · (−2) + 3 · (−1) + 6 · 0 + 5 · 1 = 0 ,

    und damit ist (1, 1, 1, 1) + (−2,−1, 0, 1) = (−1, 0, 1, 2) auch eine Lösung des zuA und b gehörigen Gleichungssystems.

  • 1 Lineare Gleichungssysteme 9

    Unter elementaren Zeilenumformungen einer Matrix versteht man die folgendenOperationen:

    I Addition eines Vielfachen einer Zeile zu einer anderen Zeile.

    II Vertauschen zweier Zeilen.

    Zu jeder dieser Umformungen gibt es eine entsprechende Umkehr-Umformung:

    – Entsteht A′ durch Addition des c-fachen der p-ten Zeile zu der q-ten Zeilevon A, (wobei c ∈ R und p 6= q), so erhält man A wieder durch Addition des−c-fachen der p-ten Zeile zu der q-ten Zeile von A′.

    – Entsteht A′ durch Vertauschen der p-ten und der q-ten Zeile von A, so erhältman A wieder durch Vertauschen der p-ten und der q-ten Zeile von A′.

    Wird eine Matrix A durch eine elementare Zeilenumformung zu einer Matrix A′

    verändert, so gilt A′ = 0 genau dann, wenn A = 0.

    Seien m, n ≥ 1 und A = (aij) ∈ M(m× n, R), b = (b1, . . . , bm) ∈ Rm; dann wirddie m× (n + 1) Matrix

    a11 · · · a1n b1...

    ......

    am1 · · · amn bm

    mit (A, b) bezeichnet.

    Satz 1.3 Wird (A, b) durch eine elementare Zeilenumformung zu einer Matrix(A′, b′) verändert, so gilt Lös(A, b) = Lös(A′, b′).

    Beweis Entsteht (A′, b′) aus (A, b) durch Vertauschen zweier Zeilen, so ist es klar,dass Lös(A, b) = Lös(A′, b′). Nehme also an, dass (A′, b′) aus (A, b) durch eineZeilenumformung vom Typ I entsteht. Genauer wird angenommen, dass (A′, b′)durch Addition des c-fachen der p-ten Zeile zu der q-ten Zeile von (A, b) entsteht,(wobei c ∈ R und p 6= q). Seien A′ = (a′ij), b′ = (b′1, . . . , b′m); dann gilt

    – a′ij = aij für alle j = 1, . . . , n, i 6= q,– a′qj = aqj + capj für alle j = 1, . . . , n,

    – b′i = bi für i 6= q,– b′q = bq + cbp.

    Sei y = (y1, . . . , yn) ∈ Lös(A, b); d.h., ai1y1 + ai2y2 + · · · + ainyn = bi für jedesi = 1, . . . , m. Dann gilt

    a′i1y1 + a′i2y2 + · · ·+ a′inyn = ai1y1 + ai2y2 + · · ·+ ainyn = bi = b′i

  • 1 Lineare Gleichungssysteme 10

    für jedes i 6= q und

    a′q1y1 + a′q2y2 + · · ·+ a′qnyn

    = (aq1 + cap1)y1 + (aq2 + caq2)y2 + · · ·+ (aqn + capn)yn= aq1y1 + aq2y2 + · · ·+ aqnyn + c(ap1y1 + ap2y2 + · · ·+ apnyn)= bq + cbp = b

    ′q ,

    und damit ist y ∈ Lös(A′, b′). Sei umgekehrt y = (y1, . . . , yn) ∈ Lös(A′, b′); d.h.,

    a′i1y1 + a′i2y2 + · · ·+ a′inyn = b′i

    für jedes i = 1, . . . , m. Dann gilt

    ai1y1 + ai2y2 + · · ·+ ainyn = a′i1y1 + a′i2y2 + · · ·+ a′inyn = b′i = bifür jedes i 6= q und

    aq1y1 + aq2y2 + · · ·+ aqnyn= (a′q1 − cap1)y1 + (a′q2 − caq2)y2 + · · ·+ (a′qn − capn)yn= a′q1y1 + a

    ′q2y2 + · · ·+ a′qnyn − c(ap1y1 + ap2y2 + · · ·+ apnyn)

    = b′q − cbp = bq ;

    folglich ist y ∈ Lös(A, b). Dies zeigt also, dass Lös(A, b) = Lös(A′, b′).

    Beispiel: Betrachte die 2× 2 Matrix

    A =

    (

    1 22 5

    )

    und den Vektor b = (3, 7) ∈ R2. Dann ist

    1x1 + 2x2 = 3

    2x1 + 5x2 = 7

    das zu A und b gehörige lineare Gleichungssystem. Sei (A′, b′) die Matrix, die aus(A, b) durch Addition des −2-fachen der 1-ten Zeile zu der 2-ten Zeile von (A, b)entsteht. Folglich ist

    A′ =

    (

    1 20 1

    )

    und b′ = (3, 1) und das zu A′ und b′ gehörige lineare Gleichungssystem ist

    1x1 + 2x2 = 3

    x2 = 1

    Es ist klar, dass dieses System eindeutig lösbar ist mit Lös(A′, b′) = {(1, 1)}.Damit ist nach Satz 1.3 das zu A und b gehörige lineare Gleichungssystem aucheindeutig lösbar mit Lös(A, b) = {(1, 1)}.

  • 1 Lineare Gleichungssysteme 11

    Eine Matrix A ∈ M(m × n, R) hat Zeilen-Stufen-Form, wenn für jede Zeile derMatrix folgende zwei Bedingungen erfüllt sind:

    – Sind die ersten p Elemente der Zeile Null für ein p mit p < n, so sind für allefolgenden Zeilen mindestens die ersten p + 1 Elemente Null.

    – Sind alle Elemente der Zeile Null, so ist jedes Element von jeder der folgendenZeilen Null.

    (Eine solche Matrix sieht etwa so aus:

    0 0 ∗ · · · · · · · · · · · · ·0 0 0 0 ∗ · · · · · · · · · · ·0 0 0 0 0 ∗ · · · · · · · · · ·0 0 0 0 0 0 ∗ · · · · · · · · ·0 0 0 0 0 0 0 0 0 ∗ · · · · · ·0 0 0 0 0 0 0 0 0 0 ∗ · · · · ·0 0 0 0 0 0 0 0 0 0 0 ∗ · · · ·0 0 0 0 0 0 0 0 0 0 0 0 0 0 ∗ ·0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 00 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

    Dabei sind die mit einem Stern angedeuteten Elemente verschieden von Nullund die mit einem Punkt angedeuteten Elemente beliebig. Die mit einem Sternangedeuteten Elemente bezeichnen also, soweit vorhanden, in jeder Zeile das erstenicht-verschwindende Element.)

    Insbesondere hat die Null-Matrix 0 Zeilen-Stufen-Form.

    Sei A = (aij) ∈ M(m× n, R) mit A 6= 0 und für i = 1, . . . , m sei

    pi =

    {

    min{1 ≤ j ≤ n : aij 6= 0} falls (ai1, . . . , ain) 6= 0 ,0 sonst .

    Die Matrix A (mit A 6= 0) hat also Zeilen-Stufen-Form genau dann, wenn

    1 ≤ p1 < p2 < · · · < pr ,

    wobei r der Index der letzten von Null verschiedenen Zeile von A ist. Hat AZeilen-Stufen-Form, so nennt man p1, . . . , pr die Treppen-Folge von A. Da r derIndex einer Zeile ist, ist 1 ≤ r ≤ m. Da aber 1 ≤ p1 < p2 < · · · < pr, ist auchr ≤ n. Daher ist 1 ≤ r ≤ max{m, n}.

    Satz 1.4 Seien A = (aij) ∈ M(m × n, R), b = (b1, . . . , bm) ∈ Rm mit (A, b) 6= 0.Nehme an, dass (A, b) Zeilen-Stufen-Form hat, und sei p1, . . . , pr die Treppen-Folge von (A, b). Dann ist das zu A und b gehörige lineare Gleichungssystemlösbar genau, wenn pr 6= n + 1. Ferner ist das Gleichungssystem eindeutig lösbargenau dann, wenn r = n und pj = j für jedes j = 1, . . . , n.

  • 1 Lineare Gleichungssysteme 12

    Beweis

    0 0 ∗ · · · · · · · · · · · · ·0 0 0 0 ∗ · · · · · · · · · · ·0 0 0 0 0 ∗ · · · · · · · · · ·0 0 0 0 0 0 ∗ · · · · · · · · ·0 0 0 0 0 0 0 0 0 ∗ · · · · · ·0 0 0 0 0 0 0 0 0 0 ∗ · · · · ·0 0 0 0 0 0 0 0 0 0 0 ∗ · · · ·0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ∗0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 00 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

    nicht lösbar

    0 0 ∗ · · · · · · · · · · · · ·0 0 0 0 ∗ · · · · · · · · · · ·0 0 0 0 0 ∗ · · · · · · · · · ·0 0 0 0 0 0 ∗ · · · · · · · · ·0 0 0 0 0 0 0 0 0 ∗ · · · · · ·0 0 0 0 0 0 0 0 0 0 ∗ · · · · ·0 0 0 0 0 0 0 0 0 0 0 ∗ · · · ·0 0 0 0 0 0 0 0 0 0 0 0 0 ∗ · ·0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 00 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

    lösbar

    ∗ · · · · · · · ·0 ∗ · · · · · · ·0 0 ∗ · · · · · ·0 0 0 ∗ · · · · ·0 0 0 0 ∗ · · · ·0 0 0 0 0 ∗ · · ·0 0 0 0 0 0 ∗ · ·0 0 0 0 0 0 0 ∗ ·0 0 0 0 0 0 0 0 00 0 0 0 0 0 0 0 0

    eindeutig lösbar

    Satz 1.5 Jede Matrix in M(m×n, R) läßt sich durch eine Folge von elementarenZeilenumformungen in eine Matrix mit Zeilen-Stufen-Form überführen.

  • 1 Lineare Gleichungssysteme 13

    Beweis Der Beweis besteht in der Angabe des Gaußschen Algorithmus, der diegesuchte Folge von elementaren Zeilenumformungen bestimmt. Der Hauptschrittdieses Algorithmus wird nun beschrieben.

    Sei A = (aij) ∈ M(m × n, R); für jedes j = 1, . . . , n bezeichne mit bj(A) diem× j reelle Matrix, die aus den ersten j Spalten von A besteht. Sei

    q′ =

    {

    max{j : bj(A) hat Zeilen-Stufen-Form} falls es ein solches j gibt ,0 sonst ,

    und definiere p′ ≥ 0 wie folgt:

    — p′ = 0, falls q′ = 0 oder q′ > 0 und bq′(A) = 0,

    — p′ sei der Index der letzten von Null verschiedenen Zeile von bq′(A), fallsq′ > 0 und bq′(A) 6= 0.

    Setze p = p′ + 1 und q = q′ + 1. Nehme jetzt an, dass A nicht Zeilen-Stufen-Form hat. Dann ist q ≤ n; ferner ist p ≤ m und es gibt mindestens ein i mitp ≤ i ≤ m und aiq 6= 0 (sonst hätte bq(A) Zeilen-Stufen-Form). Der Hauptschrittdes Gaußschen Algorithmus besteht in der Ausführung der folgenden elementarenZeilenumformungen:

    — Gegebenenfalls die Vertauschung der p-ten und der i-ten Zeilen für ein i mitp < i ≤ m, um ein von Null verschiedenes Element in die pq-te Stelle derMatrix zu bringen.

    — Für i = p + 1, . . . , m die Addition des geeigneten Vielfachen der p-ten Zeilezu der i-ten Zeile, um eine Null in die iq-te Stelle der Matrix zu bringen.

    Diese Folge von elementaren Umformungen überführt A in eine Matrix A′ mitfolgenden Eigenschaften:

    — Für i = 1, . . . , p′ ist die i-te Zeile von A′ gleich die i-te Zeile von A, d.h.,a′ij = aij für alle i = 1, . . . , p

    ′, j = 1, . . . , m.

    — bq′(A′) = bq′(A).

    — a′pq 6= 0.— a′iq = 0 für i = p + 1, . . . , m.

    Insbesondere hat dann bp(A′) Zeilen-Stufen-Form und damit ist die Matrix A′

    “näher” an der Zeilen-Stufen-Form als A.

    Nach höchstens n-maliger Wiederholung dieses Hauptschrittes wird jede Matrixin M(m× n, R) in eine Matrix mit Zeilen-Stufen-Form überführt.

    Seien m, n ≥ 1 und A = (aij) ∈ M(m× n, R), b = (b1, . . . , bm) ∈ Rm. Es ist klar,dass Lös(0, 0) = Rn; nehme also an, dass (A, b) 6= 0. Mit Hilfe des Gaußschen

  • 1 Lineare Gleichungssysteme 14

    Algorithmus kann die Matrix (A, b) in eine Matrix (A′, b′) mit Zeilen-Stufen-Formüberführt werden und nach Satz 1.3 gilt dann Lös(A, b) = Lös(A′, b′). Fernerist (A′, b′) 6= 0, da (A, b) 6= 0. Folglich kann Satz 1.4 verwendet werden, umfestzustellen, ob das zu A und b gehörige lineare Gleichungssystem lösbar bzw.eindeutig lösbar ist.

    Beispiel: Sei b = (1, 3, 9) und sei A die 3× 3 Matrix

    1 −2 2−1 3 1

    1 0 8

    .

    Dann gilt:

    (A, b) =

    1 −2 2 1−1 3 1 3

    1 0 8 9

    ⇓ (2. Zeile⇒ 2. Zeile + 1. Zeile)

    1 −2 2 10 1 3 41 0 8 9

    ⇓ (3. Zeile⇒ 3. Zeile− 1. Zeile)

    1 −2 2 10 1 3 40 2 6 8

    ⇓ (3. Zeile⇒ 3. Zeile− 2× 2. Zeile)

    1 −2 2 10 1 3 40 0 0 0

    = (A′, b′)

    wobei b′ = (1, 4, 0) und

    A′ =

    1 −2 20 1 30 0 0

    ,

    und es gilt Lös(A, b) = Lös(A′, b′). Das zu A′ und b′ gehörige Gleichungssystemist lösbar, aber nicht eindeutig lösbar. (Zum Beispiel sind (1, 1, 1) und (9, 4, 0)beide Lösungen.) Folglich ist das zu A und b gehörige Gleichungssystem ebenfallslösbar, aber nicht eindeutig lösbar.

  • 1 Lineare Gleichungssysteme 15

    Satz 1.6 Sei A ∈ M(m × n, R) mit m < n und sei b ∈ Rm. Dann ist das zu Aund b gehörige lineare Gleichungssystem nicht eindeutig lösbar. Insbesondere istdas zu A und 0 gehörige Gleichungssystem lösbar, aber nicht eindeutig lösbar.

    Beweis Da das zu 0 und 0 gehörige lineare Gleichungssystem nicht eindeutiglösbar ist, können wir annehmen, dass (A, b) 6= 0. Nun läßt sich die Matrix(A, b) nach Satz 1.5 durch eine Folge von elementaren Zeilenumformungen ineine Matrix (A′, b′) mit Zeilen-Stufen-Form überführen und nach Satz 1.3 istLös(A, b) = Lös(A′, b′). Ferner ist (A′, b′) 6= 0, da (A, b) 6= 0. Sei p1, . . . , pr dieTreppen-Folge von (A′, b′). Dann ist r ≤ m < n und insbesondere ist r 6= n.Nach Satz 1.4 ist also das zu A′ und b′ gehörige lineare Gleichungssystem nichteindeutig lösbar und daraus ergibt sich, dass das zu A und b gehörige lineareGleichungssystem ebenfalls nicht eindeutig lösbar ist.

  • 2 Untervektorräume

    Eine Teilmenge U von Rn heißt Untervektorraum von Rn, wenn gilt:

    (U1) 0 ∈ U ,(U2) u + v ∈ U für alle u, v ∈ U ,(U3) cu ∈ U für alle c ∈ R, u ∈ U .

    Lemma 2.1 (1) Sei U ein Untervektorraum von Rn. Dann gilt bu + cv ∈ U füralle u, v ∈ U und alle b, c ∈ R.(2) Sei U eine Teilmenge von Rn. Ist 0 ∈ U und gilt bu+cv ∈ U für alle u, v ∈ Uund alle b, c ∈ R, so ist U ein Untervektorraum von Rn.

    Beweis (1) Seien u, v ∈ U und alle b, c ∈ R. Nach (U3) gilt bu ∈ U , cv ∈ U undalso ist nach (U2) bu + cv ∈ U .(2) Seien u, v ∈ U ; da w = 1w für alle w ∈ Rn, ist dann u + v = 1u + 1v ∈ U .Ferner ist cu = cu + 0 = cu + 0u ∈ U für alle u ∈ U , c ∈ R. Dies zeigt, dass Uein Untervektorraum von Rn ist.

    Lemma 2.2 Sei U ein Untervektorraum von Rn und seien u1, . . . , um Elementevon U (mit m ≥ 1). Für alle c1, . . . , cm ∈ R ist dann c1u1 + · · ·+ cmum wiederein Element von U .

    Beweis Es wird durch Induktion nach ℓ gezeigt, dass c1u1+ · · ·+cℓuℓ ein Elementvon U ist für jedes ℓ = 1, . . . , m. Nach (U2) ist c1u1 ein Element von U . Sei nunℓ mit 1 ≤ ℓ < m und nehme an, dass c1u1 + · · · + cℓuℓ ein Element von U ist.Nach (U2) ist cℓ+1uℓ+1 ein Element von U , und daraus folgt nach (U1), dass

    c1u1 + · · ·+ cℓ+1uℓ+1 = (c1u1 + · · ·+ cℓuℓ) + cℓ+1uℓ+1

    auch ein Element von U ist. Damit ist c1u1 + · · · + cℓuℓ ein Element von U fürjedes ℓ = 1, . . . , m. Insbesondere ist c1u1 + · · ·+ cmum ein Element von U .

    Satz 2.1 Sei A = (aij) ∈ M(m× n, R); dann ist Lös(A, 0) ein Untervektorraumvon Rn. (Die Lösungsmenge eines homogenen linearen Gleichungssytems für nUnbekannte ist ein Untervektorraum von Rn.)

    16

  • 2 Untervektorräume 17

    Beweis Seien v1, . . . , vn ∈ Rm die Spalten von A. Nach Satz 2.1 gilt also, dass(y1, . . . , yn) ∈ Lös(A, 0) genau dann, wenn y1v1 + · · ·+ ynvn = 0.(U1): Da 0v1 + · · ·+ 0vn = 0, ist 0 = (0, . . . , 0) ∈ Lös(A, 0).(U2): Seien u = (y1, . . . , yn), u

    ′ = (y′1, . . . , y′n) ∈ Lös(A, 0); dann ist

    (y1 + y′1)v1 + · · ·+ (yn + y′n)vn

    = (y1v1 + · · ·+ ynvn) + (y′1v1 + · · ·+ y′nvn) = 0 + 0 = 0

    und damit ist u + u′ = (y1 + y′1, . . . , yn + y

    ′n) ∈ Lös(A, 0).

    (U3): Seien u = (y1, . . . , yn) ∈ Lös(A, 0), y ∈ R; dann gilt

    (yy1)v1 + · · ·+ (yyn)vn = y(y1v1 + · · ·+ ynvn) = y0 = 0 .

    Folglich ist auch yu = (yy1, . . . , yyn) ∈ Lös(A, 0).

    Seien v1, . . . , vm ∈ Rn (mit m ≥ 1). Ein Vektor v ∈ Rn heißt Linearkombinationvon v1, . . . , vm, wenn es c1, . . . , cm ∈ R gibt, so dass

    v = c1v1 + · · ·+ cmvm .

    Die Menge aller Linearkombinationen von v1, . . . , vm nennt man die lineare Hüllevon v1, . . . , vm; sie wird mit L(v1, . . . , vm) bezeichnet.

    Wichtiges Beispiel: Für j = 1, . . . , n sei

    ej = (0, . . . , 0, 1, 0, . . . , 0)

    mit der Eins in der j-ten Komponente. Dann gilt

    c1e1 + · · ·+ cnen = (c1, . . . , cn)

    für alle c1, . . . , cn ∈ R und daraus ergibt sich, dass L(e1, . . . , en) = Rn.Seien nun v1, . . . , vm ∈ Rn (mit m ≥ 1).

    Satz 2.2 L(v1, . . . , vm) ist ein Untervektorraum von Rn mit vj ∈ L(v1, . . . , vm)

    für jedes j = 1, . . . , m.

    Beweis Nach Lemma 2.2 ist 0 = 0v1 + · · · + 0vm ∈ L(v1, . . . , vm). Seien nunu, v ∈ L(v1, . . . , vm); dann gibt es Elemente c1, . . . , cm, d1, . . . , dm ∈ R, so dassu = c1v1 + · · ·+ cmvm und v = d1v1 + · · ·+ dmvm. Folglich gilt

    u + v = c1v1 + · · ·+ cmvm + d1v1 + · · ·+ dmvm = (c1 + d1)v1 + · · ·+(cm + dm)vm ,

  • 2 Untervektorräume 18

    und damit ist u + v ∈ L(v1, . . . , vm). Für jedes c ∈ R gilt ferner

    cu = c(c1v1 + · · ·+ cmvm) = (cc1)v1 + · · ·+ (ccm)vm ,

    und folglich ist auch cu ∈ L(v1, . . . , vm). Dies zeigt also, dass L(v1, . . . , vm) einUntervektorraum von Rn ist.

    Sei nun j mit 1 ≤ j ≤ m und definiere c1, . . . , cm ∈ R durch

    ci =

    {

    1 falls i = j ,0 falls i 6= j .

    Dann ist vj = 0 + · · ·+ 0 + 1vj + 0 + · · ·+ 0 = c1v1 + · · ·+ cmvm, und damit istvj ∈ L(v1, . . . , vm).

    Satz 2.3 Sei U ein Untervektorraum von Rn mit vj ∈ U für jedes j. Dann giltL(v1, . . . , vm) ⊂ U . Damit ist L(v1, . . . , vm) der kleinste Untervektorraum von Rn,der die Elemente v1, . . . , vm enthält.

    Beweis Sei v ∈ L(v1, . . . , vm); dann gibt es Elemente c1, . . . , cm ∈ R, so dassv = c1v1 + · · ·+ cmvm und nach Lemma 2.2 ist c1v1 + · · ·+ cmvm ein Element vonU , d.h., v ∈ U . Folglich ist L(v1, . . . , vm) ⊂ U .

    In den folgenden Lemmas sei m ≥ 1 und seien v1, . . . , vm ∈ Rn.

    Lemma 2.3 Es gilt L(v1, . . . , vm) = {0} genau dann, wenn vj = 0 für jedesj = 1, . . . , m.

    Beweis Nach Satz 2.2 enthält L(v1, . . . , vm) die Elemente v1, . . . , vm und folglichist L(v1, . . . , vm) 6= {0}, wenn vj 6= 0 für ein j. Ist andererseits vj = 0 für jedesj = 1, . . . , m, dann gilt c1v1 + · · ·+ cmvm = 0 für alle c1, . . . , cm ∈ R und damitist L(v1, . . . , vm) = {0}.

    Lemma 2.4 Seien c1, . . . , cm ∈ R mit cj 6= 0 für jedes j = 1, . . . , m. Dann giltL(c1v1, . . . , cmvm) = L(v1, . . . , vm).

    Beweis Nach Satz 2.2 ist cjvj ∈ L(v1, . . . , vm) für jedes j = 1, . . . , m und darausfolgt nach Satz 2.3, dass L(c1v1, . . . , cmvm) ⊂ L(v1, . . . , vm). Umgekehrt ist

    vj = 1vj = (c−1j cj)vj = c

    −1j (cjvj) ∈ L(c1v1, . . . , cmvm)

    für jedes j und damit ist auch L(v1, . . . , vm) ⊂ L(c1v1, . . . , cmvm).

  • 2 Untervektorräume 19

    Lemma 2.5 Für jede Permutation {i1, . . . , im} von {1, . . . , m} gilt

    L(vi1, . . . , vim) = L(v1, . . . , vm) .

    Beweis Nach Satz 2.2 ist vij ∈ L(v1, . . . , vm) für jedes j = 1, . . . , m und darausfolgt nach Satz 2.3, dass L(vi1 , . . . , vim) ⊂ L(v1, . . . , vm). Genauso gilt dann auchL(v1, . . . , vm) ⊂ L(vi1 , . . . , vim).

    Lemma 2.6 Sei u ∈ Rn. Dann gilt L(v1, . . . , vm) ⊂ L(v1, . . . , vm, u). Ferner giltL(v1, . . . , vm) = L(v1, . . . , vm, u) genau dann, wenn u ∈ L(v1, . . . , vm).

    Beweis Nach Satz 2.2 ist vj ∈ L(v1, . . . , vm, u) für jedes j und daraus ergibt sichnach Satz 2.3, dass L(v1, . . . , vm) ⊂ L(v1, . . . , vm, u).Gilt L(v1, . . . , vm) = L(v1, . . . , vm, u), so ist u ∈ L(v1, . . . , vm), da nach Satz 2.2u in L(v1, . . . , vm, u) liegt. Ist umgekehrt u ∈ L(v1, . . . , vm), so ist nach Satz 2.3L(v1, . . . , vm, u) ⊂ L(v1, . . . , vm) und damit L(v1, . . . , vm) = L(v1, . . . , vm, u), danach Satz 2.2 vj ∈ L(v1, . . . , vm) für jedes j.

    Lemma 2.7 Seien u, w ∈ Rn. Es gilt u ∈ L(v1, . . . , vm, w) \L(v1, . . . , vm) genaudann, wenn w ∈ L(v1, . . . , vm, u) \ L(v1, . . . , vm).

    Beweis Nehme zunächst an, dass w ∈ L(v1, . . . , vm, u) \ L(v1, . . . , vm). Dann istinsbesondere L(v1, . . . , vm, u) 6= L(v1, . . . , vm) und daraus folgt nach Lemma 2.6,dass u /∈ L(v1, . . . , vm). Da w ∈ L(v1, . . . , vm, u), gibt es c1, . . . , cm+1 ∈ R, sodass w = c1v1 + · · · + cmvm + cm+1u. Ferner ist cm+1 6= 0, sonst würde w inL(v1, . . . , vm) liegen. Damit ist

    u = d1v1 + · · ·+ dmvm + dm+1w ,

    wobei dj = (−1)c−1m+1cj für j = 1, . . . , m und dm+1 = c−1m+1. Dies zeigt also, dassu ∈ L(v1, . . . , vm, w) \ L(v1, . . . , vm).Der Beweis für die Umkehrung ist identisch, die Rollen von u und w müssenlediglich getauscht werden.

    Satz 2.4 Seien v1, . . . , vm ∈ Rn und sei A ∈ M(n × m, R) die Matrix, in derdie Vektoren v1, . . . , vm als Spalten vorkommen. (Man beachte: A ist eine n×mund nicht eine m × n Matrix.) Für v ∈ Rn gilt v ∈ L(v1, . . . , vm) genau dann,wenn das zu A und v gehörige lineare Gleichungssystem lösbar ist. Mit anderenWorten: L(v1, . . . , vm) besteht aus genau denen Vektoren v ∈ Rn, für die das zuA und v gehörige lineare Gleichungssystem lösbar ist.

  • 2 Untervektorräume 20

    Beweis Nehme zunächst an, dass das zu A und v gehörige lineare Gleichungs-system lösbar ist. Es gibt also u = (c1, . . . , cm) ∈ Lös(A, v) und nach Satz 2.1 istv = c1v1 + · · · + cmvm, d.h. v ∈ L(v1, . . . , vm). Nehme nun umgekehrt an, dassv ∈ L(v1, . . . , vm). Dann gibt es c1, . . . , cm ∈ R, so dass v = c1v1 + · · · + cmvmund folglich ist nach Satz 2.1 (c1, . . . , cm) ∈ Lös(A, v); insbesondere ist das zu Aund v gehörige lineare Gleichungssystem lösbar.

    Seien v1, . . . , vm ∈ Rn (mit m ≥ 1). Die Vektoren v1, . . . , vm heißen linearabhängig, wenn es c1, . . . , cm ∈ R mit cj 6= 0 für mindestens ein j gibt, so dass

    c1v1 + · · ·+ cmvm = 0 .

    Die Vektoren v1, . . . , vm sind linear unabhängig, wenn sie nicht linear abhängigsind. Mit anderen Worten sind die Vektoren v1, . . . , vm linear unabhängig genaudann, wenn aus c1v1 + · · · + cmvm = 0 stets folgt, dass c1 = · · · = cm = 0, d.h.,wenn eine Linearkombination von v1, . . . , vm nur dann Null sein kann, wenn alle“Koeffizienten” verschwinden.

    Wichtiges Beispiel: Für j = 1, . . . , n sei wieder

    ej = (0, . . . , 0, 1, 0, . . . , 0)

    mit der Eins in der j-ten Komponenten. Dann sind e1, . . . , en linear unabhängig:Sind c1, . . . , cn ∈ R mit c1e1 + · · ·+ cnen = 0, so ist (c1, . . . , cn) = 0, d.h., cj = 0für jedes j = 1, . . . , n, da c1e1 + · · ·+ cnen = (c1, . . . , cn).In den folgenden Lemmas sei m ≥ 1 und seien v1, . . . , vm ∈ Rn.

    Lemma 2.8 Sind v1, . . . , vm linear unabhängig, so ist vj 6= 0 für jedes j undferner ist vj 6= vk, falls j 6= k.

    Beweis Nehme an, dass vj = 0 für ein j, und definiere c1, . . . , cm ∈ R durch

    ci =

    {

    1 falls i = j ,0 falls i 6= j .

    Dann ist ci 6= 0 für mindestens ein i und nach Lemma 2.2 ist

    c1v1 + · · ·+ cmvm = 0v1 + · · ·+ 0vj−1 + 1vj + 0vj+1 + · · ·+ 0vm= 0 + · · ·+ 0 + 1vj + 0 + · · ·+ 0 = 1vj = vj = 0 .

    Damit wären v1, . . . , vm linear abhängig. Folglich ist vj 6= 0 für jedes j.Nehme nun an, dass es j, k mit j 6= k und vj = vk gibt, und definiere diesmal

    ci =

    −1 falls i = j ,1 falls i = k ,0 sonst .

  • 2 Untervektorräume 21

    Dann ist ci 6= 0 für mindestens ein i und nach Lemma 2.1 und Lemma 2.2 ist

    c1v1 + · · ·+ cmvm = (−1)vj + 1vk = (−vj) + vj = 0 ,

    und wieder wären v1, . . . , vm linear abhängig. Folglich ist vj 6= vk, falls j 6= k.

    Lemma 2.9 Seien c1, . . . , cm ∈ R mit cj 6= 0 für jedes j = 1, . . . , m. DieVektoren c1v1, . . . , cmvm sind genau dann linear unabhängig, wenn v1, . . . , vmlinear unabhängig sind.

    Beweis Es wird gezeigt, dass v1, . . . , vm genau dann linear abhängig sind, wennc1v1, . . . , cmvm linear abhängig sind. Nehme zunächst an, dass c1v1, . . . , cmvmlinear abhängig sind. Dann gibt es d1, . . . , dm ∈ R mit dj 6= 0 für mindestens einj, so dass d1(c1v1) + · · ·+ dm(cmvm) = 0. Für j = 1, . . . , m sei d′j = djcj; dannist d′j 6= 0 für mindestens ein j, da d′j = 0 genau dann, wenn dj = 0, und

    d′1v1 + · · ·+ d′mvm = (d1c1)v1 + · · ·+ (dmcm)vm = d1(c1v1) + · · ·+ dm(cmvm) = 0 .

    Damit sind v1, . . . , vm linear abhängig.

    Nehme nun umgekehrt an, dass v1, . . . , vm linear abhängig sind. Dann gibt esd1, . . . , dm ∈ R mit dj 6= 0 für mindestens ein j, so dass d1v1 + · · ·+ dmvm = 0.Für j = 1, . . . , m sei d′j = djc

    −1j ; dann ist d

    ′j 6= 0 für mindestens ein j, da d′j = 0

    genau dann, wenn dj = 0. Ferner gilt d′jcj = djc

    −1j cj = dj1 = dj für jedes j und

    daraus ergibt sich, dass

    d′1(c1v1) + · · ·+ d′m(cmvm) = (d′1c1)v1 + · · ·+ (d′mcm)vm= d1(c1v1) + · · ·+ dm(cmvm) = 0 .

    Folglich sind c1v1, . . . , cmvm linear abhängig.

    Lemma 2.10 Seien i1, . . . , in (mit n ≥ 1) paarweise verschiedene Elemente ausder Menge {1, 2, . . . , m}. (Es gilt also n ≤ m, 1 ≤ ij ≤ m für j = 1, . . . , n undij 6= ik, falls j 6= k.) Sind v1, . . . , vm linear unabhängig, so sind auch vi1, . . . , vinlinear unabhängig.

    Beweis Nehme an, dass vi1 , . . . , vin linear abhängig sind. Es gibt also Elementeci1 , . . . , cin ∈ R mit cij 6= 0 für mindestens ein j, so dass ci1vi1 + · · ·+ cinvin = 0.Definiere d1, . . . , dm ∈ R durch

    dk =

    {

    cij falls k = ij für ein j = 1, . . . , n ,0 sonst .

  • 2 Untervektorräume 22

    Dann ist dk 6= 0 für mindestens ein k und nach Lemma 2.2 ist

    d1v1 + · · ·+ dmvm = ci1vi1 + · · ·+ cinvin = 0 .

    Aber dies ist nicht möglich, da dann v1, . . . , vm linear abhängig wären. Also sindvi1 , . . . , vin linear unabhängig.

    Seien v1, . . . , vm linear unabhängig. Dann gibt es folgende spezielle Fälle vonLemma 2.10:

    — Für jedes n = 1, . . . , m sind v1, . . . , vn linear unabhängig.

    — Ist m ≥ 2, so sind v1, . . . , vj−1, vj+1, . . . , vm linear unabhängig für jedesj = 1, . . . , m.

    — Für jede Permutation {i1, . . . , im} von {1, . . . , m} sind vi1 , . . . , vim linearunabhängig.

    Satz 2.5 (1) Sei v ∈ Rn; dann ist v linear unabhängig genau, wenn v 6= 0.(2) Seien v1, . . . , vm ∈ Rn mit m ≥ 2. Dann sind v1, . . . , vm linear unabhängiggenau, wenn vk /∈ L(v1, . . . , vk−1, vk+1, . . . , vm) für jedes k = 1, . . . , m.

    Beweis (1) Ist c ∈ R mit c 6= 0, so ist cv = 0 genau dann, wenn v = 0. Folglichist v linear abhängig genau dann, wenn v = 0, d.h., v ist linear unabhängig genaudann, wenn v 6= 0,(2) Es wird gezeigt, dass vk ∈ L(v1, . . . , vk−1, vk+1, . . . , vm) für ein k genau danngilt, wenn v1, . . . , vm linear abhängig sind.

    Nehme zunächst an, dass vk ∈ L(v1, . . . , vk−1, vk+1, . . . , vm) für ein k. Dann gibtes c1, . . . , ck−1, ck+1, . . . , cm ∈ R, so dass

    vk = c1v1 + · · ·+ ck−1vk−1 + ck+1vk+1 + · · ·+ cmvm .

    Setze ck = −1; dann ist ck 6= 0 und

    c1v1 + · · ·+ cmvm = c1v1 + · · ·+ ck−1vk−1 + (−1)vk + ck+1vk+1 + · · ·+ cmvm= (−1)vk + c1v1 + · · ·+ ck−1vk−1 + ck+1vk+1 + · · ·+ cmvm= (−1)vk + vk = (−vk) + vk = 0 ,

    (da −v = (−1)v für jedes v ∈ Rn). Damit sind v1, . . . , vm linear abhängig.Nehme nun umgekehrt an, dass v1, . . . , vm linear abhängig sind. Dann gibt esc1, . . . , cm ∈ R mit cj 6= 0 für mindestens ein j, so dass c1v1 + · · · + cmvm = 0.

  • 2 Untervektorräume 23

    Wähle k mit ck 6= 0 und für jedes j mit j 6= k sei dj = bcj , wobei b = −c−1k . Dannist bck = −(c−1k ck) = −1 und

    vk = 0 + vk = b0 + vk = b(c1v1 + · · ·+ cmvm) + vk= (bc1)v1 + · · ·+ (bcm)vm + vk= d1v1 + · · ·+ dk−1vk−1 + dk+1vk+1 + · · ·+ dmvm + (bck)vk + vk= d1v1 + · · ·+ dk−1vk−1 + dk+1vk+1 + · · ·+ dmvm + (−1)vk + vk= d1v1 + · · ·+ dk−1vk−1 + dk+1vk+1 + · · ·+ dmvm

    und damit ist vk ∈ L(v1, . . . , vk−1, vk+1, . . . , vm).

    Lemma 2.11 Seien v1, . . . , vm ∈ Rn linear unabhängig und sei u ∈ Rn. Dannsind v1, . . . , vm, u linear unabhängig genau, wenn u /∈ L(v1, . . . , vm).

    Beweis Sind v1, . . . , vm, u linear unabhängig, dann gilt nach Satz 2.5 (2), dassinsbesondere u /∈ L(v1, . . . , vm). Es bleibt also zu zeigen, dass u ∈ L(v1, . . . , vm),wenn v1, . . . , vm, u linear abhängig sind.

    Sind die Vektoren v1, . . . , vm, u linear abhängig, dann gibt es c1, . . . , cm+1 ∈ Rmit cj 6= 0 für mindestens ein j, so dass c1v1 + · · ·+ cmvm + cm+1u = 0. Nehmean, dass cm+1 = 0; dann ist cj 6= 0 für mindestens ein j mit 1 ≤ j ≤ m undc1v1 + · · · + cmvm = 0. Dies steht aber im Widerspruch zu der Annahme, dassv1, . . . , vm linear unabhängig sind, und daraus ergibt sich, dass cm+1 6= 0. Fürj = 1, . . . , m setze dj = bcj , wobei b = −c−1m+1. Dann ist bcm+1 = −1 und

    u = 0 + u = b0 + u = b(c1v1 + · · ·+ cmvm + cm+1u) + u= (bc1)v1 + · · ·+ (bcm)vm + (bcm+1)u + u= d1v1 + · · ·+ dmvm + (−1)u + u= d1v1 + · · ·+ dmvm + 0 = d1v1 + · · ·+ dmvm ;

    d.h., u ∈ L(v1, . . . , vm).

    Lemma 2.12 Die Vektoren v1, . . . , vm sind linear unabhängig genau dann, wennv1 6= 0 und vn /∈ L(v1, . . . , vn−1) für jedes n = 2, . . . , m.

    Beweis Sind v1, . . . , vm linear unabhängig, dann ist nach Lemma 2.8 v1 6= 0 undnach Satz 2.5 (2) gilt vn /∈ L(v1, . . . , vn−1) für jedes n = 2, . . . , m. Nehme nunumgekehrt an, dass die Vektoren v1, . . . , vm linear abhängig sind. Dann gibt esc1, . . . , cm ∈ R mit cj 6= 0 für mindestens ein j, so dass c1v1 + · · · + cmvm = 0.Sei n = max{1 ≤ j ≤ m : cj 6= 0}; also ist cn 6= 0 und c1v1 + · · ·+ cnvn = 0. Fallsn = 1, so ist c1 6= 0 und c1v1 = 0, und damit ist v1 = 0. Wenn aber n ≥ 2, so istvn = d1v1 + · · ·+ dn−1vn−1, wobei dj = (−1)c−1n cj für j = 1, . . . , n− 1, und hierist vn ∈ L(v1, . . . , vn−1). Daraus ergibt sich, dass v1, . . . , vm linear unabhängigsein müssen, wenn v1 6= 0 und vn /∈ L(v1, . . . , vn−1) für jedes n = 2, . . . , m.

  • 2 Untervektorräume 24

    Satz 2.6 Seien v1, . . . , vm ∈ Rn und sei A ∈ M(n × m, R) die Matrix, in derdie Vektoren v1, . . . , vm als Spalten vorkommen. (Man beachte: A ist eine n×mund nicht eine m × n Matrix.) Die Vektoren v1, . . . , vm sind linear unabhängiggenau dann, wenn das zu A und 0 gehörige lineare Gleichungssystem eindeutiglösbar ist (d.h., genau dann, wenn Lös(A, 0) = {0}).

    Beweis Genau wie im Beweis für Satz 2.4 gilt c1v1 + · · ·+ cnvn = 0 genau dann,wenn (c1, . . . , cn) ∈ Lös(A, 0). Damit sind v1, . . . , vn linear unabhängig genaudann, wenn Lös(A, v) = {0}.

    Satz 2.7 Sind die Vektoren v1, . . . , vm ∈ Rn linear unabhängig, so ist m ≤ n.

    Beweis Seien v1, . . . , vm ∈ Rn linear unabhängig und sei A ∈ M(n ×m, R) dieMatrix, in der die Vektoren v1, . . . , vm als Spalten vorkommen. Nach Satz 2.6ist also das zu A und 0 gehörige lineare Gleichungssystem eindeutig lösbar unddaraus ergibt sich nach Satz 2.6, dass m ≤ n.

  • 3 Basen

    Sei U ein Untervektorraum von Rn und seien v1, . . . , vm ∈ Rn (mit m ≥ 1). Dasm-Tupel (v1, . . . , vm) heißt dann Basis von U , wenn gilt:

    (B1) Die Vektoren v1, . . . , vm sind linear unabhängig,

    (B2) L(v1, . . . , vm) = U .

    Sei (v1, . . . , vm) eine Basis eines Untervektorraumes U von Rn. Nach Lemma 2.8

    ist dann vj 6= 0 für jedes j, und daraus folgt nach Satz 2.2, dass U 6= {0}.Der triviale Untervektorraum {0} von Rn kann also im obigen Sinn keine Basisbesitzen. Es erweist sich aber als nützlich, die leere Menge ∅ als Basis von {0}anzusehen.

    Wichtiges Beispiel: Für j = 1, . . . , n sei wieder

    ej = (0, . . . , 0, 1, 0, . . . , 0)

    mit der Eins in der j-ten Komponenten. Dann sind e1, . . . , en linear unabhängigund es gilt auch L(e1, . . . , en) = R

    n. Damit ist (e1, . . . , en) eine Basis von Rn. Sie

    wird die kanonische Basis von Rn genannt.

    Satz 3.1 Jeder Untervektorraum U von Rn besitzt eine Basis.

    Beweis Da {0} die Basis ∅ besitzt, können wir annehmen, dass U 6= {0}.Da U 6= {0}, gibt es u1 ∈ U mit u1 6= 0 und nach Satz 2.5 (1) ist u1 linearunabhängig. Gilt U = L(u1), dann ist (u1) schon eine Basis von U .

    Ist dagegen U 6= L(u1), so gibt es u2 ∈ U \L(u1) und nach Lemma 2.11 sind dannu1, u2 linear unabhängig. Gilt U = L(u1, u2), dann ist (u1, u2) eine Basis von U .

    Ist dagegen U 6= L(u1, u2), so gibt es u3 ∈ U \L(u1, u2) und nach Lemma 2.11 sinddann u1, u2, u3 linear unabhängig. Gilt U = L(u1, u2, u3), dann ist (u1, u2, u3) eineBasis von U .

    Ist dagegen U 6= L(u1, u2, u3), so gibt es u4 ∈ U \ L(u1, u2, u3) und . . . .Entweder hört dieses Verfahren auf, indem U = L(v1, . . . , vm) für ein m ≥ 1, unddamit ist (v1, . . . , vm) eine Basis von U , oder das Verfahren hört nie auf, undin diesem Fall ist {vk}k≥1 eine Folge von Elementen aus U mit der Eigenschaft,dass für jedes m ≥ 1 die Vektoren v1, . . . , vm linear unabhängig sind. Aber nachSatz 2.7 sind die Vektoren v1, . . . , vn+1 linear abhängig und daraus ergibt sich,dass (v1, . . . , vm) eine Basis von U ist für ein m ≤ n.

    25

  • 3 Basen 26

    Lemma 3.1 Sei U 6= {0} ein Untervektorraum von Rn und sei (v1, . . . , vm) eineBasis von U .

    (1) Seien c1, . . . , cm ∈ R mit cj 6= 0 für jedes j; dann ist (c1v1, . . . , cmvm) aucheine Basis von U .

    (2) Sei {i1, . . . , im} eine Permutation von {1, . . . , m}; dann ist (vi1 , . . . , vim) aucheine Basis von U .

    Beweis (1) Nach Lemma 2.4 ist L(c1v1, . . . , cmvm) = U und nach Lemma 2.9sind c1v1, . . . , cmvm linear unabhängig. Damit ist (c1v1, . . . , cmvm) eine Basis vonU .

    (2) Nach Lemma 2.10 sind vi1 , . . . , vim linear unabhängig und nach Lemma 2.5ist L(vi1 , . . . , vim) = U . Damit ist (vi1 , . . . , vim) eine Basis von U .

    Satz 3.2 Seien (v1, . . . , vp), (w1, . . . , wq) zwei Basen eines Untervektorraumes Uvon Rn mit U 6= {0}. Dann ist p = q.

    Beweis Für den Beweis wird folgendes Austauschlemma gebraucht:

    Lemma 3.2 Sei U 6= {0} ein Untervektorraum von Rn und seien (v1, . . . , vp),(w1, . . . , wq) zwei Basen von U mit p ≥ 2 und q ≥ 1. Dann gibt es zu jedemj = 1, . . . , p ein k mit 1 ≤ k ≤ q, so dass (v1, . . . , vj−1, vj+1, . . . , vp, wk) wiedereine Basis von U ist.

    Beweis Sei j mit 1 ≤ j ≤ p fest. Nehme an, wk ∈ L(v1, . . . , vj−1, vj+1, . . . , vp) fürjedes k = 1, . . . , q. Dann gilt nach (B2) und Satz 2.2, dass

    U = L(w1, . . . , wq) ⊂ L(v1, . . . , vj−1, vj+1, . . . , vp) ,

    und nach Satz 2.1 ist vj ∈ U ; d.h., vj ∈ L(v1, . . . , vj−1, vj+1, . . . , vp). Dies stehtaber im Widerspruch zu Satz 2.5 (2), da v1, . . . , vp linear unabhängig sind. Damitgibt es ein k mit 1 ≤ k ≤ q, so dass wk /∈ L(v1, . . . , vj−1, vj+1, . . . , vp). Es wirdnun gezeigt, dass {v1, . . . , vj−1, vj+1, . . . , vp, wk} eine Basis von U ist.Nach Lemma 2.10 sind v1, . . . , vj−1, vj+1, . . . , vp linear unabhängig, und folglichsind nach Lemma 2.11 v1, . . . , vj−1, vj+1, . . . , vp, wk auch linear unabhängig.

    Es bleibt zu zeigen, dass L(v1, . . . , vj−1, vj+1, . . . , vp, wk) = U . Nach (B2), Satz 2.1und Lemma 2.5 ist

    wk ∈ U = L(v1, . . . , vp) = L(v1, . . . , vj−1, vj+1, . . . , vp, vj) .

  • 3 Basen 27

    Aber wk /∈ L(v1, . . . , vj−1, vj+1, . . . , vp), d.h.,

    wk ∈ L(v1, . . . , vj−1, vj+1, . . . , vp, vj) \ L(v1, . . . , vj−1, vj+1, . . . , vp) ,

    und daraus folgt nach Lemma 2.7, dass vj ∈ L(v1, . . . , vj−1, vj+1, . . . , vp, wk). NachSatz 2.2 ist also U = L(v1, . . . , vp) ⊂ L(v1, . . . , vj−1, vj+1, . . . , vp, wk); und daherist U = L(v1, . . . , vj−1, vj+1, . . . , vp, wk).

    Nun zum Beweis für Satz 3.2, und ohne Beschränkung der Allgemeinheit kannman annehmen, dass p ≥ q ≥ 1. Ist p = 1, dann ist p = q trivial richtig; es kannalso weiter angenommen werden, dass p ≥ 2. Nun wird Lemma 3.2 wiederholtangewendet.

    Zuerst gibt es nach Lemma 3.2 ein k1 mit 1 ≤ k1 ≤ q, so dass (v2, . . . , vp, wk1) eineBasis von U ist. Nun sind (v2, . . . , vp, wk1) und (w1, . . . , wq) Basen von U ; also gibtes nach Lemma 3.2 ein k2 mit 1 ≤ k2 ≤ q, so dass (v3, . . . , vp, wk1, wk2) eine Basisvon U ist. Nach p-maliger Anwendung dieses Verfahrens erhält man eine Basis(wk1, . . . , wkp) von U . Insbesondere sind dann wk1 , . . . , wkp linear unabhängigund daraus folgt nach Lemma 2.8, dass wki 6= wkj und damit ki 6= kj , falls i 6= j.Da aber 1 ≤ kj ≤ q für jedes j = 1, . . . , p, ist dies nur möglich, wenn p = q.

    Sei U 6= {0} ein Untervektorraum von Rn; nach Satz 3.1 besitzt U eine Basisund nach Satz 3.2 gibt es ein m ≥ 1, so dass jede Basis von U aus genau mElementen besteht. Diese Zahl m wird die Dimension von U gennant und wirdmit dim U abgekürzt. Per Definition wird der Untervektorraum {0} die Dimension0 zugeordnet (dim{0} = 0).Insbesondere ist dim Rn = n, da (e1, . . . , en) eine Basis von R

    n ist.

    Satz 3.3 (Basisergänzungssatz) Seien U, V Untervektorräume von Rn mit{0} 6= U ⊂ V ; sei (u1, . . . , um) eine Basis von U . Dann gibt es k ≥ 0 undv1, . . . , vk ∈ V , so dass (u1, . . . , um, v1, . . . , vk) eine Basis von V ist.

    Beweis Dies ist sehr ähnlich zum Beweis für Satz 3.1. Da (u1, . . . , um) eine Basisvon U ist, ist U = L(u1, . . . , um) und insbesondere ist L(u1, . . . , um) ⊂ V .Gilt V = L(u1, . . . , um), dann ist (u1, . . . , um) schon eine Basis von V (und hierist k = 0).

    Ist dagegen V 6= L(u1, . . . , um), so gibt es ein v1 ∈ V \ L(u1, . . . , um) und nachLemma 2.11 sind u1, . . . , um, v1 linear unabhängig. Gilt V = L(u1, . . . , um, v1),dann ist (u1, . . . , um, v1) eine Basis von V .

    Ist dagegen V 6= L(u1, . . . , um, v1), so gibt es ein v2 ∈ V \ L(u1, . . . , um, v1) undnach Lemma 2.11 sind die Vektoren u1, . . . , um, v1, v2 linear unabhängig. GiltV = L(u1, . . . , um, v1, v2), dann ist (u1, . . . , um, v1, v2) eine Basis von V .

  • 3 Basen 28

    Ist dagegen V 6= L(u1, . . . , um, v1, v2), so gibt es ein v3 ∈ V \ L(u1, . . . , um, v1, v2)und . . . .

    Entweder hört dieses Verfahren auf, indem V = L(v1, . . . , vm, v1, . . . , vk) für eink ≥ 0, und damit ist (v1, . . . , vm, v1, . . . , vk) eine Basis von V , oder das Verfahrenhört nie auf, und in diesem Fall ist {vj}j≥1 eine Folge von Elementen aus V mitder Eigenschaft, dass für jedes j ≥ 1 die Vektoren u1, . . . , um, v1, . . . , vj linearunabhängig sind. Aber nach Satz 2.7 sind u1, . . . , um, v1, . . . , vj linear abhängig,falls m + j > n und daraus ergibt sich, dass (u1, . . . , um, v1, . . . , vk) eine Basisvon V ist für ein k ≥ 0 mit m + k ≤ n.

    Satz 3.4 Seien U und V Untervektorräume von Rn mit U ⊂ V . Dann giltdim U ≤ dim V und es gilt dim U = dim V genau dann, wenn U = V .

    Beweis Dies ist trivial richtig, wenn U = {0}, und also können wir annehmen,dass U 6= {0}. Sei (u1, . . . , um) eine Basis von U ; dann gibt es nach Satz 3.3 k ≥ 0und v1, . . . , vk ∈ V , so dass (u1, . . . , um, v1, . . . , vk) eine Basis von V ist. Damitist dim U = m ≤ m + k = dim V . Ist ferner dim U = dim V , so ist k = 0 und indiesem Fall gilt U = L(u1, . . . , um) = V . Ist umgekehrt U = V , so ist natürlichdim U = dim V .

    Nach Satz 3.4 gilt insbesondere, dass dim U ≤ n für jeden Untervektorraum Uvon Rn.

    Satz 3.5 Sei U 6= {0} ein Untervektorraum von Rn und sei (u1, . . . , um) eineBasis von U . Dann gibt es zu jedem u ∈ U genau ein (c1, . . . , cm) ∈ Rm, so dass

    u = c1u1 + · · ·+ cmum .

    Beweis Sei u ∈ U ; da U = L(u1, . . . , um), gibt es mindestens ein m-Tupel(c1, . . . , cm) ∈ Rm, so dass u = c1u1 + · · · + cmum. Nehme also an, dass auchu = d1u1 + · · ·+ dmum für ein (d1, . . . , dm) ∈ Rm. Dann ist

    (d1 − c1)u1 + · · ·+ (dm − cm)um= (d1u1 + · · ·+ dmum)− (c1u1 + · · ·+ cmum)= u− u = 0 ,

    und daraus folgt, dass dj − cj = 0 für jedes j = 1, . . . , m, da u1, . . . , um linearunabhängig sind. Damit ist cj = dj für jedes j = 1, . . . , m.

    Für Untervektorräume U, V von Rn bezeichne mit U+V die Menge aller Vektorenin Rn, die eine Darstellung der Form u + v haben mit u ∈ U und v ∈ V .

  • 3 Basen 29

    Lemma 3.3 Für alle Untervektorräume U, V von Rn sind U + V und U ∩ Vauch Untervektorräume von Rn.

    Beweis Man sieht leicht, dass U ∩V ein Untervektorraum von Rn ist. Wir zeigenalso lediglich, dass U + V ein Untervektorraum ist.

    (U1): Da 0 ∈ U , 0 ∈ V und 0 = 0 + 0, ist 0 ∈ U + V .(U2): Seien w, w′ ∈ U+V ; es gibt also u, u′ ∈ U und v, v′ ∈ V mit w = u+v undw′ = u′+v′ und dann ist w+w′ = (u+v)+(u′+v′) = (u+u′)+(v+v′) ∈ U +V ,da u + u′ ∈ U und v + v′ ∈ V .(U3): Sei w ∈ U +V , es gibt also u ∈ U und v ∈ V mit w = u+v. Für alle c ∈ Rist dann cw = c(u + v) = cu + cv ∈ U + V , da cu ∈ U und cv ∈ V .Damit ist U + V ein Untervektorraum von Rn.

    Satz 3.6 Für alle Untervektorräume U, V von Rn gilt

    dim(U + V ) + dim(U ∩ V ) = dim U + dim V .

    Beweis Sei (w1, . . . , wm) eine Basis von U∩V (mit m = 0, falls U ∩V = {0}). DaU ∩ V ⊂ U und U ∩ V ⊂ V , gibt es nach Satz 3.3 Vektoren u1, . . . , up ∈ U (mitp ≥ 0) und Vektoren v1, . . . , vq ∈ V (mit q ≥ 0), so dass (w1, . . . , wm, u1, . . . , up)eine Basis von U und (w1, . . . , wm, v1, . . . , vq) eine Basis von V ist. Dann istdim(U ∩ V ) = m, dim U = m + p und dim V = m + q, und also genügt es zuzeigen, dass (w1, . . . , wm, u1, . . . , up, v1, . . . , vq) eine Basis von U + V ist.

    Sei w ∈ U + V ; dann gibt es u ∈ U und v ∈ V , so dass w = u + v. Ferner gibtes b1, . . . , bm, c1, . . . , cp ∈ R mit u = b1w1 + · · ·+ bmwm + c1u1 + · · ·+ cpup, da(w1, . . . , wm, u1, . . . , up) eine Basis von U ist, und b

    ′1, . . . , b

    ′m, d1, . . . , dq ∈ R mit

    v = b′1w1 + · · ·+ b′mwm + d1v1 + · · ·+ dqvq, da (w1, . . . , wm, v1, . . . , vq) eine Basisvon V ist. Daraus folgt, dass

    w = u + v = b′′1w1 + · · ·+ b′′mwm + c1u1 + · · ·+ cpup + d1v1 + · · ·+ dqvq ,

    wobei b′′j = bj + b′j für jedes j, d.h., w ∈ L(w1, . . . , wm, u1, . . . , up, v1, . . . , vq).

    Damit ist U + V ⊂ L(w1, . . . , wm, u1, . . . , up, v1, . . . , vq). Andererseits folgt

    L(w1, . . . , wm, u1, . . . , up, v1, . . . , vq) ⊂ U + V

    unmittelbar aus Satz 2.2, da w1, . . . , wm, u1, . . . , up, v1, . . . , vq ∈ U + V , d.h.,es gilt L(w1, . . . , wm, u1, . . . , up, v1, . . . , vq) = U + V .

    Es wird nun gezeigt, dass w1, . . . , wm, u1, . . . , up, v1, . . . , vq linear unabhängigsind. Seien b1, . . . , bm, c1, . . . , cp, d1, . . . , dq ∈ R mit

    b1w1 + · · ·+ bmwm + c1u1 + · · ·+ cpup + d1v1 + · · ·+ dqvq = 0 .

  • 3 Basen 30

    Setze u = b1w1 + · · ·+ bmwm + c1u1 + · · ·+ cpup und v = d1v1 + · · ·+ dqvq. Dannist u ∈ L(w1, . . . , wm, u1, . . . , up) = U und v ∈ L(v1, . . . , vq) ⊂ V . Aber u+ v = 0,d.h., v = −u = (−1)u und damit ist auch v ∈ U , d.h., v ∈ U∩V . Da (w1, . . . , wm)eine Basis von U ∩ V ist, gibt es b′1, . . . , b′m ∈ R, so dass v = b′1w1 + · · ·+ b′mwm.Es gilt also

    0 = u + v

    = b1w1 + · · ·+ bmwm + c1u1 + · · ·+ cpup + b′1w1 + · · ·+ b′mwm= (b1 + b

    ′1)w1 + · · ·+ (bm + b′m)wm + c1u1 + · · ·+ cpup

    und w1, . . . , wm, u1, . . . , up sind linear unabhängig. Insbesondere ist dann ci = 0für jedes i = 1, . . . , p und folglich ist b1w1 + · · ·+ bmwm + d1v1 + · · ·+ dqvq = 0.Aber w1, . . . , wm, v1, . . . , vq sind linear unabhängig und daraus ergibt sich, dassauch bj = 0 für j = 1, . . . , m und dk = 0 für k = 1, . . . , q. Dies zeigt, dassw1, . . . , wm, u1, . . . , up, v1, . . . , vq linear unabhängig sind.

  • 4 Matrizen

    Für jedes n ≥ 1 sei En ∈ M(n× n, R) folgende Matrix:

    En =

    1 0 · · · 00 1 · · · 0...

    .... . .

    ...0 0 · · · 1

    .

    Es gilt also En = (δij), wobei δij =

    {

    1 falls i = j ,0 sonst .

    En heißt Einheitsmatrix.

    Man schreibt oft einfach E statt En, wenn es klar ist, was n ist. Sei wieder

    ej = (0, . . . , 0, 1, 0, . . . , 0)

    mit der Eins in der j-ten Komponente; es gilt

    c1e1 + · · ·+ cnen = (c1, . . . , cn)

    für alle c1, . . . , cn ∈ R.Sei A ∈ M(m × n, R) eine m × n Matrix und v ∈ Rn; dann wird ein VektorAv ∈ Rm definiert durch die Vorschrift

    a11 · · · a1na21 · · · a2n...

    ......

    am1 · · · amn

    b1b2......bn

    =

    a11b1 + · · ·+ a1nbna21b1 + · · ·+ a2nbn

    ...am1b1 + · · ·+ amnbn

    .

    Zum Beispiel ist

    2 3 1 −21 0 7 34 −3 0 −5

    6−5

    12

    =

    2 · 6 + 3 · (−5) + 1 · 1 + (−2) · 21 · 6 + 0 · (−5) + 7 · 1 + 3 · 2

    4 · 6 + (−3) · (−5) + 0 · 1 + (−5) · 2

    =

    −61929

    1 2 13 1 62 −3 24 −8 76 −3 0

    4−2

    5

    =

    1 · 4 + 2 · (−2) + 1 · 53 · 4 + 1 · (−2) + 6 · 5

    2 · 4 + (−3) · (−2) + 2 · 54 · 4 + (−8) · (−2) + 7 · 56 · 4 + (−3) · (−2) + 0 · 5

    =

    540246730

    .

    Für alle v ∈ Rn gilt Env = v. Für die m× n Matrix 0 gilt 0v = 0 für alle v ∈ Rn.

    31

  • 4 Matrizen 32

    Lemma 4.1 Sei A ∈ M(m × n, R) eine Matrix mit Spalten w1, . . . , wn ∈ Rm.Dann gilt

    A

    b1...bn

    = b1w1 + · · ·+ bnwn

    für alle b1, . . . , bn ∈ R. Insbesondere ist Aek = wk für k = 1, . . . , n.

    Beweis Sei A = (aij); dann gilt

    A

    b1...bn

    =

    a11b1 + · · ·+ a1nbna21b1 + · · ·+ a2nbn

    ...am1b1 + · · ·+ amnbn

    =

    a11b1a21b1

    ...am1b1

    + · · ·+

    a1nbna2nbn

    ...amnbn

    =

    b1a11b1a21

    ...b1am1

    + · · ·+

    bna1nbna2n

    ...bnamn

    = b1

    a11a21...

    am1

    + · · ·+ bn

    a1na2n...

    amn

    = b1w1 + · · ·+ bnwn .

    Lemma 4.2 Sei A ∈ M(m× n, R) eine m× n Matrix und b ∈ Rm. Dann ist

    Lös(A, b) = {v ∈ Rn : Av = b} .

    Mit anderen Worten: Ein Vektor v ∈ Rn ist eine Lösung des zu A und b gehörigenlinearen Gleichungssystems genau dann, wenn Av = b.

    Beweis Seien w1, . . . , wn die Spalten von A. Nach Satz 2.1 ist (r1, . . . , rn) inLös(A, b) genau dann, wenn r1w1 + · · ·+ rnwn = b. Nach Lemma 4.1 ist aber

    r1w1 + · · ·+ rnwn = A

    r1...rn

    und folglich ist Lös(A, b) = {v ∈ Rn : Av = b}.

    Die Operation v 7→ Av hat folgende wichtige Eigenschaft:

    Satz 4.1 Sei A ∈ M(m× n, R) eine m× n Matrix. Dann gilt

    A(bu + cv) = bAu + cAv

    für alle u, v ∈ Rn und alle b, c ∈ R.

  • 4 Matrizen 33

    Beweis Sei u =

    p1...

    pn

    , v =

    q1...qn

    und b, c ∈ R; also ist

    bu + cv = b

    p1...

    pn

    + c

    q1...qn

    =

    bp1 + cq1...

    bpn + cqn

    .

    Seien nun w1, . . . , wn die Spalten von A; dann ist nach Lemma 4.1

    A(bu + cv) = (bp1 + cq1)w1 + · · ·+ (bpn + cqn)wn= bp1w1 + cq1w1 + · · ·+ bpnwn + cqnwn= bp1w1 + · · ·+ bpnwn + cq1w1 + · · ·+ cqnwn= b(p1w1 + · · ·+ pnwn) + c(q1w1 + · · ·+ qnwn) = bAu + cAv .

    Sei A ∈ M(m× n, R). Durch Induktion nach p folgt aus Satz 4.1, dass

    A(c1v1 + · · ·+ cpvp) = c1Av1 + · · ·+ cpAvp

    für alle v1, . . . , vp ∈ Rn und alle c1, . . . , cp ∈ R für jedes p ≥ 2.Eine Abbildung f : Rn → Rm heißt linear, wenn

    f(c1v1 + c2v2) = c1f(v1) + c2f(v2)

    für alle v1, v2 ∈ Rn und alle c1, c2 ∈ R gilt. Ist f : Rn → Rm linear, so folgtwieder durch Induktion nach p, dass

    f(c1v1 + · · ·+ cpvp) = c1f(v1) + · · ·+ cpf(vp)

    für alle v1, . . . , vp ∈ Rn und alle c1, . . . , cp ∈ R für jedes p ≥ 2. Für jede MatrixA ∈ M(m× n, R) definieren wir eine Abbildung fA : Rn → Rm durch

    fA(v) = Av

    für alle v ∈ Rn. Nach Satz 4.1 ist die Abbildung fA linear. Man beachte, dassnach Lemma 4.1 fA(ek) = wk für k = 1, . . . , n, wobei w1, . . . , wn die Spaltenvon A sind.

    Satz 4.2 Sei f : Rn → Rm linear und setze uk = f(ek) für k = 1, . . . , n. SeiA ∈ M(m× n, R) die Matrix, die u1, . . . , un als Spalten hat. Dann gilt f = fA.

  • 4 Matrizen 34

    Beweis Sei v ∈ Rn mit v =

    r1...rn

    ; dann gilt

    v =

    r1r2...rn

    =

    r10...0

    +

    0r2...0

    + · · ·+

    00...rn

    = r1

    10...0

    + r2

    01...0

    + · · ·+ rn

    00...1

    = r1e1 + · · ·+ rnen

    und daraus ergibt sich nach Lemma 4.1, dass

    f(v) = f(r1e1 + · · ·+ rnen) = r1f(e1) + · · ·+ rnf(en)

    = r1u1 + · · ·+ rnun = A

    r1...rn

    = Av = fA(v) .

    Dies zeigt, dass f(v) = fA(v) für alle v ∈ Rn und folglich ist f = fA.

    Seien A = (aij) ∈ M(ℓ×m, R) und B = (ajk) ∈ M(m×n, R). Wir definieren eineℓ× n Matrix C = (cik) ∈ M(ℓ× n, R) durch

    cik = ai1b1k + ai2b2k + · · ·+ aimbmkfür alle i = 1, . . . , ℓ, k = 1, . . . , n. Diese Matrix C heißt das Produkt von A undB und wird mit AB bezeichnet.

    Zum Beispiel sei A ∈ M(3× 4, R) und B ∈ M(4× 2, R) gegeben durch

    A =

    2 3 1 −21 0 7 34 −3 0 −5

    und B =

    2 −21 04 −3−5 6

    und sei AB = (cik). Dann ist

    c11 = 2 · 2 + 3 · 1 + 1 · 4 + (−2) · (−5) = 21c21 = 1 · 2 + 0 · 1 + 7 · 4 + 3 · (−5) = 15c31 = 4 · 2 + (−3) · 1 + 0 · 4 + (−5) · (−5) = 30c12 = 2 · (−2) + 3 · 0 + 1 · (−3) + (−2) · 6 = −19c22 = 1 · (−2) + 0 · 0 + 7 · (−3) + 3 · 6 = −5c32 = 4 · (−2) + (−3) · 0 + 0 · (−3) + (−5) · 6 = −38

  • 4 Matrizen 35

    und folglich ist die 3× 2 Matrix AB gegeben durch

    AB =

    21 −1915 −530 −38

    .

    Sei A = (aij) ∈ M(m× n, R). Für alle i = 1, . . . , m, k = 1, . . . , n gilt

    ai1δ1k + ai2δ2k + · · ·+ ainδnk = aikund dies zeigt, dass AEn = A. Ferner gilt für alle i = 1, . . . , m, k = 1, . . . , n

    δi1a1k + δi2a2k + · · ·+ δimamk = aikund damit ist ebenfalls EmA = A.

    Lemma 4.3 Seien A = (aij) ∈ M(ℓ×m, R) und B = (ajk) ∈ M(m× n, R). DieSpalten der Matrix AB sind Aw1, . . . , Awn, wobei w1, . . . , wn die Spalten von Bsind.

    Beweis Für jedes k = 1, . . . , n ist die k-te Spalte von AB

    a11b1k + · · ·+ a1mbmka21b1k + · · ·+ a2mbmk

    ...aℓ1b1k + · · ·+ aℓmbmk

    =

    a11 · · · a1m...

    ......

    aℓ1 · · · aℓm

    b1k......

    bmk

    = Awk .

    Satz 4.3 Seien A = (aij) ∈ M(ℓ×m, R), B = (ajk) ∈ M(m× n, R). Dann gilt

    (AB)v = A(Bv)

    für alle v ∈ Rn.

    Beweis Seien v =

    r1...rn

    und w1, . . . , wn die Spalten von B. Nach Lemma 4.3

    sind Aw1, . . . , Awn die Spalten von AB und folglich ist nach Lemma 4.1

    (AB)v = (AB)

    r1...rn

    = r1Aw1 + · · ·+ rnAwn ,

    Bv = B

    r1...rn

    = r1w1 + · · ·+ rnwn .

  • 4 Matrizen 36

    Nach Satz 4.1 ist aber A(r1w1 + · · ·+ rnwn) = r1Aw1 + · · ·+ rnAwn und darausergibt sich, dass

    (AB)v = r1Aw1 + · · ·+ rnAwn = A(r1w1 + · · ·+ rnwn) = A(Bv) .

    Seien A = (aij) ∈ M(ℓ ×m, R) und B = (ajk) ∈ M(m × n, R) Matrizen. Danngibt es die Abbildungen fA : R

    m → Rℓ, fB : Rn → Rm und fAB : Rn → Rℓ mitfA(u) = Au, fB(v) = Bv und fAB(w) = (AB)w für alle u ∈ Rm, v ∈ Rn, w ∈ Rn.Nach Satz 4.3 ist

    fAB(w) = (AB)w = A(Bw) = fA(Bw) = fA(fB(w))

    für alle w ∈ Rn und damit ist fAB = fA ◦ fB.

    Satz 4.4 Seien A ∈ M(ℓ × m, R), B ∈ M(m × n, R) und C ∈ M(n × p, R)Matrizen. Dann gilt

    (AB)C = A(BC) .

    Beweis Sind w1, . . . , wp die Spalten von C, so sind Bw1, . . . , Bwp die Spaltenvon BC und damit sind A(Bw1), . . . , A(Bwp) die Spalten von A(BC). Anderer-seits sind (AB)w1, . . . , (AB)wp die Spalten von (AB)C und nach Satz 4.2 giltA(Bwk) = (AB)wk für jedes k = 1, . . . , p. Daraus ergibt sich, dass A(BC) und(AB)C die gleichen Spalten haben und folglich ist A(BC) = (AB)C.

    Da die Matrizen-Multiplikation assoziativ ist, können wir beim Produkt von dreioder mehr Matrizen auf die Klammern verzichten. Zum Beispiel wird meistenslediglich ABC statt (AB)C (oder A(BC)) geschrieben.

    Eine Matrix A heißt quadratisch, wenn sie genauso viele Zeilen wie Spalten hat,d.h., wenn A ∈ M(n× n, R) für ein n ≥ 1. Insbesondere ist En quadratisch.

    Lemma 4.4 Sei A ∈ M(n×n, R). Dann gibt es höchstens ein A′ ∈ M(n×n, R),so dass AA′ = A′A = En.

    Beweis Seien B, C ∈ M(n× n, R) mit AB = BA = En = AC = CA. Dann gilt

    B = BEn = B(AC) = (BA)C = EnC = C .

    Eine quadratische Matrix A ∈ M(n×n, R) heißt invertierbar, wenn es eine MatrixA′ ∈ M(n×n, K) gibt, so dass AA′ = A′A = En. Nach Lemma 4.4 ist diese MatrixA′ eindeutig und sie wird mit A−1 bezeichnet, d.h., A−1 ist die eindeutige Matrixmit AA−1 = A−1A = En.

  • 4 Matrizen 37

    Lemma 4.5 (1) Die Einheitsmatrix En ist invertierbar und E−1n = En.

    (2) Ist A ∈ M(n × n, R) invertierbar, so ist auch A−1 invertierbar und es gilt(A−1)−1 = A.

    (3) Sind A, B ∈ M(n × n, R) invertierbar, so ist auch AB invertierbar und esgilt (AB)−1 = B−1A−1.

    Beweis (1) Dies ist klar, da EnEn = EnEn = En.

    (2) Dies ist auch klar, da A−1A = AA−1 = En.

    (3) Dies folgt aus der Assoziativität der Matrizenmultiplikation, da

    (AB)(B−1A−1) = A(BB−1)A−1 = AEnA−1 = AA−1 = En

    und (B−1A−1)(AB) = B−1(A−1A)B = B−1EnB = B−1B = En.

    Bisher wurden unter elementaren Zeilenumformungen die folgenden Operationenverstanden:

    I Addition eines Vielfachen einer Zeile zu einer anderen Zeile.

    II Vertauschen zweier Zeilen.

    Es erweist sich aber als nützlich, eine dritte Art von elementarer Zeilenumformungzuzulassen, und zwar:

    III Multiplikation einer Zeile mit einem Skalar c ∈ R, c 6= 0.

    Satz 2.3 gilt auch für Umformungen der dritten Art: Wird (A, b) durch eineelementare Zeilenumformung vom Typ III zu einer Matrix (A′, b′) verändert, sogilt Lös(A, b) = Lös(A′, b′).

    Wir zeigen jetzt, dass jede elementare Zeilenumformung durch Multiplikation vonlinks mit einer geeigneten Matrix bewirkt werden kann.

  • 4 Matrizen 38

    Sei 1 ≤ i, j ≤ n mit i 6= j und c ∈ R mit c 6= 0. Seien Sn(i, c), Pn(i, j) undQn(i, j, c) folgende Elemente von M(n× n, R):

    Sn(i, c) =

    1. . .

    1c

    1. . .

    . . .

    1

    ← i te Zeile

    Pn(i, j) =

    1. . .

    10 1

    1. . .

    11 0

    1. . .

    1

    ← i-te Zeile

    ← j-te Zeile

    i-te Spalte ↑ ↑ j-te Spalte

    Qn(i, j, c) =

    1. . .

    11 c

    1. . .

    11

    1. . .

    1

    ← i-te Zeile

    ↑ j-te Spalte(Außer der eingetragenen oder der durch Punkte angedeuteten Komponenten sinddabei alle Komponenten gleich Null.) Solche Matrizen werden Elementarmatrizengenannt.

  • 4 Matrizen 39

    Lemma 4.6 Elementarmatrizen sind invertierbar mit Sn(i, c)−1 = Sn(i, c

    −1),Pn(i, j)

    −1 = Pn(i, j) und Qn(i, j, c)−1 = Qn(i, j,−c).

    Beweis Übung.

    Lemma 4.7 Sei A ∈ M(m × n, R) und sei 1 ≤ i, j ≤ m mit i 6= j und c ∈ Rmit c 6= 0. Dann gilt:(1) Die Matrix Sm(i, c)A erhält man durch Multiplikation der i-ten Zeile von Amit dem Skalar c.

    (2) Die Matrix Pm(i, j)A erhält man durch Vertauschung der i-ten und der j-tenZeilen von A.

    (3) Die Matrix Qm(i, j, c)A erhält man durch Addition des c-fachen der j-tenZeile zu der i-ten Zeile von A.

    Beweis Übung.

    Multiplikation von links mit einer Elementarmatrix bewirkt also eine elementareZeilenumformung. Ferner entsteht jede elementare Zeilenumformung auf dieseWeise.

    Eine n× n Matrix D = (dij) ∈ M(n × n, R) heißt Diagonalmatrix, wenn dij = 0für alle i, j mit i 6= j. Eine solche Matrix D hat also folgende Gestalt:

    D =

    d11 0 · · · 00 d22 · · · 0...

    .... . .

    ...0 0 · · · dnn

    .

    Insbesondere sind die Einheitsmatrix En und die Nullmatrix 0 beide Diagonal-matrizen.

    Satz 4.5 Für eine quadratische Matrix A ∈ M(n× n, R) sind äquivalent:(1) Lös(A, 0) = {0}.(2) Das zu (A, b) gehörige Gleichungssystem ist lösbar für jedes b ∈ Rn.(3) Das zu (A, b) gehörige Gleichungssystem ist eindeutig lösbar für jedes b ∈ Rn.(4) A läßt sich durch eine endliche Folge von elementaren Zeilenumformungenin eine Matrix A′ = (a′ij) folgender Gestalt überführen:

  • 4 Matrizen 40

    ∗ · · · · · · · ·0 ∗ · · · · · · ·0 0 ∗ · · · · · ·0 0 0 ∗ · · · · ·0 0 0 0 ∗ · · · ·0 0 0 0 0 ∗ · · ·0 0 0 0 0 0 ∗ · ·0 0 0 0 0 0 0 ∗ ·0 0 0 0 0 0 0 0 ∗

    .

    (5) A läßt sich durch eine endliche Folge von elementaren Zeilenumformungenin eine Diagonalmatrix D = (dij) mit dii 6= 0 für alle i = 1, . . . , n überführen.(6) A läßt sich durch eine endliche Folge von elementaren Zeilenumformungenin die Einheitsmatrix En überführen.

    (7) Die Matrix A ist invertierbar.

    (8) Es gibt eine Matrix B ∈ M(n× n, R), so dass BA = En.(9) Es gibt eine Matrix C ∈ M(n× n, R), so dass AC = En.

    Beweis Wir haben in Kapitel 2 gesehen, dass die Aussagen (1), (2), (3) und (4)äquivalent sind.

    (6) ⇒ (4): Dies ist klar, da En Zeilen-Stufen-Form hat.(6) ⇒ (7): Sei β1, . . . , βp eine Folge von elementaren Zeilenumformungen, dieA in die Einheitsmatrix En überführt. Für jedes j gibt es nach Lemma 4.7 eineElementarmatrix Bj, die durch Multiplikation von links die Zeilenumformungβj bewirkt. Dann ist En = Bp · · ·B2B1A. Setze B = Bp · · ·B2B1 und also istEn = BA. Nach Lemma 4.6 und Lemma 4.5 (2) ist aber B invertierbar und esgilt B−1 = B−1En = B

    −1BA = EnA = A. Folglich ist nach Lemma 4.5 (2) Ainvertierbar (und A−1 = B).

    (8)⇒ (1): Es gibt eine Matrix B ∈ M(n×n, R) mit BA = En. Sei v ∈ Lös(A, 0);nach Lemma 4.2 ist Av = 0 und damit ist nach Satz 4.3

    v = Env = (BA)v = B(Av) = B0 = 0

    und dies zeigt, dass Lös(A, 0) = {0}, d.h. dass (1) gilt.(9) ⇒ (2): Es gibt eine Matrix C ∈ M(n × n, R) mit AC = En. Sei b ∈ Rn undsetze v = Cb. Dann ist nach Satz 4.3 Av = A(Cb) = (AC)b = Enb = b unddamit ist nach Lemma 4.2 v ∈ Lös(A, b) und folglich ist das zu (A, b) gehörigeGleichungssystem lösbar für jedes b ∈ Rn. Dies zeigt, dass (2) gilt.

  • 4 Matrizen 41

    (7) ⇒ (8): Dies ist klar, da A−1A = En.(7) ⇒ (9): Dies ist klar, da AA−1 = En.(4) ⇒ (5) ⇒ (6): Hier ist ein Beispiel, das deutet an, warum dies der Fall ist:Betrachte die 5× 5 Matrix

    A =

    1 2 1 6 70 2 0 4 30 0 −1 0 40 0 0 −2 20 0 0 0 −1

    Die Matrix A hat Zeilen-Stufen-Form und es gilt

    A =

    1 2 1 6 70 2 0 4 30 0 −1 0 40 0 0 −2 20 0 0 0 −1

    ⇓ (4. Zeile⇒ 4. Zeile + 2× 5. Zeile)⇓ (3. Zeile⇒ 3. Zeile + 4× 5. Zeile)⇓ (2. Zeile⇒ 2. Zeile + 3× 5. Zeile)⇓ (1. Zeile⇒ 1. Zeile + 7× 5. Zeile)

    1 2 1 6 00 2 0 4 00 0 −1 0 00 0 0 −2 00 0 0 0 −1

    ⇓ (2. Zeile⇒ 2. Zeile + 2× 4. Zeile)⇓ (1. Zeile⇒ 1. Zeile + 3× 4. Zeile)

    1 2 1 0 00 2 0 0 00 0 −1 0 00 0 0 −2 00 0 0 0 −1

    ⇓ (1. Zeile⇒ 1. Zeile + 3. Zeile)

  • 4 Matrizen 42

    1 2 0 0 00 2 0 0 00 0 −1 0 00 0 0 −2 00 0 0 0 −1

    ⇓ (1. Zeile⇒ 1. Zeile− 2. Zeile)

    1 0 0 0 00 2 0 0 00 0 −1 0 00 0 0 −2 00 0 0 0 −1

    = D .

    Nun ist D eine Diagomalmatrix und es gilt

    D =

    1 0 0 0 00 2 0 0 00 0 −1 0 00 0 0 −2 00 0 0 0 −1

    ⇓ (2. Zeile⇒ 12× 2. Zeile)

    ⇓ (3. Zeile⇒ (−1)× 3. Zeile)⇓ (4. Zeile⇒ (−1

    2)× 4. Zeile)

    ⇓ (5. Zeile⇒ (−1)× 5. Zeile)

    1 0 0 0 00 1 0 0 00 0 1 0 00 0 0 1 00 0 0 0 1

    = E5 .

    Satz 4.6 Sei A ∈ M(n × n, R) invertierbar und sei β1, . . . , βp eine Folge vonelementaren Zeilenumformungen, die A in die Einheitsmatrix En überführt. Dannüberführt die Folge β1, . . . , βp die Einheitsmatrix En in die Matrix A

    −1.

    Beweis Für jedes j = 1, . . . , p gibt es nach Lemma 4.7 eine ElementarmatrixBj , die durch Multiplikation von links die Zeilenumformung βj bewirkt. Dann

  • 4 Matrizen 43

    ist En = Bp · · ·B2B1A, und die Folge β1, . . . , βp überführt die Matrix En in dieMatrix Bp · · ·B2B1En. Aber

    Bp · · ·B2B1En = Bp · · ·B2B1 = A−1 ,

    da (Bp · · ·B2B1)A = En.

  • 5 Diagonalisierbarkeit von Matrizen

    In diesem Kapitel betrachten wir nur quadratische Matrizen, d.h. n×n Matrizenfür ein n ≥ 1.Eine n× n Matrix D = (dij) heißt Diagonalmatrix, wenn dij = 0 für alle i, j miti 6= j. Eine Diagonalmatrix hat also folgende Gestalt:

    λ1 0 · · · 00 λ2 · · · 0...

    .... . .

    ...0 0 · · · λn

    Insbesondere sind En und die n× n Matrix 0 Diagonalmatrizen.Eine n × n Matrix A heißt diagonalisierbar, wenn es eine invertierbare n × nMatrix P gibt, so dass P−1AP eine Diagonalmatrix ist.

    Zum Beispiel ist die 2× 2 Matrix A =(

    5 −63 −4

    )

    diagonalisierbar: Es gilt

    (

    2 11 1

    )(

    1 −1−1 2

    )

    =

    (

    1 00 1

    )

    = E2 ;

    also ist die Matrix P =

    (

    2 11 1

    )

    invertierbar mit P−1 =

    (

    1 −1−1 2

    )

    und

    P−1AP =

    (

    1 −1−1 2

    )(

    5 −63 −4

    )(

    2 11 1

    )

    =

    (

    2 00 −1

    )

    .

    Folglich ist P−1AP eine Diagonalmatrix und damit ist A diagonalisierbar. (Wieman feststellen kann, dass A diagonalisierbar ist und die Matrix P bestimmt,wird später erklärt.)

    In vielen praktischen Anwendungen, in denen Matrizen vorkommen, wird dieAnalyse einfacher, wenn die Matrizen diagonalisierbar sind. Hier ist ein Beispiel:Sei A eine n×n Matrix; oft will man die Potenzen Am, m ≥ 1, von A untersuchen,wobei A1 = A, A2 = AA, A3 = AAA, A4 = AAAA, usw. Ist A diagonalisierbarmit P−1AP = D, so ist

    Dm = (P−1AP )(P−1AP )(P−1AP ) · · · (P−1AP )= P−1A(PP−1)A(PP−1)A(P · · ·P−1)AP= P−1AEnAEnA · · ·AP = P−1AAgA · · ·AP = P−1AmP

    und dann ist auch Am = PDmP−1. Nun ist

    44

  • 5 Diagonalisierbarkeit von Matrizen 45

    λ1 0 · · · 00 λ2 · · · 0...

    .... . .

    ...0 0 · · · λn

    µ1 0 · · · 00 µ2 · · · 0...

    .... . .

    ...0 0 · · · µn

    =

    λ1µ1 0 · · · 00 λ2µ2 · · · 0...

    .... . .

    ...0 0 · · · λnµn

    ,

    d.h. das Produkt D1D2 von Diagonalmatrizen D1 und D2 ist eine Diagonalmatrix,deren Diagonal-Einträge Produkte von den entsprechenden Diagonal-Einträgenaus D1 und D2 sind. Daraus folgt durch Induktion, dass

    Dm =

    λm1 0 · · · 00 λm2 · · · 0...

    .... . .

    ...0 0 · · · λmn

    gilt für jedes m ≥ 1 für die Diagonalmatrix

    D =

    λ1 0 · · · 00 λ2 · · · 0...

    .... . .

    ...0 0 · · · λn

    .

    Wenn man also die Zahlen λ1, . . . , λn und die Matrix P kennt, ist es relativleicht, die Matrix Am zu berechnen.

    Es gibt aber Matrizen, die nicht diagonalisierbar sind. Zum Beispiel ist die Matrix

    N =

    (

    0 10 0

    )

    nicht diagonalisierbar. (Nehme an, es gäbe eine invertierbare 2× 2 Matrix P , sodass P−1NP = D =

    (

    λ 00 ν

    )

    . Nun ist N2 = 0, und damit gilt wie oben

    (

    λ2 00 ν2

    )

    = D2 = (P−1NP )(P−1NP ) = P−1N2P = P−10P = 0 .

    Also ist λ = µ = 0, d.h. D = 0. Dann wäre aber auch N = PDP−1 = P0P−1 = 0,was nicht der Fall ist.)

    Die Klasse der diagonalisierbaren Matrizen ist doch sehr groß und wir untersuchenjetzt die folgende Frage: Wie kann man feststellen, ob eine gegebene Matrix A

  • 5 Diagonalisierbarkeit von Matrizen 46

    diagonalisierbar ist? Darüber hinaus wollen wir ein Verfahren haben, das eineinvertierbare Matrix P und eine Diagonalmatrix D mit P−1AP = D bestimmt,wenn A diagonalisierbar ist.

    Sei A eine diagonalisierbare Matrix, es gibt also eine Diagonalmatrix D und eineinvertierbare Matrix P , so dass P−1AP = D. Dann ist AP = PD, da

    AP = EnAP = (PP−1)AP = P (P−1AP ) = PD .

    Lemma 5.1 Sei A und P beliebige n× n Matrizen, sei

    D =

    λ1 0 · · · 00 λ2 · · · 0...

    .... . .

    ...0 0 · · · λn

    eine Diagonalmatrix. Es gilt AP = PD genau dann, wenn Awj = λjwj für jedesj = 1, . . . , n, wobei w1, . . . , wn die Spalten von P sind.

    Beweis Nach Lemma 5.3 sind Aw1, . . . , Awn die Spalten von AP . Ferner sindλ1w1, . . . , λnwn die Spalten von PD. (Nach Lemma 5.3 sind Pu1, . . . , Pun dieSpalten von PD, wobei u1, . . . , un die Spalten von D sind. Aber uj = λjej undalso ist Puj = P (λjej) = λjPej = λjwj.) Daraus ergibt sich, dass AP = PDgenau dann gilt, wenn Awj = λjwj für jedes j = 1, . . . , n.

    Sei nun A eine beliebige n × n Matrix; eine Zahl λ ∈ R heißt Eigenwert von A,wenn es einen Vektor v ∈ Rn mit v 6= 0 gibt, so dass Av = λv und dann heißt vein Eigenvektor von A zum Eigenwert λ.

    Wichtige Bemerkung: 0 ist ein Eigenwert von A genau dann, wenn die MatrixA nicht invertierbar ist. (0 ist ein Eigenwert von A genau dann, wenn es einv ∈ Rn mit v 6= 0 gibt, so dass Av = 0, d.h. (nach Lemma 5.2) genau dann, wennLös(A, 0) 6= {0}, und nach Satz 5.5 gilt Lös(A, 0) 6= {0} genau dann, wenn Anicht invertierbar ist.)

    Satz 5.1 Eine n×n Matrix A ist diagonalisierbar genau dann, wenn es eine ausEigenvektoren von A bestehende Basis von Rn gibt.

    Ist ferner (w1, . . . , wn) eine aus Eigenvektoren von A bestehende Basis von Rn

    und ist P die n× n Matrix mit Spalten w1, . . . , wn, so ist P invertierbar und

    P−1AP =

    λ1 0 · · · 00 λ2 · · · 0...

    .... . .

    ...0 0 · · · λn

    ,

    wobei λ1, . . . , λn die entsprechenden Eigenwerte sind (es gilt also Awj = λjwjfür jedes j = 1, . . . , n.

  • 5 Diagonalisierbarkeit von Matrizen 47

    Beweis Nehme zunächst an, dass es eine aus Eigenvektoren von A bestehendeBasis (w1, . . . , wn) von R

    n gibt. Für jedes j = 1, . . . , n gibt es also ein λj ∈ R, sodass Awj = λjwj. Sei P die n×n Matrix mit Spalten w1, . . . , wn; nach Lemma 5.1gilt dann AP = PD, wobei

    D =

    λ1 0 · · · 00 λ2 · · · 0...

    .... . .

    ...0 0 · · · λn

    .

    Da nun (w1, . . . , wn) eine Basis von Rn ist, sind die Vektoren w1, . . . , wn linear

    unabhängig und daher ist nach Satz 2.6 Lös(P, 0) = {0}. Daraus ergibt sich nachSatz 5.5, dass P invertierbar ist und folglich ist P−1AP = P−1PD = EnD = D,d.h. A ist diagonalisierbar.

    Nehme umgekehrt an, dass A diagonalisierbar ist. Es gibt also eine invertierbareMatrix P , so dass

    P−1AP = D =

    λ1 0 · · · 00 λ2 · · · 0...

    .... . .

    ...0 0 · · · λn

    .

    Dann ist AP = PD und folglich ist nach Lemma 5.1 Awj = λjwj für jedesj = 1, . . . , n, wobei w1, . . . , wn die Spalten von A sind. Da P invertierbar ist,ist nach Satz 5.5 Lös(P, 0) = {0} und daher sind nach Satz 2.6 w1, . . . , wn linearunabhängig. Insbesondere ist wj 6= 0 und also ist wj ein Eigenvektor von A zumEigenwert λj für jedes j = 1, . . . , n.

    Ferner ist (w1, . . . , wn) eine Basis von L(w1, . . . , wn), d.h. dim L(w1, . . . , wn) = nund daraus ergibt sich nach Satz 4.4, dass L(w1, . . . , wn) = R

    n, d.h. (w1, . . . , wn)ist eine Basis von Rn, die aus Eigenvektoren von A besteht.

    Für jede n× n Matrix A = (aij) und jedes λ ∈ R setze

    Aλ = A− λEn =

    a11 − λ a12 · · · a1na21 a22 − λ · · · a2n...

    .... . .

    ...an1 an2 · · · ann − λ

    .

    Also ist

    (Aλ)ij =

    {

    aij − λ falls i = j ,aij falls i 6= j .

    Für die Matrix A =

    (

    7 114 −5

    )

    ist zum Beispiel

    A8 =

    (

    7− 8 114 −5− 8

    )

    =

    (

    −1 114 −13

    )

    .

  • 5 Diagonalisierbarkeit von Matrizen 48

    Lemma 5.2 Sei A eine n×n Matrix, λ ∈ R und v ∈ Rn; dann ist Aλv = Av−λvund insbesondere gilt Aλv = 0 genau dann, wenn Av = λv.

    Beweis Seien w1, . . . , wn die Spalten von A; dann sind w1 − λe1, . . . , wn − λendie Spalten von Aλ. Ist

    v =

    c1...cn

    ,

    so ist nach Lemma 5.1 Av = c1v1 + · · ·+ cnvn und

    Aλv = c1(v1 − λe1) + · · ·+ cn(vn − λen)= c1v1 + · · ·+ cnvn − λ(c1e1 + · · ·+ cnen) = Av − λv .

    Satz 5.2 Sei A eine n× n Matrix und λ ∈ R. Dann gilt:(1) Lös(Aλ, 0) = {v ∈ Rn : Av = λv}.(2) λ ist ein Eigenwert von A genau dann, wenn das zu Aλ gehörige homogeneGleichungssystem nicht eindeutig lösbar ist.

    (3) Ist λ ein Eigenwert von A, so sind die Eigenvektoren von A zum Eigenwertλ genau die Elemente in der Menge Lös(Aλ, 0), die nicht gleich 0 sind.

    Beweis (1) Nach Lemma 5.2 und Lemma 5.2 ist

    Lös(Aλ, 0) = {v ∈ Rn : Aλv = 0} = {v ∈ Rn : Av = λv} .

    (2) Die Zahl λ ist ein Eigenwert von A genau dann, wenn es ein v ∈ Rn \ {0}mit Av = λv gibt. Folglich ist nach (1) λ ein Eigenwert von A genau dann, wennLös(Aλ, 0) 6= {0}.(3) Dies folgt unmittelbar aus (2).

    Sei A eine n× n Matrix; für jedes λ ∈ R setze

    E(A, λ) = {v ∈ Rn : Av = λv} .

    Nach Satz 5.2 (1) gilt E(A, λ) = Lös(Aλ, 0) und insbesondere ist E(A, λ) einUntervektorraum von Rn. Nach Satz 5.2 (2) ist λ ein Eigenwert von A genaudann, wenn E(A, λ) 6= {0} und ist λ ein Eigenwert von A, so ist nach Satz 5.2 (3)E(A, λ) \ {0} die Menge der Eigenvektoren von A zum Eigenwert λ. Ist λ einEigenwert von A, so heißt E(A, λ) der Eigenraum von A zum Eigenwert λ.

    Für jedes λ ∈ R ist es leicht festzustellen, ob λ ein Eigenwert von A ist: Dies istgenau dann der Fall, wenn das zu Aλ gehörige homogene Gleichungssystem nicht

  • 5 Diagonalisierbarkeit von Matrizen 49

    eindeutig lösbar ist. Ist ferner λ ein Eigenwert von A, so kann man eine Basisvon E(A, λ) = Lös(Aλ, 0) bestimmen und diese Basis besteht aus Eigenvektorenvon A zum Eigenwert λ. (Die Vektoren in einer Basis sind linear unabhängig unddamit alle verschieden von Null.)

    Es ist aber nicht so leicht, die Eigenwerte von A zu bestimmen. (Man kann nichteinfach für jedes λ ∈ R prüfen, ob λ ein Eigenwert ist, da es unendlich viele reelleZahlen λ gibt.) Wir können aber zeigen, dass es für eine n× n Matrix höchstensn verschiedene Eigenwerte gibt und dafür wird das folgende Lemma gebraucht.

    Lemma 5.3 Seien λ1, . . . , λm verschiedene Eigenwerte der n× n Matrix A (esgilt also λi 6= λj, falls i 6= j) und für j = 1, . . . , m sei vj Eigenvektor von A zumEigenwert λj. Dann sind die Vektoren v1, . . . , vm linear unabhängig.

    Beweis Nehme an, v1, . . . , vm