algebra lineare

44
ALGEBRA LINEARE APPUNTI Daniele Corradetti 2 novembre 2015

Upload: marco-rossi

Post on 12-Apr-2016

101 views

Category:

Documents


6 download

DESCRIPTION

Algebra Lineare

TRANSCRIPT

Page 1: Algebra Lineare

ALGEBRA LINEAREAPPUNTI

Daniele Corradetti

2 novembre 2015

Page 2: Algebra Lineare

Indice

1 Spazi vettoriali 31.1 Schema generale del discorso . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Cambi di coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.4 Spazi Euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Forme bilineari 92.1 Schema generale del discorso . . . . . . . . . . . . . . . . . . . . . . . . . 92.2 Forme Lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.3 Forme Bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.3.1 Rappresentazione matriciale di una forma bilineare . . . . . . . . 112.3.2 Cambio di base di una forma bilineare . . . . . . . . . . . . . . . . 12

2.4 Forme Quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.4.1 Diagonalizzazione di una forma quadratica . . . . . . . . . . . . . 132.4.2 Riduzione di una forma quadratica tramite matrici triangolari . . 152.4.3 Il Determinante di Gramm . . . . . . . . . . . . . . . . . . . . . . 18

2.5 La legge di inerzia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.6 Lo spazio Complesso n-dimensionale . . . . . . . . . . . . . . . . . . . . 20

2.6.1 Cambio di base di una forma bilineare Hermitiana . . . . . . . . 212.7 Esercizio di diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . 22

3 Trasformazioni lineari 243.1 Senso del discorso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.2 Trasformazioni Lineari e operazioni elementari . . . . . . . . . . . . . . . 25

3.2.1 Cambio di base in una trasformazione lineare . . . . . . . . . . . 273.3 Sottospazi invarianti e Polinomio caratteristico . . . . . . . . . . . . . . . 273.4 Trasformazioni lineari e Forme Bilineari . . . . . . . . . . . . . . . . . . . 31

3.4.1 Proprietá dell’operazione aggiunta . . . . . . . . . . . . . . . . . . 323.5 Trasformazioni Hermitiane o Autoaggiunte . . . . . . . . . . . . . . . . . 323.6 Trasformazioni Unitarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.7 Trasformazioni Normali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.8 Trasformazioni Lineari nello Spazio Euclideo Reale . . . . . . . . . . . . 33

4 La Forma di Jordan 344.1 Matrice e polinomio caratteristico . . . . . . . . . . . . . . . . . . . . . . . 34

4.1.1 Metodo efficace per il calcolo di B(λ) . . . . . . . . . . . . . . . . 354.2 Autovalori e Autovettori di A . . . . . . . . . . . . . . . . . . . . . . . . . 364.3 Polinomio minimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

4.3.1 Proprietá della matrice C(λ) . . . . . . . . . . . . . . . . . . . . . 37

1

Page 3: Algebra Lineare

INDICE 2

5 Decomposizioni e forme canoniche 385.1 Senso del discorso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385.2 Decomposizione A = UH . . . . . . . . . . . . . . . . . . . . . . . . . . . 385.3 Decomposizione di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5.3.1 Potenze di matrici nella forma di Jordan . . . . . . . . . . . . . . . 395.4 Esercizio di Decomposizione in Forma di Jordan . . . . . . . . . . . . . . 40

6 Applicazioni fisiche 426.1 ODE radici complesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426.2 Equazione Differenziale 2º Ordine . . . . . . . . . . . . . . . . . . . . . . 43

Page 4: Algebra Lineare

Capitolo 1

Spazi vettoriali

1.1 Schema generale del discorso

• Definire uno spazio vettoriale a partire da un campo scalare: é un gruppo com-mutativo rispetto a +, l’operazione é associativa, l’operazione é lineare rispetto acampo scalare ;

• Definire vettori linearmente indipendenti;

• Definire una base di uno spazio vettoriale di dimensione n;

• Definire le coordinate di un vettore dello spazio secondo una definita base;

• Teorema: dato un insieme di n vettori linearmente indipendenti in uno spaziovettoriale di dimensione n allora questi vettori formano una base dello spazioe qualsiasi vettore appartenente allo spazio ha una rappresentazione unica comecombinazione lineare di questi vettori e i coefficienti di questa rappresentazionesono chiamati coordinate del vettore rispetto alla base.

• Teorema: tutti gli spazi vettoriali di dimensione n sono isomorfi fra di loro.

• A questo punto possiamo definire i cambi di coordinate nello spazio vettoriale

• Successivamente per poter fare geometria su questo spazio dovremo definire unprodotto interno, dal quale potremo definire e derivare una norma e dunque lalunghezza di un vettore, la distanza e l’angolo fra due vettori.

• Una volta definito l’angolo fra due vettori possiamo finalmente parlare di BasiOrtogonali.

• Da qui possiamo poi definire un vettore ortogonale a un sottospazio e la proie-zione di questo vettore sul sottospazio assieme alla distanza minima del vettoredal sottospazio.

1.2 Spazi vettoriali

Definizione 1. Uno spazio vettoriale su un campo scalare R é un insieme V con vettoriv, w, z tali che soddisfa le seguenti caratteristiche:

(i) V é un gruppo rispetto all’operazione + quindi é chiuso rispetto all’operazione equesta ha un elemento neutro e ogni elemento ha l’inverso

3

Page 5: Algebra Lineare

CAPITOLO 1. SPAZI VETTORIALI 4

(ii) l’operazione commutativa: v + w = w + v(iii) l’operazione é associativa: (v + w) + z = v + (w + z)(iv) l’operazione é lineare sul campo scalare α(v + w) = αv + αw

Esempio 2. Esempi classici: Rn, le matrici di un certo ordine a partire da un camposcalare, i polinomi con ordine minore di n.

Definizione 3. Un insieme di vettori x, y, z, ..., v si dicono linearmente indipendenti sedati λ1, .., λn tali che

λ1x + λ2y + ... + λnv = 0

implica necessariamente che λ1 = .. = λn = 0.

Uno spazio vettoriale si dice di dimensione n se contiene n vettori linearmente in-dipendenti. In questo caso ogni insieme di n vettori e1, .., en linearmente indipendentié chiamato base dello spazio vettoriale V. Chiaramente essendo lo spazio vettoriale didimensione n, questo vuol dire che un qualsiasi altro vettore appartenente allo spazioé linearmente dipendente e quindi puó essere scritto come combinazione lineare deglielementi della base. Infatti dati λ1, .., λn+1 non tutti nulli tali che

λ1x + λ2e1 + ... + λn+1en = 0

posssiamo scrivere il vettore x come la combinazione:

x = −λ2

λ1e1 + ... +−λn+1

λ1en

Questa rappresentazione é anche unica dato che se non fosse unica allora sot-traendo la prima con la seconda potremmo derivare una combinazione lineare deivettori della base capace di dare il vettore nullo e quindi dedurne che i vettori sonolinearmente dipendenti.

Dunque data una base in uno spazio vettoriale n ovvero n vettori linearmenteindipendenti e1, .., en , ogni vettore x puó essere scritto come combinazione linearex = ξ1e1 + .. + ξnen e i coefficienti (ξ1, .., ξn) sono chiamati coordinate di x nella basee1, .., en .

Esempio 4. Dati i seguenti vettori

v1 = (1, 1, 1, ...1, 1)v2 = (0, 1, 1, ...1, 1)v3 = (0, 0, 1, ...1, 1)

...vn = (0, 0, 0, ...0, 1)

scrivere un vettore x di coordinate (ξ1, ...ξn) nella base e1, ..., en nelle nuove coordi-nate η1, ...ηn. Da adesso usiamo la convenzione di Einstein sulla somma sugli indiciripetuti e spostando gli indici delle coordinate in alto. Ricordiamoci che se vogliamopoi passare alla notazione matriciale, gli indici in alto indicano colonne e quindi deicoefficienti con indice in alto sono rappresentati da 1 riga, mentre gli indici in bassoindicano righe e dunque dei coefficienti con indici in basso sono rappresentati da 1colonna:

x = ξ iei = ηivi

Page 6: Algebra Lineare

CAPITOLO 1. SPAZI VETTORIALI 5

Tuttavia sappiamo anche che, dato che i vettori {vi} sono una base dello spazio:

ei = λjivj

e dunque abbiamo chex = ξ iλ

jivj = η jvj

Nel caso esplicito abbiamoe1 = v1 − v2e2 = v2 − v3e3 = v3 − v4

...en = vn

Ovvero

λji =

1 −1 0 · · · 00 1 −1 00 0 1 0... . . . −10 0 0 · · · 1

e abbiamo cosí

ξ iλji =

(ξ1 ξ2 · · · ξn)

1 −1 0 · · · 00 1 −1 00 0 1 0... . . . −10 0 0 · · · 1

=

ξ1

ξ2 − ξ1

ξ3 − ξ2

...ξn − ξn−

t

A questo punto possiamo definire quello che consideriamo essere isomorfismi fraspazi vettoriali e che sono omeomorfismi fra gruppi ma tali che oltre che alla sommastruttura di somma venga trasportata dall’applicazione anche la struttura di moltipli-cazione per campo scalare.

Con questo possiamo formulare il primo Teorema che dice che tutti gli spazi vetto-riali della stessa dimensione n sono isomorfi fra loro.

Esempio 5. Esempi di come l’isomorfismo viene realizzato possono essere:

• Spazio lineare dei polinomi:

x → p(t)ξ1

ξ2

...ξn

ξ1 + ξ2t + ... + ξntn−1

• Spazio delle Matrici:

V 3 x → A ∈ M22(R)

ξ1

ξ2

ξ3

ξ4

(ξ1 ξ2

ξ3 ξ4

)

Page 7: Algebra Lineare

CAPITOLO 1. SPAZI VETTORIALI 6

1.3 Cambi di coordinate

Nel paragrafo precedente abbiamo introdotto il concetto di base di uno spazio vetto-riale e di coordinata di un vettore secondo una determinata base. Adesso supponiamodi avere due basi distinte e di voler calcolare il cambio di coordinate da una base al-l’altra. Questo non é altro che una generalizzazione dell’esempio che abbiamo fatto inprecedenza.

Abbiamo infatti che se vogliamo passare da un sistema di coordinate nella baseB = {ei}a un sistema di coordinate nella base P = {vi}

x = ξ iei = η jvj

Dobbiamo in primo luogo scrivere i vettori {ei} come combinazione lineare dei {vi}

e1 = aj1vj = a1

1v1 + ... + an1 vn

e2 = aj2vj = a1

2v1 + ... + an2 vn

e3 = aj3vj = a1

3v1 + ... + an3 vn

...en = aj

nvj = a1nv1 + ... + an

nvn

Ovvero

A =

a1

1 a21 a3

1 · · · an1

a12 a2

2 an2

......

a1n · · · an

n

e abbiamo cosí

η1

η2

η3

...ηn

t

=

(ξ1 ξ2 · · · ξn)

a1

1 a21 a3

1 · · · an1

a12 a2

2 an2

......

a1n · · · an

n

=

ξ ia1

iξ ia2

iξ ia3

i...

ξ iani

t

Abbiamo dunque il seguente schema che é valido:

[.]B Rn

↗ ↑↓ CBPV ↑↓↘ ↑↓ CPB[.]P Rn

Per ottenere le due matrici che sono una l’inversa dell’altra é sufficiente scrivere ivettori della base di destinazione nei termini della base di partenza.

1.4 Spazi Euclidei

Per poter sviluppare una forma di Geometria Euclidea con angoli, misure e quant’altroabbiamo bisogno di un prodotto scalare.

Page 8: Algebra Lineare

CAPITOLO 1. SPAZI VETTORIALI 7

Definizione 6. Un prodotto interno é una applicazione <,>: V × V → R tale chesoddisfa le seguenti proprietá:

(i) simmetrica: < x, y >=< y, x >(ii) bilineare: < αx1 + βx2, y >= α < x1, y > +β < x2, y > rispetto a tutte e due le

entrate(iii) semidefinita positiva: < x, x >≥ 0 e con < x, x >= 0 solo se x = 0.

La proprietá della simmetria ci serve perché se vogliamo definire delle lunghezze apartire da questo prodotto interno vogliamo che la lunghezza da un punto a a un puntob sia la stessa della lunghezza da un punto b a un punto a. La bilinearitá per mantenerequalcosa di coerente nella struttura di spazio vettoriale e la definizione positiva peravere vettori di norma sempre positiva e mai negativa.

Esempio 7. Alcuni esempi classici di norme possono essere:- dati due vettori nello spazio tridimensionale ordinario il coseno dell’angolo fra i

due vettori soddisfa tutte le richieste.- dato uno spazio vettoriale possiamo definire dati due vettori x = ξ iei e y = ηiei:

< x, y >= ξ iηi

- in altro modo possiamo definire un prodotto interno dei due vettori x e y come:

ξ iajiηj =

(ξ1 ξ2 · · · ξn)

a11 a2

1 a31 · · · an

1a1

2 a22 an

2...

...a1

n · · · ann

η1

η2

...ηn

questa é un prodotto interno se la matrice A é simmetrica.- un’altra metrica classica puó essere quella definita sullo spazio delle funzioni

continue e con prodotto interno

< f (t), g(t) >=

ˆ a

bf (t)g(t)dt

Dato il prodotto interno definiamo:

• lunghezza di un vettore x: |x| =√< x, x >

• angolo θ fra due vettori x e y: θ = arcos(<x,y>|x|·|y| )

• distanza fra due vettori x e y : d = |x− y|

A questo punto possiamo definire una base di coordinate ortonormale come una baseche soddisfi la condizione

< ei, ej >= δij

E’ possibile dimostrare come Teorema che in ogni spazio vettoriale di dimensionen é possibile trovare una base di vettori ortonormali.

Esempio 8. Un esempio non classico é quello di trovare una base ortonormale per lospazio dei polinomi di grado minore uguale di 2. Supponiamo di avere come prodottointerno

< p(t), q(t) >=

ˆ 1

−1p(t)q(t)dt

Page 9: Algebra Lineare

CAPITOLO 1. SPAZI VETTORIALI 8

Sappiamo che una base per V é formata da{

1, t, t2} che sono vettori linearmenteindipendenti. Vediamo di fornire una base ortogonale a partire da questi:

- il primo elemento della base é semplicemente il primo elemento cioé 1- il secondo elemento della base poniamolo come il secondo meno il primo con un

opportuno coefficiente t− α · 1 e imponiamo la condizione di ortogonalitá

0 =< t− α, 1 >=

ˆ 1

−1(t− α)dt = −2α

che portano a richiedere l’annullamento di α = 0 e dunque abbiamo il secondoelemento che é t

- il terzo elemento della base lo poniamo come il terzo a cui sottriamo una combi-nazione lineare del primo e del secondo cioé t2− βt− γ e imponiamo la condizione diortogonalitá

0 =< t2 − βt− γ, 1 >=

ˆ 1

−1(t2 − βt− γ)dt =

[t3

3

]1

−1− 0− 2γ

che porta alla condizione per cui γ = 13 e il terzo elemento é t2− 1

3 . In generale unabase ortonormale nello spazio dei polinomi di grado minore di n é

1, t, t2 − 13

, t3 − 35

t...

Date queste nozioni possiamo definire cosa intendiamo per vettore ortogonale a unsottospazio vettoriale (ovvero semplicemente un vettore il cui prodotto interno con ivettori che formano una base del sottospazio é identicamente nullo) e soprattutto cosaintendiamo per proiezione ortogonale di un vettore su un sottospazio come pure cosaintendiamo per distanza minima di un vettore da un sottospazio.

Procediamo con l’ultima: Dato un sottospazio H ⊂ V e un vettore f che non ap-partiene al sottospazio. In questo caso vogliamo dunque trovare un vettore f0 tale cheh = | f − fo| sia ortogonale al sottospazio in questione e allora calcolando la norma dih abbiamo la distanza del punto indicato da f dal sottospazio H.

< f − fo, ek >= 0 ∀k = 1..m

< f0, ek >=< f , ek > ∀k = 1..m

Dato chef0 = ciei i = 1..m

Allora abbiamo che la condizione precedente si trasforma in

c1 < e1, ek > +... + cm < em, ek >=< f , ek > ∀k = 1..m

Se la base é ortonormale, la soluzione é triviale perché < ei, ek >= δik . Nel casogenerale questo sistema di m equazioni in m incognite ha soluzione se e solo se il de-terminante dei coeffienti é diverso da zero ovvero se é diverso da zero quello che sichiama determinante di Gramm:

det

< e1, e1 > < e2, e1 > · · · < em, e1 >< e1, e2 > < e2, e2 > · · · < em, e2 >

...... . . . ...

< e1, em > < e2, em > · · · < em, em >

6= 0

Page 10: Algebra Lineare

Capitolo 2

Forme bilineari

2.1 Schema generale del discorso

• Si introducono le forme lineari come funzioni lineari e si mostra che formanouno spazio vettoriale.

• Si analizza definisce poi una forma bilineare e si vede che per via della suabilinearitá é possibile rappresentarla sotto forma matriciale in una data base

• Si analizza il cambio di coordinate di una forma bilineare dato da A′ = CT AC

• Dopo aver definito le forme bilineari si definiscono le forme quadratiche A(x, x)e si vede come sono esattamente equivalenti alle forme bilineari simmetriche. Sidefiisce quindi la forma polare di una forma quadratica.

• Forme quadratiche definite positive sono equivalenti a definire prodotto inter-no. Uno spazio Euclideo é dunque uno spazio con associato una forma quadra-tica da cui possiamo definire un prodotto interno.

• A questo punto si puó definire una Forma canonica di una forma quadratica incui la matrice associata é quella diagonale. Tale forma canonica é definita se iminori principalid ella amtrice associati alla forma bilineare sono diversi da zero,allora abbiamo

A(x, x) =40

41ξ1ξ1 + .. +

4n−1

4nξnξn = λiiξ

iξ i

• Basandoci sul risultato ottenuto della forma canonica possiamo stabilire una equi-valenza essenziale fra Forme quadratiche definite positive e determinanti prin-cipali maggiori di zero. In particolare questo ci dice che avere i determinantiprincipali maggiori di zero non dipende dalla scelta della base.

40 > 0,41 > 0, ...4n > 0

• Considerando che Forme quadratiche definite positive sono equivalenti a de-finire un prodotto interno possiamo tradurre i risultati trovati nel linguaggiodi un prodotto interno su uno spazio Euclideo e ricavare cosí a partire da del-le condizioni sul Determinante di Gramm alcuni risultati come la disuguaglianza diSchwarz.

9

Page 11: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 10

• Da notare che in uno spazio euclideo il determinante di Gramm di k vettori é ilVolume al quadrato di un parallelepipedo avente i vettori come spigoli per cuiVol2(e1, .., ek) =

√4k

• A questo punto possiamo ricavare la legge di inerzia ovvero il fatto che indi-pendentemente dalla base il numero di autovalori λi diversi da zero é costante.Questo permette di definire il Rango di una forma bilineare e il Kernel di unaforma bilineare come indipendenti dalla scelta della base.

• A questo punto si estendono i risultati cambiando il campo dai Reali ai Comples-si. Con la piccola modifica della coniugazione complessa al posto della simmetrianel prodotto interno, si possono estendere tutti i primi risultati elementari vali-di negli spazi Euclidei Reali al caso degli Spazi Euclidei complessi introducendonorma, distanza, ortogonalitá, base ortonormale e dunque l’isomorfismo fra tuttigli spazi Unitari.

• Viceversa per introdurre le forme bilineari dobbiamo introdurre prima le formelineari di I e di II specie e poi le forme bilineari

• A questo punto si introducono le forme bilineari hermitiane A(x, y) = A(y, x)che faranno la funzione delel forme bilineari simmetriche

• Se A é la matrice della forma bilineare hermitiana A(x, y) relativa a una base{ei} e B é la matrice della stessa forma bilineare A(x, y) ma nella base { fi} conf j = ci

jei allora abbiamoB = C∗AC

dove C∗ é la trasposta e congiugata di C. In pratica c∗ij = cji

2.2 Forme Lineari

Definizione 9. Una forma lineare o funzione lineare f é definita su uno spazio vettoriale V seper ogni vettore x é associata una f (x) tale che:

(i) f (x + y) = f (x) + f (y)(ii) f (λx) = λ f (x)Se prendiamo un vettore x di coordinate ξ i nella base ei allora

f (x) = f (∑ ξ iei) = ∑ ξ i f (ei) = ξ iαi =

(ξ1 ξ2 · · · ξn)

α1α2...

αn

Supponiamo adesso di cambiare base per x e quindi avere per lo stesso vettore

coordinate ηi nella base vi. E supponiamo

f (x) = ηifii

Proviamo a cambiare base da ei → vi allora dobbiamo esprimere i vettori ei comecombinazione lineare della nuova base

Page 12: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 11

e1 = aj1vj = a1

1v1 + ... + an1 vn

e2 = aj2vj = a1

2v1 + ... + an2 vn

e3 = aj3vj = a1

3v1 + ... + an3 vn

...en = aj

nvj = a1nv1 + ... + an

nvn

A questo punto possiamo esprimere

f (x) = ξ i f (ei) = ξ iaji f (vj) = ξ iaj

i β j

quindi abbiamo f (ei) = aji f (vj)

2.3 Forme Bilineari

Definizione 10. Una funzione Bilineare é una funzione A(x, y) tale che é:(i) una funzione lineare in x per ogni y fisso(ii) una funzione lineare in y per ogni x fissato

2.3.1 Rappresentazione matriciale di una forma bilineare

Un modo di rappresentare una forma bilineare A(x, y) é tramite una matrice A. Perfarlo si fa cosí:

In primo luogo si considera una base ei e le coordinate dei vettori x, y su questabase:

x = ξ ieiy = ηiei

Essendo dunque lineare sia in x che in y abbiamo che

A(x, y) = A(ξ iei, η jej) = ∑ A(ei, ej)ξiη j = aijξ

iη j

definendo quindiA(ei, ej) = aij

abbiamo una rappresentazione della forma bilineare secondo una data base:

xt Ay =

(ξ1 ξ2 · · · ξn)

a11 a12 · · · a1na12 a22 a2n... . . . ...

a1n a2n ann

η1

η2

...ηn

= aijξiη j = ∑ aijξ

iη j

Una forma bilineare é chiamata simmetrica se A(x, y) = A(y, x) un esempio diforma bilineare é il prodotto interno nello spazio Euclideo.

Page 13: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 12

2.3.2 Cambio di base di una forma bilineare

Abbiamo detto che una forma bilineare puó essere rappresentata in forma matricialesecondo l’identificazione

A(ei, ej) = aij

Se adesso vogliamo cambiare la base e usare la base fi allora dobbiamo trovare icoefficienti:

A(fi, fj) = a′ijQuindi come prima cosa dobbiamo scrivere la nuova base nei termini della vecchia

f1 = c11e1 + .. + cn

1 en = cp1 ep

f2 = c12e1 + .. + cn

2 en = cpnep

...fn = c1

ne1 + .. + cnnen = cp

nep

A questo punto applicare

a′ij = A( fi, f j) = A(cpi ep, cq

j eq) = A(ep, eq)cpi cq

j = apqcpi cq

j

che in forma matriciale altro non é che

A′ = CT AC

2.4 Forme Quadratiche

Data una forma bilineare si A(x, y) si ottiene una forma quadratica semplicementeconsiderando A(x, x). Una forma simmetrica bilineare A(x, y) puó essere ottenuta dauna forma quadratica A(x, x) tramite la semplice equivalenza:

A(x + y, x + y) = A(x, x) + A(y, x) + A(x, y) + A(y, y)

ma dato che che la forma é simmetrica e A(x, y) = A(y, x) abbiamo che

2A(x, y) = A(x, x) + A(y, y)− A(x + y, x + y)

Per cui da una forma quadratica possiamo estrarre la cosidetta forma polare per vettorinon identici.

Forma quadratica e forma bilineare simmetrica sono dunque due cose equivalenti.

Definizione 11. Una forma quadratica si dice definita positiva se A(x, x) > 0 per ognix 6= 0

Per la definizione che ne abbiamo dato nel paragrafo precedente un prodotto in-terno é una forma bilineare corrispondente a una forma quadratica definita positi-va. É anche vero il viceversa ovvero ogni forma quadratica definita positiva definisceun prodotto interno su uno spazio vettoriale per cui le due nozioni sono esattamenteequivalenti. Possiamo cosí dare una definizione alternativa di Spazio Euclideo:

Uno spazio vettoriale é chiamato Euclideo se é definita una forma quadratica po-sitiva A(x, x). In tale spazio il prodotto interno < x, y > di due vettori é preso comevalore A(x, y) dell’unica forma bilineare associata alla forma quadratica A(x, x)

Page 14: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 13

2.4.1 Diagonalizzazione di una forma quadratica

Una qualsiasi forma bilineare simmetrica puó essere ricondotta a una forma quadraticae qualsiasi forma quadratica puó essere diagonalizzata ovvero puó essere trovata unabase ei tale che in questa base:

A(x, x) = λ11ξ1ξ1 + .. + λnnξnξn = λiiξiξ i

Per trovare una base effettiva si procede in questo modo:Prendiamo una forma quadratica che nella forma generale é scritta in questo modo:

A(x, x) = aijηiη j, x = ηi fi

e cerchiamo di trovare un cambio di base per cui aij = 0 se i 6= j. In primo luogo cisi riconduce alla situazione in cui a11 6= 0 .1 A questo punto si fa una trasformazioneadatta per liberare tutti i termini misti con il primo termine e quindi si isolano dallaforma bilineare i termini misti che contengono η1

A(x, x) = a11η1η1 + 2a12η1η2 + ... + 2a1nη1ηn + altri

Allora per realizzare un cambio di base adatto basta considerare che

1a11

(a11η1 + a12η2 + ... + a1nηn

)2= a11η1η1 + 2a12η1η2 + ... + 2a1nη1ηn − B

E quindi fare il cambio di base tale che

η1∗ = a11η1 + a12η2 + ... + a1nηn

η2∗ = η2

... ... ...ηn∗ = ηn

In pratica si deve sostituire al primo coefficiente la somma di tutti i termini mistidivisi per due di modo che una volta elevato il nuovo coefficiente al quadrato tutti itermini misti si eliminino.

Nelle nuove coordinate infatti abbiamo che

A(x, x) =1

a11η1∗η

1∗ + B + altri

Dove il termine altri non é in funzione di η1∗ ma solo delle altre coordinate. Possia-

mo dunque procedere nuovamente lasciando fissa la prima coordinata.

Esercizio 12. Procedere nella diagonalizzazione della forma

A(x, x) = −η1η1 + 2η1η2 + 4η2η3 − 8η3η3

1Se ció non é possibile con una permutazione dei vettori della base allora si prende una situazione incui a12η1η2 6= 0 e si fa un cambio di base del tipo

η1∗ = η1 + η2

η2∗ = η1 − η2

η3∗ = η3

ηn∗ = ηn

In questo modo il nuovo a11 6= 0.

Page 15: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 14

ovvero

A =

−1 1 01 0 20 2 −8

Per primo cambio base si mette:

η1∗ = −η1 + η2

η2∗ = η2

η3∗ = η3

e la forma diventa

A(x, x) = −η1∗η

1∗ + η2

∗η2∗ + 4η2

∗η3∗ − 8η3

∗η3∗

A =

−1 0 00 1 20 2 −8

Come secodno cambio base si mette:

ξ1 = η1∗

ξ2 = η2∗ + 2η3

∗ξ3 = η3

E nelle nuove coordinate abbiamo

A(x, x) = −ξ1 + ξ2 − 12ξ3

A =

−1 0 00 1 00 0 −12

Per trovare il cambio base basta

ξ1 = η1∗ = −η1 +η2

ξ2 = η2∗ + 2η3

∗ = +η2 +2η3

ξ3 = η3∗ = +η3

E quindi la matrice di passaggio per il cambio dei coefficienti é

C =

−1 1 00 1 +20 0 1

A questo punto bisogna trovare la matrice che permette la rotazione. Per farlo basta

invertire la matrice C

U = C−1 =

−1 1 −20 1 −20 0 1

Questa matrice U permette il passaggio dalla base fi alla base eiA questo punto abbiamo

Page 16: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 15

−1 0 00 1 00 0 −12

= UT

−1 1 01 0 20 2 −8

U

−1 0 00 1 00 0 −12

=

−1 0 01 1 0−2 −2 1

−1 1 01 0 20 2 −8

−1 1 −20 1 −20 0 1

Si ottiene la matrice diagonalizzante:

U =

13 0 0

−√

43

√2 0

−√

112

√18

√128

2.4.2 Riduzione di una forma quadratica tramite matrici triangolari

Abbiamo una forma quadratica che possiamo scrivere nei termini di una base fi nellaseguente forma:

A(x, x) = aijξiξ j x = ξ ifi, A(fi, fj) = aij

Vogliamo a questo punto torvare una nuova base in cui questa forma quadraticaassume una struttura diagonale ovvero tale che A(ei, ek) = 0 se i 6= k.

Supponiamo inoltre che i minori principali della matrice A non abbiano mai deter-minante uguale a 0 ovvero che:

41 = det| a11 | 6= 0

42 = det∣∣∣∣ a11 a12

a21 a22

∣∣∣∣ 6= 0

...

4n = det

∣∣∣∣∣∣∣∣∣a11 a12 · · · a1na21 a22 · · · a2n...

... . . . ...an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣ 6= 0

Il motivo é che nella nuova base abbiamo chea11 0 0 00 a22 0 0

0 0 . . . 00 0 0 ann

e i coefficienti sulla diagonale sono:

akk = A(ek, ek) =4k−1

4kk = 1..n, 40 = 1

Page 17: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 16

Teorema 13. (Jacobi) Una qualsiasi forma quadratica tale che in una sua rappresentazionematriciale abbia tutti i minori principali diversi da zero, puó essere diagonalizzata ovvero puóessere trovata una base ei tale che in questa base su un vettore x di coordinate x = ξ iei assumeuna forma:

A(x, x) =40

41ξ1ξ1 + .. +

4n−1

4nξnξn = λiiξ

iξ i

Dimostrazione: La dimostrazione é abbastanza semplice: abbiamo una forma qua-dratica che possiamo scrivere nei termini di una base fi nella seguente forma:

A(x, x) = aijξiξ j x = ξ i fi, A( fi, f j) = aij

Vogliamo a questo punto torvare una nuova base in cui questa forma quadraticaassume una struttura diagonale ovvero tale che A(ei, ek) = 0 se i 6= k. Cerchiamo unanuova base della forma:

e1 = a11f1e2 = a12f1 +a22f2...

...en = a1nf1 +.. ..+ annfn

In questo tipo di base notiamo che

A(ek, ei) = 0 =⇒ A(ek, fi) = 0 i < k

Imponiamo inoltre A(ek, fk) = 1 e otteniamo sostituendo otteniamo:

A(ek, fi) = A(ak1f1 + .... + akkfk, fi) = 0 i < k

A(ak1f1 + .... + akkfk, fk) = 1

Questo diventa:

ak1A(f1, f1)+ ak2A(f2, f1) +... + ak1A(fk, f1) = 0ak2A(f1, f2)+ ak2A(f2, f2) +... + ak2A(fk, f2) = 0

......

...akk−1A(f1, fk−1)+ ak2A(f2,fk−1) +... + akk−1A(fk, fk−1) = 0

akk A(f1, fk)+ ak2A(f2, fk) +... + akk A(fk, fk) = 1

un sistema nelle incognite akk e la soluzione

A(ek, ek) = akk =4k−1

4k

Esempio 14. Un esempio puó essere la seguente forma bilineare simmetrica

2ξ1ξ1 + 3ξ1ξ2 + 4ξ1ξ3 + ξ2ξ2 + ξ3ξ3

questa é rappresentata dalla matrice 2 32 2

32 1 02 0 1

Page 18: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 17

Abbiamo dunque che i minori principali sono 41 = 2, 42 = −14 , 43 = −17

4 .Abbiamo dunque che nella nuova base la matrice assume questa forma 1

2 0 00 −8 00 0 1

17

La matrice per il cambio di base in questione é

C =

12 0 06 −8 0817 −

1217

117

Infine possiamo considerare le forme quadratiche definite positive.In questo caso se la forma quadratica é definita positiva si puó dimostrare che au-

tomaticamente non solo ha tutti i minori principali diversi da 0 ma4k > 0 per ogni k.Per cui possiamo direttamente formulare il seguente teorema:

Teorema 15. (Jacobi-Forma Canonica) Una qualsiasi forma quadratica definita positiva, puóessere diagonalizzata nella FORMA CANONICA

A(x, x) =40

41ξ1ξ1 + .. +

4n−1

4nξnξn = λiiξ

iξ i

A cui possiamo aggiungere un criterio famoso per determinare a partire da unaforma bilineare simmetrica se la corrispondente forma quadratica é definita positiva.

Teorema 16. (Sylvester) La forma quadratica di una qualsiasi forma bilineare simmetrica édefinita positiva, se e solo se

40 > 0,41 > 0, ...4n > 0

Questo é un caso particolare del fatto che la segnatura di una forma quadrati-ca é indipendente rispetto alla base scelta. Allo stesso modo il rango di una formadifferenziale bilineare é sempre lo stesso indipendentemente dalla scelta della base.

Facciamo comunque una dimostrazione:⇐= Supponiamo che i minori siano tutti positivi

40 > 0,41 > 0, ...4n > 0

questo logicamente implica che:

A(x, x) =40

41ξ1ξ1 + .. +

4n−1

4nξnξn = λiiξ

iξ i > 0 ∀x 6= 0

=⇒Supponiamo la forma bilineare sia definita positiva. Il nostro primo passo édimostrare che tutti i miori sono diversi da zero. Questo in realtá é facile perché se

det

A(f1, f1) A(f2, f1) ... A(fk, f1)A(f1, f2) A(f2, f2) ... A(fk, f2)

......

...A(f1, fk−1) A(f2, fk−1) ... A(fk, fk−1)

A(f1, fk) A(f2, fk) ... A(fk, fk)

= 0

Page 19: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 18

Allora per via una delle righe sarebbe combinazione lineare delle altre. Esplicitandoquesta combinazione lineare tramite dei coefficienti µk questo grazie alla bilinearitá diA vuol dire che una combinazione lineare degli fk darebbe come risultato

A(µ1f1 + ... + µkfk, µ1f1 + ... + µkfk) = 0

Il che contraria l’ipotesi che per cui A é definita positiva.Una volta dimostrato che i minori sono diversi da zero allora per il teorema prece-

dente la forma bilineare puó essere scritta in forma canonica e dato che

A(x, x) =40

41ξ1ξ1 + .. +

4n−1

4nξnξn = λiiξ

iξ i > 0 ∀x 6= 0

ne consegue che40 > 0,41 > 0, ...4n > 0

2.4.3 Il Determinante di Gramm

Abbiamo detto che una forma lineare definita positiva é equivalente a un prodottointerno tramite équivalenza

A(x, x) ≡< x, x >

E a quel punto possiamo definire

A(x, y) =< x, y >

La condizioni che avevamo sui minori che dovevano essere maggiori di zero per leforme quadratiche definite positive si traduce nella conseguenza che dati k vettori ei

det

∣∣∣∣∣∣∣∣∣< e1, e1 > < e2, e1 > ... < ek, e1 >< e1, e2 > < e2, e2 > ... < ek, e2 >

......

...< e1, ek > < e2, ek > ... < ek, ek >

∣∣∣∣∣∣∣∣∣ > 0⇐⇒ ei indipendenti

Corollario 17. (Disuguaglianza di Schwarz) < x, y >2≤< x, x >< y, y >

La dimostrazione é presto fatta dato che basta notare che il Determinante di Grammper i due vettori é un minore di ordine 2 della forma bilineare definita positiva alla basedel prodotto interno utilizzato:

42 =

∣∣∣∣ < x, x > < y, x >< x, y > < y, y >

∣∣∣∣ ≥ 0

Da notare che il determinante di Gramm di 3 vettori x, y, z altro non é che il qua-drato del volume di un parallelepipedo avente i 3 vettori come spigoli:

43 = V2 =

∣∣∣∣∣∣< x, x > < y, x > < z, x >< x, y > < y, y > < z, y >< x, z > < y, z > < z, z >

∣∣∣∣∣∣ ≥ 0

dove

V =

∣∣∣∣∣∣x1 x2 x3y1 y2 y3z1 z2 z3

∣∣∣∣∣∣ = √43 > 0

Page 20: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 19

2.5 La legge di inerzia

Noi abbiamo trovato un modo per diagonalizzare la matrice, chiaramente questo modonon é unico. In realtá semplicemente operando un cambio di base possiamo semplice-mente fare in modo che sulla diagonale ci siano solo λi ∈ {−1, 0, 1}. Questo equivale,in uno spazio euclideo a definire una base tale che un volume formato da tre vettori siaun volume unitario. Ora la domanda da porsi é se il numero di λi > 0, λi < 0 e λi = 0rimanga costante oppure no. La legge di inerzia dice che:

Teorema 18. (Legge di Inerzia) In qualsiasi modo diagonalizziamo la matrice il numero dicoefficienti nulli é costante

Per dimostrare questo teorema bisogna prima dimostrare il Lemma:

Lemma 19. Dati due sottospazi H e H′ di dimensione p e q di uno spazio vettoriale didimensione n e tali che p + q > n allora esiste un vettore x ∈ H ∩H′.2

Adesso supponiamo di avere in una base {ei}

A(x, x) = ξ1ξ1 + .. + ξ pξ p − ξ p+1ξ p+1..− ξnξn

e in una base

A(x, x) = η1η1 + .. + ηp′ηp′ − ηηp′+1..− ηnηn

e supponiamo per esempio che p > p′ allora per via del Lemma dato che n −p′ + p > n un vettore x che appartiene al sottospaziospan(fp′+1, .., fn) e contempo-raneamente al sottospazio span(e1, .., ep), se calcoliamo la forma bilineare su x alloraabbiamo che

A(x, x) = ξ1ξ1 + .. + ξ pξ p > 0

e contemporaneamente

A(x, x) = −ηηp′+1..− ηnηn < 0

Che é assurdo.

Corollario 20. (Rango) Il Rango di una forma bilineare é invariante per scelta della base

Per contro possiamo definire il Kernel

Corollario 21. (Kernel) Il Kernel di una forma bilineare é un sottospazio dello spazio originaleed é invariante per scelta di base

2Questa dimostrazione si fa molto facilmente perché dato che il numero di vettori delle due basi deidue sottospazi supera la dimensione dello spazio vuol dire che esistono dei coefficienti tali che:

λ1e1 + .. + λpep + µ1f1 + .. + µqfq = 0

Questo semplicemente vuol dire che x =λ1e1 + .. + λpep = µ1f1 + .. + µqfq é il vettore cercato.

Page 21: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 20

2.6 Lo spazio Complesso n-dimensionale

Indicativamente gran parte dei risultati trovati nel caso Reale valgono anche nel casoComplesso. Ci sono tuttavia dei problemi essenziali sulla proprietá di simmetria e conil prodotto per scalare richiesta per il prodotto interno.

Abbiamo infatti che la bilinearitá implicherebbe

< λx, λx >= λ2 < x, x >

ma nel caso del campo Complesso ponendo come λ = i avremmo

< ix, ix >= − < x, x >

Che violerebbe la richiesta di avere una forma bilineare definita positiva ovvero >0 per qualsiasi x.

Per risolvere il problema si corregge la definizione del prodotto interno con l’usodel complesso coniugato:

Definizione 22. Un prodotto interno Complesso é una applicazione <,>: V ×V → C

tale che soddisfa le seguenti proprietá:(i) simmetrica: < x, y >= < y, x >(ii) bilineare: < αx1 + βx2, y >= α < x1, y > +β < x2, y >(iii) semidefinita positiva: < x, x >≥ 0 e con < x, x >= 0 solo se x = 0.Nota: le precedenti definizioni implicano che < x, λy >= λ < x, y >

Uno spazio Euclideo Complesso con queste caratteristiche si dice Spazio Unitario.

Esempio 23. Esempio di Spazio Unitario. Possiamo ad esempio definire su C3 il pro-dotto interno per cui dati 2 vettori z = (z1, z2, z3) e w = (w1, w2, w3) il prodotto internoé definito come < z, w >= z1w1 + z2w2 + z3w3

Un altro esempio puó essere dato dallo spazio delle funzioni integrabili su unintervallo [a,b] a valori Complessi e con prodotto interno definito come

< f (z), g(z) >=

a

f (z)g(z)dz

Da questa definizione di prodotto interno si puó definire come logica conseguenza:

• norma di un vettore z ∈ Cn‖z‖ =√< z, z >

• distanza fra due vettori z, w ∈ Cnd(z, w) = ‖z−w‖

• due vettori ortogonali z, w ∈ Cnquando< z, w >= 0

Dopo aver definito i vettori ortogonali si definisce una base ortonormale e si troval’isomorfismo fra tutti gli spazi Unitari. Pertanto i risultati visti nel capitolo precedentesono facilmente estendibili agli Spazi Unitari.

Nel caso complesso dunque lo stesso problema si riscontra nella definizione difunzione lineare che ovviamente puó essere di due tipi

Page 22: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 21

Definizione 24. Una forma lineare o funzione lineare f é definita su uno spazio vettorialecomplesso V :

del I tipo: se per ogni vettore x é associata una f (x) tale che:(i) f (x + y) = f (x) + f (y)(ii) f (λx) = λ f (x)del II tipo: se per ogni vettore x é associata una f (x) tale che:(i) f (x + y) = f (x) + f (y)(ii) f (λx) = λ f (x)

E da questa definizione definiamo una forma bilineare su uno spazio complesso

Definizione 25. Una funzione Bilineare é una funzione A(x, y) tale che é:(i) una funzione lineare del primo tipo in x per ogni y fisso A(λx1 +µx2, y) = λA(x1, y)+

µA(x2, y)(ii) una funzione lineare del secondo tipo in y per ogni x fissato A(x, λy1 + µy2) =

λA(x, y1) + µA(x, y2)

Un esempio generale di forma bilineare complessa é:

A(x, y) = aijξiη j = A(ei, ej)ξ

iη j

x = ¸ieiy = ηiei

Teorema 26. Una forma bilineare complessa é unicamente determinata dalla sua forma qua-dratica

Definizione 27. Una forma bilineare si chiama Hermitiana se A(x, y) = A(y, x)

Teorema 28. Perché una forma si Hermitiana e necessario e sufficiente che la sua formaquadratica A(x, x) abbia valori reali per ogni vettore x.

2.6.1 Cambio di base di una forma bilineare Hermitiana

Se A é la matrice della forma bilineare hermitiana A(x, y) relativa a una base {ei} e Bé la matrice della stessa forma bilineare A(x, y) ma nella base {fi} con fj = ci

jei alloraabbiamo

B = C∗AC

dove C∗ é la trasposta e congiugata di C. In pratica c∗ij = cji con la matrice percambio di base

c11 c1

2 · · · c1n

c21 c2

2 · · · c2n

...... . . . ...

cn1 cn

2 · · · cnn

Teorema 29. (Jacobi) Una qualsiasi forma Hermitiana quadratica su uno spazio vettorialecomplesso ha una base ei tale che in questa base su un vettore x di coordinate x = ξ iei assumeuna forma:

A(x, x) =40

41ξ1ξ1 + .. +

4n−1

4nξnξn = λiiξ

iξ i

dove i determinanti4k sono numeri Reali.

Page 23: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 22

2.7 Esercizio di diagonalizzazione

Supponiamo di avere la seguente forma bilineare:

A(x, x) = au1u1 + 2du1u2 + 2eu1u3 + bu2u2 + 2 f u2u3 + cu3u3

dove chiaramente x = uiei. Riscrivendo la forma bilineare in notazione matricialeabbiamo dunque che nella base {ei} la forma assume:

A =

a d ed b fe f c

Adesso procediamo nel nostro cambio di coordinate x = uiei = vifi. Facciamo in

modo di scegliere la nuova base di modo tale che :

v1 = au1 + du2 + eu3

v2 = u2

v3 = u3

Con questo cambio di base adesso dobbiamo esplicitare il termine au1u1 e lo faccia-mo calcolando:

v1v1 = a2u1u1 + 2adu1u2 + 2aeu1u3 + d2u2u2 + 2deu2u3 + e2u3u3

da cui si ottiene:

1a

v1v1 = au1u1 + 2du1u2 + 2aeuu3 +d2

au2u2 + 2

dea

u2u3 +ea

2u3u3

e dunque

1a

v1v1 − 2dv1v2 − 2aev1v3 − d2

av2v2 − 2

dea

v2v3 − ea

2v3v3 = au1u1

Da cui nelle nuove coordinate

A(x, x) =1a

v1v1 +ab− d2

av2v2 + 2(

f a− dea

)v2v3 +ca− e2

av3v3

A questo punto siamo pronti per l’ultimo cambio di coordinate x = uiei = vifi =wigi in cui scegliamo la nuova base di modo che

w1 = v1

w2 = pv2 +qv3

w3 = v3dove p = ab−d2

aq = f a−de

a

Con questo cambio di coordinate abbiamo

1p

w2w2 = pv2v2 + 2qv2v3 +qp

2v3v3

ovvero1p

w2w2 − 2qw2w3 − qp

2w3w3 = pv2v2

Page 24: Algebra Lineare

CAPITOLO 2. FORME BILINEARI 23

e dunque nelle nuove coordinate abbiamo la diagonalizzazione

A(x, x) =1a

w1w1 +1p

w2w2 + (ca− e2

a− q2

p)w3w3

ovvero

A(x, x) =1a

w1w1 +a

ab− d2 w2w2 + ((ca− e2)(ab− d2)− ( f a− de)2

a2(ab− d2))w3w3

cioé:

A =

1a 0 00 a

ab−d2 0

0 0 (ca−e2)(ab−d2)−( f a−de)2

a2(ab−d2)

A questo punto se siamo interessati al cambio di base dobbiamo notare che

w1 = v1 = au1 +du2 +eu3

w2 = pv2 +qv3 = + ab−d2

a u2 + f a−dea u3

w3 = v3 = u3

Da qui abbiamo dunque

C =

a d e0 ab−d2

af a−de

a0 0 1

Calcolando dunque l’inversa per operare il cambio di base sulla forma bilineare

otteniamo:

U = C−1 =

1a

−dab−d2

be−d fab−d2

0 aab−d2

de−a fab−d2

0 0 1

Per cui abbiamo

1a 0 00 a

ab−d2 0

0 0 (ca−e2)(ab−d2)−( f a−de)2

a2(ab−d2)

= UT

a d ed b fe f c

U

Page 25: Algebra Lineare

Capitolo 3

Trasformazioni lineari

3.1 Senso del discorso

• Sono funzioni lineari da uno spazio vettoriale a uno spazio vettoriale e posso-no essere rappresentate sotto forma matriciale. Si dimostra che data una basee un’insieme di n vettori, esiste un’unica trasformazione lineare che manda ivettori della base nei vettori prescelti. Si trova la formula per il cambio di base:B = C−1AC dove C é la matrice per il passaggio di base fk = Cek.

• Si definiscono sottospazi invarianti, autovettori e autovalori. Si definisce comefare a trovare un autovettore.

• Si introduce il polinomio caratteristico. Si fa vedere che il polinomio carateristicoé indipendente dalla scelta della base.

• Si fa vedere che n autovettori con autovalori distinti sono linearmente indipendenti.Come corollario se ne deduce che ogni matrice con polinomio caratteristico conn radici distinti é diagonalizzabile.

• Si dimostra che P(λ) = λn + tr(A)λn−1 + ... + tr(Λn−1A)λ + detA dove Λk Asono i minori principali di ordine k. Nel caso in cui A sia diagonale invece ilpolinomio é molto piú facile essendo P(λ) = (a1

1− λ) · . . . · (ann− λ) e che se P(λ)

é il polinomio caratteristico della matrice A allora P(A) = 0.

• A questo punto si introduce la relazione fra trasformazioni lineari e forme bili-neari.1 A(x, y) = (Ax, y) = (x, A∗y)

Trasformazioni Autoaggiunte

• Dopo aver introdotto la trasformazione aggiunta si tratta delle trasformazionilineari autoaggiunte A∗ = A e di come ogni trasformazione lineare possa esseredecomposta in somma di due trasformazioni autoaggiunte A = A1 + iA2.

• Il prodotto di due autoaggiunte AB é autoaggiunto⇔ A e B commutano.

• Si fa vedere che se é autoaggiunta, A ha tutti autovalori reali. Il sottospazio or-togonale all’autovettore corrispondente forma un sottospazio invariante rispettoalla trasformazione A.

1dove con le parentesi ( , ) si indica il prodotto interno canonico e con le parentesi < , > il prodottointerno derivato dalla forma bilineare

24

Page 26: Algebra Lineare

CAPITOLO 3. TRASFORMAZIONI LINEARI 25

• Teorema: Sia A una trasformazione lineare sullo spazio Euclideo n dimensionale. Affin-ché A sia autoaggiunta é necessario e sufficiente che esista una base ortogonale relativa acui la matrice A sia diagonale (con autovalori reali?).

• in trasformazioni Autoaggiunte Autovettori corrispondenti a diversi autovalorisono ortogonali fra loro.

Trasformazioni Unitarie

• Si definiscono le trasformazioni unitarie. Le trasformazioni unitarie sono quelletrasformazioni che lasciano invariate le lunghezze dei vettori e l’ortogonalitá deivettori. Inoltre gli autovalori di trasformazioni unitarie sono in valore assolutouguali a 1.

• Una trasformazione unitaria ha una base rispetto alla quale la trasformazioneassume forma diagonale e gli autovalori sono in valore assoluto uguali a 1. DataA autoaggiunta U−1AU é autoaggiunta.

• Data A una matrice Hermitiana, A puó essere rappresentata come A = U−1DU

Trasformazioni Commutative e Normali

• Se AB = BA allora gli autovettori di A formano uno spazio invariante rispet-to a B. Ogni due trasformazioni lineari che commutano AB = BA hanno unautovettore comune.

• A e B commutano⇔ sono diagonalizzabile rispetto a una stessa base.

• Una trasformazione é normale A∗A = A∗A⇔é diagonalizzabile

3.2 Trasformazioni Lineari e operazioni elementari

Fino ad adesso abbiamo parlato di funzioni lineari a valori in un campo scalare, adessovogliamo trattare di funzioni da uno spazio vettoriale a uno spazio vettoriale.

Definizione 30. Se ad ogni vettore x ∈ V é univocamente definito un vettore y ∈V al-lora la mappa y = A(x)é chiamata trasformazione. Se poi é tale da soddisfare le seguenticondizioni:

(i) A(x1 + x2) = A(x1) + A(x2)(ii) A(λx) = λA(x) allora si dice trasformazione lineare.Se abbiamo il vettore x = ξ iei e y =A(x) con y = ηiei possiamo rappresentare la

trasformazione in forma matriciale dato che:

y = ηiei = aijξ

jei ovvero ηi = aijξ

j

η1

η2

...ηn

=

a1

1 a12 ... a1

na2

1 a22 ... a2

n...

... . . . ...an

1 an2 . . . an

n

ξ1

ξ2

...ξn

Esempio 31. Esempi di trasformazioni lineari possono essere:

Page 27: Algebra Lineare

CAPITOLO 3. TRASFORMAZIONI LINEARI 26

• Rotazioni in uno spazio Euclideo

• Cambio di base in uno spazio vettoriale

• Proiezioni su un piano

• Nello spazio dei polinomi la derivazione

L :V = R3[t] → W = R2[t]

p(t) = t3 + a2t2 + a1t + a0 → ddt p(t)

• Nello spazio delle funzioni continue e integrabili l’integrazione lungo un inter-vallo definito

Dati n vettori arbitrari g1, .., gn esiste un’unica trasformazione lineare A tale che

A(e1) = g1 ... A(en) = gn

Si trova che esiste una corrispondenza univoca fra Trasformazioni lineari in uno spazioEuclideo e matrici che rappresentano la trasformazione lineare.

Esempio 32. Rappresentiamo sotto forma matriciale la trasformazione lineare L = ddt :

R3[t]→ R2[t]. Abbiamo il seguente schema:

L : R3[t] → R2[t]p(t) → d

dt p(t)↓ ↓

A : V = R4 → W = R3

Troviamo come base di R3[t] la base B ={

1, t, t2, t3} e invece come base di R2[t] labase D =

{1, t, t2}. Per trovare la matrice che rappresenta la trasformazione lineare é

sufficiente calcolare il valore che la funzion assume sulla base e scrivere questi valoriin termini della base di arrivo:

L(e1) = L(1) = 0 = 0L(e2) = L(t) = 1 = e1L(e3) = L(t2) = 2t = 2e2L(e4) = L(t3) = 3t2 = 3e3

da cui otteniamo la seguente rappresentazione matriciale A che é relativa alla baseB di aprtenza e manda nella base D di arrivo:

[L]BD = A =

0 1 0 00 0 2 00 0 0 3

Successivamente si definisce il prodotto di trasformazioni lineari come prodotto

matriciale per cui

Cx = cikξk = ABx = (ai

jbjk)ξ

k prodotto di trasformazioni lineari

Cx = cijξ

j = (A + B)x = (aij + bi

j)ξj somma di trasformazioni lineari

Poi definiamo:

• un polinomio di matrici P(A) = a0 I + a1A + ... + an An

• la trasformazione lineare inversa A−1A = AA−1 = I

Page 28: Algebra Lineare

CAPITOLO 3. TRASFORMAZIONI LINEARI 27

3.2.1 Cambio di base in una trasformazione lineare

Supponiamo di avere due basi su uno stesso spazio vettoriale E = {ei} e F = {fi} e diavere una matrice di passaggio

fk = cjkej per cui

fk = CEFek dove C =

c1

1 c12 · · · c1

nc2

1 c22 c2

n...

...cn

1 cn2 · · · cn

n

chiaramente C−1fk=ek

A questo punto supponiamo di voler operare un cambio di base alla trasformazionelineare L : V → V , la stessa trasformazione puó essere scritta in due modi secondodue basi diverse. Chiamiamo [L]EE la rappresentazione della matrice data come basedi partenza la base E e come base di arrivo la base F

[L]EE ← Lx→[L]FF

e ovviamente abbiamo che:

[L]FF = CFE [L]EE CEF = C−1EF [L]EE CEF

Ha una rappresentazione matriciale A nella base {ei} e una rappresentazione ma-triciale B nella base {fi} .

Per ogni vettore x = ξ iei = η jfj abbiamo che Lx puó essere scritto nella base {ei} onella base {fi}.

Lek = Aei = aikei mentre nell’altra base Lfk = Bfi = bi

kfi

Abbiamo dunque che per specificare la base in cui é scritto un certo vettore

[A[x]E]E = Lx

Vuol dire che abbiamo un vettore scritto nella base {ei} e la cui trasformazione életta nella base {ei} viceversa vgliamo trovare la matrice che manda vettori letti nellabase {fi}e in cui il vettore di destinazione é letto nella base {fi}

[B[x]F]F = Lx

[CA[x]E]F = Lx

[CA[C−1x]F]F = Lx =[B[x]F]F

Da cui deriva C−1AC = B.

3.3 Sottospazi invarianti e Polinomio caratteristico

Definizione 33. Un spazio H ⊂ V si dice invariante rispetto alla trasformazione lineareA se ∀x ∈ H abbiamo che Ax ∈ H.

Page 29: Algebra Lineare

CAPITOLO 3. TRASFORMAZIONI LINEARI 28

Esempio 34. Supponiamo di avere una trasformazione lineare A tale che la rappresen-tazione matriciale é

a11 · · · a1

k a1k+1 a1

n...

......

...

ak1 · · · ak

k...

...

0 0 0...

...

0 0 0...

...0 0 0 an

k+1 ann

In questo caso il span(e1, .., ek) = H é un sottospazio invariante per la trasforma-

zione A.

Definizione 35. Un vettore x si dice autovettore se soddisfa la relazione Ax = λx . Nelcaso λ si chiama autovalore.

Esempio 36. Un esempio di spazio invariante, di autovettore e autovalore puó esseredato dal seguente:

A =

1 1 00 1 00 0 3

Abbiamo due autovettori con autovalore 1 e 3 rispettivamente

Ae1 = e1 e Ae3 = 3e3

E uno sottospazio invariante che é dato da span(e1, e2)Un altro esempio puó essere se consideriamo la derivazione come trasformazione

lineare sullo spazio delle funzioni C∞(C)

L : C∞(C) → C∞(C)f (t) → d

dt f (t)

In questo caso abbiamo che

L(e3t) = 3e3t é un autovettore con autovalore 3

L(cost + isint) = i(cost + isint) autovettore con autovalore i

Definizione 37. Una matrice A si dice diagonalizzabile se puó essere rappresentata inuna base di autovettori.

Se A é diagonalizzabile e riesco a trovare una base di autovettori {bi} con rispettiviautovalori λi allora ho che con un cambio di base:

A = C−1EB

λ1 0 · · · 00 λ2 0...

...0 0 . . . λn

CEB = C−1EB DCEB

con la matrice di passaggio dalla base E alla base B che é data semplicemente dallecoordinate degli autovettori

CEB = (−→b 1, · · · ,

−→b n)

Quindi se riusciamo a trovare gli autovettori e gli autovalori di una matrice possia-mo facilmente diagonalizzarla se essa é diagonalizzabile.

Page 30: Algebra Lineare

CAPITOLO 3. TRASFORMAZIONI LINEARI 29

Osservazione 38. Da notare che se riusciamo ad avere la matrice in forma diagonaleautomaticamente abbiamo che le potenze della matrice dato che

A2 = C−1EB DCEBC−1

EB DCEB = C−1EB D2CEB e in generale

An = C−1EB DnCEB

Questo ci riporta a considerare piú da vicino l’equazione Ax = λx .L’equazione Ax = λx é equivalente a richiedere

(A− λI)x = 0 per un qualche vettore non nullo

e questo é equivalente a richiedere che

det(A− λI) = 0

I λ = λi o soluzioni del polinomio caratteristico per cui il determinante si annullasono dunque gli autovalori per cui esiste un autovettore x della trasformazione.

Un modo esplicitato per vedere questo stesso discorso é questo:

a11ξ1+ · · · +a1

nξn = λξ1

......

...a1

1ξ1+ · · · +a1nξn = λξn

ovvero

(a1

1 − λ)

ξ1+ · · · +a1nξn = 0

......

...a1

1ξ1+ · · · +(a1

n − λ)

ξn = 0

che ha sempre una soluzione se

det

a1

1 − λ · · · a1n

......

......

ann · · · an

n − λ

6= 0

Questo é un polinomio di grado n in funzione di λchiamato polinomio caratteristico.

Esempio 39. Supponiamo di avere la seguente matrice:

det

a11 − λ a1

2 a13

a21 a2

2 − λ a23

a31 · · · a3

3 − λ

Il determinante della matrice o polinomio caratteristico della trasformazione lienare

é

λ3(−1) + λ2(a33 + a2

2 + a11) + λ(a1

2a21 − a2

2a11 + a1

3a31 + a2

3a32 − a3

3a11 − a3

3a22) + detA

Si dimostra che P(λ) = λn + tr(A)λn−1 + ... + tr(Λn−1A)λ + detA dove Λk A sonoi minori principali di ordine k. Nel caso in cui A sia diagonale invece il polinomio émolto piú facile essendo P(λ) = (a1

1 − λ) · . . . · (ann − λ) e che se P(λ) é il polinomio

caratteristico della matrice A allora P(A) = 0.

Page 31: Algebra Lineare

CAPITOLO 3. TRASFORMAZIONI LINEARI 30

Teorema 40. Se e1, .., ek sono autovalori di una trasformazione A e i corrispondenti autovalori˘1, .., ˘k sono distinti, allora e1, .., ek sono linearmente indipendenti.

si prova per induzione.

Corollary 41. Se il polinomio caratteristico di una matrice contiene n radici distinte allora lamatrice é diagonalizzabile.

Esercizio 42. Diagonalizzare la matrice

A =

1 −3 33 −5 36 −6 4

Abbiamo che il polinomio caratteristico P(λ) = λ3− 0λ2− 12λ− 16 = (λ+ 2)2(λ−

4) per cui gli autovalori sono λi = {−2, 4}. A questo punto é necessario calcolare gliautovettori della matrice e dunque sostituiamo gli autovalori per risolvere il seguentesistema 1− λ −3 3

3 −5− λ 36 −6 4− λ

xyz

=

000

Caso λ = −2 abbiamo 3 −3 3

3 −3 36 −6 6

xyz

=

000

da cui dividendo tutte le righe per un opportuno coefficiente otteniamo

1 −1 11 −1 11 −1 1

xyz

=

000

cioé

1 −1 10 0 00 0 0

xyz

=

000

ovvero

x− y + z = 0y = yz = z

=⇒

x = a− b = 0y = az = b

ovvero

av1 + bv2 =

a− bab

= a

110

+ b

−101

Otteniamo cosí gli autovettori v1v2 associati all’autovalore λ = −2. A questo punto

passiamo a λ = 4 e abbiamo −3 −3 33 −9 36 −6 0

xyz

=

000

ovvero

−1 −1 11 −3 11 −1 0

xyz

=

000

Page 32: Algebra Lineare

CAPITOLO 3. TRASFORMAZIONI LINEARI 31

che con qualche operazione si riduce a 1 1 −10 2 −10 0 0

xyz

=

000

ovvero

x + y− z = 02y− z = 0z = z

=⇒

x = − a

2 + ay = a

2z = a

ovvero

v3 =a2

112

Da cui abbiamo finalmente i 3 autovettori

v1, v2, v3 =

1

10

,

−101

,

112

La matrice per il cambio di base é dunque

CEB =

1 −1 11 0 10 1 2

e C−1EB = CBE =

12

−1 3 −1−2 2 01 −1 1

Da cui infine abbiamo la finale diagonalizzazione −2 0 0

0 −2 00 0 4

=12

−1 3 −1−2 2 01 −1 1

1 −3 33 −5 36 −6 4

1 −1 11 0 10 1 2

3.4 Trasformazioni lineari e Forme Bilineari

A questo punto si introduce la relazione fra trasformazioni lineari e forme bilineari.Le forme bilineari e le trasformazioni lineari sono entrambe rappresentabili con unamatrice, ma non possiamo farle corrispondere nel modo canonico in quanto esso sa-rebbe privo di senso dato che con il cambio di base le trasformazioni lineari cambianocon C−1AC mentre le forme bilineari cambiano come CT AC.

Possiamo peró far corrispondere alla forma bilineare A(x, y) = (Ax, y) ovvero ilprodotto scalare usuale dove peró i vettori x sono stati trasformati con la trasforma-zione lienare A. Con le parentesi ( , ) si indica il prodotto interno canonico e con leparentesi < , > il prodotto interno derivato dalla forma bilineare A(x, y) = (Ax, y) =(x, A∗y) ≡< x, y >A.

La corrispondenza A(x, y) = (Ax, y) é una corrispondenza univoca fra forme bili-neari e trasformazioni lineari.

Page 33: Algebra Lineare

CAPITOLO 3. TRASFORMAZIONI LINEARI 32

3.4.1 Proprietá dell’operazione aggiunta

• (AB)∗ = B∗A∗

• (A∗)∗ = A

• (A + B)∗ = A∗ + B∗

• (λA)∗ = λA∗

• (I)∗ = I

Definizione 43. Una trasformazione lineare A si dice autoaggiunta o hermitiana A =A∗ se la forma bilineare corrispondente A(x, y) = (Ax, y) é Hermitiana ovvero seA(x, y) = A(y, x). In pratica la sua rappresentazione matriciale é tale che AT + A = 0.

In particolare per una trasformazione lineare Hermitiana abbiamo che (Ax, y) =(x, Ay).

Teorema 44. Ogni trasformazione lineare A puó essere decomposta in A = A1 + iA2 doveA1 e A2 sono autoaggiuntePer dimostrare il teorema basta porre:

A1 =A + A∗

2e A2 =

A− A∗

2Teorema 45. Date A e B autoaggiunte, il prodotto AB é autoaggiunto se e solo se A e BcommutanoDefinizione 46. Una trasformazione si dice Unitaria se U∗U = I ovvero U−1 = U∗

3.5 Trasformazioni Hermitiane o Autoaggiunte

Definizione 47. Una trasformazione lineare A si dice autoaggiunta o hermitiana A =A∗ se la forma bilineare corrispondente A(x, y) = (Ax, y) é Hermitiana ovvero seA(x, y) = A(y, x). In pratica la sua rappresentazione matriciale é tale che AT + A = 0.

Lemma 48. Ogni autovalore di una trasformazione autoaggiunta é realeLa dimostrazione é semplice: dato che A = A∗ prendiamo un autovettore Ax = ˘x

e se calcoliamo su questo vettore la forma bilineare otteniamo:

(Ax, x) = (λx, x) = λ(x, x) = (x, Ax) = (x, λx) = λ(x, x)

da cui λ = λ

Lemma 49. Dato e autovettore di A lo spazio dei vettori ortogonali a e é un sottospazioinvariante rispetto a A

Se (x, e) = 0 ovvero x é ortogonale a e allora anche (Ax, e) = (x, Ae) = λ(x, e) = 0ovvero anche Ax é ortogonale a e.

Teorema 50. Se A é una trasformazione autoaggiunta, allora esistono n autovettori ortogonali.I corrispondenti autovalori di A sono tutti reali.

piú in generale vale il seguente teorema

Teorema 51. Sia A una trasformazione lineare sullo spazio Euclideo n dimensionale. AffinchéA sia autoaggiunta é necessario e sufficiente che esista una base ortogonale relativa a cui lamatrice A sia diagonale.

A questo punto notiamo anche che in una trasformazione autoaggiunta gli autovet-tori corrispondenti a differenti autovalori sono tutti ortogonali.

Page 34: Algebra Lineare

CAPITOLO 3. TRASFORMAZIONI LINEARI 33

3.6 Trasformazioni Unitarie

Le trasformazioni unitarie sono definite da U∗U = I il che vuol dire che (UU∗x, y) =(Ux, Uy) = (x, y) ovvero preservano le lunghezze e gli angoli.

Questo avviene seai

jaji = 1 e ∑ ai

jajk = 0

Questa condizione si traduce in

(Uei, Uek) = δik

• Si definiscono le trasformazioni unitarie. Le trasformazioni unitarie sono quelletrasformazioni che lasciano invariate le lunghezze dei vettori e l’ortogonalitá deivettori. Inoltre gli autovalori di trasformazioni unitarie sono in valore assolutouguali a 1.

• Una trasformazione unitaria ha una base rispetto alla quale la trasformazioneassume forma diagonale e gli autovalori sono in valore assoluto uguali a 1. DataA autoaggiunta U−1AU é autoaggiunta.

• Data A una matrice Hermitiana, A puó essere rappresentata come A = U−1DU

3.7 Trasformazioni Normali

Teorema 52. Se AB = BA allora gli autovettori di A formano uno spazio invariante rispettoa B.

Se Ax = λx allora ABx =BAx = Bλx

• Ogni due trasformazioni lineari che commutano AB = BA hanno un autovettorecomune.

• A e B commutano⇔ sono diagonalizzabile rispetto a una stessa base.

Teorema 53. Una trasformazione é normale A∗A = A∗A⇔é diagonalizzabile

Trasformazioni hermitiane e unitarie in particolare sono trasformazioni normali.Una trasformazione normale puó essere decomposta in una trasformazione hermi-

tiana o autoaggiunta moltiplicato una trasformazione unitaria.

3.8 Trasformazioni Lineari nello Spazio Euclideo Reale

Per tradurre i risultati che abbiamo ottenuto nel caso Complesso al caso Reale dobbia-mo usare la seguente tabella di conversione.

Cn Rn

(x, y) = ξ iηi → (x, y) = ξ iηi‖x‖ =

√(x, x) → ‖x‖ =

√(x, x)

A∗ = (aji) → At = (aji)(Hermitiana) A∗ = A → At = A (Simmetrica)(Unitaria) UU∗ = I → QQt = I (Ortogonale)

(Diagonalizzazione) A = A∗ = UDU∗ → A = At = QDQt (Diagonalizzazione)

Page 35: Algebra Lineare

Capitolo 4

La Forma di Jordan

Definizione 54. Definiamo un matrice di polinomi

A(λ) = A0λm + A1λm−1 + ... + Am, con Ai = (ajk)i matrice di ordine n

• chiamiamo m il grado del polinomio con A0 6= 0

• se le matrici sono di ordine n allora né anche l’ordine del polinomio

• il polinomio si dice regolare se det(A0) ≡ |A0| 6= 0

Dati due polinomi A(λ) e B(λ) con B(λ) regolare possiamo definire due polinomiQ(λ) e R(λ) chiamati rispettivamente quoziente destro e resto destro della divisione diA(λ) per B(λ) secondo la seguente formula:

A(λ) = Q(λ)B(λ) + R(λ), con deg(R(λ)) < deg(B(λ))

Teorema 55. (BEZOUT GENERALIZZATO) Se F(λ) é una matrice di polinomi il resto destrodella divisione per (λI − A) é F(A).

Dim. data la matrice di polinomi F(λ) = F0λm + F1λm−1 + ...+ Fm posso riscriverlacome:

F(λ) = F0λm−1(λI − A) + (F0A + F1)λm−1 + F2λm−2 + ... + Fm

risommando e sottraendo otteniamo

(F0λm−1 + (F0A + F1)λm−1)(λI − A) + (F0A2 + F1A + F2)λ

m−2 + ... + Fm

Finché alla fine non abbiamo

(F0λm−1 + (F0A + F1)λm−1...)(λI − A) + (F0Am + F1Am−1 + ... + Fm)

che era quello che si voleva dimostrare.

Corollario 56. Una matrice polinomiale é divisibile per (λI − A)⇐⇒ F(A) = 0

4.1 Matrice e polinomio caratteristico

Sia A una matrice nxn si chiama allora (λI − A) matrice caratteristica e il polinomioscalare4(λ) = det(λI − A) é chiamato polinomio caratteristico.

A =

a1

1 a12 ... a1

na2

1 a22 ... a2

n...

... . . . ...an

1 an2 . . . an

n

34

Page 36: Algebra Lineare

CAPITOLO 4. LA FORMA DI JORDAN 35

Definizione 57. Sia B(λ) = (bij) la matrice dei cofattori di (λI − A) ovvero:

bik = (−1)i+kdet(M(A)ki) minore eliminando la k riga e i colonna

Allora per la definizione di determiannte abbiamo che fissata una qualsiasi i:

4(λ) = ∑k(λδik − A)bki(λ) per ogni ifissata

Da questa definizione deriva che

(λI − A)B(λ) = ∆(λ)I e

B(λ)(λI − A) = ∆(λ)I

Theorem 58. (HAMILTON CAYLEY) Chiamando ∆(λ) il polinomio caratteristico della ma-trice A, allora4(A) = 0

Dalla relazioneB(λ)(λI − A) = ∆(λ)I

deduciamo che∆(λ) é divisibile per (λI − A) e quindi per il Teorema di Bezout Gener-alizzato il resto4(A) = 0.

4.1.1 Metodo efficace per il calcolo di B(λ)

Definition 59. Dato il polinomio, 4(λ) = λn − p1λn−1 − ... − pn definiamo il poli-nomio

δ(λ, µ) =4(λ)− ∆(µ)

λ− µ

ovvero in altri termini

δ(λ, µ) = λn−1 + (µ− p1)λn−2 + (µ2 − p1µ− p2)λ

n−3 + ...

A questo punto se calcoliamo il polinomio δ(λI, A) otteniamo

δ(λI, A)(λI − A) = 4(λ)

Da cui dato la B(λ)(λI − A) = ∆(λ)I otteniamo che

B(λ) = δ(λI, A) = Iλn−1 + B1λn−2 + B2λn−3 + ... + Bn−1

doveB1 = A− p1 IB2 = A2 − p1A− p2 I

......

Bk = Ak − p1Ak−1 − ...− pk I

oppure possiamo indicare la formula per ricorrenza:{B0 = IBk = ABk−1 − pk I

Page 37: Algebra Lineare

CAPITOLO 4. LA FORMA DI JORDAN 36

Che in particolare per Bn−1 otteniamo una nuova dimostrazione del Teorema diHamilton Cayley. Abbiamo otteniamo la formula per la matrice inversa di A dato che

Bn = 0 = ABn−1 − pn I = ABn−1 − det(A)I

Da questo otteniamo infatti

1det(A)

Bn−1 = A−1

4.2 Autovalori e Autovettori di A

Supponiamo che λ0 sia un autovalore della matrice A e dunque che ∆(λ0)

B(λ0)(λ0 I − A) = ∆(λ0)I = 0

Questo vuol dire che se la matrice B é formata dai vettori:

B = (−→b 1..−→b n)

Abbiamo allora che questi vettori sono gli autovettori della matrice A dato che

(λ0 I − A)bi = 0 ovvero

Abi = λ0bi

Dunque ogni colonna non identicamente nulla della matrice B(λ0) é un autovettoredella matrice A corrispondente all’autovalore λ0.

4.3 Polinomio minimo

Definition 60. Chiamiamo ψ(λ) il polinomio minimo il polinomio monico del gradominimo tale che ψ(A) = 0.

Teorema 61. ogni polinomio annichilatore f (λ) ovvero tale che f (A) = 0 é divisibile per ilpolinomio minimo ovvero f (λ) = ψ(λ)q(λ)

La dimostrazione seque semplicemente dal fatto che se dividiamo f (λ) per ψ(λ)abbiamo

f (λ) = ψ(λ)q(λ) + r(λ)

che in particolare implica:

r(A) = 0 dato che

0 = f (A) = ψ(A)q(A) + r(A) = r(A)

Cosa che é assurda perché dovrebbe essere deg(r(λ)) < deg(ψ(λ)) contraddicendol’ipotesi sul polinomio minimo di essere il polinomio annichilatore con grado minorepossibile.

Page 38: Algebra Lineare

CAPITOLO 4. LA FORMA DI JORDAN 37

Definizione 62. Chiamiamo D(λ) il massimo comune divisore di tutti i minori di or-dine n− 1della matrice caratteristica λI − A ovvero il massimo comune divisore deglielementi della matrice B(λ). Abbiamo allora che

B(λ) = D(λ)C(λ)

dove C(λ) é una matrice di polinomi chiamata matrice aggiunta ridotta di λI − A.

Ne segue che4(λ) = (λI − A)C(λ)D(λ)

e dunque D(λ)|4(λ) e quindi possiamo definire:

ψ(λ) =4(λ)

D(λ)

Teorema 63. ψ(λ) = (λI − A)C(λ) é il polinomio minimo di A

Dim. Sostituendo questa definizione nella formula precedente otteniamo la seguen-te e fondamentale formula.

ψ(λ)I = (λI − A)C(λ)

Siccome (λI− A)|ψ(λ) per il teorema generalizzato di Bezout abbiamo che ψ(A) =0. Inoltre il grado di ψ(λ) é il minore possibile altrimenti il polinomio D(λ) non sarebbeil massimo divisore comune degli elementi di B(λ).

4.3.1 Proprietá della matrice C(λ)

Abbiamo la formula

C(λ) = Ψ(λI, A) con Ψ(λI, A) = ψ(λ)−ψ(µ)λ−µ

Inoltre dalla relazioneψ(λ)I = (λI − A)C(λ)

possiamo ricavare che

det(ψ(λ)I) = ψ(λ)n = det(λI − A)det(C(λ))

Da cuiψ(λ)n = 4(λ)det(C(λ))

Deduciamo che il polinomio minimo divide il polinomio caratteristico. Abbiamoinoltre:

ψ(λ0)I = 0 = (λ0 I − A)C(λ0)

Da cui deduciamo che gli autovettori di A relativi all’autovalore λ0 sono formatidalle colonne non nulle della matriceC(λ0) dato che per ogni colonna ci non nullaabbiamo

0 = (λ0 I − A)ci

Nella pratica abbiamo

4(λ) = (λ− λ1)n1 . . . (λ− λs)

ns con λi 6= λj

ψ(λ) = (λ− λ1)m1 . . . (λ− λs)

ms con mk ≤ nk

Page 39: Algebra Lineare

Capitolo 5

Decomposizioni e forme canoniche

5.1 Senso del discorso

• Decomposizione in A = UH con U matrice unitaria (UU∗ = I) e H matrice her-mitiana o autoaggiunta H = H∗. Questa decomposizione fa il pari concettual-mente con un numero complesso z = eiθρ puó essere decomposto in un prodottofra una rotazione eiθe un numero che stavolta é autoconiugato ovvero reale ρ.

5.2 Decomposizione A = UH

Decomposizione in A = UH con U matrice unitaria (UU∗ = I) e H matrice hermi-tiana o autoaggiunta H = H∗. Questa decomposizione fa il pari concettualmente conla decomposizione di un numero reale in un numero positivo e un numero di normaunitaria, similmente un numero complesso z = eiθρ puó essere decomposto in un pro-dotto fra una rotazione eiθe un numero che stavolta é autoconiugato ovvero reale ρ. Lostesso principio si puó estendere alle matrici che possono essere decomposte nel pro-dotto fra una «rotazione» ovvero una matrice Unitaria U e una matrice autoaggiunta oHermitiana H

Teorema 64. Ogni matrice non singolare A puó essere decomposta nella forma

A = UH

dove Hé una matrice non singolare definita positiva e U una matrice unitaria.

Per dimostarre questo teorema si dimostra che se B é una matrice definita positivaé sempre possibile trovare una H tale che H2 = B. Chiamiamo in questo caso H =

√B

. Per fare questo basta posizionarsi nella base in cui B é diagonale e fare la radice degliautovalori. Dato questo lemma definiamo

H =√

AA∗

e poi definiamo U = AH−1.Abbiamo che

U∗U = H−1∗A∗AH−1 = H−1H2H−1 = I

38

Page 40: Algebra Lineare

CAPITOLO 5. DECOMPOSIZIONI E FORME CANONICHE 39

5.3 Decomposizione di Jordan

Teorema 65. Supponiamo di avere una trasformazione lineare arbitraria e un numero k diautovettori linearmente indipendenti {e1, f1, .., h1} corrispondenti agli autovalori {λ1, .., λk}e di avere k < n. Allora é possibile completare l’insieme dei vettori precedenti peer ottenere unabase in cui la matrice assume la forma:

A =

λ0 10 λ0 1

0 0 . . . 10 0 0 λ0

0

. . .

0

λk 10 λk 1

0 0 . . . 10 0 0 λk

Intanto procediamo con alcune definizioni

Definizione 66. Autovettore generalizzato di ordine n é un vettore x tale che(A− λI)n x =0

poi abbiamo le seguenti

Definizione 67. Molteplicitá geometrica di un autovalore é il numero di blocchi di Jordancorrispondenti a un autovalore λi. La Molteplicitá algebrica di un autovalore é data dallasomma dell’ordine di tuti i blocchi di Jordan relativi ad un autovalore λi.

La molteplicitá algebrica corrisponde all’esponente nella fattorizzazione del polino-mio caratteristico. Quando molteplicitá algebrica e molteplicitá geometrica non coin-cidono vuol dire che non é possibile trovare sufficienti autovettori per diagonalizzarela matrice.

5.3.1 Potenze di matrici nella forma di Jordan

La forma di Jordan di una matrice é costituita da una matrice diagonale e una matricenilpotente J = D + N. In particolare ogni blocco di Jordan é formato da un multiplodella matrice identica e una matrice nilpotente Ji = λI + N.

Ji − λI =

0 1 0 0 00 0 1 0 0

0 0 . . . . . . 00 0 0 0 10 0 0 0 0

Il che vuol dire che se l’ordine della matrice é m allora

(Ji − λI)m =

0 1 0 0 00 0 1 0 0

0 0 . . . . . . 00 0 0 0 10 0 0 0 0

m

= 0

Page 41: Algebra Lineare

CAPITOLO 5. DECOMPOSIZIONI E FORME CANONICHE 40

Ora dato che una matrice a blocchi J ha potenze facilmente calcolabili dalle potenzedei blocchi:

Jm =

Jm1

Jm2

0

0. . .

Jmk

Abbiamo anche che dato un polinomio p(x)

p(J) =

p(J1)

p(J2)0

0. . .

p(Jk)

Questo vuol dire che se p(λ) é il polinomio caratteristico p(J) = 0 abbiamo dunque

il Teorema seguente.

Teorema 68. (Hamilton-Cayley) Se p(λ) = det(A− λI) allora p(A) = 0.

Piú nel dettaglio possiamo trovare un polinomio minimo dato semplicemente daimonomi con i singoli autovalori elevati all’ordine massimo dei vari blocchi di Jordancorrispondenti a quell’autovalore.

m(λ) = ∏i

(λ− λi)qi

A questo punto possiamo analizzare cosa succede quando calcoliamo l’esponenzia-le della matrice:

eA = CeJC−1

eJ =

eJ1

eJ20

0. . .

eJk

e per ogni blocco

eJi = eλi I+N = eλi(I + N + ... +N

(q− 1)!

q−1)

Da questo possiamo ricostruire l’esponenziale matriciale a una forma finita.

5.4 Esercizio di Decomposizione in Forma di Jordan

A =

2 0 0 00 2 0 00 0 2 11 0 0 2

Page 42: Algebra Lineare

CAPITOLO 5. DECOMPOSIZIONI E FORME CANONICHE 41

In primo luogo calcoliamo il polinomio minimo di A

det(λI − A) = det

λ− 2 0 0 0

0 λ− 2 0 00 0 λ− 2 11 0 0 λ− 2

= (λ− 2)4

L’autovalore 2 dunque ha molteplicitá algebrica 4, vediamo quali sono gli autovet-tori:

0 0 0 00 0 0 00 0 0 11 0 0 0

xywz

=

0000

da cui otteniamo

{z = 0x = 0

Gli autovettori sono dunque:

v1 =

0100

e v2 =

0010

La molteplicitá geometrica é dunque 2, mentre la molteplicitá algebrica é 4. Questo

vuol dire che la forma di Jordan della matrice A é formata da due blocchi di ordine 2.

A =

2 1 0 00 2 0 00 0 2 10 0 0 2

Page 43: Algebra Lineare

Capitolo 6

Applicazioni fisiche

6.1 ODE radici complesse

Supponiamo di dover risolvere il seguente sistema die quazioni differenziali del pimoordine: {

x = −3x− 2yy = +5x− y

La rappresentazione matriciale del sistema lineare(xy

)′=

(−3 −2+5 −1

)(xy

)Per prima cosa dobbiamo trovare gli autovettori e per fare questo procediamo tro-

vando gli autovalori come radici complesse del polinomio caratteristico. Il polinomiocaratteristico

det(−3− λ −2+5 −1− λ

)= λ2 + 4λ + 13

ha come radici

λ± =−4±

√16− 52

2= −2± i3

Prendiamo un autovalore e troviamo l’autovettore corrispondente inserendolo nelsistema (A− λI)a = 0(

−3 + 2− 3i −2+5 −1 + 2− 3i

)(a0a1

)=

(00

)Da cui deriviamo l’equazione

(−1− 3i)a0 = 2a1

che in particolare é realizzata per{a0 = 2a1 = −1− 3i

A questo punto la soluzione del sistema di equazioni differenziali é data da

x =

(xy

)= C0eλt =

(2

−1− 3i

)e(−2+3i)t =

42

Page 44: Algebra Lineare

CAPITOLO 6. APPLICAZIONI FISICHE 43

=

(2

−1− 3i

)e−2t(cos3t+ isin3t) = e−2t

((2cos3t

−cos3t + 3sint

)+ i(

2sin3t−sin3t− 3cos3t

))Un altro modo di procedere nel problema é considerando

dudt

= Au(t)

In questo caso se posso diagonalizzare A = QDQ−1 posso cambiare le coordinatee mettere u =Qv da cui posso ottenere

dvdt

= Dv(t)

da cui posso ottenere la soluzione

Qv = eDtQv(0)

da cuiu = Q−1eDtQu(t) = eAtu(t)

6.2 Equazione Differenziale 2º Ordine

Supponiamo di avere l’equazione differenziale:{y = λyy(0) = y0, y(0) = y1

Le soluzioni singole sono:

• Soluzione 1:

f1(t) =

cos(ωt) , λ < 01 , λ = 0cosh(kt) , λ > 0

• Soluzione 2:

f2(t) =

sin(ωt)

ω , λ < 01 , λ = 0sinh(kt)

k , λ > 0

Da cui deriviamo la soluzione generale:

y(t) = y(0) f1(t) + y(0) f2(t)