74 · piu` classici argomenti elementari di algebra lineare. si assume che lo studioso lettore...

232
A01 74

Upload: vunguyet

Post on 15-Feb-2019

214 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

A0174

Page 2: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica
Page 3: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Luciano A. Lomonaco

Un’introduzione all’algebra lineare

Terza edizione

Page 4: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Copyright © MMVIARACNE editrice S.r.l.

[email protected]

via Raffaele Garofalo, 133 A/B00173 Roma

(06) 93781065

isbn 88–548–0144–5

I diritti di traduzione, di memorizzazione elettronica,di riproduzione e di adattamento anche parziale,

con qualsiasi mezzo, sono riservati per tutti i Paesi.

Non sono assolutamente consentite le fotocopiesenza il permesso scritto dell’Editore.

I edizione: ottobre 1997II edizione: giugno 2005III edizione: luglio 2006

Page 5: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

INDICE

Capitolo 1

STRUTTURE ALGEBRICHE 1

1 Generalita sulle strutture algebriche 12 Gruppi 53 Azioni di un gruppo su un insieme 94 Anelli 125 Polinomi su un dominio di integrita 166 Polinomi su un campo 216 Fattorizzazione di un polinomio 25

Esercizi 33

Capitolo 2

SPAZI VETTORIALI 37

1 Spazi vettoriali su un campo 372 Dipendenza e indipendenza lineare 403 Basi e dimensione 454 Sottospazi 535 Sottospazi congiungenti e somme dirette 586 Generalita sulle applicazioni lineari 647 Monomorfismi, epimorfismi ed isomorfismi 69

Esercizi 77

Capitolo 3

MATRICI, DETERMINANTI, SISTEMI LINEARI 83

1 Generalita sulle matrici 832 Matrici a scala 903 Definizione e prime proprieta dei determinanti 964 Dimostrazione del Teorema di Esistenza ed Unicita 100

i

Page 6: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

5 Ulteriori proprieta dei determinanti 1046 Calcolo dell’inversa di una matrice 1187 Generalita sui sistemi lineari 1248 Il metodo dei determinanti 1289 Il metodo di Gauss–Jordan 137

Esercizi 148

Capitolo 4

MATRICI E APPLICAZIONI LINEARI 153

1 Matrici e applicazioni lineari 1532 Cambiamenti di riferimento 1613 Alcune applicazioni dei determinanti 1634 Autovettori, autovalori e polinomio caratteristico 1675 Diagonalizzazione 173

Esercizi 181

Capitolo 5

SPAZI VETTORIALI EUCLIDEI 185

1 Forme bilineari e prodotti scalari 1852 Spazi vettoriali euclidei 1933 Il Procedimento di Gram–Schmidt 1984 Diagonalizzazione ortogonale 2045 Forme quadratiche 209

Esercizi 213

TAVOLA DELLE NOTAZIONI 215

INDICE ANALITICO 217

ii

Page 7: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Nota dell’autore

Il presente volume e destinato a studenti del primo anno dei corsi di laureatriennali delle Facolta si Scienze ed Ingegneria. In esso sono trattati alcuni deipiu classici argomenti elementari di Algebra Lineare.

Si assume che lo studioso lettore abbia gia una certa familiarita con al-cuni argomenti di base quali l’insiemistica (insiemi, coppie ordinate, prodottocartesiano, relazioni d’equivalenza, relazioni d’ordine, applicazioni, iniettivita,suriettivita) e la costruzione degli insiemi numerici (numeri naturali, interi,razionali, reali e complessi).

Desidero ringraziare gli amici Maurizio Brunetti e Giovanni Cutolo per ilcontributo che hanno dato alla stesura di questo libro.

Luciano A. Lomonaco

iii

Page 8: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica
Page 9: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Capitolo 1

Strutture algebriche: gruppi, anelli e polinomi

§1. Generalita sulle strutture algebriche

Siano S e K due insiemi non vuoti.

Definizione 1.1. Una operazione interna ∗ di S e una applicazione

∗ : S × S −→ S

L’immagine ∗(a, b) dell’elemento (a, b) ∈ S×S si indica di solito con il simboloa ∗ b.

Definizione 1.2. Una operazione (binaria) interna ∗ di S si dice associativase

a ∗ (b ∗ c) = (a ∗ b) ∗ c ∀ a, b, c ∈ S .

In tal caso scriveremo semplicemente a ∗ b ∗ c.

Definizione 1.3. Una operazione esterna ⊥ di S con operatori in K e unaapplicazione

⊥: K × S −→ S .

L’immagine ⊥ (λ, b) dell’elemento (λ, b) ∈ K × S si indica di solito con ilsimbolo λ ⊥ b.

Esempio 1. L’addizione + e il prodotto · negli insiemi numerici N, N0,Z, Q, R, C sono operazioni interne associative. La divisione : non e unaoperazione (non si puo dividere per 0 in N0, Z, Q, R, C e si puo effettuare ladivisione tra i numeri naturali o interi relativi m, n se e solo se m e multiplodi n). In Q − {0} e sempre possibile effettuare la divisione, e pertanto in

1

Page 10: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

2 Un’introduzione all’algebra lineare

tale insieme : e una operazione interna, ma e facile verificare che essa none associativa. Infatti, ad esempio,

(16 : 4) : 2 6= 16 : (4 : 2) .

Definizione 1.4. Una struttura algebrica ad n operazioni sull’insieme Se una (n + 1)-pla (S; ∗1, . . . , ∗n) dove ∗1, . . . , ∗n sono operazioni, interne oesterne, di S. S si dice sostegno della struttura algebrica (S; ∗1, . . . , ∗n).

Spesso, con abuso di notazione, si indichera con S anche la struttura alge-brica (S; ∗1, . . . , ∗n).

Sia ora ∗ una operazione interna di S e sia T ⊆ S. Si dice che T e stabilerispetto all’operazione ∗ se ∀ a, b ∈ T si ha che a ∗ b ∈ T . Se invece ⊥ e unaoperazione esterna di S con operatori in K, diremo che T e stabile rispetto a⊥ se ∀ b ∈ T, λ ∈ K si ha che λ ⊥ b ∈ T . Osserviamo che se T e una partestabile di S rispetto ad una operazione ∗, in T si definisce una operazione,ancora denotata con ∗, che si dice indotta, che e la restrizione dell’operazionedi S a T .

Definizione 1.5. Sia (S; ∗1, . . . , ∗n) una struttura algebrica e sia T ⊆ S.Diremo che T e una parte stabile della struttura S se T e stabile rispetto adogni operazione di S.

Esercizio. Verificare che l’intersezione di una famiglia di parti stabili di unastruttura algebrica e ancora una parte stabile per tale struttura.

Definizione 1.6. Un semigruppo e una struttura algebrica (S; ∗) dotata diuna operazione interna associativa.

Ad esempio (N; +) e (N; ·) sono semigruppi. Sia ora (S; ∗) una strutturaalgebrica con una operazione interna.

Definizione 1.7. Un elemento u ∈ S si dice neutro a destra se risulta

x ∗ u = x ∀ x ∈ S .

Si dice invece che u e neutro a sinistra se

u ∗ y = y ∀ y ∈ S .

Page 11: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 3

Infine u si dice neutro se e neutro a destra e a sinistra.

Proposizione 1.8. Se u, u′ ∈ S e si ha che u e neutro a destra e u′ e neutroa sinistra, allora u = u′. In particolare quindi, esiste al piu un elemento neutroin (S; ∗).

Dimostrazione. Basta osservare che u′ = u′ ∗ u = u. 2

Definizione 1.9. Un semigruppo (S; ∗) dotato di elemento neutro si dicemonoide.

Osserviamo che il semigruppo (N; ·) e anche un monoide, con elemento neu-tro 1, mentre (N; +) non lo e. E’ invece un monoide la struttura additiva(N0; +), con elemento neutro 0.

Supponiamo ora che la struttura (S; ∗) sia dotata di elemento neutro u e siax ∈ S.

Definizione 1.10. L’elemento x si dice simmetrizzabile in S rispetto a ∗ seesiste un elemento y ∈ S tale che

x ∗ y = u = y ∗ x .

In tal caso y si dice simmetrico di x.

Proposizione 1.11. Sia (S; ∗) un monoide e sia u il suo elemento neutro.Ogni elemento simmetrizzabile di S e dotato di un unico simmetrico.

Dimostrazione. Sia x ∈ S simmetrizzabile e siano y, y′ ∈ S simmetrici di x.Risulta che

y′ = y′ ∗ u = y′ ∗ (x ∗ y) = (y′ ∗ x) ∗ y = u ∗ y = y

ovvero y = y′. 2

Quando una operazione e denotata con il simbolo +, viene detta addizione(o talvolta anche somma) e si dice che l’operazione e espressa in notazioneadditiva; se esiste l’elemento neutro rispetto all’addizione, esso viene indicatocon il simbolo 0 (zero); il simmetrico y di un elemento x rispetto all’addizioneviene indicato con il simbolo −x e si dice opposto di x. Analogamente, se l’o-perazione e denotata con il simbolo ·, viene detta moltiplicazione (o talvolta

Page 12: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

4 Un’introduzione all’algebra lineare

anche prodotto) e si dice che l’operazione e espressa in notazione moltiplicati-va; se esiste l’elemento neutro rispetto al prodotto, esso viene denotato con ilsimbolo 1 (uno); il simmetrico y di un elemento x viene indicato con il simbolox−1 ovvero anche 1

xe si dice inverso di x. Il simbolo · viene talvolta omesso

e si scrive, ad esempio, indifferentemente x · y oppure xy. Useremo spesso lanotazione x−1 per indicare il simmetrico di un elemento x ogni volta che lanotazione usata non sia quella additiva.

Sia (S; ∗) un monoide, con elemento neutro u, e sia x ∈ S. Poniamo x0 = ue definiamo, per ogni n ∈ N, un elemento xn ∈ S induttivamente ponendo

xn := xn−1 ∗ x .

L’elemento xn cosı definito si dice potenza n-ma di x. Si verifica agevolmenteche

(1) xn+m = xn ∗ xm ; (xn)m = xnm ∀ n,m ∈ N0 .

Se x e simmetrizzabile, poniamo, per ogni n ∈ N, x−n := (x−1)n. Si provache, con tali posizioni, le (1) sono verificate per ogni n,m ∈ Z ed inoltrex−n = (xn)−1. Un discorso analogo puo essere fatto quando si usa la notazioneadditiva. Ad esempio, se consideriamo il monoide (H; +), con elemento neutro0, per ogni x ∈ H poniamo 0x = 0 e definiamo, per ogni n ∈ N, un elementonx ∈ H, induttivamente, ponendo

nx := (n − 1)x + x .

L’elemento nx si dice multiplo n-mo di x. Si verifica agevolmente che

(1′) (n + m)x = nx + mx ; (nm)x = n(mx) ∀ n,m ∈ N0 .

Nel caso in cui x sia dotato di opposto −x, per ogni n ∈ N poniamo (−n)x =n(−x). Si prova che, con tale posizione, le (1′) sono verificate per ogni n,m ∈ Z

ed inoltre (−n)x = −(nx).

Definizione 1.12. Un elemento x ∈ S si dice regolare se

(2) x ∗ y = x ∗ z ⇒ y = z ; y ∗ x = z ∗ x ⇒ y = z .

Proposizione 1.13. Ogni elemento simmetrizzabile e anche regolare.

Dimostrazione. Sia x simmetrizzabile e sia x ∗ y = x ∗ z. Allora

y = u ∗ y = x−1 ∗ x ∗ y = x−1 ∗ x ∗ z = u ∗ z = z .

Analogamente si prova l’altra implicazione. 2

Definizione 1.14. Una operazione interna ∗ in S si dice commutativa seaccade che x ∗ y = y ∗ x per ogni x, y ∈ S.

Page 13: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 5

§2. Gruppi

Definizione 1.15. Un monoide (G; ∗) e un gruppo se ogni suo elemento esimmetrizzabile. Se poi l’operazione ∗ e commutativa, il gruppo (G; ∗) si diceabeliano.

In altre parole un gruppo G e una struttura algebrica (G; ∗) dotata di unaoperazione interna ∗ tale che

(i) ∗ e associativa;(ii) esiste un elemento neutro u;(iii) ogni elemento e simmetrizzabile.

In particolare quindi, ogni elemento di un gruppo e regolare, cioe vale la (2)per ogni x ∈ G, ovvero, come si suol dire, vale la regola di cancellazione.

Osserviamo che in un gruppo (G; ∗) vale la seguente proprieta. Per ognix, y ∈ G esiste un unico elemento w ∈ G tale che x ∗ w = y. Infatti se un taleelemento w esiste si ha che w = x−1 ∗ x ∗ w = x−1 ∗ y e cio prova l’unicita diw. D’altra parte, posto w = x−1 ∗ y e chiaro che x ∗ w = x ∗ x−1 ∗ y = y.

Definizione 1.16. Sia (G; ∗) un gruppo e sia H ⊆ G, H 6= ∅. Si dice che He un sottogruppo di G se H e una parte stabile di G rispetto all’operazione ∗e se inoltre per ogni x ∈ H si ha che x−1 ∈ H.

Se H e un sottogruppo di G si scrive H ≤ G. Osserviamo che se H ≤ G,allora H e esso stesso un gruppo rispetto all’operazione che G induce su H.Ogni gruppo G possiede i seguenti sottogruppi, detti impropri: G stesso e ilsottogruppo banale 1 = {u}.

La seguente proposizione consente di caratterizzare i sottogruppi di un grup-po.

Proposizione 1.17. Sia H una parte non vuota di G. Allora H ≤ G se esolo se

x−1 ∗ y ∈ H ∀ x, y ∈ H .

Dimostrazione. Se vale tale condizione e x ∈ H, allora anche u = x−1 ∗ x ∈H. Inoltre x−1 = x−1 ∗ u ∈ H. Infine, se anche y ∈ H, allora x ∗ y =(x−1)−1 ∗ y ∈ H. Viceversa, se H e un sottogruppo di G e x, y ∈ H, alloraanche x−1 ∈ H e quindi x−1 ∗ y ∈ H. 2

Page 14: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

6 Un’introduzione all’algebra lineare

Esempio 2. Il gruppo banale ({0};+), usando la notazione additiva, ovve-ro anche ({1}; ·), in notazione moltiplicativa.

Esempio 3. (Z; +), (Q; +), (R; +), (C; +). In tali gruppi l’elemento neutroe 0 e per ogni x il simmetrico di x coincide con il suo opposto −x. Osser-viamo che ogni gruppo di questo esempio e un sottogruppo del successivo.

Esempio 4. (Q−{0}; ·), (R−{0}; ·), (C−{0}; ·). In tali gruppi l’elementoneutro e 1 per ogni x il simmetrico di x coincide con il suo inverso x−1.Anche in questo esempio, ogni gruppo risulta un sottogruppo del grupposuccessivo.

Esempio 5. ({−1, 1}; ·). In tale gruppo l’elemento neutro e 1 ed inoltrel’inverso di −1 e −1 stesso. ({−1,1}; ·) e un sottogruppo di (Q − {0}; ·).

Esempio 6. Per ogni m ∈ Z, definiamo un sottoinsieme mZ di Z ponendo

mZ :={

km | k ∈ Z

}.

mZ e l’insieme dei multipli di m. Si verifica facilmente che mZ ≤ Z perogni m ∈ Z. Inoltre mZ = {0} se e solo se m = 0. Negli altri casi mZ hainfiniti elementi.

Esempio 7. Sia B ⊆ Q il sottoinsieme di Q costituito dai numeri razionalidel tipo a/b dove a, b sono interi non nulli coprimi e b e pari. Allora (B; ·)e una parte stabile di (Q − {0}; ·), ma non e un sottogruppo.

Sia X un insieme non vuoto e consideriamo l’insieme SX delle permutazionidi X, ovvero delle applicazioni biettive di X in se. L’identita di X, idX , e unaparticolare permutazione. Inoltre, se f, g ∈ SX , anche la composta g◦f ∈ SX .Per ogni f, g ∈ SX poniamo

f · g = g ◦ f .

La struttura algebrica (SX ; ·) e un gruppo. Infatti vale la proprieta associativa,idX e l’elemento neutro e ogni permutazione f ∈ SX ammette una inversaf−1 ∈ SX che e l’elemento simmetrico di f in SX rispetto all’operazione ·. Ilgruppo (SX ; ·) prende il nome di gruppo delle permutazioni su X. Osserviamo

Page 15: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 7

che se X possiede almeno tre elementi SX non e abeliano. Siano infatti a, b, c ∈X tre elementi distinti. Definiamo due permutazioni

f, g : X −→ X

ponendof(x) = g(x) = x ∀ x ∈ X − {a, b, c}

ed inoltref(a) = b, f(b) = a, f(c) = c

g(a) = a, g(b) = c, g(c) = b .

Il lettore potra verificare che g◦f 6= f◦g. Se X = Jn = {1, 2, . . . , n} scriveremotalvolta Sn invece di SX . Sn prende il nome di gruppo delle permutazioni, oanche gruppo simmetrico, su n oggetti. Per ogni n consideriamo il gruppo Sn.Se f ∈ Sn, i ∈ Jn e si ha che f(i) = i, si dice che i e fissato da f .

Definizione 1.18. Una trasposizione e una permutazione che lascia fissatitutti gli elementi tranne (al piu) due.

In base a tale definizione, l’identita e una trasposizione, poiche lascia fissatitutti gli elementi.

Proposizione 1.19. Ogni permutazione f puo essere espressa come il pro-dotto di trasposizioni. Tale decomposizione non e unica, pero se

f = ǫ1 · . . . · ǫn = ǫ′1 · . . . · ǫ′m

(dove ǫ1, . . . , ǫn, ǫ′1, . . . , ǫ′m sono trasposizioni), allora m ed n hanno la stessa

parita.

Definizione 1.20. Diremo che f e una permutazione pari se essa e prodottodi un numero pari di trasposizioni, dispari in caso contrario.

Ad esempio ogni trasposizione e una permutazione dispari, mentre l’identitae una permutazione pari. Per ogni n ≥ 2 poniamo

An ={

f ∈ Sn | f e pari}⊆ Sn .

Esercizio. Provare che An ≤ Sn per ogni n ≥ 2.

Page 16: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

8 Un’introduzione all’algebra lineare

Il sottogruppo An di Sn si dice gruppo alterno su n-oggetti. Definiamo orauna applicazione

(3) σ : Sn −→ {±1}

ponendo

σ(f) =

{1 se f e pari−1 se f e dispari.

Si verifica agevolmente che se f, g ∈ Sn si ha che

σ(f · g) = σ(f) · σ(g) ; σ(idJn) = 1

ovvero, come si suol dire, σ e un omomorfismo del gruppo Sn nel gruppo mol-tiplicativo {±1}. Tale omomorfismo prende il nome di segnatura. Poiche perogni f ∈ Sn si ha che f · f−1 = idJn

, dall’osservazione precedente deduciamoche

1 = σ(idJn) = σ(f · f−1) = σ(f) · σ(f−1)

e quindi σ(f) = σ(f−1).

Esempio 8. Sia f ∈ S5 definita ponendo

f(1) = 2, f(2) = 4, f(3) = 3, f(4) = 1, f(5) = 5 .

La permutazione f si descrive anche con il simbolo

f =

(1 2 3 4 5

2 4 3 1 5

).

Gli elementi 3, 5 sono fissati. Se g e la trasposizione che scambia 1 e 2 e he la trasposizione che scambia 2 e 4, ovvero

g =

(1 2 3 4 5

2 1 3 4 5

); h =

(1 2 3 4 5

1 4 3 2 5

)

allora f = h · g. Quindi f e pari e σ(f) = 1. Osserviamo che

f 6= g · h =

(1 2 3 4 5

4 1 3 2 5

).

Esempio 9. Consideriamo il gruppo S3 delle permutazioni sull’insiemeJ3 = {1, 2, 3}. E’ facile verificare che

S3 ={

I, σ1, σ2, τ1, τ2, τ3

}

Page 17: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 9

dove I = idJ3e inoltre

σ1 =

(1 2 3

2 3 1

); σ2 =

(1 2 3

3 1 2

)

sono le permutazioni senza punti fissi e

τ1 =

(1 2 3

1 3 2

); τ2 =

(1 2 3

3 2 1

); τ3 =

(1 2 3

2 1 3

)

sono le trasposizioni che fissano 1,2,3 rispettivamente. La seguente tabelladescrive la moltiplicazione in S3

· I σ1 σ2 τ1 τ2 τ3

I I σ1 σ2 τ1 τ2 τ3

σ1 σ1 σ2 I τ2 τ3 τ1

σ2 σ2 I σ1 τ3 τ1 τ2

τ1 τ1 τ3 τ2 I σ2 σ1

τ2 τ2 τ1 τ3 σ1 I σ2

τ3 τ3 τ2 τ1 σ2 σ1 I

dove il prodotto tra due elementi x e y si ottiene selezionando x sulla pri-ma colonna e y sulla prima riga e determinando l’elemento della tabellasull’intersezione della riga di x e della colonna di y.

§3. Azione di un gruppo su un insieme

Consideriamo ora un gruppo (G; ∗) con elemento neutro u. Sia inoltre X uninsieme non vuoto e ⊥ una operazione esterna di X con operatori in G.

Definizione 1.21. L’operazione ⊥ viene detta azione (sinistra) se(i) (λ ∗ µ) ⊥ b = λ ⊥ (µ ⊥ b) ∀ λ, µ ∈ G; ∀ b ∈ X;(ii) u ⊥ b = b ∀ b ∈ X .

In tale situazione diremo che G agisce (a sinistra) su X mediante l’opera-zione ⊥. Osserviamo che ∀ λ ∈ G e possibile definire una applicazione

fλ : X −→ X

Page 18: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

10 Un’introduzione all’algebra lineare

ponendo fλ(a) = λ ⊥ a, per ogni a ∈ X. L’applicazione fλ e una permutazionee la sua inversa e fλ−1 . Infatti, per ogni a ∈ X si ha che

fλ−1(fλ(a)) = fλ−1(λ ⊥ a) = λ−1 ⊥ (λ ⊥ a)

= (λ−1 ∗ λ) ⊥ a = u ⊥ a = a

e analogamente

fλ(fλ−1(a)) = a .

Quindi una azione di G su X induce una applicazione

ω : G −→ SX

λ 7→ fλ

che talvolta prende il nome di rappresentazione.

Definizione 1.22. Sia ⊥ una azione di G su X. Per ogni a ∈ X, l’insieme

[a] = {λ ⊥ a | λ ∈ G }

si dice orbita di a rispetto all’azione ⊥.

Definizione 1.23. Definiamo una relazione ≡ in X ponendo

a ≡ b ⇐⇒ ∃ λ ∈ G | b = λ ⊥ a

(ovvero a ≡ b ⇐⇒ a, b appartengono ad una stessa orbita).

Tale relazione e d’equivalenza in X. Infatti e chiaro che a ≡ a (proprietariflessiva) in quanto a = u ⊥ a. Inoltre

a ≡ b =⇒ b ≡ a

(simmetria) in quanto se esiste λ ∈ G tale che b = λ ⊥ a si ha anche che

λ−1 ⊥ b = λ−1 ⊥ (λ ⊥ a) = (λ−1 ∗ λ) ⊥ a = u ⊥ a = a .

Infine, si ha chea ≡ b, b ≡ c =⇒ a ≡ c

Page 19: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 11

(transitivita) in quanto se esistono λ, µ ∈ G tali che

b = λ ⊥ a, c = µ ⊥ b

allorac = µ ⊥ b = µ ⊥ (λ ⊥ a) = (µ ∗ λ) ⊥ a .

Le classi di equivalenza di tale relazione sono le orbite che, pertanto, costitui-scono una ripartizione dell’insieme X.

Consideriamo ora un esempio importante di azione di un gruppo su un in-sieme. Sia X un insieme non vuoto e consideriamo la n-ma potenza cartesiana

Xn = X × . . . × X︸ ︷︷ ︸n

di X. Sia inoltre G = Sn. Definiamo una azione

⊥: Sn × Xn −→ Xn

come segue. Se f ∈ Sn, ovvero

f : Jn −→ Jn

e una biezione, e x = (x1, . . . , xn) ∈ Xn, poniamo

f ⊥ x = y

dove y e la n-pla (xf(1), . . . , xf(n)). In altre parole la n-pla y si ottiene dallan-pla x scambiando di posto le coordinate x1, . . . , xn nel modo indicato. E’agevole verificare che ⊥ e una azione di Sn su Xn. Una orbita di tale azionesi dice sistema di ordine n di elementi di X. Un sistema [x1, . . . , xn] sarapertanto la classe della n-pla (x1, . . . , xn) ma anche, equivalentemente, di unaqualunque altra n-pla ottenuta da (x1, . . . , xn) permutando arbitrariamentele coordinate. Osserviamo esplicitamente che gli elementi x1, . . . , xn non sononecessariamente distinti a due a due. La nozione di sistema di elementi diun insieme ci consente di considerare n elementi di un insieme, non necessa-riamente a due a due distinti, senza badare all’ordine in cui essi compaiono.Se S = [x1, . . . , xn] e un sistema, per ogni i = 1, . . . , n scriveremo xi ∈ S ediremo che xi appartiene ad S. Se inoltre S ′ = [y1, . . . , yk] e un altro sistemae (y1, . . . , yk) e un rappresentante di S ′ scriveremo S ′ ⊆ S e diremo che S ′ eincluso in S se n ≥ k ed inoltre esiste un rappresentante (xi1 , . . . , xin

) di Stale che y1 = xi1 , . . . , yk = xik

.

Page 20: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

12 Un’introduzione all’algebra lineare

§4. Anelli

Definizione 1.24. Una struttura algebrica (A; +, ·) si dice anello se +, ·sono operazioni interne di A tali che

(i) (A; +) e un gruppo abeliano;(ii) (A; ·) e un semigruppo;(iii) x · (b + c) = (x · b) + (x · c) ∀ x, b, c ∈ A;

(b + c) · x = (b · x) + (c · x) ∀ x, b, c ∈ A.

La (iii) e nota come proprieta distributiva del prodotto rispetto alla somma.

Proposizione 1.25. Sia A un anello. Si ha che(i) a · 0 = 0 e 0 · a = 0 per ogni a ∈ A;(ii) a · (−b) = −(a · b) = (−a) · b per ogni a, b ∈ A;(iii) (na) · b = n(a · b) = a · (nb) per ogni a, b ∈ A, n ∈ Z;(iv) x · (b − c) = x · b − x · c per ogni x, b, c ∈ A;

(b − c) · x = b · x − c · x per ogni x, b, c ∈ A.

Se l’operazione · e commutativa, l’anello A si dice commutativo. Se esistel’elemento neutro rispetto al prodotto, A si dice unitario. Osserviamo che sel’anello unitario A non si riduce ad un solo elemento si ha che 1 6= 0. Infattise fosse 1 = 0 si avrebbe, per ogni a ∈ A che

a = a · 1 = a · 0 = 0 .

Definizione 1.26. Sia (A; +, ·) un anello e sia B ⊆ A. Diremo che B e unsottoanello di A se B e una parte stabile di A rispetto alle operazioni +, · ede esso stesso un anello rispetto a tali operazioni.

Definizione 1.27. Sia A un anello commutativo. Diremo che A e un dominiodi integrita se accade che

a · b = 0 =⇒ a = 0 oppure b = 0

ovvero, equivalentemente,

a · b = 0, a 6= 0 =⇒ b = 0

o ancoraa 6= 0, b 6= 0 =⇒ a · b 6= 0 .

Il lettore potra verificare che se F e un dominio di integrita, il suo sottoin-sieme F − {0} e stabile rispetto alla moltiplicazione.

Page 21: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 13

Teorema 1.28. Sia F un dominio di integrita. Allora in F vale la regola dicancellazione, nel senso che se a ∈ F − {0} e b, c ∈ F sono tali che ab = acallora b = c.

Dimostrazione. Si ha che

0 = ab − ac = a(b − c)

e quindi, poiche F e un dominio di integrita e a 6= 0, si ha che b − c = 0 equindi b = c. 2

Definizione 1.29. Un anello unitario (F; +, ·) si dice corpo se (F − {0}; ·)e un gruppo, ovvero se ogni elemento non nullo di F e invertibile. Se poi ilprodotto · e anche commutativo, diremo che F e un campo.

Osserviamo che un campo F e anche un dominio di integrita. Infatti sea, b ∈ F e se a · b = 0 e a 6= 0, allora a e invertibile e si ha che

b = a−1 · (a · b) = a−1 · 0 = 0 .

Definizione 1.30. Sia (A; +; ·) un anello e sia K ⊆ A un suo sottoanello.Diremo che K e un sottocorpo (sottocampo rispettivamente) di A se (K; +, ·)e un corpo (campo rispettivamente).

Esempio 10. Sia K = {0, 1} e poniamo

0 + 0 = 0 = 1 + 1; 1 + 0 = 1 = 0 + 1

0 · 0 = 0 · 1 = 1 · 0 = 0; 1 · 1 = 1 .

Con tali posizioni (K; +, ·) e un campo.

Esempio 11. (Q; +, ·), (R; +, ·), (C; +, ·) sono campi, come e agevole ve-rificare. Inoltre Q e un sottocampo di R e di C ed R e un sottocampo diC.

Esempio 12. (Z; +, ·) e un anello commutativo unitario ma non e un cam-po, in quanto (Z − {0}; ·) non e un gruppo.

Page 22: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

14 Un’introduzione all’algebra lineare

Esempio 13. Sia Q[√

2] = { a+b√

2 | a, b ∈ Q } ⊆ R. Si verifica che Q[√

2]e un campo rispetto alle operazioni usuali di somma e prodotto, ed e unsottocampo di R.

Esempio 14. Sia H = { a + ib + jc + kd | a, b, c, d ∈ R } e definiamo leoperazioni di somma e prodotto come segue. Poniamo

(a + ib + jc + kd) + (a′ + ib′ + jc′ + kd′)

= a + a′ + i(b + b′) + j(c + c′) + k(d + d′) .

Poniamo inoltrei2 = j2 = k2 = −1

i · j = k = −j · ij · k = i = −k · jk · i = j = −i · k

e definiamo

(a + ib + jc + kd) · (a′ + ib′ + jc′ + kd′) = aa′ − bb′ − cc′ − dd′

+ i(ab′ + ba′ + cd′ − dc′)

+ j(ac′ + ca′ + db′ − bd′)

+ k(ad′ + da′ + bc′ − cb′) .

Si verifica che 0 + i0 + j0 + k0 e l’elemento neutro rispetto alla somma,1 + i0 + j0 + k0 e l’elemento neutro rispetto al prodotto e che con talioperazioni H e un corpo, ma non un campo. H prende il nome di corpo deiquaternioni ed i suoi elementi si dicono quaternioni, ovvero anche numerihamiltoniani.

Introduciamo ora la nozione di ideale di un anello. Sia H un sottoinsiemenon vuoto del sostegno di un anello A.

Definizione 1.31. H si dice ideale (bilatero) di A se(i) (H; +) e un sottogruppo di (A; +);(ii) ∀ h ∈ H, ∀ x ∈ A si ha che x · h ∈ H, h · x ∈ H.

In particolare, un ideale di A e anche un sottoanello di A. I sottoinsiemi {0}e A sono certamente ideali di A e sono detti ideali banali. Un ideale H 6= Asi dice ideale proprio.

Page 23: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 15

Proposizione 1.32. Sia H un ideale di un anello unitario A. Se in H c’eun elemento invertibile h, allora H = A.

Dimostrazione. Sia a ∈ A. Si ha che

a = (a · h−1) · h ∈ H

e quindi H = A. 2

In particolare, se 1 ∈ H allora H = A.

Si verifica agevolmente che il sottogruppo mZ del gruppo additivo degliinteri e anche un ideale dell’anello degli interi. Si verifica anche che se F

e un campo gli unici suoi ideali sono quelli banali. Infatti tale condizionecaratterizza i campi.

Proposizione 1.33. Un anello commutativo unitario A e un campo se esolo se i suoi unici ideali sono quelli banali.

Dimostrazione. Sia A un campo e sia H 6= {0} un suo ideale. Sia inoltreh ∈ H − {0}. L’elemento h sara invertibile, e quindi, come gia osservato,H = A. Viceversa, supponiamo che A sia un anello commutativo unitario eche i suoi ideali siano solo quelli banali. Sia h ∈ A − {0} e proviamo che h einvertibile. Definiamo un sottoinsieme (h) di A ponendo

(h) = { a · h | a ∈ A } .

Si verifica facilmente che (h) e un ideale di A. Tale ideale e distinto da {0} inquanto h ∈ (h). Pertanto (h) = A e cioe 1 ∈ (h). Esiste allora un elementoa ∈ A tale che a · h = 1 e quindi h e invertibile. 2

Esempio 15. In Z × Z definiamo le operazioni di somma e di prodottoponendo

(a, b) + (a′, b′) = (a + a′, b + b′) ; (a, b) · (a′, b′) = (a · a′, b · b′) .

In tal modo otteniamo una struttura di anello commutativo unitario (Z ×Z; +, ·), con unita (1, 1). Osserviamo che i sottoinsiemi Z×{0} e {0}×Z diZ × Z sono entrambi sottoanelli unitari, ma i loro elementi neutri rispetto

alla moltiplicazione non coincidono con quello di Z × Z.

Page 24: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

16 Un’introduzione all’algebra lineare

§5. Polinomi su un dominio di integrita

Mostreremo ora come, a partire da un dominio di integrita unitario F si puocostruire un nuovo dominio di integrita unitario F[x], l’insieme dei polino-mi su F. Ricordiamo che una successione in un insieme non vuoto S e unaapplicazione

a : N0 −→ S .

L’immagine a(n) di n ∈ N0 in S si denota di solito con an e la successione asi indica con uno dei seguenti simboli: (an)n∈N0

; (a0, a1, . . . ) , o anche, piu

semplicemente, (an). Sia ora F un dominio di integrita unitario e sia F l’insiemedelle successioni (an)n∈N0

in F definitivamente nulle, ovvero tali che esiste

m ∈ N0 tale che ak = 0 per ogni k > m. Daremo a F una struttura di anellodefinendo le seguenti operazioni. Siano (an)n∈N0

, (bn)n∈N0∈ F. Poniamo

(an)n∈N0+ (bn)n∈N0

= (cn)n∈N0

(an)n∈N0· (bn)n∈N0

= (dn)n∈N0

doveck = ak + bk ; dk =

i+j=k

aibj ∀ k ∈ N0 .

Osserviamo che se ah = 0 ∀ h > m e bh = 0 ∀ h > m′ si ha che dh = 0 ∀ h >m + m′. Infatti, se h > m + m′, affinche sia i + j = h deve accadere chei > m oppure j > m′. Pertanto ogni addendo della somma che definisce dh siannulla. E’ chiaro anche che per ogni k ∈ N0 la somma

i+j=k

aibj

e finita. Si verifica agevolmente che(i) + e una operazione interna associativa e commutativa;(ii) 0=(0, 0, . . . ) e l’elemento neutro rispetto a +;

(iii) ∀ (an) ∈ F la successione (−an) e l’elemento opposto di (an);(iv) · e una operazione interna associativa e commutativa;(v) 1=(1, 0, 0, . . . ) e l’elemento neutro rispetto a ·;(vi) Per ogni (an), (bn), (cn) ∈ F si ha che

(an) ·((bn) + (cn)

)=((an) · (bn)

)+((an) · (cn)

).

Pertanto F e un anello commutativo con unita. I suoi elementi sono dettipolinomi (su F).

Page 25: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 17

Definizione 1.34. Sia (an)n∈N0∈ F − {0} e sia m = max{k ∈ N0 | ak 6= 0}.

Lo scalare am si dice parametro direttore di (an)n∈N0, mentre l’intero non

negativo m prende il nome di grado di (an)n∈N0e si denota con il simbolo

deg((an)n∈N0

). Un polinomio di grado 0 si dice costante. Lo scalare a0

prende il nome di termine costante del polinomio.

Lemma 1.35. Siano (an)n∈N0, (bn)n∈N0

due polinomi non nulli e sia

(an)n∈N0+ (bn)n∈N0

6= 0 .

Si ha che

deg((an)n∈N0

+ (bn)n∈N0

)≤ max{deg(an)n∈N0

,deg(bn)n∈N0}

deg(an)n∈N0= deg(−an)n∈N0

.

Proposizione 1.36. L’anello F e un dominio di integrita unitario. Inoltrevale la legge di somma dei gradi, ovvero si ha che

deg((an)n∈N0

· (bn)n∈N0

)= deg(an)n∈N0

+ deg(bn)n∈N0

per ogni (an)n∈N0, (bn)n∈N0

∈ F − {0}.

Dimostrazione. Siano (an)n∈N0, (bn)n∈N0

due polinomi non nulli su F digrado m,m′ rispettivamente e sia (dn)n∈N0

= (an)n∈N0· (bn)n∈N0

. Si ha che

dm+m′ = ambm′ 6= 0 .

Pertanto (dn)n∈N06= 0 e deg(dn)n∈N0

= m + m′. 2

Consideriamo l’applicazione iniettiva

Φ : α ∈ F 7−→ (α, 0, 0, . . . ) ∈ F .

D’ora in avanti identificheremo F con Φ(F) ⊆ F mediante tale applicazione, equindi ogni scalare α con il polinomio costante ad esso associato (α, 0, 0, . . . ).Poniamo ora

x = (0, 1, 0, 0, . . . ) .

Page 26: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

18 Un’introduzione all’algebra lineare

Proposizione 1.37. Per ogni n ∈ N si ha che

xn = (0, . . . , 0︸ ︷︷ ︸n

, 1, 0, 0, . . . ) .

Dimostrazione. Se n = 1 l’asserto e banale. Sia dunque n > 1 e supponiamoinduttivamente che

xk = (0, . . . , 0︸ ︷︷ ︸k

, 1, 0, 0, . . . ) ∀ k < n .

Si ha chexn = xn−1x = (0, . . . , 0︸ ︷︷ ︸

n−1

, 1, 0, 0, . . . )(0, 1, 0, 0, . . . )

= (0, . . . , 0︸ ︷︷ ︸n

, 1, 0, 0, . . . )

come si verifica agevolmente. 2

Definizione 1.38. Un polinomio (an)n∈N0tale che esiste un unico k ∈ N0

tale che ak 6= 0 si dice monomio (di grado k).

Un monomio di grado k e pertanto un polinomio del tipo

(0, . . . , 0︸ ︷︷ ︸k

, ak, 0, . . . ) .

Abbiamo che

(0, . . . , 0︸ ︷︷ ︸k

, ak, 0, . . . ) = (ak, 0, 0, . . . )(0, . . . , 0︸ ︷︷ ︸k

, 1, 0, . . . ) = akxk

e quindi un qualunque polinomio (an)n∈N0puo scomporsi in modo univoco in

somma di monomi come segue:

(a0, a1, . . . , am, 0, . . . ) = (a0, 0, . . . ) + (0, a1, 0, . . . )

+ (0, 0, a2, 0, . . . )

+ · · · + (0, . . . , 0, am, 0, . . . )

= a0 + a1x + a2x2 + · · · + amxm .

Page 27: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 19

Ad esempio 0 = (0, 0, 0, . . .) = 0 e 1 = (1, 0, 0, . . .) = 1. Consideriamo ora duepolinomi

f = a0 + a1x + · · · + amxm ; g = b0 + b1x + · · · + bm′xm′

e supponiamo che sia m ≤ m′. Le formule che definiscono le operazioni disomma e prodotto tra polinomi consentono di verificare che, con questa nuovanotazione, si ha

f + g = a0 + b0 + (a1 + b1)x + · · ·+ (am + bm)xm + bm+1xm+1 + · · ·+ bm′xm′

fg = a0b0 + (a0b1 + a1b0)x + (a0b2 + a1b1 + a2b0)x2 + · · · + ambm′xm+m′

.

Quando si usa la notazione a0 + a1x + · · · + amxm invece della notazione(an)n∈N0

il dominio di integrita unitario F si indica con il simbolo F[x] e ilpolinomio x prende il nome di indeterminata.

Proposizione 1.39. Gli elementi invertibili dell’anello F[x] sono polinomicostanti non nulli.

Dimostrazione. Sia f un polinomio invertibile. Sara necessariamente f 6= 0;inoltre, detto g l’inverso di f , anche g sara non nullo e avremo che fg = 1.Pertanto

0 = deg(1) = deg(fg) = deg(f) + deg(g)

e quindi deg(f) = 0 ed f e costante. 2

In generale non vale il viceversa. Si ha pero che se f e un polinomio costante,ad esempio f = c ∈ F, e c e invertibile, allora chiaramente f e invertibile comepolinomio ed il suo inverso e il polinomio costante f−1 = c−1.

Corollario 1.40. Se F e un campo, gli elementi invertibili di F[x] sono tuttie soli i polinomi costanti non nulli.

Torniamo ora al caso piu generale in cui F e un dominio di integrita. Ilseguente enunciato e conosciuto come l’algoritmo euclideo della divisione trapolinomi.

Page 28: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

20 Un’introduzione all’algebra lineare

Teorema 1.41. Siano f, g ∈ F[x] due polinomi e sia g 6= 0 e supponiamoche il coefficiente direttore bm di g sia un elemento invertibile di F. Esistonoallora, e sono univocamente determinati, due polinomi q, r ∈ F[x] tali che

(i) f = g · q + r ;(ii) r = 0 oppure deg(r) < deg(g) .

Dimostrazione. Proviamo l’esistenza di q, r. Se f = 0 basta porre q = r = 0.Sia dunque f 6= 0. Se deg(f) < deg(g) basta porre q = 0 , r = f . Supponiamopertanto che deg(f) ≥ deg(g). Poniamo n = deg(f), m = deg(g). Sia adesempio

f = a0 + a1x + · · · + anxn ; g = b0 + b1x + · · · + bmxm

con n ≥ m ≥ 0 , an, bm 6= 0. Se n = 0 anche m = 0 e quindi f = a0, g = b0

e basta porre q = a0b−10 , r = 0. Esaminiamo quindi il caso in cui n > 0 e

procediamo per induzione. Supponiamo induttivamente che se f1 ∈ F[x]−{0}e deg(f1) < n esistono q1, r1 ∈ F[x] tali che f1 = gq1 + r1 e r1 = 0 oppuredeg(r1) < deg(g). Consideriamo il polinomio

h = anb−1m xn−m · g .

Si ha che h 6= 0, deg(h) = n e il parametro direttore di h e proprio an. Poniamoallora

f1 = f − h .

Se f1 = 0 si ha che f = h e si pone q = anb−1m xn−m, r = 0. Se f1 6= 0 si ha

che deg(f1) < n e quindi per l’ipotesi induttiva esistono q1, r1 ∈ F[x] tali chef1 = gq1 + r1 e r1 = 0 oppure deg(r1) < deg(g). Ma allora

f = f1 + h = gq1 + r1 + anb−1m xn−mg = g(q1 + anb−1

m xn−m) + r1 .

Basta quindi porre q = q1 + anb−1m xn−m e r = r1. Cio completa la dimostra-

zione induttiva dell’esistenza della coppia q, r. Proviamo ora l’unicita di talecoppia. Supponiamo che

f = gq + r = gq′ + r′

dove q, q′, r, r′ ∈ F[x] e si ha che r = 0 oppure deg(r) < deg(g) e r′ = 0 oppuredeg(r′) < deg(g). Abbiamo che

g(q − q′) = r′ − r .

Page 29: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 21

Se r′ 6= r e r, r′ 6= 0 si ha che g(q − q′) 6= 0 e

max{deg(r),deg(r′)} = deg(r′ − r) = deg(g) + deg(q − q′) ≥ deg(g) .

Pertanto deg(r) ≥ deg(g) oppure deg(r′) ≥ deg(g), e questa e una contrad-dizione. Se r′ 6= r ma r = 0 oppure r′ = 0, si ragiona in modo analogo.Esaminiamo infine il caso in cui r = r′. Abbiamo che

g(q − q′) = 0

e poiche g 6= 0, deve accadere che q − q′ = 0 ovvero q = q′. 2

Abbiamo gia osservato che per ogni dominio di integrita unitario F ancheF[x] e un dominio di integrita unitario. Ha senso quindi considerare l’anellodei polinomi su F[x] che si indica ad esempio con F[x][y], o anche con F[x, y],ed e a sua volta un dominio di integrita unitario. Gli elementi di tale anello sidicono polinomi su F nelle indeterminate x, y. Piu in generale si puo definire,induttivamente, per ogni n ∈ N, il dominio di integrita unitario F[x1, . . . , xn]che prende il nome di anello dei polinomi su F nelle indeterminate x1, . . . , xn.Un polinomio f ∈ F[x1, . . . , xn] avra quindi una espressione del tipo

f =∑

r1,...,rn

ar1,...,rnxr1

1 . . . xrnn

dove ar1,...,rn∈ F e la sommatoria e finita (ovvero solo al piu un numero finito

dei coefficienti ar1,...,rne non nullo). Il generico addendo ar1,...,rn

xr1

1 . . . xrnn si

dice monomio di grado r = r1 + · · · + rn. Se f 6= 0 il grado di f sara poi ilmassimo dei gradi dei suoi monomi.

§6. Polinomi su un campo

D’ora in avanti sia F un campo. Osserviamo che, in tale situazione, datidue polinomi f, g, per poter applicare l’algoritmo euclideo della divisione atali polinomi basta supporre che sia g 6= 0. In tal caso, infatti, il parametrodirettore bm di g e un elemento non nullo del campo F e quindi e invertibile.Per ogni polinomio f = a0 + a1x + · · · + anxn definiamo una applicazione

f : F −→ F

ponendof(c) = a0 + a1c + · · · + ancn .

E’ d’uso comune anche scrivere f(c) in luogo di f(c). f si dice applicazionepolinomiale associata ad f . E’ chiaro che se f = 0 allora f e l’applicazionepolinomiale identicamente nulla, ovvero f(c) = 0 per ogni c ∈ F. Se invece fe una costante a0, si ha che f(c) = a0 per ogni c ∈ F e cioe f e l’applicazionecostante in a0.

Page 30: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

22 Un’introduzione all’algebra lineare

Lemma 1.42. Per ogni polinomio f e per ogni scalare c esiste un unicopolinomio q tale che

f = (x − c)q + f(c) .

Dimostrazione. Usando l’algoritmo euclideo della divisione, troviamo un’u-nica coppia (q, r) di polinomi tale che f = (x − c)q + r dove r = 0 oppuredeg(r) < deg(x − c) = 1, ovvero r = 0 oppure deg(r) = 0. In altre parole r euna costante. Si ha che

f(c) = (c − c)q(c) + r(c) .

Pertanto r e il polinomio costante f(c), come richiesto. 2

Definizione 1.43. Sia f un polinomio non nullo e sia c ∈ F. Si dice che c euna radice (o anche uno zero) di f se f(c) = 0.

Da tale definizione si deduce banalmente che un polinomio di grado 0 nonpossiede radici.

Definizione 1.44. Siano f, h due polinomi non nulli. Diremo che f e divi-sibile per h, ovvero anche che h e un divisore di f , e scriveremo h|f , se esisteun altro polinomio g tale che f = hg.

Teorema di Ruffini 1.45. Sia f un polinomio non nullo. Uno scalare c ∈ F

e una radice di f se e solo se f e divisibile per (x − c).

Dimostrazione. In base al lemma precedente, esiste un unico polinomio qtale che

(4) f = (x − c)q + f(c) .

Pertanto, se c e una radice di f si ha che f(c) = 0 e quindi f = (x− c)q ovverof e divisibile per (x − c). Viceversa, se esiste un polinomio h tale che

(5) f = (x − c)h

dall’unicita del quoziente e del resto di una divisione tra polinomi e dal con-fronto tra la (4) e la (5) si deduce che h = q e f(c) = 0, ovvero c e una radicedi f . 2

Page 31: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 23

Teorema 1.46. Se c1, . . . , ct sono radici distinte di un polinomio f , allora fe divisibile per (x − c1) . . . (x − ct).

Dimostrazione. Se t = 1 l’asserto e vero per il Teorema di Ruffini. Procedia-mo per induzione. Sia t > 1 e supponiamo che se c2, . . . , ct sono radici distintedi un polinomio q allora q e divisibile per (x − c2), . . . , (x − ct). Poiche c1 euna radice di f , esiste un polinomio q tale che f = (x− c1)q. Poiche c2, . . . , ct

sono radici di f distinte da c1, si ha che f(ci) = (ci − c1)q(ci) = 0 per ognii = 2, . . . , t, e quindi q(ci) = 0 per ogni i = 2, . . . , t e c2, . . . , ct sono radici diq. Pertanto, per l’ipotesi induttiva, esiste un polinomio h tale che

q = (x − c2) . . . (x − ct)h

e quindi

f = (x − c1)(x − c2) . . . (x − ct)h .

2

Corollario 1.47. Sia f un polinomio non nullo e sia deg(f) = n. Allora fha al piu n radici.

Dimostrazione. Siano c1, . . . , ct le radici di f . Per il Teorema 1.46 esiste unpolinomio h tale che

f = (x − c1) . . . (x − ct)h

e quindi

deg(f) = deg(x − c1) + · · · + deg(x − ct) + deg(h) = t + deg(h)

cioe deg(f) ≥ t. 2

Teorema (Principio di identita dei polinomi) 1.48. Sia F un campoinfinito e siano f, g due polinomi su F. Se f 6= g allora f 6= g.

Dimostrazione. Dimostreremo equivalentemente che se f = g allora f = g.Sia quindi f = g. Cio vuol dire che f(c)− g(c) = 0, ovvero (f − g)(c) = 0, perogni c ∈ F. Quindi ogni elemento del campo e radice del polinomio f − g. Sefosse f−g 6= 0, detto s il grado di tale polinomio, f −g avrebbe al piu s radici.Poiche invece ne possiede infinite, deve essere f − g = 0 ovvero f = g. 2

Page 32: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

24 Un’introduzione all’algebra lineare

Definizione 1.49. Sia f un polinomio e sia c una radice di f . La molte-plicita µ(c) di c e il massimo intero non negativo k tale che f e divisibile per(x− c)k. Diremo che c e una radice semplice se µ(c) = 1, multipla se µ(c) ≥ 2.

Definizione 1.50. Sia f = a0 +a1x+ · · ·+anxn un polinomio. Il polinomio

Df = a1 + 2a2x + · · · + nanxn−1

prende il nome di derivata di f o anche polinomio derivato di f .

Si verifica agevolmente che

D(f + g) = Df + Dg ; D(fg) = (Df)g + f(Dg) ;

D((x + c)n

)= n(x + c)n−1 .

Teorema 1.51. Sia f un polinomio e sia c una sua radice. c e una radicemultipla se e solo se e radice anche del polinomio Df .

Dimostrazione. Sia c una radice multipla di f . Esiste allora un polinomioh tale che f = (x − c)2h. Quindi

Df = 2(x − c)h + (x − c2)Dh .

Pertanto (Df)(c) = 0 e c e una radice di Df . Viceversa, supponiamo che csia radice di f e di Df . Esiste un polinomio h tale che f = (x − c)h e quindi

Df = (x − c)Dh + h .

Pertanto0 = (Df)(c) = (c − c)(Dh)(c) + h(c)

ovvero h(c) = 0. c e quindi una radice di h ed esiste un polinomio q tale cheh = (x − c)q. Sicche

f = (x − c)h = (x − c)2q

e c e una radice multipla di f . 2

Teorema 1.52. Sia f un polinomio non nullo e sia deg(f) = n. Se c1, . . . , ct

sono le radici (distinte) di f si ha che∑

i µ(ci) ≤ n.

Dimostrazione. Omessa. 2

Page 33: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 25

§7. Fattorizzazione di un polinomio

Affrontiamo ora il problema della fattorizzazione in F[x].

Definizione 1.53. Siano f, g due polinomi non nulli. Diremo che f e g sonoassociati, e scriveremo f ∼ g, se esiste un polinomio invertibile (ovvero unacostante non nulla) k tale che f = kg.

Si verifica facilmente che ∼ e una relazione di equivalenza. In particolare sef ∼ g allora f |g e g|f . Viceversa, se f |g e g|f , esisteranno dei polinomi h, h′ taliche g = hf e f = h′g. Pertanto g = hh′g e quindi, per cancellazione, 1 = hh′

e h e invertibile, cioe f ∼ g. Osserviamo esplicitamente che tutti i polinomidi grado 0, ovvero le costanti non nulle, sono tra loro associati e formano unaclasse completa di equivalenza rispetto a ∼. Si puo dire qualcosa di piu: sef ∼ g allora deg(f) = deg(g). Infatti se f ∼ g allora esiste una costantenon nulla k tale che g = kf . Ma allora deg(g) = deg(k) + deg(f) = deg(f),essendo deg(k) = 0. Sia ora f un polinomio non nullo e di grado positivo. Sek e un polinomio invertibile, e chiaro che k|f . Infatti f = k(k−1f). I polinomiinvertibili e i polinomi associati ad f si dicono divisori impropri di f . Se h|fed h non e un divisore improprio, diremo che h e un divisore proprio di f . Intal caso, poiche h non e invertibile, sara deg(h) > 0. Inoltre esistera un altropolinomio h′ tale che f = hh′, ed anche h′ non sara invertibile, altrimenti fed h sarebbero associati. Pertanto anche h′ sara un divisore proprio di f e siavra deg(h′) > 0. Poiche infine

deg(f) = deg(h) + deg(h′)

avremo che deg(h) < deg(f).

Definizione 1.54. Sia f = a0 + a1x + · · ·+ anxn un polinomio non nullo diparametro direttore an. Se an = 1 diremo che f e monico.

Lemma 1.55. Sia g = b0 + b1x + · · · + bmxm un polinomio non nullo diparametro direttore bm. Esiste allora un unico polinomio monico, di ugualegrado, h = c0 + c1x + · · · + cm−1x

m−1 + xm associato a g.

Dimostrazione. Basta porre h = b−1m f . Cio prova l’esistenza di h. L’unicita

si verifica poi in modo agevole. 2

Page 34: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

26 Un’introduzione all’algebra lineare

Definizione 1.56. Siano f, g due polinomi non nulli. Un polinomio nonnullo p si dice massimo comun divisore di f e g se p|f , p|g ed inoltre per ognidivisore comune h di f e g si ha che h|p.

Proveremo ora l’esistenza di un massimo comun divisore di due qualunquepolinomi non nulli f e g usando un metodo noto come l’algoritmo delle divi-sioni successive. Poniamo g0 = f , g1 = g e usiamo ripetutamente l’algoritmoeuclideo della divisione. Abbiamo che esiste un’unica coppia (f1, g2) tale cheg0 = g1f1 + g2 con g2 = 0 oppure deg(g2) < deg(g1). Se g2 6= 0, abbia-mo che esiste un’unica coppia (f2, g3) tale che g1 = g2f2 + g3 con g3 = 0oppure deg(g3) < deg(g2). Possiamo procedere in questo modo finche, do-po un numero finito di passi, il resto non sara nullo. In altri termini, esisten ∈ N ed esistono (e sono univocamente determinati) dei polinomi non nullif1, f2, . . . , fn, g2, . . . , gn tali che

deg(gn) < deg(gn−1) < . . . < deg(g2) < deg(g1)

e tali che

g0 = g1f1 + g2

g1 = g2f2 + g3

g2 = g3f3 + g4

...(6)

gn−3 = gn−2fn−2 + gn−1

gn−2 = gn−1fn−1 + gn

gn−1 = gnfn

Il polinomio gn e un massimo comun divisore di f e g. Infatti dall’ultima delle(6) si deduce che gn|gn−1. Pertanto dalla penultima delle (6) si deduce chegn|gn−2. Infatti, poiche gn|gn−1, esiste un polinomio h tale che gn−1 = hgn equindi

gn−2 = gnhfn−1 + gn = gn(hfn−1 + 1) .

Iterando questo procedimento, dalla terzultima delle (6) si deduce che gn|gn−3

e cosı via, fino a trovare che gn|g1 e gn|g0, ovvero gn|f , gn|g. Pertanto gn e undivisore comune di f e g. Se poi p e un altro divisore comune a f e g, si ha chep|g0 e p|g1. Dalla prima delle (6) si deduce allora che p|g2, e poi dalla secondadelle (6) si deduce che p|g3 e cosı via, fino a trovare che p|gn. Pertanto gn eun massimo comun divisore di f e g.

Page 35: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 27

Proposizione 1.57. Siano f, g due polinomi non nulli. Esiste allora ununico polinomio monico h che sia massimo comun divisore di f e g, e si scriveh = mcd(f, g).

Dimostrazione. L’esistenza di un massimo comun divisore di f e g e gia sta-ta provata. Osserviamo ora che se p, p′ sono entrambi massimi comun divisoridi f e g, allora deve accadere che p|p′ e p′|p. Pertanto p ∼ p′. Viceversa, se pe un massimo comun divisore di f e g e p′ ∼ p allora si verifica agevolmenteche anche p′ e un massimo comun divisore di f e g. In altre parole, i massimicomun divisori di f e g formano una classe completa di equivalenza di poli-nomi associati. Pertanto, in base ad un lemma precedente, esistera un unicorappresentante monico di tale classe. 2

Definizione 1.58. Siano f, g due polinomi non nulli. Diremo che f e g sonocoprimi se mcd(f, g) = 1.

Corollario 1.59. Siano f e g due polinomi non nulli e sia p un massimocomun divisore di f e g. Esistono allora due polinomi a, b tali che

p = af + bg .

Dimostrazione. Consideriamo il polinomio gn ottenuto con l’algoritmo delledivisioni successive. Abbiamo gia osservato che gn e un massimo comun di-visore di f e g. Inoltre, dalla prima delle (6), abbiamo che g2 e della formaa1f + b1g. Sostituendo nella seconda delle (6) deduciamo che anche g3 e dellaforma a2f + b2g, e cosı via, fino a trovare che esistono dei polinomi a′, b′ taliche

(7) gn = a′f + b′g .

Poiche p ∼ gn, esiste un polinomio invertibile k tale che p = kgn. Moltiplican-do entrambi i membri della (7) per k otteniamo quindi

p = kgn = ka′f + kb′g

e quindi l’asserto, con a = ka′, b = kb′. 2

Dal corollario precedente si deduce che se f e g sono coprimi esistono deipolinomi a, b tali che

(8) 1 = af + bg .

Page 36: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

28 Un’introduzione all’algebra lineare

D’altra parte, se vale la (8) allora 1 = mcd(f, g). Infatti e chiaro che 1|f , 1|g.Inoltre, se anche h|f , h|g, esistono dei polinomi h1, h2 tali che

f = hh1 ; g = hh2

e quindi, sostituendo nella (8) si ha che

1 = ahh1 + bhh2 = h(ah1 + bh2)

e quindi h|1. Quindi f e g sono coprimi se e solo se esiste una espressione deltipo (8).

Definizione 1.60. Sia p un polinomio di grado positivo. Diremo che p eirriducibile se non possiede divisori propri.

Osserviamo che se deg(f) = 1 allora f e irriducibile. Infatti si e gia osservatoche un divisore proprio di f dovrebbe avere grado positivo e minore del gradodi f , e cio e impossibile.

Proposizione 1.61. Sia p un polinomio irriducibile e siano f, g due polinominon nulli tali che p|fg. Allora p|f oppure p|g, ovvero, come si suol dire, p eun elemento primo di F[x].

Dimostrazione. Supponiamo che p non divida f e proviamo che p|g. Poichep|fg, esiste un polinomio h tale che fg = ph. Inoltre, essendo p irriducibile,esso ammette come divisori solo gli invertibili e gli associati. Poiche p nondivide f , gli unici divisori comuni ad f e p sono gli invertibili, cioe mcd(f, p) =1. Esisteranno quindi dei polinomi a, b tali che

1 = ap + bf

e dunque

g = apg + bfg = apg + bph = p(ag + bh) .

2

Possiamo ora enunciare e dimostrare il teorema fondamentale della fattoriz-zazione in F[x].

Page 37: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 29

Teorema 1.62. Sia f un polinomio di grado positivo. Esistono allora, esono univocamente determinati, una costante non nulla k, un intero positivor e dei polinomi monici irriducibili f1, . . . , fr tali che

f = k · f1 · . . . · fr .

Dimostrazione. Proviamo l’esistenza di una fattorizzazione del polinomio fcome prodotto di una costante non nulla e dei polinomi monici irriducibili. Sedeg(f) = 1 allora il polinomio f e del tipo

f = α + βx (α, β ∈ F, β 6= 0) .

Allora possiamo scrivere

f = β(β−1f) = β(β−1α + x)

e questa e una fattorizzazione del tipo richiesto. Supponiamo ora che deg(f) =n > 1 e procediamo per induzione, ovvero supponiamo che i polinomi di gradopositivo e minore di n ammettano una fattorizzazione del tipo richiesto. Se fe irriducibile e an e il suo parametro direttore, allora

f = an(a−1n f)

e una fattorizzazione del tipo richiesto. Se invece f non e irriducibile, alloraesistono due polinomi h′, h′′ di grado positivo e minore di n tali che f = h′h′′.Ma allora, per l’ipotesi induttiva, esistono delle costanti non nulle k′, k′′ e deipolinomi monici irriducibili

h′1, . . . , h

′s, h

′′1 , . . . , h′′

t

tali cheh′ = k′ · h′

1 · . . . · h′s ; h′′ = k′′ · h′′

1 · . . . · h′′t

e quindif = (k′k′′) · h′

1 · . . . · h′s · h′′

1 · . . . · h′′t .

Proviamo ora l’unicita di una fattorizzazione del tipo richiesto. Siano k, k′ duecostanti non nulle e f1, . . . , fr, g1, . . . , gs dei polinomi monici irriducibili taliche

(9) f = k · f1 · . . . · fr = k′ · g1 · . . . · gs .

Page 38: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

30 Un’introduzione all’algebra lineare

Allora g1|f1 · . . . · fr; pertanto, essendo g1 irriducibile e quindi anche primo, g1

dovra dividere qualcuno dei polinomi f1, . . . , fr. Ad esempio sia g1|f1. Dovraesistere un polinomio h tale che f1 = hg1 e poiche f1 e irruducibile, h saraun invertibile. Ma allora f1 ∼ g1 e poiche f1, g1 sono entrambi monici si avraf1 = g1. Dalla (9) si ottiene allora, per cancellazione, che

k · f2 · . . . · fr = k′ · g2 · . . . · gs .

Questo procedimento si puo iterare. Se fosse r 6= s, ad esempio r < s, dopo rpassi si otterrebbe

(10) k = k′ · gr+1 · . . . · gs

e cio e assurdo, in quanto il primo membro della (10) ha grado 0 mentre ilsecondo membro della (10) ha grado positivo. Dobbiamo quindi dedurre cher = s e che fi = gi per ogni i = 1, . . . , r. Inoltre, dopo r cancellazioni, siottiene che k = k′ e cio conclude la dimostrazione. 2

Concludiamo questo capitolo con alcune osservazioni sui polinomi a coeffi-cienti reali e complessi. Le dimostrazioni degli enunciati che saranno di seguitoesposti sono omesse, essendo per lo piu di natura non elementare.

Teorema fondamentale dell’algebra 1.63.Ogni polinomio non costante f ∈ C[x] ammette una radice.

Corollario 1.64. Sia f ∈ C[x] un polinomio non nullo, e sia deg f = n. Sez1, . . . , zt ∈ C sono le radici (a due a due distinte) di f e b1, . . . , bt sono lemolteplicita di tali radici, si ha che

f = an · (x − z1)b1 · . . . · (x − zt)

bt

ovvero, come si suol dire, ogni polinomio e completamente riducibile in C[x].

Poiche R puo identificarsi con un sottocampo di C mediante l’inclusione

a ∈ R 7−→ a + i0 ∈ C

possiamo anche considerare R[x] identificato con un sottoanello di C[x], ovveroconsiderare un polinomio a coefficienti reali anche come polinomio a coefficienticomplessi. Se z = a + ib ∈ C (con a, b ∈ R), indichiamo con z = a − ib il suocomplesso coniugato. Osserviamo esplicitamente che z + z e z · z sono numerireali, per ogni z ∈ C.

Page 39: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 31

Lemma 1.65. Sia f ∈ C[x] un polinomio a coefficienti reali, ovvero sia

f = a0 + a1x + · · · + anxn

con a0, . . . , an ∈ R. Se z = a + ib ∈ C e una radice di f anche z e una radicedi f .

Dimostrazione. Ricordiamo che i coefficienti ai sono reali, quindi ai = ai

per ogni i. Pertanto

f(z) = a0 + a1z + · · · + anzn = f(z) = 0 = 0

e quindi z e una radice di f . 2

E’ possibile dare una caratterizzazione dei polinomi irriducibili in R[x] eC[x].

Teorema 1.66. Un polinomio complesso non costante f e irriducibile se esolo se deg f = 1.

Teorema 1.67. Un polinomio reale non costante f e irriducibile se e solo sedeg f = 1 oppure deg f = 2 e posto f = a0+a1x+a2x

2 si ha che a21−4a0a2 < 0.

Lo scalare a21 − 4a0a2 si dice discriminante di f .

Teorema 1.68. Sia f ∈ R[x] un polinomio non nullo e sia deg f = n ≥ 1.Allora f puo esprimersi, in unico modo a meno dell’ordine dei fattori, comeprodotto

f = an · gb11 · . . . · gbs

s · hc11 · . . . · hct

t

dove g1, . . . , gs sono polinomi monici di primo grado, h1, . . . , ht sono polino-mi monici di secondo grado irriducibili e b1, . . . , bs, c1, . . . , ct sono interi nonnegativi.

Osserviamo che n = b1 + · · ·+ bs +2c1 + · · ·+2ct. Inoltre, poiche i polinomig1, . . . , gs sono monici e di grado 1, per ogni i esistera uno scalare αi ∈ R

tale che gi = x − αi. Pertanto αi sara una radice di f di molteplicita bi.Analogamente, poiche h1, . . . , ht ∈ R[x] sono monici di secondo grado, perogni j esisteranno degli scalari βj , γj ∈ R tali che hj = βj + γjx + x2. D’altraparte gli hj sono irriducibili in R[x] ma non in C[x], e poiche un polinomioreale che ammette un numero complesso z come radice ammette anche z comeradice, per ogni j esistera un numero complesso zj tale che

hj = (x − zj) · (x − zj) = x2 − (zj + zj)x + zjzj

e quindi βj = zjzj e γj = zj + zj .

Page 40: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

32 Un’introduzione all’algebra lineare

Corollario 1.69. Ogni polinomio f ∈ R[x] di grado dispari ammette unaradice (reale).

Page 41: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 33

Esercizi.

1. Sia X un insieme non vuoto e sia End(X) l’insieme delle applicazioni di X in se.Definiamo una operazione interna · in End(X) ponendo f · g := g ◦ f .

(i) Provare che la struttura algebrica(

End(X); ·)

e un monoide;

(ii) sia Y ⊆ X e sia

B ={

f ∈ End(X) | f(y) = y ∀ y ∈ Y}⊆ End(X) ;

provare che B e una parte stabile di End(X).

2. Sia X un insieme non vuoto e indichiamo con P (X) il suo insieme delle parti.

(i) Provare che(P (X);∩

)e(P (X);∪

)sono monoidi commutativi, specifican-

do qual e l’elemento neutro;(ii) provare che in tali strutture algebriche non vi sono elementi simmetrizzabili

distinti dall’elemento neutro.

3. Sia X un insieme non vuoto e sia Y una sua parte non vuota. Indichiamo conPY (X) l’insieme delle parti di X contenenti Y (inclusione stretta).

(i) Provare che(PY (X);∩

)e una parte stabile del monoide

(P (X);∩

)ed e a

sua volta un monoide;

(i) Provare che(PY (X);∪

)e una parte stabile del monoide

(P (X);∪

)ed e a

sua volta un semigruppo (ma non un monoide).

4. Sia X un insieme non vuoto. Provare che la differenza tra sottoinsiemi e unaoperazione interna non associativa in P (X).

5. Sia S1 la circonferenza unitaria del piano euclideo, ovvero l’insieme dei punti Pdel piano le cui coordinate x, y in un fissato riferimento monometrico ortogonalesoddisfino la relazione x2 + y2 = 1. Per ogni θ ∈ R indichiamo con Pθ il punto dicoordinate cos θ, sen θ. Poiche per ogni θ si ha che cos2 θ + sen2 θ = 1, si ha chePθ ∈ S1. D’altra parte ogni punto P ≡ (x, y) di S1 e di questo tipo. Definiamouna operazione · in S1 ponendo

Pθ · Pθ′ = Pθ+θ′ .

(i) Provare che la struttura (S1; ·) e un gruppo abeliano e il suo elemento neutroe il punto P0 ≡ (1, 0);

(ii) provare che il sottoinsieme H costituito dai punti P2πθ con θ ∈ Q e unsottogruppo di S1.

6. Sia X un insieme non vuoto e sia C(X) l’insieme delle applicazioni di X in R.Definiamo due operazioni ⊕ e ⊙ in C(X) ponendo

(f ⊕ g)(x) = f(x) + g(x) ; (f ⊙ g)(x) = f(x) · g(x)

Page 42: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

34 Un’introduzione all’algebra lineare

per ogni f, g ∈ C(X) e per ogni x ∈ X .

(i) Provare che(C(X);⊕,⊙

)e un anello commutativo unitario;

(ii) provare che se X contiene piu di un elemento allora C(X) non e un dominiodi integrita;

(iii) descrivere gli elementi invertibili di C(X);(iv) sia Y un sottoinsieme proprio non vuoto di X . Posto

IY ={

f ∈ C(X) | f(x) = 0 ∀ x ∈ Y}

provare che IY e un ideale (non banale) di C(X) e che tale ideale e massi-male nell’insieme I degli ideali propri di C(X) parzialmente ordinato perinclusione se e solo se Y e un singleton.

7. Trovare il massimo comun divisore monico tra i polinomi reali

f = x3 − x2 + x − 1 ; g = x4 − x3 − x2 − x − 2 .

8. Trovare il massimo comun divisore monico tra i polinomi reali

f = x4 − 1 ; g = x3 − 6x2 + 11x − 6 .

9. Trovare il massimo comun divisore monico tra i polinomi reali

f = x3 − x2 + x − 1 ; g = x3 − 6x2 + 11x − 6 .

10. Sia f ∈ Q[x]. Provare che f e associato ad un polinomio a coefficienti interi.

11. Determinare due polinomi in Z[x] che ammettono le stesse radici ma non sonoassociati.

12. Sia f ∈ Q[x] un polinomio a coefficienti interi. Ad esempio sia f = a0 + a1x +· · · + anxn, con a0, . . . , an ∈ Z. Provare che se u/v ∈ Q e una radice di f , doveu, v sono interi coprimi, ovvero privi di fattori comuni non invertibili, allora u|a0

e v|an sono numeri interi.

13. Sia f ∈ Q[x] un polinomio monico a coefficienti interi. Provare che ogni suaradice (razionale) e intera.

14. Sia f = a0 +a1x+ · · ·+anxn ∈ Z[x]. Provare che ogni sua radice (intera) dividea0.

Page 43: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 1 – Strutture algebriche 35

15. Sia F un campo e sia I il sottoinsieme di F[x] costituito dai polinomi aventi iltermine costante nullo, ovvero del tipo

f = a1x + · · · + anxn .

Sia inoltre I l’insieme degli ideali propri di F[x] parzialmente ordinato per in-clusione.(i) Provare che I e un ideale di F[x];(ii) provare che I e massimale in I;

16. Provare che gli ideali non banali dell’anello degli interi Z sono tutti e soli quellidel tipo I = mZ, dove m e un intero positivo.

Page 44: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica
Page 45: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Capitolo 2

Spazi vettoriali

§1. Spazi vettoriali su un campo

Sia K un campo.

Definizione 2.1. Uno spazio vettoriale su K e una struttura algebrica(V ; +, ·) dotata di una operazione interna +, detta addizione, e di una o-perazione esterna ·, detta moltiplicazione esterna, con operatori in K, taleche

(i) (V ; +) e un gruppo abeliano;(ii) (αβ) · v = α · (β · v) ∀ α, β ∈ K, ∀ v ∈ V ;(iii) 1 · v = v ∀ v ∈ V ;(iv) α · (u + v) = α · u + α · v ∀ α ∈ K, ∀ u,v ∈ V ;(v) (α + β) · v = α · v + β · v ∀ α, β ∈ K, ∀ v ∈ V .

L’insieme V prende il nome di sostegno di (V ; +, ·). Per semplicita scrivere-mo in genere V in luogo di (V ; +, ·) e non menzioneremo il campo K su cui Ve definito. Se u,v ∈ V e w = u + v, diremo che w e il vettore somma di u ev. Indicheremo inoltre con 0 l’elemento neutro di V rispetto alla somma. Le(ii),(iii) ci dicono che il gruppo moltiplicativo (K − {0}; ·) agisce su V . Dagliassiomi ora enunciati discende che

(vi) 0 · v = 0 ∀ v ∈ V ;(vii) (−1) · v = −v ∀ v ∈ V ;(viii) λ · 0 = 0 ∀ λ ∈ K;(ix) λ · v = 0, λ 6= 0 =⇒ v = 0.

Infatti si ha che0 · v = (0 + 0) · v = 0 · v + 0 · v

e di qui si ottiene la (vi) per cancellazione, ed inoltre

0 = 0 · v = (1 + (−1)) · v = 1 · v + (−1) · v = v + (−1) · v

37

Page 46: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

38 Un’introduzione all’algebra lineare

da cui, sommando −v ad entrambi i membri, si ottiene la (vii). Analogamente,si ha che

λ · 0 = λ · (0 + 0) = λ · 0 + λ · 0e quindi, per cancellazione, si ottiene la (viii). Infine, se λ · v = 0 e λ 6= 0,moltiplicando a sinistra per λ−1 si ha che

0 = λ−1 · (λ · v) = (λ−1λ) · v = 1 · v = v

e dunque vale anche la (ix).

D’ora in avanti ometteremo quasi sempre il simbolo · nella notazione dimoltiplicazione esterna. Il lettore dovra quindi distinguere dal contesto leoperazioni di moltiplicazione interna in K e di moltiplicazione esterna in V .Gli elementi di V saranno detti vettori, quelli di K scalari. In particolare,l’elemento 0 sara detto vettore nullo.

Esempio 0. Sia V un singleton, ovvero un insieme con un solo elemento, edenotiamo tale elemento con il simbolo 0. Con le ovvie operazioni banali diaddizione interna e di moltiplicazione esterna, la struttura (V ; +, ·) e unospazio vettoriale su K, detto spazio vettoriale banale, e 0 e il suo vettorenullo.

Esempio 1. Per ogni n ∈ N consideriamo la n-ma potenza cartesiana Kn

del campo K, ovvero l’insieme

Kn = { (a1, . . . , an) | ai ∈ K, ∀ i }

delle n-ple di elementi di K. In Kn si definiscono le operazioni di addizione(interna) e di moltiplicazione (esterna) ponendo

(a1, . . . , an) + (b1, . . . , bn) = (a1 + b1, . . . , an + bn) ;

λ · (a1, . . . , an) = (λa1, . . . , λan)

per ogni (a1, . . . , an), (b1, . . . , bn) ∈ Kn e per ogni λ ∈ K. Si verifica agevol-mente che (Kn; +, ·) e uno spazio vettoriale su K. In particolare se n = 1 lospazio vettoriale K1 puo identificarsi con il campo K, ovvero K puo vedersicome spazio vettoriale su se stesso. Kn prende il nome di spazio vettoria-le numerico su K (di dimensione n). Un suo elemento sara detto vettorenumerico di ordine n. Il vettore nullo di Kn e manifestamente il vettore(0, . . . , 0). Definiamo una applicazione

µ : Kn × Kn −→ K

Page 47: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 39

al modo seguente. Se a = (a1, . . . , an), b = (b1, . . . , bn), poniamo

µ(a,b) =

n∑

i=1

aibi .

L’applicazione µ non e una operazione nel senso gia acquisito, ma e comun-que nota come prodotto scalare standard in Kn. Di solito si scrive a · b, oanche 〈a,b〉, invece di µ(a, b).

Esempio 2. Sia X un insieme infinito e sia A(X, K) l’insieme delle ap-plicazioni di X in K. Se f, g ∈ A(X, R), definiamo l’applicazione sommah = f + g ponendo

h(x) = f(x) + g(x) (∀ x ∈ X ) .

Se poi λ e uno scalare, definiamo l’applicazione prodotto (esterno) ℓ = λ · fponendo

ℓ(x) = λ · f(x) (∀ x ∈ X ) .

Anche in questo caso e agevole verificare che (A(X, R); +, ·) e uno spaziovettoriale su K.

Esempio 3. Sia E2 il piano della geometria elementare e consideriamol’insieme Σ dei segmenti orientati di E2. Se σ ∈ Σ e un segmento di primoestremo P e secondo estremo Q, indicheremo tale segmento con il simboloσ(P, Q) oppure PQ. Sia τ = τ(P ′, Q′) un altro segmento. Ricordiamoche σ e equipollente a τ (in simboli σ ≡ τ) se e solo se il quadrilateroPQQ′P ′ e un parallelogramma (eventualmente degenere). Osserviamo chela relazione di equipollenza e una relazione di equivalenza in Σ. Denotiamocon V 2 l’insieme quoziente Σ/ ≡. Un elemento di V 2 sara detto vettorelibero ordinario ed e una classe di segmenti equipollenti. Se ad esempioα ∈ V 2 e PQ e un rappresentante di α, scriveremo α = [PQ]. Ricordiamoche per ogni vettore libero ordinario α ∈ V 2 e per ogni P ∈ E2 esiste ununico Q ∈ E2 tale che α = [PQ]. Consideriamo ora un altro vettore liberoordinario β, e sia R l’unico punto di E2 tale che β = [QR]. Poniamo

α + β = [PR] .

Abbiamo in tal modo definito una operazione di addizione in V 2 ed e age-vole verificare che tale operazione e associativa e che ∀ P ∈ E2 il vettorerappresentato dal segmento degenere [PP ] funge da elemento neutro rispet-to a tale addizione. Tale vettore sara detto vettore nullo e sara indicato conil simbolo 0. Infine ogni vettore libero ordinario [PQ] e dotato di opposto[QP ]. Osserviamo che tale addizione e commutativa e quindi (V 2; +) e un

Page 48: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

40 Un’introduzione all’algebra lineare

gruppo abeliano. Vogliamo ora definire una moltiplicazione esterna · in V 2

con operatori in R. Per ogni scalare λ ∈ R poniamo λ · 0 = 0. Per ognivettore libero ordinario [PQ] poniamo 0 · [PQ] = 0. Siano ora λ uno scalarenon nullo e [PQ] un vettore libero ordinario non nullo (ovvero sia P 6= Q).Sia r la retta passante per P e Q e denotiamo con ℓ, ℓ′ le due semirette dir di origine P . Sia ad esempio ℓ quella contenente Q. Se λ ∈ R+, sia Tl’unico punto di ℓ tale che il segmento PT abbia lunghezza λ, avendo usatola lunghezza di [PQ] come unita di misura. Poniamo allora λ · [PQ] = [PT ].Se invece λ ∈ R− sia T ′ l’unico punto di ℓ′ tale che il segmento PT ′ abbialunghezza −λ. Poniamo allora λ · [PQ] = [PT ′]. Si verifica, con semplicicostruzioni geometriche elementari, che la struttura (V 2;+, ·) e uno spaziovettoriale, che prende il nome di piano dei vettori liberi ordinari. In modoanalogo si costruisce, a partire dallo spazio euclideo tridimensionale E3, lospazio vettoriale V 3 dei vettori liberi ordinari.

§2. Dipendenza e indipendenza lineare

Indicheremo talvolta con V∗ l’insieme V − {0} dei vettori non nulli di V . Siaora S = [v1, . . . ,vn] un sistema di vettori di V (n ∈ N) e sia (α1, . . . , αn) ∈ Kn

una n-pla di scalari.

Definizione 2.2. Il vettore

v =

n∑

i=1

αivi

si dice combinazione lineare di S (ovvero dei vettori v1, . . . ,vn) mediante icoefficienti α1, . . . , αn.

Osserviamo esplicitamente che se α1 = . . . = αn = 0, qualunque siano ivettori v1, . . . ,vn si ha che

∑n

i=1 αivi = 0. Ci si puo chiedere invece se unacombinazione lineare non banale, ovvero tale che i suoi coefficienti non sianotutti nulli, puo ancora essere nulla.

Definizione 2.3. Il sistema S si dice (linearmente) dipendente se esiste unan-pla non banale di scalari (α1, . . . , αn) ∈ Kn

∗ tale che

(1)n∑

i=1

αivi = 0 .

Talvolta si dice anche che i vettori v1, . . . ,vn sono (linearmente) dipendenti.La (1) prende il nome di relazione di dipendenza del sistema S, ovvero deivettori v1, . . . ,vn. In alcuni casi si riconosce immediatamente che un sistemae dipendente.

Page 49: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 41

Proposizione 2.4. Se 0 ∈ S, allora S e dipendente.

Dimostrazione. Per fissare le idee, sia S = [0,v2, . . . ,vn]. Scegliamo gliscalari α1, . . . , αn ponendo

α1 = 1 ; α2 = . . . = αn = 0 .

Allora

α10 + α2v2 + · · · + αnvn = 0

e una relazione di dipendenza di S. 2

Proposizione 2.5. Se esistono due indici distinti i, j tali che vi = vj , alloraS e dipendente.

Dimostrazione. Sia ad esempio S = [v,v,v3, . . . ,vn]. Scegliamo gli scalariα1, . . . , αn ponendo

α1 = 1 ; α2 = −1 ; α3 = . . . = αn = 0 .

Allora

α1v + α2v + α3v3 + · · · + αnvn = 0

e una relazione di dipendenza di S. 2

Piu precisamente, e possibile caratterizzare i sistemi dipendenti come segue.

Definizione 2.6. Sia v un vettore ed S un sistema. Diremo che v dipendeda S se esistono degli scalari α1, . . . , αn tali che v e combinazione lineare di Smediante i coefficienti α1, . . . , αn.

Da tale definizione si deduce immediatamente che il vettore nullo 0 dipendeda ogni sistema di vettori (basta scegliere i coefficienti tutti nulli). Inoltre ognivettore vi del sistema S dipende da S: basta infatti scegliere i coefficienti αj

ponendo αj = 0 per ogni j 6= i e αi = 1. Consideriamo ora un altro sistemaS ′ = [w1, . . . ,wm].

Page 50: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

42 Un’introduzione all’algebra lineare

Lemma 2.7. Se un vettore v dipende da S e ogni vettore di S dipende daS ′, allora v dipende da S ′.

Dimostrazione. Poiche ogni vj dipende da S ′, esistono degli scalari

α1,j , . . . , αm,j

tali che

vj =m∑

i=1

αi,jwi .

Sia ora v ∈ V e supponiamo che v dipenda da S. Esisteranno allora degliscalari β1, . . . , βn tali che

v =

n∑

j=1

βjvj .

Ma allora

v =

n∑

j=1

βj

( m∑

i=1

αi,jwi

)

=m∑

i=1

( n∑

j=1

αi,jβj

)wi

e quindi v dipende da S ′. 2

Corollario 2.8. Se v dipende da una parte di S, v dipende anche da S.

Proposizione 2.9. Il sistema S e dipendente se e solo se esiste un vettorevi del sistema che dipende dai rimanenti.

Dimostrazione. Sia S dipendente. Esistono allora degli scalari non tuttinulli α1, . . . , αn tali che

n∑

j=1

αjvj = 0 .

Sia ad esempio α1 6= 0. Si ha allora che

v1 = −(α−1

1 α2v2 + · · · + α−11 αnvn

)

Page 51: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 43

e quindi v1 dipende dai rimanenti vettori di S, ovvero v2, . . . ,vn.Supponiamo, viceversa, che esista un vettore, ad esempio v1, che dipende dairimanenti. Devono esistere allora dagli scalari α2, . . . , αn tali che

v1 =

n∑

j=2

αjvj

e quindi(−1)v1 + α2v2 + · · · + αnvn = 0

e una relazione di dipendenza di S (almeno il primo coefficiente della combi-nazione lineare e non banale). 2

Corollario 2.10. Se S ′ ⊆ S e S ′ e dipendente, anche S e dipendente.

Definizione 2.11. Il sistema S si dice indipendente se non e dipendente,ovvero se l’unica combinazione lineare nulla dei vettori v1, . . . ,vn e quellabanale (ovvero a coefficienti tutti nulli). In simboli, deve accadere che

n∑

i=1

αivi = 0 =⇒ αi = 0 ∀ i .

Talvolta diremo che i vettori v1, . . . ,vn sono indipendenti. Dalle proposi-zioni precedenti si deduce che se S e indipendente i vettori v1, . . . ,vn sonotutti non banali e a due a due distinti. Pertanto l’insieme

{v1, . . . ,vn}

ha effettivamente n elementi, o, come si suol dire, la cardinalita di S e n e siscrive |S| = n.

Lemma 2.12. Sia S un sistema di vettori e sia S ′ un sistema contenuto inS che risulti indipendente. Il sistema S ′ e massimale (rispetto alla proprietadi indipendenza) in S se e solo se ogni vettore di S dipende da S ′.

Dimostrazione. Supponiamo che il sistema S ′ sia indipendente massimalein S, e sia u ∈ S. Se u ∈ S ′, e chiaro che u dipende da S ′. Se invece u 6∈ S ′,posto S ′ = [v1, . . . ,vt], per la massimalita di S ′ il sistema [u,v1, . . . ,vt] edipendente. Pertanto esistono degli scalari non tutti nulli α, β1, . . . , βt tali che

(2) αu +t∑

i=1

βivi = 0 .

Page 52: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

44 Un’introduzione all’algebra lineare

Se fosse α = 0 la (2) fornirebbe una relazione di dipendenza di S ′. Quindideve essere α 6= 0 e possiamo scrivere

u = −t∑

i=1

α−1βivi

cioe u dipende da S ′. La verifica del viceversa e lasciata al lettore. 2

Ad esempio, consideriamo in K2, i vettori

u = (2, 0) ; v = (1, 1) ; w = (0, 2) .

Il sistema S = [u,v,w] e dipendente in quanto

1 · u + (−2) · v + 1 ·w = 0 .

Invece il sistema S ′ = [u,v] e indipendente. Infatti se α, β sono degli scalaritali che

αu + βv = 0

deduciamo che(0, 0) = (2α + β, β)

e quindi 2α + β = 0, β = 0, ovvero α = β = 0.

Definizione 2.13. S e un sistema di generatori di V se ogni vettore v ∈ Vdipende linearmente da S. In tal caso diremo anche che S genera V , ovveroche v1, . . . ,vn generano V , o ancora che v1, . . . ,vn sono generatori di V , escriveremo

V = L(S) = L(v1, . . . ,vn) .

Definizione 2.14. Uno spazio vettoriale V si dice finitamente generato seammette un sistema di generatori.

E’ chiaro dalla definizione che se S e un sistema di generatori di V e S ⊆ S ′

allora anche S ′ e un sistema di generatori di V . Osserviamo inoltre in modoesplicito che lo spazio vettoriale banale e finitamente generato.

Esempio 4. Sia V = K[x], l’insieme dei polinomi sul campo K nell’inde-terminata x. La struttura (V ; +) e un gruppo abeliano. Definiamo una

Page 53: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 45

operazione esterna su V con operatori in K al modo seguente. Siano f ∈ V ,λ ∈ K, ad esempio sia

f = a0 + a1x + · · · + anxn .

Poniamo allora λ · f = g dove

g = λa0 + λa1x + · · · + λanxn .

E’ agevole verificare che la struttura (V ; +, ·) cosı ottenuta e uno spaziovettoriale su K. Tale spazio non e finitamente generato. Sia infatti

S = [ f1, . . . , fm ]

un sistema di elementi di V . Se i polinomi fi coincidono tutti con il polino-mio nullo e chiaro che S non e un sistema di generatori di V . Se non tutti ipolinomi di S sono nulli e t e il massimo dei gradi dei polinomi non banalidi S, allora si verifica che i polinomi di grado maggiore di t non possonoesprimersi come combinazione lineare dei polinomi f1, . . . , fm. Quindi inogni caso S non e un sistema di generatori di V . Consideriamo ora, perogni n > 0, il sottoinsieme Vn di V costituito dal polinomio nullo e datutti i polinomi di grado al piu n. Poniamo inoltre V0 = K. Si verificaagevolmente che per ogni n ≥ 0 il sottoinsieme Vn e una parte stabile diV rispetto alle operazioni di somma tra polinomi e di moltiplicazione di unpolinomio per uno scalare. Infatti la struttura (Vn; +, ·) cosı ottenuta e unospazio vettoriale su K, per ogni n ≥ 0. Se poi poniamo

Sn = [ 1, x, x2, . . . , xn ]

abbiamo che Sn e un sistema di generatori di Vn, per ogni n ≥ 0, e pertantoVn e finitamente generato.

§3. Basi e dimensione

Definizione 2.15. Un sistema B = [e1, . . . , en] e una base se e indipendentee se inoltre

V = L(B) .

In altre parole, B e una base se e un sistema indipendente di generatori di V .Osserviamo esplicitamente che lo spazio vettoriale banale non ammette basi,in quanto non possiede sistemi indipendenti di vettori. Quando e essenzialetenere conto dell’ordine in cui i vettori e1, . . . , en compaiono, invece del sistema

Page 54: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

46 Un’introduzione all’algebra lineare

[e1, . . . , en] considereremo la n-pla B′ = (e1, . . . , en) che sara detta riferimento,o talvolta anche base ordinata associata a B .

La nozione di base e di fondamentale importanza. E’ utile pertanto averedelle caratterizzazioni che consentano di riconoscere quando un sistema divettori e una base. Osserviamo che, per come e stato introdotto il concetto dibase, uno spazio vettoriale che non sia finitamente generato non possiede basi.E’ possibile fornire definizioni piu generali di tale concetto, introducendo lenozioni di sistemi infiniti, sistemi di generatori infiniti e basi infinite, ma noice ne asterremo.

Esempio 5. In K3 poniamo

e1 = (1, 0, 0) ; e2 = (0, 1, 0) ; e3 = (0, 0, 1) .

Il sistema B = [e1, e2, e3] e una base di K3. Infatti se α, β, γ sono degliscalari tali che

αe1 + βe2 + γe3 = 0

si ha che (0, 0, 0) = (α, β, γ) e quindi α = β = γ = 0; pertanto B risultaindipendente. Inoltre, se v = (a, b, c) ∈ K3 si ha che

v = a · e1 + b · e2 + c · e3

e quindi B e anche un sistema di generatori. Piu in generale, se in Kn po-niamo ei = (0, . . . , 1, . . . , 0), dove lo scalare 1 compare nell’i-ma posizione,il sistema

B = [e1, . . . , en]

e una base di Kn e prende il nome di base canonica, o anche base usualeoppure standard.

Teorema 2.16. Sia V uno spazio vettoriale non banale. Un sistema divettori B = [e1, . . . , en] di V e una base se e solo se vale una delle seguenticondizioni:

(a) B e un sistema indipendente massimale;(b) B e un sistema di generatori minimale;(c) ∀ v ∈ V ∃! (α1, . . . , αn) ∈ Kn | v =

∑n

i=1 αiei.

La condizione (c) si esprime anche dicendo che ogni vettore dello spazio Vsi esprime in unico modo come combinazione lineare di B.

Dimostrazione. Sia B = [e1, . . . , en]. Supponiamo che B sia una base eproviamo che valgono le condizioni (a), (b), (c).

Page 55: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 47

Proviamo che vale la (a). Gia sappiamo che B e indipendente. Proviamo chee anche massimale, verificando che ogni sistema che contiene B propriamentee dipendente. Sia B′ un sistema contenente propriamente B. Se in B′ c’e unvettore che compare piu di una volta, allora B′ e dipendente. Se invece in B′

non ci sono ripetizioni, deve esistere un vettore v ∈ B′ tale che v 6∈ B. PoicheB genera V , v dipende da B e quindi dipende anche dai rimanenti vettori diB′. Pertanto, anche in questo caso, B′ e dipendente.Proviamo che vale la (b). Gia sappiamo che B genera V . Proviamo che Be minimale come sistema di generatori. Per assurdo, sia B′ un sistema digeneratori contenuto propriamente in B. Esiste allora un vettore ej ∈ Btale che ej 6∈ B′. Poiche B′ genera V , ej dipende da B′ e quindi anche dairimanenti vettori di B, che risulta quindi dipendente, in contraddizione con lasua ipotizzata indipendenza.Proviamo che vale la (c). Gia sappiamo che B e un sistema di generatori.Quindi per ogni v ∈ V esistono degli scalari α1, . . . , αn tali che

v =

n∑

j=1

αjej .

Vogliamo provare che tali scalari sono univocamente determinati. Se β1, . . . , βn

sono degli scalari tali che

v =

n∑

j=1

βjej

avremo chen∑

j=1

(βj − αj)ej = 0

e poiche B e indipendente, si avra che βj − αj = 0, ovvero βj = αj , per ognij, e cioe gli scalari α1, . . . , αn sono univocamente determinati.Proviamo ora che ognuna delle condizioni (a), (b), (c) implica che B e unabase.Supponiamo che valga la (a). Allora gia sappiamo che B e indipendente.Vogliamo provare che B genera V . Sia dunque v un qualunque vettore di V .Il sistema

B′ = [e1, . . . , en,v]

contiene propriamente B e quindi, per la massimalita di B come sistema in-dipendente, B′ deve risultare dipendente. Pertanto esistono degli scalari non

Page 56: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

48 Un’introduzione all’algebra lineare

tutti nulli β1, . . . , βn, α tali che

(3)

n∑

j=1

βjej + αv = 0 .

Se α = 0 la (3) si riduce a

(4)n∑

j=1

βjej = 0

con qualcuno degli scalari βj non nullo. Ma allora la (4) e una relazione didipendenza di B e questa e una contraddizione. Deve quindi essere α 6= 0 edalla (3) si deduce che

v = −α−1β1e1 + · · · − α−1βnen

e cioe v dipende da B e B genera V .Supponiamo che valga la (b). Sappiamo che B genera V . Vogliamo provareche B e indipendente. Per assurdo supponiamo che B sia dipendente. Esisteallora un vettore di B che dipende dai rimanenti. Sia esso, per fissare le idee,e1. Cio vuol dire che esistono degli scalari β2, . . . , βn tali che

e1 =

n∑

j=2

βjej .

Poiche B genera V , per ogni v ∈ V esistono degli scalari α1, . . . , αn tali che

v = α1e1 + · · · + αnen

e quindi

v = α1(

n∑

j=2

βjej) + α2e2 + · · · + αnen

= (α1β2 + α2)e2 + · · · + (α1βn + αn)en

e v dipende da [e2, . . . , en]. Ma allora [e2, . . . , en] genera V , e cio e in con-traddizione con l’ipotizzata minimalita di B come sistema di generatori.Supponiamo infine che valga la (c). Da tale condizione si deduce banalmenteche B genera V . Rimane da verificare l’indipendenza di B. Poiche 0 ∈ V , perla (c) 0 si esprime in unico modo come combinazione lineare di B. D’altraparte e chiaro che

0 = 0e1 + · · · + 0en

e quindi l’unica combinazione lineare nulla di B e quella banale, ovvero acoefficienti tutti nulli, e B e indipendente. 2

In particolare, la condizione (c) rende lecita la seguente

Page 57: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 49

Definizione 2.17. Sia B = (e1, . . . , en) una base ordinata di V e sia v ∈ V .Gli scalari α1, . . . , αn tali che

v =

n∑

i=1

αiei

(univocamente determinati in base alla condizione (c) del Teorema 2.16) sidicono componenti di v in B, e la n-pla (α1, . . . , αn) prende il nome di vettorenumerico delle componenti di v in B.

Il seguente risultato e essenziale nello studio delle basi di uno spazio vetto-riale.

Lemma di Steinitz 2.18. Sia B = [e1, . . . , en] una base e

S = [v1, . . . ,vm]

un sistema di vettori di uno spazio vettoriale V . Se m > n S e dipendente.

Dimostrazione. Se qualche vettore di S e nullo, allora S e dipendente. Siainvece vj 6= 0 ∀ j. Poiche B e un sistema di generatori, v1 si puo esprimerecome combinazione lineare di B; esistono cioe degli scalari α1, . . . , αn tali che

(5) v1 = α1e1 + · · · + αnen .

Gli αi non possono essere tutti nulli (altrimenti si avrebbe v1 = 0). Sia adesempio α1 6= 0. Tale assunzione non e restrittiva, in quanto in un sistemanon conta l’ordine dei vettori. Dalla (5) si deduce allora che

e1 = α−11 v1 − α−1

1 α2e2 + · · · − α−11 αnen .

Proviamo che il sistema [v1, e2, . . . , en] genera V . Sia v ∈ V . Poiche B e unsistema di generatori, esistono degli scalari β1, . . . , βn tali che

v = β1e1 + β2e2 + · · · + βnen

= β1

(α−1

1 v1 − α−11 α2e2 + · · · − α−1

1 αnen

)+ β2e2 + · · · + βnen

= β1α−11 v1 + (β2 − β1α

−11 α2)e2 + · · · + (βn − β1α

−11 αn)en

Pertanto ogni vettore di V si esprime come combinazione lineare dei vettoriv1, e2, . . . , en e tali vettori generano V . In particolare v2 si potra esprime-re come combinazione lineare di tali vettori: esisteranno quindi degli scalariγ1, . . . , γn tali che

v2 = γ1v1 + γ2e2 + · · · + γnen .

Page 58: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

50 Un’introduzione all’algebra lineare

I γi non sono tutti nulli, altrimenti si avrebbe v2 = 0. Se accade che

γ2 = . . . = γn = 0 ,

si deduce chev2 = γ1v1

e quindi il sistema S e linearmente dipendente. Supponiamo invece che qual-cuno degli scalari γ2, . . . , γn, ad esempio γ2, sia diverso da 0. Avremo allorache

e2 = −γ1γ−12 v1 + γ−1

2 v2 − γ−12 γ3e3 + · · · − γ−1

2 γnen .

Come gia fatto in precedenza, si prova che il sistema

[v1,v2, e3, . . . , en]

genera V . Si procede in modo analogo sostituendo ai vettori ei i vettori vi

e si trova, dopo altri n − 2 passaggi, che il sistema [v1, . . . ,vn] genera V . Inparticolare vm dipende da tale sistema, e quindi S e dipendente. 2

Osserviamo che l’enunciato precedente puo essere formulato in modo piugenerale richiedendo che B sia semplicemente un sistema di generatori, e nonuna base.

Corollario 2.19. Sia B una base costituita da n vettori e S un sistema divettori di V di ordine m. Se S e indipendente allora m ≤ n.

Corollario 2.20. Le basi di uno spazio vettoriale V finitamente generatosono tutte equipotenti.

Dimostrazione. Siano B′,B′′ due basi, di cardinalita s, t rispettivamente, diuno spazio vettoriale V finitamente generato. Applicando il corollario prece-dente con B′ nel ruolo di B e B′′ nel ruolo di S si trova che t ≤ s. Scambiandoi ruoli di B′,B′′ si verifica invece che t ≥ s. Quindi s = t. 2

Definizione 2.21. Sia V uno spazio vettoriale finitamente generato su K.La dimensione di V , che si indica con dim V , e 0 se V = {0}; e invece lacardinalita di una sua base se V 6= {0}.

Tale definizione ha senso poiche, in base al corollario precedente, essa nondipende dalla scelta della base.

Page 59: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 51

Esempio 6. Consideriamo la spazio vettoriale numerico Kn. Si ha chedim Kn = n, poiche la base canonica di Kn consta di n vettori. Cio giustificala terminologia gia usata nell’Esempio 1. Consideriamo invece, per ognin ≥ 0, lo spazio vettoriale Vn dell’Esempio 4. Si verifica agevolmente che ilsistema di generatori Sn ivi introdotto e una base di Vn e pertanto dim Vn =n + 1.

Proposizione 2.22. Sia V uno spazio vettoriale non banale e sia S unsistema di generatori di V . Da S si puo estrarre una base B di V .

Dimostrazione. Sia S = [v1, . . . ,vm]. Se S e un sistema minimale di gene-ratori, allora S e una base di V . Se S non e minimale, esiste un indice i taleche il sistema [v1, . . . ,vi−1,vi+1, . . . ,vm] genera ancora V . Se tale sistema digeneratori e minimale, abbiamo trovato una base estratta da S. Altrimentipossiamo rimuovere un altro vettore e procedere in modo analogo fino a chenon si perviene ad un sistema minimale di generatori. 2

Corollario 2.23. Ogni spazio vettoriale finitamente generato non banaleammette basi.

Dimostrazione. Sia S un sistema di generatori. In base alla proposizioneprecedente, da esso si puo estrarre una base. 2

Corollario 2.24. Sia V uno spazio vettoriale finitamente generato e siadim V = n. Allora ogni sistema di vettori di ordine maggiore di n e dipendente.

Proposizione 2.25. Sia V uno spazio vettoriale finitamente generato nonbanale e sia

S = [v1, . . . ,vr]

un sistema indipendente di vettori. Esistono dei vettori vr+1, . . . ,vn tali che[v1, . . . ,vn] sia una base di V .

Dimostrazione. Sia dim V = n. Se S e un sistema di generatori di V , allora Se una base di V (e n = r). In caso contrario, si puo scegliere un vettore vr+1 ∈V che non dipende da S. Proviamo che il sistema S ′ = [v1, . . . ,vr,vr+1] eindipendente. Siano α1, . . . , αr, β ∈ K tali che

(6) α1v1 + · · · + αrvr + βvr+1 = 0 .

Se fosse β 6= 0, avremmo che

vr+1 = (−β−1α1)v1 + · · · + (−β−1αr)vr

Page 60: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

52 Un’introduzione all’algebra lineare

e quindi vr+1 dipenderebbe da S. Dunque β = 0 e la (6) si riduce a

α1v1 + · · · + αrvr = 0 .

Pertanto, poiche S e indipendente, α1 = . . . = αr = 0. Quindi S ′ e indipen-dente. Se S ′ e un sistema di generatori, allora S ′ e una base di V . Altrimentisi procede in modo analogo per trovare altri vettori vr+2, . . . ,vn ottenendocosı una base di V . 2

Il risultato appena dimostrato prende il nome di Teorema di Completamentodi una Base e puo essere anche enunciato in modo leggermente diverso:

Teorema 2.26. Sia S = [v1, . . . ,vr] un sistema indipendente di vettori eB = [e1, . . . , en] una base di V . E’ possibile scegliere n−r vettori ei1 , . . . , ein−r

in B in modo che il sistema

[v1, . . . ,vr, ei1 , . . . , ein−r]

sia una base di V .

Dimostrazione. E’ chiaro che r ≤ n. Se r = n in base a risultati giaacquisiti S e una base. Pertanto se r < n vuol dire che S non e un sistemadi generatori di V . Esiste allora un vettore ei1 in B che non dipende da S.Infatti, se ogni vettore di B dipendesse da S, poiche B e una base, ogni vettoredi V dipenderebbe da S. E’ agevole provare che il sistema

S ′ = [v1, . . . ,vr, ei1 ]

e indipendente. Se r + 1 = n, allora S ′ e una base. Altrimenti si procede inmodo analogo e si scelgono dei vettori ei2 , . . . , ein−r

in B tali che il sistema

S ′′ = [v1, . . . ,vr, ei1 , . . . , ein−r]

sia indipendente. Poiche S ′′ consta di n vettori, esso sara una base di V , deltipo richiesto nell’enunciato. 2

Osserviamo che se V e uno spazio vettoriale finitamente generato, la suadimensione e nulla se e solo se V = {0}. Infatti, in tale ipotesi, e chiaro chedim V = 0. Viceversa, per contrapposizione, se V 6= {0}, scelto v ∈ V∗, ilsistema [v] risulta indipendente, e quindi contenuto in una base di cardinalita≥ 1, pertanto dimV > 0. Quindi se dimV = 0 deve necessariamente accadereche V = {0}.

Page 61: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 53

Teorema 2.27. Sia V uno spazio vettoriale e sia dim V = n. Sia inoltre Lun sistema di vettori di ordine n. Si ha che

(i) Se L e indipendente, allora L e una base;(ii) Se L e un sistema di generatori, allora L e una base.

Dimostrazione. (i) Deve esistere una base B contenente L e avente cardina-lita n. Ma allora si ha B = L e L e una base.(ii) Deve esistere una base B contenuta in L e avente cardinalita n. Ma allorasi ha B = L e L e una base. 2

Teorema 2.28. Sia V uno spazio vettoriale non banale. I seguenti enunciatisono equivalenti:(i) dim V = n;(ii) n e l’ordine di un sistema di generatori minimale;(iii) n e la cardinalita di un sistema di vettori indipendente massimale.

Dimostrazione. Facile conseguenza dei risultati e delle definizioni precedenti.

2

§4. Sottospazi di uno spazio vettoriale

Introdurremo ora la nozione di sottospazio di uno spazio vettoriale. Sia W ⊂ Vun sottoinsieme del sostegno di uno spazio vettoriale V .

Definizione 2.29. Il sottoinsieme W si dice sottospazio di V se(i) 0 ∈ W ;(ii) ∀ u,v ∈ W si ha che u + v ∈ W ;(iii) ∀ α ∈ K, ∀ u ∈ W si ha che αu ∈ W .

Osserviamo che le (ii),(iii) equivalgono alla condizione

(j) ∀ α, β ∈ K, ∀ u,v ∈ W si ha che αu + βv ∈ W

o anche alla condizione

(jj) ∀ n ≥ 2, ∀ α1, . . . , αn ∈ K, ∀ u1, . . . ,un ∈ W si ha che

α1u1 + · · · + αnun ∈ W .

Inoltre, la (i) puo essere sostituita dalla seguente condizione

(i′) W 6= ∅

Page 62: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

54 Un’introduzione all’algebra lineare

come il lettore potra verificare per esercizio. Per indicare che il sottoinsiemeW ⊆ V e un sottospazio, scriveremo W ≤ V . Scriveremo poi W < V perindicare che non vale l’uguaglianza. Osserviamo che se V e uno spazio vetto-riale finitamente generato e W ≤ V allora anche W e finitamente generato.Infatti, posto dimV = n, se W non fosse finitamente generato potremmo tro-vare n + 1 vettori indipendenti in W e quindi anche in V , e cio contraddice ilCorollario 2.24.

Teorema 2.30. Sia V uno spazio vettoriale finitamente generato e sia W ≤V . Si ha che

(i) dim W ≤ dim V ;(ii) dim W = dim V ⇐⇒ W = V .

Dimostrazione. (i) Sia B′ una base di W . Poiche B′ e un sistema di vettoriindipendenti di V , esso puo essere completato in una base B di V . Pertantola cardinalita di B sara maggiore o uguale di quella di B′.(ii) L’implicazione ⇐ e evidente. Supponiamo allora che dimW = dim V .Sia B′ una base di W . Il sistema B′ e indipendente anche in V ed e anchemassimale, essendo dim V = dim W = |B′|. Pertanto B′ e anche una base diV . Cio implica che V = W . 2

Il lettore potra verificare, per esercizio, che l’intersezione di una famiglia disottospazi di uno spazio vettoriale V e ancora un sottospazio di V .

Esempio 7. (i) Sia V uno spazio vettoriale non banale su K e sia v ∈ Vun suo vettore non banale. Allora il sottoinsieme W = {λv | λ ∈ K } deimultipli scalari di v e un sottospazio di V e una sua base e fornita dalvettore v stesso, o anche da un suo qualunque multiplo scalare non nullo.Pertanto dimW = 1.(ii) Sia V = A(X, R) lo spazio vettoriale dell’Esempio 2 (con K = R), e siaY ⊂ X . Consideriamo i seguenti sottoinsiemi di V :

W =

{f ∈ A(X, R) | f(x) ∈ Q ∀ x ∈ X

};

ZY =

{f ∈ A(X, R) | f(x) = 0 ∀ x ∈ Y

}.

Il lettore potra verificare che W non e un sottospazio di V e che ZY e unsottospazio di V .(iii) Siano V, Vn come nell’Esempio 4. Il lettore potra verificare che Vn ≤ Vper ogni n ∈ N0 e che Vm ≤ Vn per ogni m, n ∈ N0 tali che m ≤ n. Un

Page 63: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 55

altro sottospazio notevole di V e il sottoinsieme I costituito dal polinomionullo e dai polinomi del tipo

a1x + · · · + amxm (m ∈ N0 , am 6= 0) .

Tale sottospazio non e finitamente generato. Osserviamo che I e anche unideale (massimale tra quelli propri) dell’anello dei polinomi K[x].(iv) Nello spazio vettoriale V = R4 su R il sottoinsieme

W ={

x = (x1, x2, x3, x4) ∈ V | x1 + x2 + x3 + x4 = 0}

e un sottospazio e una sua base e data dal sistema

BW = [ (−1, 1, 0, 0), (−1, 0, 1, 0), (−1, 0, 0, 1) ] .

Pertanto dimW = 3.

Consideriamo ora una situazione piu generale. Sia S ⊆ V un sottoinsiemenon vuoto di V . Indichiamo con L(S) il sottoinsieme

L(S) ={

v ∈ V | ∃ t ∈ N, ∃ α1, . . . , αt ∈ K,

∃ u1, . . . ,ut ∈ S |v =

t∑

i=1

αiui

}.

In altri termini L(S) e l’insieme dei vettori che possono esprimersi come com-binazione lineare di un numero finito di vettori di S.

Proposizione 2.31. Qualunque sia il sottoinsieme non vuoto S di V , L(S)e un sottospazio di V .

Dimostrazione. Se v ∈ S allora 0 = 0v e quindi 0 ∈ L(S), essendo combi-nazione lineare di un sistema di vettori di S. Verifichiamo ora la condizione(j). Siano α, β ∈ K, u,v ∈ S. Esistono dei vettori u1, . . . ,us,v1, . . . ,vt edegli scalari λ1, . . . , λs, µ1, . . . , µt tali che

u =s∑

i=1

λiui ; v =t∑

j=1

µjvj .

Ma allora

αu + βv = αλ1u1 + · · · + αλsus + βµ1v1 + · · · + βµtvt

Page 64: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

56 Un’introduzione all’algebra lineare

e quindi anche αu+βv puo esprimersi come combinazione lineare di un numerofinito di vettori di S, cioe αu + βv ∈ L(S). 2

Per tale motivo L(S) e detto sottospazio generato da S. Il lettore potraagevolmente provare che L(S) coincide con l’intersezione dei sottospazi di Vcontenenti S, ovvero e il piu piccolo sottospazio di V contenente S.

In modo analogo si definisce L(S) quando S e un sistema di vettori, edanche in questo caso si ottiene un sottospazio di V . Osserviamo che se S e unsistema di generatori allora L(S) = V . Se S = [v1, . . . ,vr], scriveremo ancheL(v1, . . . ,vr) in luogo di L(S), in accordo con la notazione gia introdotta nellaDefinizione 2.13. Per convenzione poniamo L(∅) = {0}.

Proposizione 2.32. Se S, T sono sottoinsiemi di V e S ⊆ T allora L(S) ⊆L(T ). Analogamente, se S,T sono sistemi di vettori di V e S ⊆ T alloraL(S) ⊆ L(T ).

Dimostrazione. E’ lasciata al lettore per esercizio. 2

Esempio 8. (j) Nell’Esempio 7(i) si ha che W = L(v).(jj) Siano W1, W2 due sottospazi dello spazio vettoriale V e siano

B1 = [e1, . . . , es ] ; B2 = [ e′1, . . . , e′t ]

delle basi di W1,W2 rispettivamente. Come si osservera in seguito, non edetto che W1 ∪ W2 sia un sottospazio di V . Comunque

L(W1 ∪ W2

)= L

(B1 ∪ B2

)= L(e1, . . . , es, e

′1, . . . , e

′t) .

(jjj) Consideriamo lo spazio vettoriale numerico (su R) V = R4. Sia

S ={

(1, 0, 1, 0), (0, 1, 0, 1)}

.

Allora

L(S) ={

α(1, 0, 1, 0) + β(0, 1, 0, 1) | α, β ∈ R

}

={

(α, β, α, β) | α, β ∈ R

}.

Sia ora

S′ ={

(1, 1, 1, 1), (1,−1, 1,−1), (1, 0, 1, 0)}

Page 65: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 57

e proviamo che L(S) = L(S′). Poiche

(1,−1, 1,−1) = 2(1, 0, 1, 0) − (1, 1, 1, 1)

ogni vettore che dipende da S′ dipende anche da

S′′ ={

(1, 1, 1, 1), (1, 0, 1, 0)}

e vale anche il viceversa, dato che S′′ ⊆ S′. Pertanto

L(S′) = L(S′′) ={

b(1, 1, 1, 1) + c(1, 0, 1, 0) | b, c ∈ R

}

={

(b + c, b, b + c, b) | b, c ∈ R

}

={

(α, β, α, β) | α, β ∈ R

}= L(S)

(basta porre b = β, b + c = α).

Il seguente risultato sara utilizzato nel seguito.

Proposizione 2.33. Sia S un sistema di vettori e siano

S ′ = [u1, . . . ,uh] ; S ′′ = [v1, . . . ,vk]

due sistemi indipendenti massimali di vettori di S. Allora h = k.

Dimostrazione. In base a risultati gia acquisiti, poiche S ′,S ′′ sono indipen-denti massimali in S, ogni vettore di S dipende da S ′ e da S ′′. Consideriamoallora il sottospazio W = L(S). Si verifica agevolmente che S,S ′ sono entram-be basi di W , e quindi h = k. 2

Page 66: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

58 Un’introduzione all’algebra lineare

§5. Sottospazi congiungenti e somme dirette di sottospazi

Siano U,W due sottospazi di V . Abbiamo gia osservato che U ∩ W e unsottospazio di V . E’ agevole pero verificare che U ∪ W non e, in generale, unsottospazio. Definiamo invece il sottoinsieme

U + W = {v ∈ V | ∃ u ∈ U,w ∈ W | v = u + w } ⊆ V .

Proposizione 2.34. U + W e un sottospazio di V .

Dimostrazione. E’ lasciata al lettore per esercizio. 2

Il sottospazio U + W si dice sottospazio congiungente, oppure somma, di Ue W e coincide con il sottospazio generato dal sottoinsieme U ∪ W :

Proposizione 2.35. U + W = L(U ∪ W ).

Dimostrazione. Sia v ∈ U + W . Allora esistono dei vettori u ∈ U, w ∈ Wtali che v = u + w e quindi v ∈ L(U ∪ W ), per definizione, in quanto u,w ∈U ∪ W . Pertanto U + W ⊆ L(U ∪ W ). D’altra parte, se v ∈ L(U ∪ W ),esistono degli scalari α1, . . . , αt e dei vettori v1, . . . ,vt ∈ U ∪ W tali che

v =

t∑

i=1

αivi .

Poiche v1, . . . ,vt ∈ U ∪ W , per ogni i sara vi ∈ U , oppure vi ∈ W . Suppo-niamo ad esempio che

v1, . . . ,vs ∈ U ; vs+1, . . . ,vt ∈ W .

Abbiamo che

v = α1v1 + · · · + αsvs︸ ︷︷ ︸∈U

+ αs+1vs+1 + · · · + αtvt︸ ︷︷ ︸∈W

e quindi v ∈ U + W . 2

Sia ora V ′ ≤ V il sottospazio somma di U e W : V ′ = U + W .

Page 67: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 59

Definizione 2.36. Diremo che V ′ e la somma diretta di U e W , e scriveremoV ′ = U ⊕ W , se ogni vettore di V ′ si decompone in modo unico in somma diun vettore di U e di un vettore di W , ovvero ∀ v ∈ V ′ ∃! u ∈ U, ∃! w ∈ Wtali che v = u + w.

Esiste un modo equivalente per introdurre la nozione di somma diretta.

Teorema 2.37. Sia V ′ ≤ V il sottospazio somma di U e di W . V ′ e lasomma diretta di U e di W ⇐⇒ U ∩ W = {0}.

Dimostrazione. ⇒) Sia v ∈ U ∩ W . Se fosse v 6= 0 avremmo che v ∈U, −v ∈ W e

0 = 0 + 0 = v + (−v)

e quindi il vettore nullo si decomporrebbe in due modi distinti in somma divettori di U e di W .⇐) Sia v ∈ V ′. Poiche V ′ = U+W , esistono u ∈ U, w ∈ W tali che v = u+w.Bisogna provare l’unicita di u e di w. Sia dunque

v = u + w = u′ + w′ (u,u′ ∈ U, w,w′ ∈ W ) .

Si ha cheu′ − u = w − w′ ∈ U ∩ W = {0}

e quindi u′ − u = 0 = w − w′, ovvero u = u′, w = w′. 2

Le definizioni di sottospazio intersezione e sottospazio somma si estendonoal caso in cui compare un numero arbitrario (finito) di sottospazi. Siano infattiW1, . . . ,Wm ≤ V . E’ chiaro che W1 ∩ . . .∩Wm e un sottospazio. Poniamo poi

W1 + · · · + Wm =

={

v ∈ V | ∃ w1 ∈ W1, . . . ,∃ wm ∈ Wm |v =m∑

i=1

wi

}.

Si verifica agevolmente che anche tale sottoinsieme e un sottospazio, che prendeil nome di sottospazio somma dei sottospazi W1 + · · ·+ Wm. Inoltre si ha che

W1 + · · · + Wm = L(W1 ∪ . . . ∪ Wm)

come il lettore potra provare per esercizio.Anche la nozione di somma diretta si estende al caso di un numero finito

arbitrario di sottospazi. Sia infatti V ′ = W1 + · · · + Wm.

Page 68: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

60 Un’introduzione all’algebra lineare

Definizione 2.38. V ′ e la somma diretta dei sottospazi W1,. . .,Wm se ognivettore di V ′ si decompone in modo unico come somma di vettori dei sottospaziWi, ovvero ∀ v ∈ V ′ ∃!w1 ∈ W1, . . . , ∃!wm ∈ Wm tali che v = w1 + · · ·+wm.

Teorema 2.39. V ′ e la somma diretta dei sottospazi W1, . . . ,Wm ⇐⇒ perogni i si ha che

Wi ∩ (W1 + · · · + Wi−1 + Wi+1 + · · · + Wm) = {0} .

Dimostrazione. ⇒) Supponiamo che, per qualche i, esista un vettore nonnullo wi tale che

0 6= wi ∈ Wi ∩ (W1 + · · · + Wi−1 + Wi+1 + · · · + Wm) .

Esistono allora dei vettori

w′1 ∈ W1, . . . ,w

′i−1 ∈ Wi−1,w

′i+1 ∈ Wi+1, . . . ,w

′m ∈ Wm

tali chewi = w′

1 + · · · + w′i−1 + w′

i+1 + · · · + w′m

e quindi

0 = 0 + · · · + 0 = w′1 + · · · + w′

i−1 − wi + w′i+1 + · · · + w′

m

e il vettore nullo si decompone in due modi distinti in somma di vettori deisottospazi Wi, e questo contraddice l’ipotesi.⇐) Sia v ∈ V ′. Poiche V ′ = W1 + · · · + Wm esistono dei vettori

w1 ∈ W1, . . . ,wm ∈ Wm

tali che v = w1 + · · · + wm. Bisogna provare l’unicita dei vettori wi. Suppo-niamo che

v = w1 + · · · + wm = w′1 + · · · + w′

m (wj ,w′j ∈ Wj , ∀ j) .

Per ogni i si ha che

w′i −wi = w1 + · · · + wi + · · · + wm − (w′

1 + · · · + w′i + · · · + w′

m)

ovvero

w′i − wi ∈ Wi ∩ (W1 + · · · + Wi−1 + Wi+1 + · · · + Wm) = {0}

e quindi w′i − wi = 0, ovvero w′

i = wi. 2

Il seguente importante risultato mette in relazione le dimensioni di duesottospazi, della loro intersezione e della loro somma.

Page 69: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 61

Teorema (Formula di Grassmann) 2.40. Sia V uno spazio vettoriale esiano U,W due suoi sottospazi finitamente generati. Si ha che U +W e ancorafinitamente generato e sussiste la seguente relazione:

dim(U + W ) = dim U + dim W − dim U ∩ W .

Dimostrazione. Se almeno uno dei due sottospazi e banale, il risultato eimmediato. Supponiamo quindi che entrambi i sottospazi siano non banali.Sia dim U = s, dim W = t, dim U ∩W = h. Ovviamente si ha che h ≤ s, t. Sia[e1, . . . , eh] una base di U∩W (se h = 0 si trascurera tale base nel seguito delladimostrazione). I vettori di tale base sono indipendenti ed e quindi possibiletrovare s − h vettori uh+1, . . . ,us ∈ U e t − h vettori wh+1, . . . ,wt ∈ W taliche i sistemi

B′ = [e1, . . . , eh,uh+1, . . . ,us] , B′′ = [e1, . . . , eh,wh+1, . . . ,wt]

risultino delle basi di U e W . Proviamo che il sistema

B = [e1, . . . , eh,uh+1, . . . ,us,wh+1, . . . ,wt]

e una base di U + W . Verifichiamo che B genera U + W . Sia v ∈ U + W .Esistono dei vettori u ∈ U e w ∈ W tali che v = u + w. Poiche B′,B′′ sonobasi di U e W , possiamo determinare (in modo peraltro univoco), degli scalariα1, . . . , αs, β1, . . . , βt tali che

u = α1e1 + · · · + αheh + αh+1uh+1 + · · · + αsus

w = β1e1 + · · · + βheh + βh+1wh+1 + · · · + βtwt .

Pertanto

v = u + w =

h∑

i=1

(αi + βi)ei +

s∑

j=h+1

αjuj +

t∑

k=h+1

βkwk

e cioe v dipende da B. Resta ora da provare che il sistema di generatori B eindipendente. Consideriamo degli scalari

γ1, . . . , γh, δh+1, . . . , δs, ǫh+1, . . . , ǫt

tali che

(7)

h∑

i=1

γiei +

s∑

j=h+1

δjuj +

t∑

k=h+1

ǫkwk = 0 .

Page 70: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

62 Un’introduzione all’algebra lineare

Si ha che

−s∑

j=h+1

δjuj

︸ ︷︷ ︸∈U

=h∑

i=1

γiei +t∑

k=h+1

ǫkwk

︸ ︷︷ ︸∈W

∈ U ∩ W .

Esisteranno dunque degli scalari λ1, . . . , λh tali che

−s∑

j=h+1

δjuj =h∑

i=1

λiei

in quanto [e1, . . . , eh] e una base di U ∩ W . Si ha quindi che

s∑

j=h+1

δjuj +

h∑

i=1

λiei = 0 .

Poiche B′ e un sistema indipendente, deduciamo che δh+1, . . . , δs = 0. Analo-gamente si prova che ǫh+1, . . . , ǫt = 0 e dalla (7) si deduce che

h∑

i=1

γiei = 0

e quindi γ1, . . . , γh = 0, poiche il sistema [e1, . . . , eh] e indipendente. Abbiamoquindi provato che B e una base di U + W . D’altra parte la sua cardinalita eh + (s − h) + (t − h) = s + t − h e cio conclude la dimostrazione. 2

Corollario 2.41. Sia V ′ lo spazio somma di due sottospazi finitamentegenerati U,W di uno spazio vettoriale V . V ′ e una somma diretta se e solo se

dim U + dimW = dim V ′ .

Con metodi induttivi tale risultato si generalizza come segue.

Corollario 2.42. Sia V uno spazio vettoriale e siano W1, . . . ,Wm dei sot-tospazi finitamente generati di V . Il sottospazio somma V ′ di tali sottospazie una somma diretta se e solo se

dim V ′ =

m∑

i=1

dim Wi .

Concludiamo il capitolo con alcune considerazioni sulle somme dirette. Sia-no W1, . . . ,Wm ≤ V .

Page 71: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 63

Lemma 2.43. Sia V ′ = W1 ⊕ · · · ⊕ Wm ≤ V e per ogni i sia wi ∈ Wi unvettore non nullo. Allora il sistema S = [w1, · · · ,wm] e indipendente.

Dimostrazione. Siano α1, . . . , αm degli scalari tali che

α1w1 + · · · + αmwm = 0 .

Ovviamente si ha anche che

0w1 + · · · + 0wm = 0 .

Pertanto, per la definizione di somma diretta, deve essere α1 = . . . = αm = 0.2

Supponiamo ora che V = W1 ⊕ · · ·⊕Wm e vediamo che relazione intercorretra le basi di V e di W1, . . . ,Wm.

Proposizione 2.44. Siano B1, . . . ,Bm basi di W1, . . . ,Wm rispettivamente.Allora il sistema B = B1 ∪ . . . ∪ Bm e una base di V .

Dimostrazione. Poniamo, per fissare le idee

B1 = [u1,1, . . . ,u1,k1] ; . . . ; Bm = [um,1, . . . ,um,km

] .

Si ha quindi che dimW1 = k1, . . . , dimWm = km. Inoltre, posto dimV = n,in base al Corollario 2.42 si ha che n =

∑m

j=1 kj . Proviamo che B e una basedi V . Dimostriamo che B e indipendente. Siano

α1,1, . . . , α1,k1, . . . , αm,1, . . . , αm,km

degli scalari tali che

α1,1u1,1 + · · ·α1,k1u1,k1

+ · · · + αm,1um,km+ · · · + αm,km

um,km= 0 .

Poniamow1 = α1,1u1,1 + · · ·α1,k1

u1,k1

...

wm = αm,1um,km+ · · · + αm,km

um,km.

Abbiamo allora che w1 ∈ W1, . . . ,wm ∈ Wm e

(8) w1 + · · · + wm = 0 .

In base al lemma precedente, deve quindi accadere che

w1 = . . . = wm = 0

e quindi αi,j = 0 per ogni i, j e B e indipendente. Pertanto B e una base,poiche consta di n vettori. 2

Si puo operare in modo inverso, nel seguente senso.

Page 72: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

64 Un’introduzione all’algebra lineare

Proposizione 2.45. Sia B = [v1, . . . ,vn] una base di V . Se si scelgono degliinteri positivi h1, . . . , ht tali che

1 ≤ h1 < . . . < ht = n

e si poneB1 = [v1, . . . ,vh1

] ; . . . ; Bt = [vht−1+1, . . . ,vht]

eW1 = L(B1) ; . . . ; Wt = L(Bt)

alloraV = W1 ⊕ · · · ⊕ Wt .

Dimostrazione. I sistemi B1, . . . ,Bt sono indipendenti, e quindi sono basiper i sottospazi W1, . . . ,Wt rispettivamente. Inoltre e agevole verificare che

(9) V = W1 + · · · + Wt .

Basta poi osservare che dim V =∑

i dimWi per concludere che la (9) e unasomma diretta. 2

§6. Generalita sulle applicazioni lineari

Siano V, V ′ due spazi vettoriali su uno stesso campo K, e sia

f : V −→ V ′

una applicazione (tra i sostegni di tali spazi vettoriali).

Definizione 2.46. Diremo che f e una applicazione lineare, ovvero unomomorfismo, se sono verificate le seguenti condizioni, per ogni u,v ∈ V e perogni λ ∈ K:

(i) f(u + v) = f(u) + f(v).(ii) f(λv) = λf(v).

Le condizioni (i), (ii) equivalgono ad ognuna delle seguenti, come e facileverificare.

(j) f(αu + βv) = αf(u) + βf(v) ∀ α, β ∈ K, ∀ u,v ∈ V ;(jj) f

(∑m

i=1 λivi

)=∑m

i=1 λif(vi) ∀ m ∈ N , λi ∈ K , vi ∈ V .

Page 73: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 65

Osserviamo che se f e una applicazione lineare risulta

(10) f(0) = 0 ; f(−v) = −f(v) ∀ v ∈ V .

Infatti

f(0) = f(0 + 0) = f(0) + f(0)

da cui, per cancellazione, si ricava la prima delle (10) , e inoltre

0 = f(0) = f(v + (−v)

)= f(v) + f(−v)

da cui, sommando −f(v) ad entrambi i membri, si deduce che

f(−v) = −f(v) .

E’ poi facile verificare che f(u− v) = f(u) − f(v) per ogni u,v ∈ V .

Esercizio. Provare le (10) usando la (ii).

Sia V uno spazio vettoriale su K e consideriamo anche K come spazio vet-toriale su se stesso.

Definizione 2.47. Una applicazione lineare f : V → K si dice forma linearesu V .

Esempio 9. Sia V ∗ l’insieme delle forme lineari su V . In V ∗ definiamouna struttura di spazio vettoriale su K al modo seguente. Se f, g ∈ V ∗,definiamo una applicazione

f + g : V −→ K

ponendo (f + g)(v) =: f(v) + g(v) per ogni v ∈ V . Si verifica agevolmenteche f + g e lineare, e quindi e una forma lineare su V . Analogamente, seλ ∈ K, si definisce una applicazione

λ · f : V −→ K

ponendo (λ·f)(v) = λ(f(v)

). Anche λ·f e una forma lineare. Le operazioni

cosı definite forniscono una struttura di spazio vettoriale su V ∗, come illettore potra verificare. V ∗ si dice spazio duale di V .

Page 74: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

66 Un’introduzione all’algebra lineare

Proposizione 2.48. Siano f : V → V ′, g : V ′ → V ′′ due applicazionilineari. Allora anche l’applicazione composta

g ◦ f : V −→ V ′′

e lineare.

Dimostrazione. Siano α, β ∈ K, u,v ∈ V . Abbiamo che

g ◦ f(αu + βv) = g(f(αu + βv)

)

= g(αf(u) + βf(v)

)

= αg(f(u)

)+ βg

(f(v)

)

ovvero g ◦ f(αu + βv) = α(g ◦ f(u)

)+ β

(g ◦ f(v)

). 2

Consideriamo ora una situazione particolare molto importante, e cioe quellain cui il dominio e il codominio dell’applicazione lineare sono spazi vettorialinumerici. Sia m ∈ N. Per ogni i = 1, . . . ,m definiamo una applicazione

πi : Km −→ K

ponendoπi(a1, . . . , am) = ai .

πi si dice proiezione i-ma ed e immediato verificare che e lineare. Sia oran ∈ N, e sia

f : Kn −→ Km

una applicazione e poniamo

fi = πi ◦ f : Kn −→ K .

In tal modo, se a = (a1, . . . , an) ∈ Kn e b = (b1, . . . , bm) = f(a), abbiamo che

f1(a) = b1 ; . . . ; fm(a) = bm ; f(a) =(f1(a), . . . , fm(a)

).

Appare pertanto naturale chiamare le applicazioni fi componenti di f . Tal-volta si scrive anche f = (f1, . . . , fm).

Esempio 10. Sia f : K2 → K3 l’applicazione definita ponendo

f(x, y) = (x − y, x + y, 0) (x, y ∈ K ) .

Page 75: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 67

Allora f1, f2, f3 : K2 → K sono le applicazioni definite da

f1(x, y) = x − y ; f2(x, y) = x + y ; f3(x, y) = 0 .

Lemma 2.49. L’applicazione f : Kn → Km e lineare se e solo se tali sonole sue componenti f1, . . . , fm.

Dimostrazione. Se f e lineare e chiaro che anche le sue componenti lo sono,essendo esse composte di applicazioni lineari. Viceversa, se f1, . . . , fm sonolineari e a,a′ ∈ Kn, λ, λ′ ∈ K, si ha che

f(λa + λ′a′) =(f1(λa + λ′a′), . . . , fm(λa + λ′a′)

)

=(λf1(a) + λ′f1(a

′), . . . , λfm(a) + λ′fm(a′))

= λ(f1(a), . . . , fm(a)

)+ λ′

(f1(a

′), . . . , fm(a′))

= λf(a) + λ′f(a′)

e quindi f e lineare. 2

Osserviamo che le applicazioni lineari di Kn in K hanno una forma benprecisa:

Proposizione 2.50. Sia f : Kn −→ K una applicazione. f e lineare se esolo se esistono degli scalari γ1, . . . , γn tali che

(11) f(x1, . . . , xn) = γ1x1 + · · · + γnxn ∀ (x1, . . . , xn) ∈ Kn .

Dimostrazione. Supponiamo che f sia del tipo (11). Allora per ogni α, β ∈ K

e per ogni y, z ∈ Kn, posto

y = (y1, . . . , yn) ; z = (z1, . . . , zn)

si ha che

f(αy + βz) = f(αy1 + βz1, . . . , αyn + βzn)

= γ1(αy1 + βz1) + · · · + γn(αyn + βzn)

= α(γ1y1 + · · · γnyn) + β(γ1z1 + · · · γnzn)

= αf(y) + βf(z) .

Page 76: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

68 Un’introduzione all’algebra lineare

Viceversa, sia f lineare e siano

e1 = (1, 0, . . . , 0) , e2 = (0, 1, . . . , 0) , . . . , en = (0, 0, . . . , 1)

i vettori della base canonica di Kn. Poniamo f(ej) = γj . Se x = (x1, . . . , xn) ∈Kn si ha che

x = x1e1 + · · · + xnen

e quindi, per linearita,

f(x) = f(x1e1 + · · · + xnen)

= x1f(e1) + · · · + xnf(en)

= γ1x1 + · · · + γnxn

e l’asserto e provato. 2

Esempio 11. Definiamof : K3 −→ K4

ponendo

f(a1, a2, a3) = (a1 + a2, a2 − a3, a1 + a2 + a3, a2) .

In questo caso abbiamo che

f1(a1, a2, a3) = a1 + a2 ; f2(a1, a2, a3) = a2 − a3 ;

f3(a1, a2, a3) = a1 + a2 + a3 ; f4(a1, a2, a3) = a2 .

Le componenti di f sono chiaramente lineari e quindi f stessa risulta lineare.Se definiamo invece

g : K3 −→ K4

ponendo

g(a1, a2, a3) = (a1 + 1, a2 + a3, a1 + a23, a1 + a2 + a3)

abbiamo che

g1(a1, a2, a3) = a1 + 1 ; g2(a1, a2, a3) = a2 + a3 ;

g3(a1, a2, a3) = a1 + a23 ; g4(a1, a2, a3) = a1 + a2 + a3

e quindi g non e lineare in quanto g1 e g3 non lo sono, come il lettore potrafacilmente verificare per esercizio.

Page 77: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 69

Definizione 2.51. Sia f : V → V ′ una applicazione lineare. Poniamo

ker f = {v ∈ V | f(v) = 0 } ⊆ V

im f = {v′ ∈ V ′ | ∃ v ∈ V | v′ = f(v) } ⊆ V ′ .

Il sottoinsieme ker f di V si dice nucleo di f ; il sottoinsieme im f di V ′ si diceimmagine di f .

Proposizione 2.52. ker f e im f sono sottospazi di V, V ′ rispettivamente.

Dimostrazione. Proviamo che ker f ≤ V . Poiche f(0) = 0, abbiamo che0 ∈ ker f . Siano ora α, β ∈ K, u,v ∈ ker f . Allora

f(αu + βv) = αf(u) + βf(v) = 0

e quindi αu + βv ∈ ker f .Proviamo ora che im f ≤ V ′. Poiche f(0) = 0, abbiamo che 0 ∈ im f . Sianoora α, β ∈ K, u′,v′ ∈ im f . Esisteranno allora dei vettori u,v ∈ V tali chef(u) = u′, f(v) = v′. Ma allora

f(αu + βv) = αf(u) + βf(v) = αu′ + βv′

e quindi αu′ + β′v ∈ im f . 2

§7. Monomorfismi, epimorfismi e isomorfismi

Studiamo ora alcuni particolari tipi di applicazioni lineari.

Definizione 2.53. Sia f : V → V ′ una applicazione lineare. f si dira unmonomorfismo se e iniettiva, un epimorfismo se e suriettiva, un isomorfismose e biettiva.

E’ chiaro dalla definizione che f e un epimorfismo se e solo se V ′ = im f .In particolare, se V ′ e finitamente generato si ha che f e un epimorfismo se esolo se dim im f = dim V ′. Esiste una caratterizzazione corrispondente per imonomorfismi:

Page 78: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

70 Un’introduzione all’algebra lineare

Proposizione 2.54. L’applicazione lineare f e un monomorfismo se e solose ker f = {0}.

Dimostrazione. Se f e iniettiva, per ogni vettore non nullo v ∈ V∗ si ha che

f(v) 6= f(0) = 0

e quindi v 6∈ ker f . Pertanto ker f si riduce al solo vettore nullo. Viceversa,supponiamo che ker f = {0}. Siano u,v ∈ V e sia u 6= v. Allora non puoaccadere che f(u) = f(v), altrimenti risulterebbe f(u − v) = 0 pur essendou− v 6= 0. Deve quindi essere f(u) 6= f(v) ed f e iniettiva. 2

Proposizione 2.55. Sia f : V → V ′ un isomorfismo. Allora l’applicazioneinversa f−1 : V ′ → V e anch’essa un isomorfismo.

Dimostrazione. Poiche f e biettiva, ha senso considerare la sua inversa f−1

che risulta a sua volta biettiva. Resta da verificare che f−1 e una applicazionelineare. Siano dunque α, β ∈ K, u′,v′ ∈ V ′. Essendo f biettiva, esiste ununico u ∈ V tale che u′ = f(u) ed esiste un unico v ∈ V tale che v′ = f(v).Pertanto u = f−1(u′), v = f−1(v′) e si ha che

f−1(αu′ + βv′) = f−1(αf(u) + βf(v)

)

= f−1(f(αu + βv)

)

= αu + βv

= αf−1(u′) + βf−1(v′)

e quindi f−1 e lineare. 2

Esempio 12. Osserviamo che dalla Proposizione 2.48 e dal fatto che lacomposta di due applicazioni biettive e ancora una applicazione biettiva sideduce che la composta di due isomorfismi e ancora un isomorfismo. Unisomorfismo f : V → V di uno spazio vettoriale in se si dice automorfismo.Un esempio di automorfismo dello spazio vettoriale V e dato dall’applicazio-ne identica idV . Se consideriamo allora l’insieme Aut V degli automorfismidi V , le osservazioni precedenti e la Proposizione 2.55 ci assicurano che lastruttura algebrica (Aut V ; ◦), dove ◦ e la usuale legge di composizione, eun gruppo, detto il gruppo degli automorfismi di V , con elemento neutroidV .

Nelle applicazioni e utile tenere presente che un monomorfismo conserval’indipendenza lineare nel seguente senso.

Page 79: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 71

Lemma 2.56. Sia f : V → V ′ un monomorfismo e sia S = [v1, . . . ,vr] unsistema indipendente di vettori di V . Allora il sistema S ′ = [f(v1), . . . , f(vr)]di vettori di V ′ e anch’esso indipendente.

Dimostrazione. Siano α1, . . . , αr degli scalari tali che

(12)

r∑

i=1

αif(vi) = 0 .

Vogliamo provare che α1 = · · · = αr = 0. Per linearita, dalla (12) deduciamoche

f(α1v1 + · · · + αrvr) = 0

e quindi α1v1 + · · ·+ αrvr ∈ ker f . Poiche f e un monomorfismo, ker f = {0}e dunque

α1v1 + · · · + αrvr = 0 .

Poiche, infine, il sistema S e indipendente, i coefficienti αi devono annullarsie anche S ′ e indipendente. 2

Proposizione 2.57. Sia V uno spazio vettoriale finitamente generato, V ′

uno spazio vettoriale qualsiasi e sia f : V → V ′ una applicazione lineare. Se[v1, . . . ,vm] e un sistema di generatori di V , allora [f(v1), . . . , f(vm)] e unsistema di generatori di im f . In particolare, se f e un epimorfismo il sistema[f(v1), . . . , f(vm)] genera V ′.

Dimostrazione. Sia v′ ∈ im f . Allora esiste un vettore v ∈ V tale chev′ = f(v). Poiche [v1, . . . ,vm] e un sistema di generatori di V , esistono degliscalari α1, . . . , αm tali che

v =

m∑

i=1

αivi

e pertanto

v′ = f(v) = f( m∑

i=1

αivi

)=

m∑

i=1

αif(vi) .

Quindi il sistema [f(v1), . . . , f(vm)] genera im f . 2

Corollario 2.58. Se f : V → V ′ e un monomorfismo e B = [e1, . . . , em] euna base di V , allora il sistema B′ = [f(e1), . . . , f(em)] e una base di im f . Se

Page 80: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

72 Un’introduzione all’algebra lineare

poi f e anche un epimorfismo, ovvero f e un isomorfismo, allora B′ e una basedi V ′.

Dimostrazione. In base alla proposizione ed al lemma precedenti, B′ e unsistema indipendente di generatori di im f , e cioe una base. 2

Se esiste un isomorfismo f : V → V ′ si dice che V e isomorfo a V ′ e si scrive

V ∼= V ′; scriveremo inoltre f : V∼=→ V ′ per indicare che f e un isomorfismo.

Osserviamo esplicitamente che se esiste un isomorfismo f : V∼=→ V ′ esso non

e, in generale, unico.

Lemma 2.59. Sia f : V → V ′ un monomorfismo. Allora l’applicazione f ′ :V → im f definita ponendo f ′(v) = f(v) per ogni v ∈ V (ovvero l’applicazioneottenuta da f restringendo il codominio a im f) e un isomorfismo.

Dimostrazione. E’ chiaro che f ′ e iniettiva, poiche tale e f . Inoltre f ′ eanche suriettiva per costruzione. 2

Teorema 2.60. Siano V, V ′ due spazi vettoriali e consideriamo una baseordinata B = (e1, . . . , en) di V . Per ogni n-pla S ′ = (v′

1, . . . ,v′n) di vettori

di V ′ esiste un’unica applicazione lineare f : V → V ′ tale che f(ei) = v′i per

ogni i.

Dimostrazione. Sia B = (e1, . . . , en) una base ordinata di V e consideriamouna n-pla S ′ = (v′

1, . . . ,v′n) di vettori di V ′. Definiamo una applicazione

f : V −→ V ′

al modo seguente. Sia u ∈ V e sia (α1, . . . , αn) il vettore numerico dellecomponenti di u in B. Cio vuol dire che

u =n∑

i=1

αiei .

Poniamo allora

f(u) =

n∑

i=1

αiv′i .

L’applicazione f e ben posta, per l’unicita della n-pla (α1, . . . , αn). Inoltre echiaro che f(ei) = v′

i per ogni i dato che il vettore numerico delle componenti

Page 81: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 73

di ei in B e la n-pla (0, . . . , 0, 1, 0, . . . , 0) dove la componente 1 compare all’i-mo posto. Proviamo che la f e lineare. Siano λ, µ ∈ K, u,v ∈ V e siano(α1, . . . , αn), (β1, . . . , βn) le n-ple delle componenti di u,v in B. Si ha che

f(λu + µv) = f(λ

n∑

i=1

αiei + µ

n∑

i=1

βiei

)

= f( n∑

i=1

(λαi + µβi)ei

)

=n∑

i=1

(λαi + µβi)v

′i

=n∑

i=1

λαiv′i +

n∑

i=1

µβiv′i

= λ

n∑

i=1

αiv′i + µ

n∑

i=1

βiv′i

= λf(u) + µf(v) .

Resta solo da provare l’unicita di f . Sia

g : V −→ V ′

una applicazione lineare tale che g(ei) = v′i. Proviamo che f e g coincidono.

Sia dunque u ∈ V e sia u =∑n

i=1 αiei. Abbiamo che

f(u) =n∑

i=1

αiv′i

=n∑

i=1

αig(ei)

= g( n∑

i=1

αiei

)

= g(u)

e cio conclude la dimostrazione. 2

Quando usiamo il teorema precedente per costruire una applicazione linearef , diciamo che f e definita scegliendo i valori

f(e1), . . . , f(en)

ed estendendo per linearita.

Page 82: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

74 Un’introduzione all’algebra lineare

Corollario 2.61. Siano V, V ′ due spazi vettoriali finitamente generati e siadim V = dim V ′. Se

B = (e1, . . . , en) ; B′ = (e′1, . . . , e′n)

sono basi ordinate di V, V ′, esiste un unico isomorfismo h : V → V ′ tale cheh(ei) = e′i per ogni i.

Dimostrazione. In base al teorema precedente, esiste un’unica applicazionelineare h : V → V ′ tale che h(ei) = e′i per ogni i. Inoltre B′ e una base perim h e quindi

dim im h = n = dim V ′ .

Pertanto im h = V ′ e h e un epimorfismo. Proviamo che h e anche un mono-morfismo. Sia u ∈ ker h e sia u =

∑n

i=1 αiei. Si ha che

0 = h(u) = h( n∑

i=1

αiei

)

=

n∑

i=1

αih(ei) =

n∑

i=1

αie′i

e poiche B′ e un sistema indipendente, deve accadere che α1 = · · · = αn = 0e quindi anche u = 0. 2

Corollario 2.62. Siano V, V ′ due spazi vettoriali finitamente generati. Al-lora V e V ′ hanno la stessa dimensione se e solo se sono isomorfi.

Dimostrazione. Se V e V ′ hanno la stessa dimensione, il corollario prece-dente ci assicura che V ∼= V ′. Supponiamo invece che V e V ′ siano isomorfi,e sia h un isomorfismo di V in V ′. Allora se [e1, . . . , en] e una base di V ilCorollario 4.13 ci assicura che [h(e1), . . . , h(en)] e una base di V ′ e quindi Ve V ′ hanno entrambi dimensione n. 2

Esempio 13. Sia V uno spazio vettoriale di dimensione n e consideriamouna base ordinata B = (e1, . . . , en) di V . Per ogni vettore v ∈ V si de-terminano, in modo unico, degli scalari α1, . . . , αn tali che v =

∑n

j=1 αjej .Tali scalari sono le componenti di v in B e individuano un vettore numericoα = (α1, . . . , αn) ∈ Kn. Definiamo una applicazione

Φ : V −→ Kn

Page 83: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 75

ponendo Φ(v) = α. Proviamo che Φ e lineare. Se w ∈ V e β = (β1, . . . , βn)e il vettore numerico delle componenti di w in B, abbiamo che

v + w =

n∑

j=1

αjej +

n∑

j=1

βjej =

n∑

j=1

(αj + βj)ej .

PertantoΦ(v + w) = (α1 + β1, . . . , αn + βn)

= (α1, . . . , αn) + (β1, . . . , βn)

= Φ(v) + Φ(w) .

Se poi λ ∈ K, si ha che

λv = λ(α1e1 + · · · + αnen) = λα1e1 + · · · + λαnen

e quindi

Φ(λv) = (λα1, . . . , λαn) = λ(α1, . . . , αn) = λΦ(v) .

Φ e un isomorfismo. Infatti se v ∈ kerΦ si ha che Φ(v) = 0 ovvero chev = 0e1 + · · ·+0en = 0 e cioe kerΦ = {0} e Φ e un monomorfismo. Inoltre,se α = (α1, . . . , αn) ∈ Kn, posto v = α1e1 + · · ·+ αnen si ha che Φ(v) = αe quindi Φ e anche suriettiva. Φ prende il nome di isomorfismo coordinatodi V rispetto alla base B. Osserviamo che Φ si puo anche definire ponendo

Φ(e1) = (1, 0, . . . , 0) ; . . . ; Φ(en) = (0, . . . , 0, 1)

ed estendendo poi per linearita.

Esempio 14. Sia V uno spazio vettoriale finitamente generato. AlloraV ∼= V ∗. Sia infatti B = (e1, . . . , en) una base ordinata di V . Per ognii = 1, . . . , n definiamo una forma lineare Φi ponendo

Φi(ej) = δi,j =:

{1 se i = j

0 se i 6= j

ed estendendo poi per linearita. Il simbolo δi,j e noto come simbolo diKronecker. Si verifica che B∗ = (Φ1, . . . , Φn) e una base di V ∗, che si dicebase duale di B. Pertanto V e V ∗ hanno la stessa dimensione, e sono quindiisomorfi.

E’ di fondamentale importanza il seguente enunciato, che mette in relazionele dimensioni del nucleo, dell’immagine e del dominio di una applicazionelineare.

Page 84: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

76 Un’introduzione all’algebra lineare

Teorema 2.63 (Equazione Dimensionale). Siano V, V ′ due spazi vetto-riali, sia V finitamente generato e sia f : V → V ′ una applicazione lineare. Siha che

(13) dim V = dim ker f + dim im f .

Corollario 2.64. Siano V, V ′ due spazi vettoriali finitamente generati, siadim V = dimV ′ e sia f : V → V ′ una applicazione lineare. Allora f e unmonomorfismo se e solo se f e un epimorfismo. In entrambi i casi quindi f eun isomorfismo.

Dimostrazione. Sia f un monomorfismo. Si ha che ker f = {0} e quindidim ker f = 0. In base al teorema precedente si ha allora che dimV ′ = dim V =dim im f e quindi im f = V ′ ed f e un epimorfismo. Viceversa, supponiamoche f sia un epimorfismo. Abbiamo che dimV ′ = dim V = dim im f e quindi,applicando di nuovo il teorema precedente, deduciamo che dim ker f = 0 e cioeker f = {0} ed f e un monomorfismo. 2

Page 85: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 77

Esercizi.

1. Sia V uno spazio vettoriale su un campo K e siano u,v, w ∈ V . Supponiamoche il sistema di vettori [u,v,w] sia indipendente. Provare che(i) [u + v, v + w,u + w] e un sistema indipendente.(ii) [u + v, v + w,u − w] e un sistema dipendente.

2. Sia V uno spazio vettoriale su un campo K, e siano u,v, w, z ∈ V . Supponiamoche il sistema [u,v, w, z] sia indipendente.(i) Provare che il sistema

[u,u + v, u + v + w,u + v + w + z]

e indipendente.(ii) Per quali valori di α, β, γ, δ ∈ K il sistema

[u, αu + βv, w, γw + δz]

e indipendente?

3. Consideriamo i vettori u, v, w ∈ R3 definiti ponendo

u = (1, t, 0) ; v = (0, 1, t) ; w = (s, 0, 1) .

Per quali valori dei parametri reali s, t il sistema [u,v, w] e indipendente?

4. Sia V uno spazio vettoriale sul campo Q dei razionali, e sia [v1,v2,v3] un sistemalinearmente indipendente di vettori di V . Si ponga

w1 = v1 + 2v3 ; w2 = v2 + v3 ; w3 = tv1 + v3 .

Si determini per quali valori t ∈ Q il sistema [w1,w2,w3] e linearmente dipen-dente.

5. Sia V uno spazio vettoriale su R, e sia [v1,v2,v3] un sistema linearmente indi-pendente di vettori di V . Si ponga

w1 = v1 − v2 + v3 , w2 = v1 + 2v2 − 2v3 , w3 = tv1 + v2 − v3 .

Si determini per quali valori di t ∈ R il sistema [w1,w2,w3] e linearmentedipendente.

6. Nello spazio vettoriale reale R3 consideriamo i vettori

v1 = (t, t, 2t) , v2 = (t, 1, t) , v3 = (1, 0, 0) .

Page 86: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

78 Un’introduzione all’algebra lineare

Per quali valori del parametro reale t il vettore v3 dipende linearmente dal si-stema [v1,v2]?

7. Sia V uno spazio vettoriale su un campo K, e sia [v1,v2] un sistema linearmenteindipendente di vettori di V . Consideriamo inoltre i vettori

w1 = v1 + v2 ; w2 = tv1 − v2 ; w3 = v1 − tv2 .

(i) Si determini per quali valori di t ∈ K il sistema [w1,w2] e indipendente.(ii) Provare che per ogni valore di t ∈ K il sistema [w1,w2,w3] e dipendente.

8. Sia V uno spazio vettoriale reale e sia [u,v, w, z] un sistema linearmente indi-pendente di vettori di V . Definiamo due sottospazi U, W di V ponendo

U = L(u,u + v,u + 2w,v + w) ; W = L(v,u − v,u + 2z,u− z) .

(i) Determinare le dimensioni di U e W .(ii) Determinare U ∩ W e U + W .

9. Sia [u,v, w] un sistema indipendente di vettori di uno spazio vettoriale V .(i) Determinare la dimensione del sottospazio

U = L(u + v,w + v, u− w) .

(ii) Determinare il sottoinsieme W di R3 costituito dalle terne (a, b, c) ∈ R3 taliche

a(u + v) + b(w + v) + c(u − w) = 0 .

(iii) Dimostrare che W e un sottospazio di R3 e calcolarne una base.

10. Sia V uno spazio vettoriale di dimensione finita su un campo K e siano V1, V2 ⊂ Vdue suoi sottospazi vettoriali tali che

dimV1 + dimV2 > dimV .

Provare che esiste v ∈ V1 ∩ V2 − {0}.11. Sia f : R3 −→ R3 un endomorfismo definito ponendo

f(a, b, c) = (a + b, b, a − c) .

(i) Stabilire se f e un isomorfismo, e in tal caso determinarne l’inverso f−1;(ii) calcolare f−1(2, 1, 0).

12. Sia V uno spazio vettoriale su R e sia [u,v,w] una sua base. Sia

φ : V −→ V

Page 87: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 79

un endomorfismo tale che

φ(u) = u ; φ(v) = u + v ; φ(v + w) = 0 .

Determinare il nucleo e l’immagine di φ.

13. Sia V uno spazio vettoriale su R e sia [u,v, w] una sua base. Posto U = L(u,v)e W = L(v, w), stabilire se esiste un endomorfismo

φ : V −→ V

tale chekerφ = U ; imφ = W .

14. Sia V uno spazio vettoriale su R. Sia inoltre [u,v, w] una base di V . Studiarel’endomorfismo

Φ : V −→ V

definito ponendo

Φ(u) = v ; Φ(v) = w ; Φ(w) = v + w

determinandone il nucleo e l’immagine.

15. Sia f : R3 −→ R3 un endomorfismo definito ponendo

f(a, b, c) = (a + b + c, a + b − c, a − 2c) .

(i) Stabilire se f e un isomorfismo, e in caso affermativo determinare f−1;(ii) calcolare f−1(2, 1, 0).

16. Si considerino gli spazi vettoriali reali R2 e R3.(i) Provare che non esiste alcun monomorfismo f : R3 −→ R2.(ii) Provare che non esiste alcun epimorfismo f : R2 −→ R3.

17. SiaΦ : R3 −→ R3

l’endomorfismo definito ponendo

Φ(a, b, c) = (2a + b, 2b + c, a + 2c) .

(i) Verificare che Φ e un isomorfismo.(ii) Determinare Φ−1(3, 3, 3).

Page 88: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

80 Un’introduzione all’algebra lineare

18. Sia Φ : R3 −→ R3 l’endomorfismo definito ponendo

Φ(a, b, c) = (ta + b, ta + tb + c, a + b + c)

dove t e un parametro reale.(i) Per quali valori di t ∈ R Φ e un isomorfismo?(ii) Fissato t = 1, calcolare Φ−1(1, 1, 1) e Φ−1(0, 1, 0).

19. Sia Φ : V −→ W un monomorfismo e sia [u,v, w] un sistema linearmente indi-pendente di vettori di V . Provare che

[Φ(u + v), Φ(v − w), Φ(u + v + w)

]

e un sistema linearmente indipendente di vettori di W .

20. Sia Φ : R2 → R3 l’applicazione lineare definita ponendo

Φ(x, y) = (tx, tx + y, (1 − t)y) .

Determinare Φ−1(1, 1, 1), kerΦ ed imΦ.

21. Consideriamo lo spazio vettoriale reale R3 e sia

f : R3 −→ R3

l’endomorfismo definito ponendo

f(a, b, c) = (a +1

2b + tc,−1

2a,

1

2c) .

Determinare i valori di t ∈ R per cui f e un isomorfismo.

22. Sia Φ : R3 → R3 definita ponendo

Φ(a, b, c) = (a + c, b + c, a + 2b + 3c) .

Al variare del parametro reale t determinare Φ−1(t2 − 1,−1, t − 1).

23. SiaΦ : R4 −→ R4

l’endomorfismo definito ponendo

Φ(a, b, c, d) = (a + b, b + c, c + d, d) .

Determinare kerΦ, imΦ e Φ−1(0, 0, 0, 1).

Page 89: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 2 – Spazi vettoriali 81

24. Siano V, V ′ due spazi vettoriali finitamente generati su uno stesso campo K, esupponiamo che dimV < dim V ′. Sia inoltre f : V −→ V ′ una applicazionelineare e sia h = dimV = dim im f .(i) Provare che esiste una applicazione lineare g : V ′ −→ V tale che g◦f = idV ;(ii) provare che f ◦ g 6= idV ′ .

25. Siano V, V ′ due spazi vettoriali su R, e siano f, g : V → V ′ due applicazionilineari. Definiamo due sottoinsiemi U,W di V ponendo

U ={

v ∈ V | f(v) = g(v)}

; W ={

v ∈ V | f(v) = −g(v)}

.

(i) Provare che U, W sono sottospazi vettoriali di V ;(ii) provare che U ∩ W = ker f ∩ ker g.

26. Sia V uno spazio vettoriale su R e sia dim V = n. Provare che esiste un endo-morfismo f : V → V tale che ker f = im f se e solo se n e pari.

27. Sia φ : R3 → R3 l’applicazione lineare tale che

φ(1, 0, 0) = (1, 2, 1) ; φ(1, 1, 0) = (0, 3, 3) ; φ(1, 1, 1) = (−2, 2, 4) .

Si determini kerφ.

28. Sia V uno spazio vettoriale finitamente generato su un fissato campo K e sianof, g : V → K due applicazioni lineari tali che ker f = ker g. Si dimostri che esisteuno scalare λ ∈ K tale che

f(v) = λ · g(v) ∀ v ∈ V .

29. Siano V, V ′ due spazi vettoriali su un campo K. Siano inoltre [u,v,w] una basedi V e [u′,v′] una base di V ′ ed f : V → V ′ l’applicazione lineare definitaponendo

f(u) = u′ + v′ ; f(v) = u′ − v′ ; f(w) = 2u′ + v′ .

(i) Determinare il nucleo e l’immagine di f ;(ii) calcolare f−1(u′).

30. Sia f : R2 → R2 l’applicazione lineare definita da

f(a, b) = (a + tb, a + t2b) .

Per quali valori del parametro t ∈ R f e un isomorfismo? In corrispondenza ditali valori, determinare l’isomorfismo inverso.

Page 90: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica
Page 91: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Capitolo 3

Matrici, determinanti, sistemi lineari

§1. Generalita sulle matrici

Sia S un insieme.

Definizione 3.1. Una matrice di tipo m × n su S e una applicazione

A : {1, . . . ,m} × {1, . . . , n} −→ S .

Pertanto ad ogni coppia (i, j) ∈ {1, . . . ,m}×{1, . . . , n} risulta associato unelemento A(i, j) ∈ S che si denota di solito con il simbolo ai,j .

In questo capitolo assumeremo sempre che l’insieme S sia un campo K.Molti risultati valgono pero in situazioni piu generali (ad esempio quando S eun anello). E’ importante capire comunque che una matrice puo essere definitasu un insieme di elementi di qualunque natura.

Una matrice A e completamente determinata dagli scalari ai,j che possonoessere disposti in una tabella per righe e per colonne, e quindi per convenzionescriveremo

A =

a1,1 a1,2 . . . a1,n

a2,1 a2,2 . . . a2,n

......

. . ....

am,1 am,2 . . . am,n

o anche, in forma abbreviata

A = (ai,j) .

I vettori numerici

A1 = (a1,1, a1,2, . . . , a1,n) , . . . , Am = (am,1, am,2, . . . , am,n)

83

Page 92: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

84 Un’introduzione all’algebra lineare

si dicono righe di A. I vettori numerici

A1 =

a1,1

...am,1

, . . . , An =

a1,n

...am,n

si dicono colonne di A. Un vettore numerico di ordine n

(a1, . . . , an)

puo vedersi come matrice di tipo 1×n e prende il nome di vettore (numerico)riga. Analogamente, un vettore numerico di ordine m

b1...

bm

scritto in forma verticale, puo vedersi come matrice di tipo m × 1 e prendeil nome di vettore (numerico) colonna. Indicheremo con Mm,n(K), o piusemplicemente con Mm,n, l’insieme delle matrici di tipo m × n su K.

Definizione 3.2. Sia A ∈ Mm,n. Si dice trasposta di A, e si indica conuno dei simboli tA, tA, At, la matrice B = (bi,j) ∈ Mn,m definita ponendobi,j = aj,i.

La matrice tA si ottiene da A scambiando le righe con le colonne. Diremoche una matrice A e quadrata di ordine n se A ∈ Mn,n, ovvero se A possieden righe e n colonne. La matrice quadrata A sara poi detta diagonale se perogni coppia (i, j) tale che i 6= j si ha che ai,j = 0. Il vettore numerico

(a1,1, . . . , an,n)

prende il nome di diagonale principale di A. Diremo inoltre che A e unamatrice triangolare bassa, ovvero triangolare inferiore, se per ogni coppia (i, j)tale che i < j si ha che ai,j = 0. A e invece una matrice triangolare alta, ovverotriangolare superiore, se per ogni coppia (i, j) tale che i > j si ha che ai,j = 0.Una matrice quadrata A si dira poi simmetrica se ai,j = aj,i, antisimmetricase ai,j = −aj,i, per ogni i, j. Osserviamo che gli elementi della diagonaleprincipale di una matrice antisimmetrica sono tutti nulli, che una matrice ediagonale se e solo se essa e simultaneamente triangolare alta e bassa e cheuna matrice e simmetrica se e solo se coincide con la sua trasposta.

Page 93: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 85

Esempio 1. Se poniamo

A =

1 2

0 2

1 3

la trasposta di A e la matrice

tA =

(1 0 1

2 2 3

).

La matrice

B =

1 1 2

0 2 3

0 0 1

e triangolare alta, mentre la sua trasposta

tB =

1 0 0

1 2 0

2 3 1

e triangolare bassa. Le matrici

C =

1 1 3

1 2 2

3 2 0

; C′ =

0 1 2

−1 0 −2

−2 2 0

sono rispettivamente simmetrica ed antisimmetrica. Infine le matrici

D =

1 0 0

0 2 0

0 0 1

; D′ =

1 0 0

0 0 0

0 0 1

sono diagonali.

Per ogni n ∈ N denotiamo con In la matrice

In =

1 0 . . . 00 1 . . . 0...

.... . .

...0 0 . . . 1

che prende il nome di matrice identita, o anche matrice identica, di ordine n.Abbiamo che In = (δi,j), dove δi,j e il simbolo di Kronecker (associato allacoppia (i, j)), introdotto nell’Esempio 14, Capitolo 2.

In Mm,n possiamo definire una addizione (interna) e una moltiplicazione e-sterna con operatori in K come segue. Sia λ uno scalare e siano A = (ai,j), B =(bi,j) ∈ Mm,n. Poniamo

A + B = C ; λ · A = D

dove C = (ci,j),D = (di,j) e ci,j = ai,j + bi,j , di,j = λai,j.

Page 94: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

86 Un’introduzione all’algebra lineare

Proposizione 3.3. (Mm,n; +, ·) e uno spazio vettoriale isomorfo a Kmn.

Dimostrazione. La verifica del fatto che (Mm,n; +, ·) e uno spazio vetto-riale e lasciata per esercizio. Si osserva poi che le mn matrici aventi un e-lemento uguale a 1 e tutti gli altri elementi nulli costituiscono una base per(Mm,n; +, ·). 2

L’elemento neutro dello spazio vettoriale (Mm,n; +, ·) (rispetto all’addizio-ne) e la matrice nulla

O =

0 . . . 0...

. . ....

0 . . . 0

.

Vogliamo ora definire una moltiplicazione tra matrici. A tale scopo consi-deriamo due matrici A = (ai,j) ∈ Mm,n, B = (bj,h) ∈ Mn,s. Definiamo unamatrice C = (ci,h) ∈ Mm,s ponendo

ci,h =n∑

j=1

ai,jbj,h .

In altri termini, si considerano la i-ma riga Ai di A e la h-ma colonna Bh

di B e si effettua la somma dei prodotti delle componenti di ugual posto ditali vettori numerici. L’elemento ci,h e quindi il prodotto scalare standard deivettori numerici Ai e Bh e possiamo scrivere

ci,h = Ai · Bh .

La matrice C cosı ottenuta si dice prodotto righe per colonne di A e B e siindica con C = AB.

Esercizio. Provare che se A ∈ Mm,n si ha che

ImA = A ; AIn = A .

Proposizione 3.4. Il prodotto righe per colonne tra matrici e distributivorispetto alla somma, nel senso che se A ∈ Mm,n e B,C ∈ Mn,s si ha che

A(B + C) = AB + AC .

Dimostrazione. Siano i, h tali che 1 ≤ i ≤ m, 1 ≤ h ≤ s. Si ha che

Ai(B + C)h = Ai(Bh + Ch) = AiB

h + AiCh .

Pertanto l’elemento di posto (i, h) di A(B+C) coincide con l’elemento di posto(i, h) di AB + AC. 2

Analogamente si verifica che se A,B ∈ Mm,n e C ∈ Mn,s allora (A+B)C =AC + BC.

Page 95: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 87

Proposizione 3.5. Il prodotto righe per colonne tra matrici e associativo,nel senso che se A ∈ Mm,n, B ∈ Mn,s, C ∈ Ms,t allora

(AB)C = A(BC) .

Dimostrazione. Osserviamo intanto che tutti i vari prodotti che compaiononell’enunciato hanno senso e che (AB)C, A(BC) ∈ Mm,t. Poniamo

D = (AB)C ; E = A(BC)

e siano, come al solito,

A = (ai,j), B = (bj,h), C = (ch,k), D = (di,k), E = (ei,k) .

Vogliamo provare che D = E, ovvero che di,k = ei,k per ogni i, k. Per defini-zione

di,k = (AB)i · Ck .

Si ha che(AB)i = (Ai · B1, . . . , Ai · Bs)

e d’altra parte

Ck =

c1,k

...cs,k

quindidi,k = (Ai · B1)c1,k + . . . + (Ai · Bs)cs,k

=

s∑

h=1

(Ai · Bh)ch,k

=s∑

h=1

( n∑

j=1

ai,jbj,h

)ch,k

=∑

j,h

ai,jbj,hch,k .

In modo analogo si verifica che

ei,k =∑

j,h

ai,jbj,hch,k

Page 96: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

88 Un’introduzione all’algebra lineare

e l’asserto e provato. 2

Definizione 3.6. Sia A ∈ Mm,n. Diremo che A e invertibile a destra seesiste una matrice B ∈ Mn,m (che prende il nome di inversa destra di A) taleche AB = Im. Diremo invece che A e invertibile a sinistra se esiste una matriceC ∈ Mn,m (che prende il nome di inversa sinistra di A) tale che CA = In.Infine A e invertibile se e invertibile a destra e a sinistra.

Se A e invertibile e B,C sono come nella definizione precedente, alloraB = C. Infatti

C = CIm = C(AB) = (CA)B = InB = B .

La matrice B = C si denota con il simbolo A−1 e si dice inversa di A. Osser-viamo esplicitamente che le nozioni di invertibilita a destra e a sinistra sonoindipendenti tra loro. Proveremo in seguito che affinche una matrice A siainvertibile e necessario che A sia quadrata.

Esempio 2. Come osservato, il prodotto righe per colonne AB puo ef-fettuarsi solo quando il numero di colonne di A coincide con il numero dirighe di B. In particolare, per ogni n ∈ N, tale prodotto e una operazioneinterna in Mn,n ed e facile verificare che Mn,n e un monoide rispetto atale operazione, il cui elemento neutro e In. Il concetto di invertibilita inquesto monoide coincide con il concetto di invertibilita di matrici appenaintrodotto (e cio giustifica l’apparente abuso di notazione). Il sottoinsiemeGLn(K) di Mn,n costituito dalle matrici quadrate invertibili e un gruppoe prende il nome di gruppo generale lineare (su K). Il sottoinsieme On

costituito dalle matrici invertibili tali che A−1 = tA e anch’esso un gruppoe prende il nome di gruppo ortogonale.

Sia A ∈ Mm,n e siano

RA = [A1, . . . , Am] ; CA = [A1, . . . , An] .

E’ chiaro che RA e un sistema di vettori di Kn e CA e un sistema di vettori diKm.

Proposizione 3.7. Sia S = [Ai1 , . . . , Aip] un sistema indipendente massi-

male di vettori di RA e S ′ = [Aj1 , . . . , Ajq ] un sistema indipendente massimaledi vettori di CA. Si ha che p = q.

Dimostrazione. Sia W = L(CA) ≤ Km. Osserviamo che S ′ e una base di W .Infatti ogni vettore di CA dipende da S ′, essendo S ′ indipendente massimale

Page 97: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 89

in CA, e ogni vettore di W dipende da CA. Quindi S ′ genera W . Poiche S ′ eanche indipendente, S ′ e una base di W . Pertanto dimW = q. Poiche S e unsistema indipendente massimale in RA, ogni riga di A dipende da S e quindiesiste una matrice K = (ks,t) ∈ Mm,p tale che

A1 = k1,1Ai1 + · · · + k1,pAip

A2 = k2,1Ai1 + · · · + k2,pAip

......

Am = km,1Ai1 + · · · + km,pAip.

Tali relazioni vettoriali si esprimono anche attraverso le seguenti relazioni sca-lari

a1,1 = k1,1ai1,1 + · · · + k1,paip,1

...

a1,n = k1,1ai1,n + · · · + k1,paip,n

...

am,1 = km,1ai1,1 + · · · + km,paip,1

...

am,n = km,1ai1,n + · · · + km,paip,n

che equivalgono alle seguenti relazioni vettoriali (tra vettori numerici colonna)

A1 = ai1,1K1 + · · · + aip,1K

p ; . . . ; An = ai1,nK1 + · · · + aip,nKp

dove

K1 =

k1,1

...km,1

; . . . ; Kp =

k1,p

...km,p

.

Sia ora W ′ il sottospazio di Km generato da K1, . . . ,Kp. Ogni vettore di Wdipende da CA e ogni vettore di CA dipende da [K1, . . . ,Kp], quindi W ⊆ W ′

e q = dim W ≤ dim W ′ ≤ p. Con procedimenti analoghi, scambiando il ruolodelle righe e delle colonne, si prova anche che p ≤ q. 2

In base a risultati gia acquisiti, sappiamo che i sistemi indipendenti mas-simali di righe o di colonne di una fissata matrice A sono tutti equipotenti.Pertanto ha senso la seguente

Page 98: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

90 Un’introduzione all’algebra lineare

Definizione 3.8. Sia A ∈ Mm,n. Il rango di A e il numero intero nonnegativo ρA (indicato anche con il simbolo ρ(A) ) definito come segue. Se A ela matrice nulla, si pone ρA = 0. Altrimenti, ρA e l’ordine di un (qualunque)sistema indipendente massimale di righe (o anche di colonne) di A.

§2. Matrici a scala

In alcuni casi e conveniente evidenziare alcuni blocchi di elementi di una ma-trice. A tal proposito, se A = (ai,j) ∈ Mm,n e B = (bh,k) ∈ Ms,t con s ≤ me t ≤ n, diremo che B e un blocco di A se esistono due indici i0, j0 tali che

bh,k = ai0+h,j0+k (h = 1, . . . , s ; k = 1, . . . , t ) ,

ovvero se B e costituita dagli elementi di A individuati dalle righe di postoi0 +1, . . . , i0 +s e dalle colonne di posto j0 +1, . . . , j0 + t. Possiamo descriveretale situazione con la notazione

A =

B

.

Ad esempio, se

A =

11 12 13 1415 16 17 1819 20 21 2223 24 25 26

e

B =

(11 1215 16

); C =

(13 1417 18

)

D =

(19 2023 24

); E =

(21 2225 26

)

si scrive

A =

(B C

D E

)

o anche

A =

11 1215 16

C

D E

Page 99: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 91

e cosı via.

Esercizio. Sia A = (A′|A′′) una matrice a blocchi con

A ∈ Mn,s+t ; A′ ∈ Mn,s ; A′′ ∈ Mn,t

e sia B ∈ Mm,n. Allora

B · A =(B · A′ |B · A′′

).

Vogliamo ora introdurre una relazione di equivalenza nell’insieme Mm,n.Indichiamo con R1, . . . , Rm le righe e con C1, . . . , Cn le colonne di una genericamatrice A.

Definizione 3.9. Sia A ∈ Mm,n. Una operazione elementare sulle righe diA e una operazione di uno dei seguenti tipi:

(i) moltiplicare una riga Ai per uno scalare non nullo λ;(ii) scambiare di posto due righe Ai, Aj ;(iii) sostituire la riga Ai con Ai + λAj , (λ ∈ K, i 6= j).

Analoghe operazioni sono definite sulle colonne. L’operazione elementare(i) si denota con Ri λRi, la (ii) con Ri ! Rj , la (iii) con Ri Ri +λRj . Analoghe notazioni si adottano anche per le operazioni elementari sullecolonne. Osserviamo che iterando l’operazione elementare (iii) si ottiene unaoperazione del tipo Ri Ri + λ1Rj1 + · · · + λhRjh

.

Esercizio. Siano A,B ∈ Mm,n e supponiamo che la matrice B sia ottenuta daA mediante una operazione elementare (sulle righe). Provare che i sottospazidi Kn generati rispettivamente dai sistemi delle righe di A e di B coincidono.

Definizione 3.10. Siano A,B ∈ Mm,n. Diremo che A e B sono equivalen-ti (e scriveremo A ≡ B) se B si ottiene da A mediante un numero finito dioperazioni elementari.

Lemma 3.11. La relazione ≡ e di equivalenza in Mm,n.

Dimostrazione. Esercizio. 2

Page 100: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

92 Un’introduzione all’algebra lineare

Definizione 3.12. Una matrice A si dice a scala (secondo le righe) se sonoverificate le seguenti condizioni:

(i) se Ai = 0 allora Ai+1 = 0;(ii) se ai,j 6= 0 e ai,h = 0 ∀ h < j allora ai+1,h = 0 ∀ h ≤ j.

Non e difficile verificare che una matrice a scala e caratterizzata dalla se-guente proprieta:

Il primo elemento non nullo di ogni riga e piu a destra rispetto al primoelemento non nullo della riga precedente.

Da tale proprieta discende che se una riga e banale anche la riga successivadeve essere banale. In ogni riga non banale il primo elemento non nullo prendeil nome di pivot.

Esempio 3. Poniamo

A =

1 0 1 1

0 1 2 0

0 0 0 3

; B =

1 0 1

0 0 0

0 1 0

0 0 1

; C =

1 0 1

0 1 0

0 0 1

0 0 0

.

A e C sono a scala. B non lo e poiche B2 = 0 ma B3 6= 0. Osserviamo cheC si ottiene da B mediante la sequenza di operazioni R2 ! R3, R3 ! R4.

Teorema 3.13. Ogni matrice e equivalente ad una matrice a scala.

Dimostrazione. Dimostriamo l’asserto in Mm,n per induzione su m. Sem = 1, per ogni n le matrici di tipo 1 × n si riducono a vettori riga, e quindisono gia a scala. Sia dunque m > 1 e supponiamo che l’asserto sia vero permatrici di Ms,t, per ogni s < m e per ogni t. Sia A ∈ Mm,n, sia Aj la primacolonna non banale e sia i = min{h | ah,j 6= 0 }. In altri termini ai,j e il primoelemento non banale della prima colonna non banale:

A =

O O. . .

O ai,j · · ·O

.... . .

Si deve intendere che gli elementi dei blocchi contenenti puntini possono an-nullarsi o non annullarsi. Con l’operazione elementare

Ri ! R1

Page 101: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 93

si ottiene la matrice

D =

(O

ai,j

...Dj+1 . . . Dn

).

Tale operazione e ridondante se i = 1. Applichiamo ora, per ogni h = 2, . . . ,m,le operazioni elementari Rh Rh − dh,j

ai,jR1 ed otteniamo una matrice del tipo

E =

O

ai,j · · ·0...0

F

dove F ∈ Mm−1,t con t < n. Per ipotesi induttiva quindi F si trasforma inuna matrice a scala

H =

0 . . . 0 ∗ . . .0 . . . 0 0 . . . 0 ∗ . . .0 . . . 0 0 . . . 0 0 . . . 0 ∗ . . .

......

......

dove i simboli ∗ indicano i pivot. Poiche i primi j elementi delle righe diposto 2, . . . ,m di E sono nulli, se si effettuano le operazioni elementari chetrasformano F in H sulla matrice E si ottiene la matrice a scala

L =

O

ai,j · · ·0...0

H

Formalmente, osserviamo che se ad esempio per trasformare F in H si usal’operazione elementare Rp ! Rq, in relazione alla matrice E si dovra usarel’operazione elementare Rp+1 ! Rq+1, e in generale si dovranno incrementaredi 1 tutti gli indici di riga che compaiono nelle operazioni elementari usate pertrasformare F in H, poiche le righe che occupano le posizioni 1, . . . ,m−1 di Fcompaiono in posizione 2, . . . ,m rispettivamente in E. Poiche L si ottiene daA con un numero finito di operazioni elementari, si ha che A ≡ L, e l’assertoe provato. 2

Esercizio. Siano M,M ′ due matrici a scala entrambe equivalenti ad una datamatrice A. Provare che in M ed in M ′ le posizioni dei pivot sono le stesse.

Il metodo usato nella dimostrazione precedente prende il nome di algoritmodi Gauss per la riduzione a scala di una matrice. La riduzione a scala di unamatrice, ovvero la ricerca di una matrice a scala equivalente ad una matricedata, e molto utile per vari motivi. Abbiamo ad esempio il seguente

Page 102: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

94 Un’introduzione all’algebra lineare

Teorema 3.14. Due matrici equivalenti hanno lo stesso rango.

Dimostrazione. Basta osservare che le operazioni elementari non cambianola dipendenza ed indipendenza dei sistemi di righe o di colonne. 2

Pertanto un metodo per determinare il rango di una matrice e quello diridurre tale matrice a scala e poi determinare il rango di quest’ultima matrice.

Teorema 3.15. Il rango di una matrice a scala e il numero di righe nonbanali.

Dimostrazione. Consideriamo una generica matrice a scala di tipo m × n

H =

0 . . . 0 a1,j1 . . . a1,j2 . . .0 . . . 0 0 . . . 0 a2,j2 . . .

......

...0 . . . 0 0 . . . 0 0 . . . 0 ak,jk

. . .

O

dove a1,j1 , . . . , ak,jk6= 0, k ≤ m,n e j1 < . . . < jk. E’ chiaro che le (even-

tuali) righe nulle, ovvero quelle di posto k + 1, . . . ,m non contribuiscono alladeterminazione del rango e che ρH ≤ k. Basta quindi provare che il sistema[H1, . . . ,Hk] di vettori numerici e indipendente. Siano α1, . . . , αk degli scalaritali che

α1H1 + · · · + αkHk = 0 .

Da tale relazione vettoriale discendono le seguenti relazioni scalari:

0 = α1a1,j1 ;

0 = α1a1,j2 + α2a2,j2 ;

......

0 = α1a1,jk+ α2a2,jk

+ · · · + αkak,jk.

Dalla prima di tali relazioni si ricava che α1 = 0. Sostituendo tale valorenelle relazioni successive si deduce, dalla seconda, che α2 = 0, ecc. Si provapertanto che tutti gli scalari αi sono nulli. 2

Page 103: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 95

Concludiamo la nostra discussione sulle matrici a scala con alcune osser-vazioni sulle operazioni elementari sulle righe di una matrice e l’introduzionedella matrici a scala ridotte. Sia A ∈ Mm,n e sia B ∈ Mm,n una matrice otte-nuta da A applicando una operazione elementare. Vogliamo provare che esisteuna matrice E ∈ Mm,m tale che B = E · A. Esaminiamo le varie possibilita.Sia B ottenuta da A mediante l’operazione elementare

Rj λRj (λ 6= 0) .

Consideriamo la matrice Eλj ottenuta applicando tale operazione alla matrice

identica di ordine m, Im. E’ agevole verificare che Eλj e la matrice diagonale

che ha sulla diagonale principale lo scalare λ nella j-ma posizione e 1 nelle altreposizioni, e che B = Eλ

j · A. Analogamente, se B si ottiene da A mediantel’operazione

Rj ! Rh (h 6= j)

denotata con Ej,h la matrice ottenuta da Im applicando tale operazione e-lementare, si ha che B = Ej,h · A. Se infine B si ottiene da A mediantel’operazione elementare

Rj Rj + λRh (h 6= j, λ 6= 0)

denotata con Eλj,h la matrice ottenuta da Im applicando tale operazione ele-

mentare, si ha che B = Eλj,h · A. Le matrici Eλ

j , Ej,h, Eλj,h si dicono matrici

elementari.

Esercizio. Poniamo m = 4. Determinare le matrici E2,3, E1,3, E21,3.

Tra le matrici a scala equivalenti ad una data matrice A, e convenientesceglierne una dalle caratteristiche particolari.

Definizione 3.16. Una matrice a scala A si dice ridotta se

(i) I pivot sono tutti uguali ad 1;

(ii) Gli elementi al di sopra di ogni pivot sono tutti nulli.

La (ii) si esprime formalmente dicendo che se ai,j e un pivot di A alloraah,j = 0 per ogni h < i. Si avra poi anche che ah,j = 0 per ogni h > i, perchecio accade in ogni matrice a scala.

Page 104: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

96 Un’introduzione all’algebra lineare

Teorema 3.17. Ogni matrice e equivalente ad una matrice a scala ridotta.

Dimostrazione. Poiche gia sappiamo che ogni matrice e equivalente ad unamatrice a scala, basta far vedere che ogni matrice a scala e equivalente ad unamatrice a scala ridotta. Sia dunque A = (ai,j) una matrice a scala (non nulla),e siano a1,j1 , . . . , ak,jk

i suoi pivot. Con le operazioni elementari

R1 a−11,j1

R1 , . . . , Rk a−1k,jk

Rk

si ottiene una matrice a scala B = (bi,j) equivalente ad A e tale che i suoi pivotb1,j1 , . . . , bk,jk

siano tutti uguali ad 1. Bisogna ora applicare delle operazioniche consentano di annullare gli elementi al di sopra dei pivot. Cominciamodal pivot della seconda riga b2,j2 . Vogliamo annullare l’elemento b1,j2 e a talfine usiamo l’operazione elementare

R1 R1 − b1,j2R2 .

Consideriamo ora il terzo pivot b3,j3 . Vogliamo annullare l’elemento b1,j3 el’elemento b2,j3 . Usiamo a tal scopo le operazioni

R1 R1 − b1,j3R3 , R2 R2 − b2,j3R3 .

Si procede in modo analogo anche per gli altri pivot. 2

Il procedimento usato nella dimostrazione precedente e noto come algoritmodi Gauss-Jordan. L’enunciato precedente puo essere migliorato: ogni matrice eequivalente ad una ed una sola matrice a scala ridotta. Ci asterremo comunquedall’affrontare il problema dell’unicita.

§3. Definizione e prime proprieta dei determinanti

Indichiamo, per ogni n ∈ N, con Jn l’insieme { 1, 2, . . . , n } dei primi n numerinaturali. Prima di introdurre la nozione di determinante, fissiamo alcunenotazioni. Sia A ∈ Mm,n. Se i1, . . . , is ∈ Jm, j1, . . . , jt ∈ Jn, indichiamo con

Aj1,...,jt

i1,...,isla matrice

Aj1,...,jt

i1,...,is=

ai1,j1 ai1,j2 . . . ai1,jt

ai2,j1 ai2,j2 . . . ai2,jt

......

. . ....

ais,j1 ais,j2 . . . ais,jt

Page 105: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 97

che si ottiene considerando solo gli elementi di A che si trovano simultanea-mente su una delle righe di posto i1, . . . , is e su una delle colonne di postoj1, . . . , jt. In generale, gli indici i1, . . . , is non sono a due a due distinti, e cosıpure j1, . . . , jt. Ad esempio, se

A =

1 2 3 4 56 7 8 9 1011 12 13 14 15

∈ M3,5

si avra

A2,41,2 =

(2 47 9

); A2,4,5

3,1,1 =

12 14 152 4 52 4 5

.

La matrice Aj1,...,jt

i1,...,isprende il nome di matrice subordinata (o anche sottoma-

trice) di A individuata dalle righe di posto i1, . . . , is e dalle colonne di postoj1, . . . , jt. In particolare, indicheremo con A(i,j) la matrice subordinata

A(i,j) = A1,2,...,j,...,n

1,2,...,i,...,m

individuata da tutte le righe (nel loro ordine naturale) tranne la i-ma e datutte le colonne (nel loro ordine naturale) tranne la j-ma. In altri termini,A(i,j) si ottiene da A cancellando la i-ma riga e la j-ma colonna:

A(i,j) =

a1,1 . . . a1,j−1 a1,j+1 . . . a1,n

.... . .

.... . .

...ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n

ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n

.... . .

.... . .

...am,1 . . . am,j−1 am,j+1 . . . am,n

.

La matrice A(i,j) si dice matrice complementare dell’elemento ai,j in A. Osser-viamo esplicitamente che se A e quadrata, anche A(i,j) e quadrata. In generaleuna matrice subordinata puo essere quadrata oppure no, indipendentementedal fatto che la matrice di partenza lo sia.

Sia ora K un campo, e sia A ∈ Mm,n. Useremo le seguenti notazioni

A = (A1, . . . , An) ; A =

A1...

Am

Page 106: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

98 Un’introduzione all’algebra lineare

per evidenziare le colonne o le righe che compongono A. In effetti le espressioniappena introdotte possono vedersi come particolari decomposizioni in blocchidi A. Vogliamo definire, per ogni n ∈ N, una applicazione

det : Mn,n −→ K

che soddisfi le seguenti proprieta D. Sia A ∈ Mn,n e siano Bk, Ck due vettorinumerici colonna di ordine n e poniamo

B = (A1, . . . , Ak−1, Bk, Ak+1, . . . , An)

C = (A1, . . . , Ak−1, Ck, Ak+1, . . . , An) .

Proprieta D:

(i)D Se Ak = βBk + γCk allora

det A = β detB + γ detC ∀ β, γ ∈ K .

(ii)D Se ∃ j | Aj = Aj+1 allora detA = 0;(iii)D det In = 1.

La (i)D si esprime dicendo che l’applicazione det e lineare sulle colonne.

Esempio 4. Una matrice 1 × 1 e del tipo (λ) dove λ e uno scalare. Se sipone

det(λ) = λ

e immediato verificare che le D sono soddisfatte. Sia n = 2; una matrice2 × 2 e del tipo

A =

(a b

c d

).

Se si pone detA = ad − bc e agevole verificare che le D sono soddisfatte.

Il principale risultato discusso in questo capitolo e espresso dal seguenteenunciato.

Teorema 3.18. Per ogni intero positivo n esiste un’unica applicazione

det : Mn,n(K) −→ K

che soddisfi le proprieta D.

Tale risultato rende lecita la seguente

Page 107: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 99

Definizione 3.19. L’applicazione det dell’enunciato precedente si dice ap-plicazione determinante. Se A e una matrice quadrata di ordine n, lo scalaredet A prende il nome di determinante di A.

Prima di passare alla dimostrazione del Teorema 3.18, osserviamo che dalleproprieta D si deducono anche le seguenti ulteriori proprieta.

(iv)D Se in una matrice si scambiano tra loro due colonne, il determinantecambia di segno.

(v)D Se la matrice A ha due colonne uguali, allora det A = 0.

Proviamo la (iv)D. Sia A ∈ Mn,n e sia A′ la matrice ottenuta da A scam-biando due colonne adiacenti, ad esempio Ak, Ak+1. Consideriamo la matrice

B = (A1, . . . , Ak−1, Ak + Ak+1, Ak + Ak+1, Ak+2, . . . , An) .

Poiche B ha due colonne adiacenti uguali, si ha, in base alla (ii)D, che det B =0. D’altra parte, usando la (i)D e la (ii)D abbiamo che

0 = det B = det(A1, . . . , Ak−1, Ak, Ak, Ak+2, . . . , An)︸ ︷︷ ︸=0

+ det(A1, . . . , Ak−1, Ak, Ak+1, Ak+2, . . . , An)︸ ︷︷ ︸=det A

+ det(A1, . . . , Ak−1, Ak+1, Ak, Ak+2, . . . , An)︸ ︷︷ ︸=det A′

+ det(A1, . . . , Ak−1, Ak+1, Ak+1, Ak+2, . . . , An)︸ ︷︷ ︸=0

.

Pertanto det A = − det A′. Osserviamo ora che se h, k sono indici distinti, ese ad esempio si ha che h < k, la matrice

A′′ = (A1, . . . , Ah−1, Ak, Ah+1, . . . , Ak−1, Ah, Ak+1, . . . , An)

si ottiene da A mediante 2k − 2h − 1 scambi di colonne adiacenti, e quindianche in questo caso si ha che detA = − det A′′. La (v)D e una conseguenzadella (iv)D.

Page 108: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

100 Un’introduzione all’algebra lineare

§4. Dimostrazione del Teorema 3.18

Proveremo che una applicazione det che soddisfi le D esiste, per ogni n ∈ N, eche e unica. Procederemo come segue: dimostreremo che se una applicazione Dsoddisfa le D allora essa deve avere necessariamente una certa forma (unicita)e poi verificheremo che la D cosı definita soddisfa effettivamente le D. SiaA ∈ Mn,n e indichiamo con E1, . . . , En i vettori numerici colonna della basecanonica di Kn, ovvero

E1 =

10...0

; E2 =

01...0

; . . . ; En =

00...1

.

Abbiamo cheA1 = a1,1E

1 + · · · + an,1En

A2 = a1,2E1 + · · · + an,2E

n

. . .

An = a1,nE1 + · · · + an,nEn

e quindi se D : Mn,n → K e una applicazione che verifica le D deve accadereche

D(A) = D( n∑

i1=1

ai1,1Ei1 , . . . ,

n∑

in=1

ain,nEin

)

=∑

i1,...,in

ai1,1 . . . ain,nD(Ei1 , . . . , Ein) .

In tale sommatoria compare un addendo per ogni n-pla (i1, . . . , in) di indicicompresi tra 1 e n. Se nella n-pla (i1, . . . , in) c’e una ripetizione, l’addendoad essa associato si annulla, poiche (Ei1 , . . . , Ein) possiede due colonne ugualie quindi D(Ei1 , . . . , Ein) = 0. Pertanto possiamo limitarci a considerare sologli addendi associati a n-ple di indici a due a due distinti. Se (i1, . . . , in) e unatale n-pla, l’applicazione

f : h ∈ Jn −→ ih ∈ Jn

e una permutazione, ovvero f ∈ Sn. Si ha quindi che

D(A) =∑

f∈Sn

af(1),1 . . . af(n),nD(Ef(1), . . . , Ef(n)) .

Page 109: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 101

Notiamo che Ef(1), . . . , Ef(n) sono tutti e soli i vettori della base canonica,considerati in un ordine che non e, in generale, quello naturale. Pertanto lan-pla (E1, . . . , En) si ottiene dalla n-pla

(Ef(1), . . . , Ef(n))

operando un certo numero di scambi tra colonne adiacenti. Ad ogni talescambio l’applicazione D deve cambiare segno, ovvero si ha che

D(Ef(1), . . . , Ef(n)) = ±D(E1, . . . , En) = ±D(In) = ±1

e il segno che compare in tale espressione e quello positivo oppure quello ne-gativo a seconda che il numero di scambi tra colonne adiacenti richiesto siapari oppure dispari. Osserviamo che se un numero pari (dispari) di scambitra colonne adiacenti e richiesto per ottenere la n-pla (E1, . . . , En) dalla n-pla(Ef(1), . . . , Ef(n)) allora la permutazione f e pari (dispari, rispettivamente).Pertanto

D(Ef(1), . . . , Ef(n)) = σ(f)

e quindi

D(A) =∑

f∈Sn

σ(f)af(1),1 . . . af(n),n

=∑

f∈Sn

σ(f) ·n∏

j=1

af(j),j .(1)

Abbiamo quindi provato che se D soddisfa le D allora D e data dalla (1),ovvero abbiamo verificato l’unicita asserita nell’enunciato del Teorema 3.18 diuna applicazione che soddisfi le D. Proviamo ora che l’applicazione D definitadalla (1) soddisfa effettivamente le D. A tale scopo procediamo come segue.Se n = 1 e A = (λ) ∈ M1,1 la (1) si riduce a

D(A) = λ

e le D sono banalmente verificate. Se n = 2 e A =

(a bc d

)la (1) si riduce a

D(A) = ad − bc .

Anche in questo caso le D si verificano agevolmente. Procediamo allora perinduzione. Sia n > 2 e supponiamo di aver gia provato che D soddisfa le D

Page 110: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

102 Un’introduzione all’algebra lineare

per ogni m < n. Fissiamo un indice i ∈ Jn e definiamo una applicazione D′i

ponendo, per ogni A ∈ Mn,n

(2) D′i(A) =

n∑

j=1

(−1)i+jai,jD(A(i,j)) .

Proviamo che D′i soddisfa le D. Iniziamo con la (i)D. Posto

A = (ai,j) ; B = (bi,j) ; C = (ci,j)

e fissato un indice k sia

(3) Ah = Bh = Ch ∀ h 6= k ; Ak = βBk + γCk

(dove β, γ ∈ K), ovvero sia

ai,h = bi,h = ci,h ∀ h 6= k ; ai,k = βbi,k + γci,k .

Vogliamo provare che

D′i(A) = βD′

i(B) + γD′i(C) .

In base alle (3) abbiamo che

A(i,k) = B(i,k) = C(i,k) .

Inoltre, per ogni h 6= k, A(i,h) e la matrice quadrata di ordine n − 1 che ha lecolonne di posto 6= k uguali a quelle di B(i,h) e C(i,h) e la colonna di indice kdata da

(A(i,h))k = β(B(i,h))

k + γ(C(i,h))k .

Induttivamente possiamo quindi supporre che

D(A(i,h)) = βD(B(i,h)) + γD(C(i,h)) ∀ h 6= k

e d’altra parte

D(A(i,k)) = D(B(i,k)) = D(C(i,k)) .

Page 111: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 103

Pertanto

D′i(A) =

n∑

h=1

(−1)i+hai,hD(A(i,h))

=∑

h 6=k

(−1)i+hai,h

(βD(B(i,h)) + γD(C(i,h))

)

+ (−1)i+k(βbi,k + γci,k)D(A(i,k))

= β∑

h 6=k

(−1)i+hai,hD(B(i,h)) + γ∑

h 6=k

(−1)i+hai,hD(C(i,h))

+ β(−1)i+kbi,kD(B(i,h)) + γ(−1)i+kci,kD(C(i,h))

= β

n∑

h=1

(−1)i+hbi,hD(B(i,h)) + γ

n∑

h=1

(−1)i+hci,hD(C(i,h))

= βD′i(B) + γD′

i(C) .

Proviamo la (ii)D. Sia Ak = Ak+1. Allora per ogni h 6= k, k + 1 la matriceA(i,h) ha due colonne uguali e quindi, per ipotesi induttiva, D(A(i,h)) = 0. Siha quindi che

D′i(A) =

n∑

h=1

(−1)i+hai,hD(A(i,h))

=∑

h 6=k,k+1

(−1)i+hai,h D(A(i,h))︸ ︷︷ ︸=0

+ (−1)i+kai,kD(A(i,k)) + (−1)i+k+1ai,k+1D(A(i,k+1))

= 0

poiche ai,k = ai,k+1, A(i,k) = A(i,k+1) e (−1)i+k = −(−1)i+k+1. Verifichiamoinfine la (iii)D.

D′i(In) =

n∑

h=1

(−1)i+hδi,hD((In)(i,h)

)

= (−1)2iδi,iD((In)i,i

).

Inoltre (In)(i,i) = In−1 e quindi

D′i(In) = 1 .

Page 112: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

104 Un’introduzione all’algebra lineare

Abbiamo pero gia osservato che se una applicazione soddisfa le D, essa devenecessariamente coincidere con D. Pertanto abbiamo che

D′i(A) = D(A)

ovvero, per ogni i,

n∑

j=1

(−1)i+jai,jD(A(i,j)) =∑

f∈Sn

σ(f) ·n∏

j=1

af(j),j .

Possiamo dunque dedurre da un lato che l’espressione (2) non dipende dallascelta di i e dall’altro che D soddisfa le D. Ha senso quindi porre

det A = D(A) =∑

f∈Sn

σ(f) ·n∏

j=1

af(j),j

ovverodetA = D′

i(A)

(qualunque sia i). Abbiamo cosı concluso la dimostrazione del Teorema 3.18.

§5. Ulteriori proprieta dei determinanti

Quando detA si esprime mediante la (2), si dice che si calcola il determinante diA usando la regola di Laplace, ovvero anche sviluppando la matrice A, secondola i-ma riga. D’ora in avanti potremo usare indifferentemente la definizionedi det A mediante l’espressione D(A) oppure mediante lo sviluppo di Laplacesecondo una riga. La formula (2), che esprime il determinante di A mediantelo sviluppo di Laplace secondo la i-ma riga, puo anche scriversi

det A =

n∑

j=1

(−1)i+jai,j det(A(i,j)) .

Dalle proprieta D si deducono anche le seguenti proprieta:

(vi)D Se la matrice A possiede una riga nulla, si ha che detA = 0.(vii)D Se si aggiunge ad una colonna di una matrice A una combinazione

lineare delle altre colonne il determinante della matrice cosı ottenutacoincide con detA.

Page 113: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 105

Proviamo la (vi)D. Sia A ∈ Mn,n e supponiamo che la i-ma riga di A sia nulla.Abbiamo quindi che ai,1 = . . . = ai,n = 0. Usando lo sviluppo di Laplace diA secondo la riga i-ma vediamo subito che

det A =

n∑

j=1

(−1)i+j ai,j︸︷︷︸=0

det Ai,j = 0 .

Proviamo infine la (vii)D. Poniamo ad esempio

Bk = α1A1 + · · · + αk−1A

k−1 + Ak + αk+1Ak+1 + · · · + αnAn

B = (A1, . . . , Ak−1, Bk, Ak+1, . . . , An) .

In altri termini B si ottiene da A sommando alla k-ma colonna di A unacombinazione lineare delle altre colonne di A. Vogliamo provare che detB =det A. Abbiamo che

detB = α1 det(A1, . . . , Ak−1, A1, Ak+1, . . . , An)︸ ︷︷ ︸=0

+ · · ·

+ αk−1 det(A1, . . . , Ak−1, Ak−1, Ak+1, . . . , An)︸ ︷︷ ︸=0

+ det(A1, . . . , Ak−1, Ak, Ak+1, . . . , An)︸ ︷︷ ︸=det A

+ αk+1 det(A1, . . . , Ak−1, Ak+1, Ak+1, . . . , An)︸ ︷︷ ︸=0

+ · · ·

+ αn det(A1, . . . , Ak−1, An, Ak+1, . . . , An)︸ ︷︷ ︸=0

= detA .

Talvolta il determinante di una matrice quadrata A viene indicato, oltre checon il simbolo det A, anche con i simboli |A|, D(A).

Dimostriamo ora un importante risultato sulla trasposta di una matrice.

Teorema 3.20. Per ogni A ∈ Mn,n si ha che detA = detAt.

Dimostrazione. Sia At = (bi,j), ovvero bi,j = aj,i. Si ha che

det At =∑

f∈Sn

σ(f) ·n∏

j=1

bf(j),j

=∑

f∈Sn

σ(f) ·n∏

j=1

aj,f(j)

.

Page 114: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

106 Un’introduzione all’algebra lineare

Fissiamo l’attenzione sul termine∏n

j=1 aj,f(j). Sia gf = f−1. Per ogni j esisteun unico h tale che h = f(j) e quindi j = gf (h) e si ha che

n∏

j=1

aj,f(j) =

n∏

h=1

agf (h),h .

Pertanto

det At =∑

f∈Sn

σ(f) ·n∏

h=1

agf (h),h .

Osserviamo che σ(f) = σ(gf ), in quanto gf e l’inversa di f , ed inoltre quandof varia in Sn anche gf varia in Sn. Possiamo concludere che

detAt =∑

gf∈Sn

σ(gf ) ·n∏

h=1

agf (h),h = detA

come asserito. 2

Poiche At si ottiene da A scambiando le righe con le colonne, il risultatoora acquisito ci assicura che in tutti gli enunciati riguardanti i determinantile righe e le colonne di una matrice possono essere scambiate. Ad esempiol’applicazione det e lineare sulle righe, se una matrice A possiede una colon-na nulla allora detA = 0, se una matrice A possiede due righe uguali alloradet A = 0, e cosı via. In particolare si verifica che si puo sviluppare il deter-minante di una matrice quadrata anche secondo una colonna. Se si sceglie adesempio la j-ma, si ottiene l’espressione

detA =n∑

i=1

(−1)i+jai,j det(A(i,j))

che prende il nome di sviluppo di Laplace secondo la colonna j-ma. Talvoltalo scalare

(−1)i+j det A(i,j)

si dice complemento algebrico dell’elemento di posto (i, j) in A, e quindi laregola di Laplace puo anche esprimersi con il seguente enunciato

Page 115: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 107

1o Teorema di Laplace 3.21. Il determinante di una matrice quadrata Ae la somma dei prodotti degli elementi di una linea (riga o colonna) di A peri loro complementi algebrici.

Definizione 3.22. Sia A ∈ Mn,n. Se detA 6= 0 diremo che A e nonsingolare, o anche non degenere.

Vediamo ora l’effetto delle operazioni elementari sul determinante di unamatrice. Sia A ∈ Mn,n. Se B si ottiene da A mediante Ri λRi, dalle Ddiscende che det B = λdetA. Se invece B si ottiene da A mediante Ri ! Rj ,allora detB = − det A. Se infine B si ottiene da A mediante Ri Ri +λRj , allora det B = detA. Un discorso analogo vale se le operazioni vengonoeffettuate sulle colonne. In generale quindi se A ≡ B allora

detA = 0 ⇐⇒ det B = 0

ovvero A e singolare se e solo se tale e B. Le operazioni elementari sulle matriciconsentono anche di dimostrare, con procedimenti sostanzialmente elementari,un importante risultato conosciuto come il Teorema di Binet, che consentedi calcolare il determinante del prodotto di due matrici quadrate. Occorrepremettere alcune considerazioni.

Lemma 3.23. Siano A ∈ Mn,n, C ∈ Mm,n, D ∈ Mm,m e sia inoltreO ∈ Mn,m la matrice nulla. Posto

E =

(A O

C D

)∈ Mm+n,m+n

si ha chedetE = detA · det D .

Dimostrazione. Procediamo per induzione su n. Se n = 1 si ha che A =(a1,1) e

E =

a1,1 0 . . . 0

c1,1

...cm,1

D

.

Calcoliamo il determinante di E sviluppando E secondo la prima riga e tro-viamo che

detE = a1,1 · detD = det A · detD .

Page 116: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

108 Un’introduzione all’algebra lineare

Supponiamo ora che n > 1 e che l’asserto sia vero quando il primo blocco haordine minore di n. La matrice E e del tipo

E =

a1,1 . . . a1,n

.... . .

...an,1 . . . an,n

0 . . . 0...

. . ....

0 . . . 0

C D

.

Sviluppando secondo la prima riga abbiamo che

detE =

n∑

j=1

(−1)1+ja1,j det E(1,j) .

Per ogni j si ha che

E(1,j) =

a2,1 . . . a2,j−1 a2,j+1 . . . a2,n

.... . .

......

. . ....

an,1 . . . an,j−1 an,j+1 . . . an,n

O

C ′ D

=

( A(1,j) O

C ′ D

)

dove C ′ e una opportuna sottomatrice di C, e poiche A(1,j) e di tipo (n− 1)×(n − 1), l’ipotesi induttiva ci assicura che

det E(1,j) = detA(1,j) · detD

e quindi

detE =n∑

j=1

(−1)1+ja1,j detE(1,j)

=

n∑

j=1

(−1)1+ja1,j detA(1,j) det D

= detA · det D

come desiderato. 2

Lemma 3.24. Siano A ∈ Mn,n, B ∈ Mn,m, D ∈ Mm,m e sia inoltreO ∈ Mm,n la matrice nulla. Posto

E =

(A B

O D

)∈ Mm+n,m+n

Page 117: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 109

si ha che

detE = detA · det D .

Dimostrazione. Analoga alla precedente, usando lo sviluppo per colonne.2

Teorema di Binet 3.25. Siano A,B ∈ Mn,n. Si ha che

det AB = detA · det B .

Dimostrazione. Consideriamo le matrici

D =

(A AB

−In O

); E =

(A O

−In B

).

La matrice E si ottiene da D mediante l’applicazione di un numero finito dioperazioni elementari di tipo (iii) sulle colonne. Infatti le colonne di poston + 1, . . . , 2n di D sono

(AB1

O

), . . . ,

(ABn

O

)

e quindi applicando a D le operazioni

Cn+1 Cn+1 − b1,1C

1 − · · · − bn,1Cn

...C2n

C2n − b1,nC1 − · · · − bn,nCn

si ottengono le colonne

(OB1

), . . . ,

(OB1

)

di E. Ad esempio, la colonna (n + 1)-ma di D,

(AB1

O

)si trasforma in

(AB1

O

)−

n∑

i=1

bi,1Di

Page 118: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

110 Un’introduzione all’algebra lineare

ovvero, piu esplicitamente, nella colonna

∑n

j=1 a1,jbj,1

...∑n

j=1 an,jbj,1

0...0

a1,1b1,1

...an,1b1,1

−b1,1

0...0

− · · · −

a1,nbn,1

...an,nbn,1

0...0

−bn,1

che puo anche scriversi come

0...0

−b1,1

...−bn,1

=

0...0

b1,1

...bn,1

ovvero anche (OB1

).

Poiche, come gia osservato, le operazioni elementari di tipo (iii) non modificanoil determinante, si ha che detD = det E. Inoltre, in base al Lemma 3.23, si hache detE = detA · det B. D’altra parte possiamo calcolare il determinante di

D =

A AB

−1 0 . . . 00 −1 . . . 00 0 . . . −1

O

sviluppando successivamente secondo la (n + 1)-ma, . . . , la 2n-ma riga etroviamo che

det D = (−1)n+1(−1)n+1 . . . (−1)n+1

︸ ︷︷ ︸n

detAB

= (−1)n·(n+1) detAB

= detAB .

In definitiva det A · detB = detE = detD = det AB. 2

Il Teorema di Binet ci consente, tra l’altro, di affrontare alcune questioni diinvertibilita di matrici.

Page 119: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 111

Corollario 3.26. Sia A ∈ Mn,n. Se A e invertibile si ha che det A 6= 0 edinoltre

detA−1 =1

det A.

Dimostrazione. Poiche AA−1 = In, si ha che

1 = det In = det(AA−1) = detA · det A−1

e quindi det A, det A−1 6= 0 e det A−1 = (detA)−1. 2

Il non annullarsi del determinante e in realta una condizione necessaria esufficiente per l’invertibilita di una matrice quadrata. Per provare cio, proce-diamo come segue.

2o Teorema di Laplace 3.27. Sia A una matrice quadrata di ordine n.Per ogni coppia (h, k) di indici distinti si ha che

(4)

n∑

j=1

(−1)k+jah,j detA(k,j) = 0 ;

n∑

i=1

(−1)i+kai,h detA(i,k) = 0 .

Dimostrazione. Osserviamo che il primo membro della prima delle (4) el’espressione del determinante della matrice

A′ =

A1...

Ah

...Ah

...An

avente il vettore numerico riga Ah al posto h-mo e al posto k-mo, sviluppatosecondo la riga di posto h-mo, e pertanto si annulla, avendo A′ due righeuguali. Analogamente si ragiona per provare la seconda delle (4). 2

Il lemma precedente si enuncia anche dicendo che e nulla la somma deiprodotti degli elementi di una riga (o colonna) di A per i complementi algebrici

Page 120: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

112 Un’introduzione all’algebra lineare

degli elementi di un’altra riga (colonna rispettivamente). Il 1o e il 2o Teoremadi Laplace si sintetizzano nelle seguenti formule:

(5i)n∑

j=1

(−1)k+jah,j detA(k,j) = δh,k · det A

(5ii)

n∑

i=1

(−1)i+kai,h detA(i,k) = δh,k · det A .

Proviamo ora l’inverso del Corollario 3.26.

Proposizione 3.28. Sia A una matrice quadrata e sia detA 6= 0. Allora Ae invertibile e la sua inversa B = (bs,t) si ottiene ponendo

bs,t = (−1)s+tdet A(t,s)

detA.

Dimostrazione. Proviamo che B e l’inversa di A. Posto D = (di,j) = AB,si ha che

di,j = AiBj = (ai,1, . . . , ai,n)

b1,j

...bn,j

.

Sostituendo nell’espressione precedente il valore di bi,j troviamo che

di,j =1

detA(ai,1, . . . , ai,n)

(−1)j+1 det A(j,1)

...(−1)j+n det A(j,n)

=1

detA

n∑

h=1

(−1)j+hai,h det A(j,h)

= δi,j .

Pertanto D = AB = In. In modo analogo si prova che BA = In. 2

Da questa osservazione, dall’unicita dell’inversa e dal Corollario 3.26 si de-duce il seguente

Page 121: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 113

Teorema 3.29. Sia A ∈ Mn,n. A e invertibile se e solo se detA 6= 0. In talcaso A−1 = (bi,j), dove

bi,j =(−1)i+j detA(j,i)

detA.

Si ha inoltre che

det(A−1) = (det A)−1 .

Dal Teorema di Binet e dal Teorema 3.29 si deduce che se A,B sono matriciquadrate di ordine n e si ha che A · B = In allora A e invertibile e B e la suainversa. Infatti per il Teorema di Binet si ha che

det A · detB = det(A · B) = det In = 1

e quindi detA 6= 0 e in base al Teorema 3.29 la matrice A risulta invertibile.Pertanto B, che e l’inversa destra di A, deve coincidere con A−1.

Esercizio. Usando i Lemmi 3.23 e 3.24, provare che il determinante di unamatrice triangolare e dato dal prodotto degli elementi della diagonale princi-pale.

La nozione di determinante puo essere usata per studiare la dipendenza ol’indipendenza di sistemi di vettori numerici. I risultati che otterremo per isistemi di vettori numerici colonna sono naturalmente validi anche per i vettorinumerici riga.

Teorema 3.30. Siano A1, . . . , An ∈ Kn n vettori numerici colonna di ordinen e consideriamo il sistema S = [A1, . . . , An]. Se S e dipendente, posto A =(A1, . . . , An), si ha che detA = 0.

Dimostrazione. Se S e dipendente esiste un vettore Ah del sistema chedipende dai rimanenti vettori di S. Ad esempio, siano

α1, . . . , αh−1, αh+1, . . . , αn ∈ K

tali che

Ah = α1A1 + · · · + αh−1A

h−1 + αh+1Ah+1 + · · · + αnAn .

Page 122: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

114 Un’introduzione all’algebra lineare

La proprieta di linearita sulle colonne del determinante ci assicura che

det A = det(A1, . . . , Ah−1, Ah, Ah+1, . . . , An)

= α1 det(A1, . . . , Ah−1, A1, Ah+1, . . . , An) + · · ·+ αh−1 det(A1, . . . , Ah−1, Ah−1, Ah+1, . . . , An)

+ αh+1 det(A1, . . . , Ah−1, Ah+1, Ah+1, . . . , An) + · · ·+ αn det(A1, . . . , Ah−1, An, Ah+1, . . . , An)

= 0

poiche in ogni addendo compare il determinante di una matrice con due co-lonne uguali. 2

Corollario 3.31. Sia A ∈ Mn,n. Se det A 6= 0 allora il sistema S =[A1, . . . , An] e indipendente.

Corollario 3.32. Sia A ∈ Mn,n e sia detA 6= 0. Per ogni vettore numerico

colonna b =

b1...

bn

esiste un’unica n-pla (λ1, . . . , λn) di scalari tale che

b =

n∑

j=1

λjAj .

Dimostrazione. In base al Corollario 3.31 S = [A1, . . . , An] e un sistemaindipendente di vettori di Kn. Poiche dim Kn = n, S e una base e ogni vettorenumerico colonna di ordine n si esprime, in modo unico, come combinazionelineare di S. 2

Useremo ora la teoria dei determinanti per fornire un metodo per il calcolodel rango di una matrice. Sia ora A ∈ Mm,n e sia A

j1,...,jp

i1,...,ipuna sottomatrice

quadrata di A.

Definizione 3.33. Il determinante det Aj1,...,jp

i1,...,ipprende il nome di minore di

A (associato alla sottomatrice Aj1,...,jp

i1,...,ip). Se ih = jh per ogni h, tale minore si

dice principale.

Consideriamo ora il sistema S = [A1, . . . , An] delle colonne di A, che e unsistema di vettori numerici colonna di Km.

Page 123: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 115

Proposizione 3.34. Se n ≤ m ed esistono degli indici di riga i1, . . . , in taliche

det A1,...,ni1,...,in

6= 0

allora S e indipendente.

Dimostrazione. L’ipotesi ci assicura che il sistema di righe

[Ai1 , . . . , Ain]

e indipendente. Quindi ρ(A) ≥ n. Poiche A possiede solo n colonne, ρ(A) = n.Pertanto S e indipendente. 2

Un ragionamento analogo vale se scambiamo le righe con le colonne.

Proposizione 3.35. Sia m ≤ n e supponiamo che esistano degli indici dicolonna j1, . . . , jm tali che

det Aj1,...,jm

1,...,m 6= 0 .

Allora [A1, . . . , Am] e indipendente.

Dimostrazione. Analoga alla precedente. 2

E’ possibile usare i determinanti anche per studiare la dipendenza o indi-pendenza lineare di sistemi di vettori non numerici. A tale scopo, se V e unospazio vettoriale di dimensione n, consideriamo l’isomorfismo coordinato

Φ : V −→ Kn

di V rispetto ad una fissata base ordinata. Poiche Φ e un isomorfismo, unsistema S = [v1, . . . ,vm] di vettori di V e indipendente se e solo se tale e ilsistema S ′ = [Φ(v1), . . . ,Φ(vm)] di vettori numerici di Kn e si possono quindiapplicare i risultati fin qui esposti a proposito dei sistemi di vettori numerici.

Il metodo per il calcolo del rango di una matrice A che ora esporremo, ebasato sullo studio dei minori di A. Se A

j1,...,jq

i1,...,ipe una sottomatrice di A, i e

un indice di riga e j e un indice di colonna, la sottomatrice Aj1,...,jq,j

i1,...,ip,i prende

il nome di orlato di Aj1,...,jq

i1,...,ipmediante la i-ma riga e la j-ma colonna.

Page 124: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

116 Un’introduzione all’algebra lineare

Teorema degli Orlati 3.36. Consideriamo una matrice A ∈ Mm,n e sia

det Aj1,...,jp

i1,...,ipun suo minore non nullo. Se ogni orlato della sottomatrice A

j1,...,jp

i1,...,ip

ha determinante nullo allora

S = [Ai1 , . . . , Aip]

e un sistema massimale di righe indipendenti di A e

T = [Aj1 , . . . , Ajp ]

e un sistema massimale di colonne indipendenti di A. In particolare, ρ(A) = p.

Dimostrazione. Proviamo, ad esempio, che S e un sistema massimale dirighe indipendenti di A. La parte dell’enunciato relativa al sistema T si dimo-stra in modo analogo. Bisogna verificare che S e linearmente indipendente eche ogni altra riga di A dipende da S. Consideriamo la sottomatrice A1,...,n

i1,...,ip

determinata dalle righe Ai1 , . . . , Aip. A

j1,...,jp

i1,...,ipe una sottomatrice di A1,...,n

i1,...,ipe

le sue colonne sono proprio quelle di posto j1, . . . , jp di A1,...,ni1,...,ip

. Poiche

det Aj1,...,jp

i1,...,ip6= 0

in base alla proposizione precedente, le righe Ai1 , . . . , Aipcostituiscono un

sistema indipendente. Proviamo ora che per ogni h = 1, . . . ,m la riga Ah

dipende da S. Cio e evidente se h coincide con uno degli indici i1, . . . , ip. Se

invece cio non accade, orliamo Aj1,...,jp

i1,...,ipcon la riga Ah e con una qualunque

colonna Ak. Per ipotesi abbiamo che

detAj1,...,jp,k

i1,...,ip,h = 0 .

Osserviamo che

Aj1,...,jp,k

i1,...,ip,h =

ai1,j1 . . . ai1,jpai1,k

.... . .

......

aip,j1 . . . aip,jpaip,k

ah,j1 . . . ah,jpah,k

e quindi, calcolando il determinante di tale sottomatrice con la regola di La-place secondo l’ultima colonna, abbiamo che

(6) 0 = detAj1,...,jp,k

i1,...,ip,h = ai1,kλ1 + · · · + aip,kλp + ah,kλ .

Page 125: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 117

Abbiamo qui indicato con λs il complemento algebrico dell’elemento ais,k

nell’orlato Aj1,...,jp,k

i1,...,ip,h e con λ il complenento algebrico dell’elemento ah,k in

Aj1,...,jp,k

i1,...,ip,h . Osserviamo che gli scalari λ1, . . . , λp, λ non dipendono dalla scel-ta di k, in quanto l’indice k non compare affatto nelle prime p colonne della

sottomatrice Aj1,...,jp,k

i1,...,ip,h . Poiche la (6) vale per ogni k, otteniamo la relazionevettoriale

λ1Ai1 + · · · + λpAip+ λAh = 0 .

D’altra parteλ = detA

j1,...,jp

i1,...,ip6= 0 .

QuindiAh = λ−1λ1Ai1 + · · · + λ−1λpAip

e Ah dipende da S. 2

Il Teorema degli Orlati fornisce un metodo per determinare il rango di unamatrice A, che supponiamo non banale. Chiamiamo sottomatrice fondamen-tale di A una sottomatrice quadrata di un certo ordine, diciamo p, aventedeterminante non nullo e tale che ogni minore di ordine maggiore di p e nullo.Il minore associato ad una sottomatrice fondamentale di dice minore fonda-mentale. Se A

j1,...,jp

i1,...,ipe una sottomatrice fondamentale, e chiaro che ogni suo

orlato ha determinante nullo e quindi, in base al Teorema degli Orlati,

S = [Ai1 , . . . , Aip]

e un sistema massimale di righe indipendenti di A,

T = [Aj1 , . . . , Ajp ]

e un sistema massimale di colonne indipendenti di A ed inoltre ρ(A) = p. Diconseguenza ogni altro minore fondamentale di A avra ordine p. Viceversa,se ρ(A) = p e S e un sistema massimale di righe indipendenti di A, la sotto-matrice A1,...,n

i1,...,ipha rango p, poiche le sue p righe sono indipendenti. Devono

allora esistere p colonne di A1,...,ni1,...,ip

indipendenti. Siano esse ad esempio quelle

di posto j1, . . . , jp. Avremo allora da una parte che detAj1,...,jp

i1,...,ip6= 0 e dal-

l’altra che le colonne Aj1 , . . . , Ajp sono indipendenti in A. Osserviamo che lasottomatrice A

j1,...,jp

i1,...,ipcosı costruita e una sottomatrice fondamentale. Infatti

ogni suo orlato ha determinante nullo, perche altrimenti troveremmo p + 1 ri-ghe indipendenti. A posteriori possiamo quindi dedurre che una sottomatricefondamentale e una sottomatrice avente determinante non nullo e ordine parial rango di A.

Page 126: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

118 Un’introduzione all’algebra lineare

Corollario 3.37. Ogni sottomatrice quadrata di A avente determinantenon nullo e contenuta in una sottomatrice fondamentale, ovvero puo essereorlata in modo opportuno (ripetutamente) fino ad ottenere un a sottomatricefondamentale.

Dimostrazione. Sia Aj1,...,jp

i1,...,ipuna sottomatrice quadrata di A avente deter-

minante non nullo. Se ogni orlato di Aj1,...,jp

i1,...,ipha determinante nullo, allora

per il Teorema degli Orlati ρ(A) = p e non puo esistere un minore non nullo

di ordine superiore a p; pertanto Aj1,...,jp

i1,...,ipe una sottomatrice fondamentale.

Se invece esistono orlati di Aj1,...,jp

i1,...,ipa determinante non nullo, si effettua una

operazione di orlatura che fornisca una sottomatrice Aj1,...,jp,j

i1,...,ip,i a determinan-te non nullo e si ragiona su tale sottomatrice: o essa e fondamentale, o puoessere orlata ulteriormente. Dopo un numero finito di passaggi si ottiene unasottomatrice fondamentale che contiene la sottomatrice di partenza. 2

Pertanto, per determinare il rango di una matrice non banale A = (ai,j)si puo procedere al modo seguente. Si considera un elemento non nullo ai1,j1

di A e si orla la sottomatrice Aj1i1

alla ricerca di una sottomatrice di ordine 2con determinante non nullo. Se non esiste alcun orlato con questa proprieta,ovvero se per ogni scelta degli indici i2, j2 si ha che detAj1,j2

i1,i2= 0, allora

ρ(A) = 1. Altrimenti ρ(A) ≥ 2 e si continua ad orlare finche non si costruisceun minore fondamentale, il cui ordine sara il rango di A.

Una facile conseguenza del Teorema degli Orlati e il seguente enunciato, cheinverte il Corollario 3.31:

Proposizione 3.38. Sia S = [A1, . . . , An] un sistema indipendente di vettorinumerici colonna di ordine n. Posto A = (A1, . . . , An) si ha che detA 6= 0.

Pertanto il determinante di una matrice A e non nullo se e solo se il sistemadei vettori colonna, o anche dei vettori riga, di A e indipendente, ovvero se esolo se ρ(A) = n (e anche se e solo se A e invertibile).

§6. Calcolo dell’inversa di una matrice

Vogliamo ora usare l’algoritmo di Gauss–Jordan per determinare l’inversa diuna matrice invertibile A ∈ Mn,n introducendo un metodo alternativo a quellofornito dal Teorema 3.29. Osserviamo che tale algoritmo ci consente di ottenerecon un numero finito, diciamo t, di operazioni elementari, una matrice a scalaridotta B equivalente ad A. Pertanto ρ(B) = ρ(A) = n e tutte le righe di B

Page 127: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 119

sono non banali. Cio vuol dire che gli n pivot di B, che sono tutti uguali a1, si trovano sulla diagonale principale, mentre tutti gli altri elementi di B siannullano. In altri termini B = In. Siano E(1), . . . , E(t) le matrici elementariassociate alle operazioni elementari che trasformano A in In. Avremo che

E(t) · . . . · E(1) · A = In .

Pertanto la matrice C = E(t) · . . . · E(1) e inversa sinistra di A, e quindi C el’inversa di A. Un metodo pratico per ottenere C = A−1 e quindi il seguente.Si considera la matrice a blocchi

(A|In)

e su tale matrice si applicano le operazioni elementari che trasformano A inIn (ovvero quelle prescritte dall’algoritmo di Gauss–Jordan). Cio equivale aconsiderare la matrice

E(t) · . . . · E(1) · (A|In) = (A−1 · A |A−1 · In)

= (In |A−1) .

Esempio 5. Consideriamo la matrice

A =

0 0 1 1 2

0 1 2 1 0

0 0 2 0 1

.

Applichiamo l’algoritmo di Gauss–Jordan per ottenere la matrice a scalaridotta equivalente ad A. Elenchiamo i vari passi dell’algoritmo.

1. Applichiamo l’operazione elementare

R1 ! R2

ovvero moltiplichiamo A a sinistra per la matrice elementare

E(1) =

0 1 01 0 00 0 1

.

Page 128: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

120 Un’introduzione all’algebra lineare

Otteniamo la matrice

A1 = E(1) · A

=

0 1 01 0 00 0 1

·

0 0 1 1 20 1 2 1 00 0 2 0 1

=

0 1 2 1 00 0 1 1 20 0 2 0 1

.

2. Applichiamo l’operazione elementare

R3 R3 − 2R2

ovvero moltiplichiamo A1 a sinistra per la matrice elementare

E(2) =

1 0 00 1 00 −2 1

.

Otteniamo la matrice

A2 = E(2) · A1

=

1 0 00 1 00 −2 1

·

0 1 2 1 00 0 1 1 20 0 2 0 1

=

0 1 2 1 00 0 1 1 20 0 0 −2 −3

.

La matrice A2 cosı ottenuta e a scala ed e equivalente ad A. Finora abbiamousato l’algoritmo di Gauss.

3. Applichiamo l’operazione elementare

R3 −1

2R3

ovvero moltiplichiamo A2 a sinistra per la matrice elementare

E(3) =

1 0 00 1 00 0 − 1

2

.

Page 129: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 121

Otteniamo la matrice

A3 = E(3) · A2

=

1 0 00 1 00 0 − 1

2

·

0 1 2 1 00 0 1 1 20 0 0 −2 −3

=

0 1 2 1 00 0 1 1 20 0 0 1 3

2

.

La matrice A3 cosı ottenuta ha tutti i pivot uguali ad 1. Rimane solo daannullare gli elementi sopra i pivot.

4. Applichiamo l’operazione elementare

R1 R1 − 2R2

ovvero moltiplichiamo A3 a sinistra per la matrice elementare

E(4) =

1 −2 00 1 00 0 1

.

Otteniamo la matrice

A4 = E(4) · A3

=

1 −2 00 1 00 0 1

·

0 1 2 1 00 0 1 1 20 0 0 1 3

2

=

0 1 0 −1 −40 0 1 1 20 0 0 1 3

2

.

5. Applichiamo l’operazione elementare

R1 R1 + R3

ovvero moltiplichiamo A4 a sinistra per la matrice elementare

E(5) =

1 0 10 1 00 0 1

.

Page 130: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

122 Un’introduzione all’algebra lineare

Otteniamo la matrice

A5 = E(5) · A4

=

1 0 10 1 00 0 1

·

0 1 0 −1 −40 0 1 1 20 0 0 1 3

2

=

0 1 0 0 − 52

0 0 1 1 20 0 0 1 3

2

.

6. Applichiamo l’operazione elementare

R2 R2 − R3

ovvero moltiplichiamo A5 a sinistra per la matrice elementare

E(6) =

1 0 00 1 −10 0 1

.

Otteniamo la matrice

A6 = E(6) · A5

=

1 0 00 1 −10 0 1

·

0 1 0 0 − 52

0 0 1 1 20 0 0 1 3

2

=

0 1 0 0 − 52

0 0 1 0 12

0 0 0 1 32

.

La matrice A6 cosı ottenuta e la matrice a scala ridotta cercata.

Esempio 6. Consideriamo la matrice

B =

(1 2

3 4

).

E’ immediato verificare che ρ(B) = 2 e quindi B e invertibile. Determiniamol’inversa di B usando l’algoritmo di Gauss–Jordan. Elenchiamo i vari passiprevisti da tale algoritmo.

Page 131: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 123

1. Applichiamo l’operazione elementare

R2 R2 − 3R1 .

Cio equivale a moltiplicare la matrice B a sinistra per la matrice elementare

E(1) =

(1 0−3 1

).

Otteniamo la matrice

B1 = E(1) · B =

(1 0−3 1

)·(

1 23 4

)=

(1 20 −2

).

2. Applichiamo l’operazione elementare

R2 −1

2R2 .

Cio equivale a moltiplicare la matrice B1 a sinistra per la matrice elementare

E(2) =

(1 00 − 1

2

).

Otteniamo la matrice

B2 = E(2) · B1 =

(1 00 − 1

2

)·(

1 20 −2

)=

(1 20 1

).

3. Applichiamo l’operazione elementare

R1 R1 − 2R2 .

Cio equivale a moltiplicare la matrice B2 a sinistra per la matrice elementare

E(3) =

(1 −20 1

).

Otteniamo la matrice

B3 = E(3) · B2 =

(1 −20 1

)·(

1 20 1

)=

(1 00 1

)= I2 .

Page 132: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

124 Un’introduzione all’algebra lineare

Quindi B3 = I2 e

B−1 = E(3) · E(2) · E(1)

=

(1 20 1

)·(

1 20 −2

)·(

1 23 4

)

=

(−2 132 − 1

2

).

Possiamo anche procedere come segue. Consideriamo la matrice a blocchi

(B | I2 )

ed applichiamo a tale matrice le operazioni elementari sopra descritte. Otte-niamo la matrice a blocchi

( I2 |B−1 )

il cui secondo blocco e proprio l’inversa di B.

§7. Generalita sui sistemi lineari

Sia f ∈ K[x1, . . . , xn] un polinomio di grado m in n indeterminate sul campoK. L’espressione

f(x1, . . . , xn) = 0

prende il nome di equazione algebrica di grado m e rappresenta il problemadella ricerca delle radici di f ovvero delle n-ple ξ = (ξ1, . . . , ξn) ∈ Kn tali che

f(ξ1, . . . , ξn) = 0 .

Le indeterminate x1, . . . , xn si dicono incognite dell’equazione. Una radice ξdi f si dice anche soluzione dell’equazione. Se m = 1 tale equazione si dicelineare. In tal caso, essendo f un polinomio di primo grado, esistono degliscalari a1, . . . , an, detti coefficienti, e b, detto termine noto, tali che

f(x1, . . . , xn) = a1x1 + · · · + anxn − b

e quindi l’equazione puo scriversi nella forma

a1x1 + · · · + anxn − b = 0

o anchea1x1 + · · · + anxn = b .

Page 133: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 125

Definizione 3.39. Un sistema lineare di m equazioni in n incognite (ovveroun sistema lineare m × n) e una espressione del tipo

(7)

a1,1x1 + · · · + a1,nxn = b1

a2,1x1 + · · · + a2,nxn = b2

......

am,1x1 + · · · + am,nxn = bm

e rappresenta il problema della ricerca delle eventuali soluzioni comuni alleequazioni lineari

a1,1x1 + · · · + a1,nxn = b1

a2,1x1 + · · · + a2,nxn = b2

......

am,1x1 + · · · + am,nxn = bm .

Osserviamo che un sistema lineare e un sistema (nel senso specificato nelCapitolo 1) di elementi dell’insieme delle equazioni lineari in n incognite su K.Pertanto non ha alcuna importanza l’ordine in cui si considerano le equazionidel sistema lineare (7). Inoltre, in (7) le equazioni non sono necessariamente adue a due distinte. Un sistema lineare si dira compatibile se ammette almenouna soluzione, incompatibile altrimenti. Diremo inoltre che due sistemi linearinello stesso numero di incognite sono equivalenti se ammettono le stesse solu-zioni. In particolare i sistemi incompatibili (nello stesso numero di incognite)sono tutti equivalenti e due sistemi equivalenti hanno necessariamente lo stessonumero di incognite.

Definizione 3.40. Il sistema lineare (7) si dice omogeneo se

b1 = . . . = bm = 0 .

Definizione 3.41. Dato un sistema lineare m×n della forma (7) il sistemalineare omogeneo

(8)

a1,1x1 + · · · + a1,nxn = 0

a2,1x1 + · · · + a2,nxn = 0

......

am,1x1 + · · · + am,nxn = 0

Page 134: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

126 Un’introduzione all’algebra lineare

prende il nome di sistema lineare omogeneo associato a (7).

Vogliamo ora scrivere una espressione del tipo (7) in forma compatta, usan-do notazioni matriciali. A tale scopo estendiamo formalmente la nozione diprodotto righe per colonne tra matrici anche al caso in cui gli elementi dellematrici siano di natura arbitraria. Con questa convenzione, posto

A = (ai,j) ; B =

b1...

bm

; X =

x1...

xn

i sistemi lineari (7),(8) possono scriversi nella forma

AX = B ; AX = 0

rispettivamente, o anche nella forma

A1X = b1

A2X = b2

...

AmX = bm

;

A1X = 0

A2X = 0

...

AmX = 0

dove A1, . . . , Am sono le righe di A e le espressioni AX, AiX sono prodottirighe per colonne (formali). Sottolineiamo il fatto che i simboli ai,j , bh rap-presentano degli scalari, mentre gli xk rappresentano le incognite del sistemalineare. Una ulteriore rappresentazione dei sistemi lineari (7),(8) e la seguente

(9) A1x1 + · · · + Anxn = B ; A1x1 + · · · + Anxn = 0

dove A1, . . . , An sono le colonne di A.

Definizione 3.42. La matrice A si dice matrice incompleta, o matrice deicoefficienti, o anche prima matrice, del sistema lineare (7). La matrice A′ =(A|B) si dice invece matrice completa, o anche seconda matrice, del sistemalineare (7).

Cercheremo ora di stabilire dei criteri per capire se un sistema lineare ecompatibile e per determinarne le eventuali soluzioni.

Page 135: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 127

Teorema 3.43. Il sistema lineare (7) e compatibile se e solo se il vettorenumerico colonna dei termini noti B dipende linearmente dalle colonne di A.

Dimostrazione. Sia ξ =

ξ1...

ξn

una soluzione del sistema lineare in questio-

ne. Cio vuol dire, usando l’espressione (9) del sistema lineare, che

(10) ξ1A1 + · · · + ξnAn = B

e quindi B dipende dal sistema di vettori colonna [A1, . . . , An].Viceversa, se B dipende dal sistema di vettori colonna [A1, . . . , An], esistono

degli scalari ξ1, . . . , ξn tali che valga la (10) e dunque la n-pla ξ =

ξ1...

ξn

e

una soluzione del sistema lineare (7). 2

Osserviamo che, poiche il vettore nullo dipende da ogni sistema di vettori,ogni sistema lineare omogeneo e compatibile, ammettendo almeno la soluzione

banale 0 =

0...0

. Si verifica immediatamente, d’altra parte, che se 0 e solu-

zione di un sistema lineare, tale sistema lineare e necessariamente omogeneo.Nel seguito indicheremo con

C = [A1, . . . , An] ; R = [A1, . . . , Am]

i sistemi dei vettori colonna e dei vettori riga della matrice A e con C′, R′ isistemi dei vettori colonna e dei vettori riga della matrice A′. Osserviamo chepoiche C ⊆ C′ si ha che ρ(A) ≤ ρ(A′).

Teorema di Rouche-Capelli 3.44. Il sistema lineare (7) e compatibile see solo se

(11) ρ(A) = ρ(A′) .

Dimostrazione. Sia (7) compatibile. In base al Teorema 3.43, B dipendedal sistema C. Pertanto se ρ(A) = p e

D = [Aj1 , . . . , Ajp ]

Page 136: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

128 Un’introduzione all’algebra lineare

e un sistema indipendente massimale di colonne di A, ogni vettore di C di-pende da D e quindi anche B dipende da D. Ma allora D e anche un sistemaindipendente massimale di colonne di A′. Pertanto ρ(A′) = p e la prima partedell’enunciato e dimostrata.Viceversa, supponiamo che valga la (11), e sia D un sistema indipendentemassimale di colonne di A. Poiche ρ(A′) = ρ(A) = p, D e anche un sistemaindipendente massimale in C′. Pertanto ogni colonna di A′ dipende da D. Inparticolare B dipende da D e quindi anche da C e, sempre in base al Teorema3.43, il sistema lineare (7) risulta compatibile. 2

§8. Il metodo dei determinanti

Analizzeremo ora due procedimenti per lo studio della compatibilita e la ricercadelle eventuali soluzioni di un sistema lineare. Il primo procedimento propostoe noto come il metodo dei determinanti.

In base al Teorema di Rouche-Capelli, per stabilire se il sistema lineare (7)e compatibile basta calcolare i ranghi di A ed A′ e confrontarli. La ricer-ca delle eventuali soluzioni di (7) e invece piu laboriosa. Diamo quindi unacaratterizzazione per tali soluzioni.

Teorema 3.45. Sia ξ una soluzione del sistema lineare (7). Allora le solu-

zioni di (7) sono tutti e soli i vettori numerici del tipo ξ + λ dove λ =

λ1...

λn

e una soluzione del sistema lineare omogeneo associato (8).

Dimostrazione. Sia µ =

µ1...

µn

una soluzione di (7). Si ha che Aµ = B.

D’altra parte si ha anche che Aξ = B. Pertanto

A(µ − ξ) = Aµ − Aξ = B − B = 0

e quindi, posto λ = µ − ξ, si ha che λ e una soluzione del sistema lineareomogeneo associato e che µ = ξ + λ.Viceversa, se λ e una soluzione del sistema lineare omogeneo associato, si hache Aλ = 0 e quindi

A(ξ + λ) = Aξ + Aλ = B + 0 = B

Page 137: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 129

e ξ + λ e una soluzione di (7). 2

In pratica quindi, la ricerca delle eventuali soluzioni di un sistema lineare siriduce alla determinazione di una soluzione di tale sistema e alla ricerca dellesoluzioni del sistema lineare omogeneo ad esso associato. Ci occuperemo oradella risoluzione di un particolare tipo di sistema lineare.

Definizione 3.46. Un sistema lineare del tipo

(12)

a1,1x1 + · · · + a1,nxn = b1

a2,1x1 + · · · + a2,nxn = b2

......

an,1x1 + · · · + an,nxn = bn

si dice quadrato di ordine n. Se la matrice incompleta A di tale sistema e nonsingolare, il sistema si dice di Cramer.

Teorema di Cramer 3.47. Consideriamo un sistema lineare di Cramer(12). Tale sistema e compatibile e ammette un’unica soluzione

ξ =

ξ1...

ξn

.

Inoltre, postoFj = (A1, . . . , Aj−1, B,Aj+1, . . . , An)

si ha che

(13) ξj =det Fj

det A

per ogni j = 1, . . . , n.

Dimostrazione. Poiche detA 6= 0, si ha che ρ(A) = n e quindi ancheρ(A′) = n e il sistema (12) risulta compatibile, per il Teorema di Rouche-Capelli. Proviamo ora che se ξ e una soluzione di (12) essa deve esprimersiattraverso le (13). Sia dunque ξ una soluzione di (12). Poiche detA 6= 0, peril Teorema 3.29 la matrice A risulta invertibile. Pertanto

(14) ξ = In · ξ = A−1 · A · ξ = A−1 · B .

Page 138: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

130 Un’introduzione all’algebra lineare

Posto A−1 = (ci,j) la (14) equivale alle relazioni scalari

ξj = (A−1)j · B

=

n∑

k=1

cj,kbk

=

n∑

k=1

(−1)j+kdetA(k,j)

detAbk

=1

det A·

n∑

k=1

(−1)j+kbk detA(k,j)

=det Fj

det A( j = 1, . . . , n )

2

La (13) e talvolta detta Regola di Cramer.

Corollario 3.48. Un sistema lineare omogeneo quadrato

AX = 0

ammette soluzioni non banali se e solo se detA = 0.

Dimostrazione. Gia sappiamo che un sistema lineare omogeneo e semprecompatibile ed ammette la soluzione banale. Se det A 6= 0, tale soluzione el’unica possibile, in base al Teorema di Cramer. Viceversa, se il sistema o-mogeneo in questione ammette solo la soluzione banale, cio vuol dire che ilvettore colonna nullo si esprime in modo unico (quello banale) come combina-zione lineare delle colonne di A. Pertanto tali colonne sono indipendenti e siha che det A 6= 0. 2

Torniamo ora al caso generale e consideriamo un sistema lineare del tipo(7).

Definizione 3.49. Consideriamo un sistema lineare del tipo (7). Se

ρ(A) = m ≤ n

Page 139: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 131

diremo che il sistema lineare e ridotto in forma normale.

Proposizione 3.50. Un sistema lineare (7) ridotto in forma normale esempre compatibile.

Dimostrazione. Gia sappiamo che m = ρ(A) ≤ ρ(A′). D’altra parte il rangodi A′ non puo superare il numero m di righe di A′. Quindi ρ(A) = ρ(A′) = me il sistema lineare risulta compatibile per il Teorema di Rouche-Capelli. 2

Lemma 3.51. Sia T ′ = [A′i1

, . . . , A′ip

] un sistema di righe della matrice A′

e sia A′k una riga di A′ che dipende da T ′. Allora ogni soluzione del sistema

lineare

(15)

Ai1X = bi1

...

AipX = bip

e anche soluzione dell’equazione

AkX = bk .

Dimostrazione. Sia ξ una soluzione del sistema lineare (15). Abbiamo che

Ai1ξ = bi1 ; . . . ; Aipξ = bip

.

Poiche A′k dipende da T ′, esistono degli scalari λ1, . . . , λp tali che

A′k = λ1A

′i1

+ · · · + λpA′ip

ovveroAk = λ1Ai1 + · · · + λpAip

; bk = λ1bi1 + · · · + λpbip.

Ma alloraAkξ = (λ1Ai1 + · · · + λpAip

= λ1Ai1ξ + · · · + λpAipξ

= λ1bi1 + · · · + λpbip

= bk

e questo e quanto si voleva provare. 2

Page 140: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

132 Un’introduzione all’algebra lineare

Teorema 3.52. Supponiamo che il sistema lineare (7) sia compatibile e chesi abbia

ρ(A) = ρ(A′) = p .

Se T = [Ai1 , . . . , Aip] e un sistema indipendente massimale di righe di A, il

sistema lineare (7) e equivalente al sistema lineare (15), che e quindi ancoracompatibile ed e ridotto in forma normale.

Dimostrazione. Il sistema T ′ = [A′i1

, . . . , A′ip

] e un sistema indipendente

massimale di righe di A′. Infatti T ′ e indipendente, poiche se esistesse unarelazione di dipendenza tra i vettori di T ′, da essa si dedurrebbe una relazionedi dipendenza tra i vettori di T . T ′ e poi massimale rispetto a tale proprieta,in quanto ρ(A′) = p e quindi non possono esistere sistemi di righe indipendentidi A′ di ordine maggiore di p. Si deduce allora che ogni riga di A′ dipendeda T ′ e, in base al Lemma 3.51, ogni soluzione di (15) e anche soluzione diogni equazione del sistema lineare (7), e cioe e soluzione del sistema lineare(7) stesso. E’ poi evidente che ogni soluzione del sistema lineare (7) e anchesoluzione del sistema lineare (15). Infine, e immediato verificare che il sistemalineare (15) e ridotto in forma normale, e cio conclude la dimostrazione. 2

Il Teorema 3.52 ci consente di concentrare la nostra attenzione sui sistemilineari compatibili ridotti in forma normale. Infatti se il sistema lineare (7) ecompatibile e p = ρ(A) = ρ(A′) < m, da esso possiamo estrarre un sistemadel tipo (15), dove T = [Ai1 , . . . , Aip

] e un sistema massimale indipendente dirighe di A, che risulta compatibile, ridotto in forma normale ed equivalente aquello di partenza. Supponiamo quindi d’ora in avanti che il sistema lineare(7) sia compatibile e ridotto in forma normale, ovvero che si abbia

ρ(A) = ρ(A′) = m ≤ n .

Se m = n, tale sistema lineare e di Cramer. Infatti esso e quadrato ed inol-tre detA 6= 0 poiche ρ(A) = m. Possiamo quindi determinare la sua unicasoluzione con la regola di Cramer. Se invece m < n, procediamo come segue.Sia D = [Aj1 , . . . , Ajm ] un sistema massimale indipendente di colonne di A (equindi anche di A′). Gli indici j1, . . . , jm sono allora a due a due distinti e{ j1, . . . , jm } ⊂ { 1, . . . , n }. Sia q = n − m e sia

{ k1, . . . , kq } = { 1, . . . , n } − { j1, . . . , jm } .

Scriviamo il sistema (7) come segue

(16)

a1,j1xj1 + · · · + a1,jmxjm

= b1− a1,k1xk1

− · · · − a1,kqxkq

......

am,j1xj1 + · · · +am,jmxjm

= bm− am,k1xk1

− · · · − am,kqxkq

Page 141: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 133

Se fissiamo arbitrariamente degli scalari ξk1, . . . , ξkq

e li sostituiamo al 2o mem-bro della (16) al posto delle incognite xk1

, . . . , xkqotteniamo il sistema lineare

(17)

a1,j1xj1 +· · ·+a1,jmxjm

=b1−a1,k1ξk1

−· · ·−a1,kqξkq

......

am,j1xj1 +· · ·+am,jmxjm

=bm−am,k1ξk1

−· · ·−am,kqξkq

La matrice dei coefficienti del sistema lineare cosı ottenuto e la sottomatricequadrata Aj1,...,jm

1,...,m , che e non singolare, in quanto le sue colonne sono indi-pendenti, e non dipende dalla scelta degli scalari ξk1

, . . . , ξkqche compaiono

solo nella colonna dei termini noti. Quindi il sistema lineare (17) e di Cramer

ed ammette come unica soluzione la m-pla

ξj1

...ξjm

, che si determina con la

regola di Cramer. Ma allora la n-pla

ξ1...

ξn

e una soluzione del sistema (7).

Al variare di tutte le possibili scelte di ξk1, . . . , ξkq

si ottengono tutte e sole lesoluzioni del sistema lineare (7). Infatti, se

(18)

λ1...

λn

e una soluzione del sistema (7), sostituendo gli scalari λk1, . . . , λkq

alle inco-gnite xk1

, . . . , xkqsi ottiene un sistema di Cramer nelle incognite xj1 , . . . , xjm

che dovra necessariamente ammettere come unica soluzione la m-pla costi-tuita dagli scalari λj1 , . . . , λjm

e quindi anche la soluzione (18) si ottiene nelmodo sopra descritto. Tale descrizione delle soluzioni di (7) puo esprimersianche dicendo che, detto S l’insieme delle soluzioni di (7) (S ⊆ Kn), esisteuna biezione

(19) ω : Kq −→ S

che associa all’arbitraria q-pla (ξk1, . . . , ξkq

) la soluzione completa (ξ1, . . . , ξn)nel modo sopra indicato. Diremo che ξk1

, . . . , ξkqal loro variare in K parame-

trizzano S. Pertanto ξk1, . . . , ξkq

vengono detti talvolta parametri. La discus-sione appena svolta si sintetizza nel seguente enunciato:

Page 142: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

134 Un’introduzione all’algebra lineare

2o Teorema di Unicita. Consideriamo il sistema lineare (7) e supponia-mo che esso sia gia ridotto in forma normale e che si abbia m < n. SeS = [Aj1 , . . . , Ajm ] e un sistema massimale di colonne della prima (e quindianche della seconda) matrice del sistema e k1, . . . , kq sono come sopra, perogni q-pla (ξk1

, . . . , ξkq) ∈ Kq esiste una soluzione ξ = (ξ1, . . . , ξn) ∈ Kn del

sistema, fornita dalla regola di Cramer applicata al sistema (17) alle incognitexj1 , . . . , xjm

. Inoltre, detto S l’insieme delle soluzioni del sistema, la (19) euna biezione.

Consideriamo ora un sistema lineare omogeneo (8). Abbiamo gia osservatoche (8) e compatibile, poiche ammette sicuramente almeno la soluzione banale.Siamo quindi interessati alla ricerca di altre eventuali soluzioni (non banali)di (8). Supponiamo che il sistema lineare omogeneo (8) sia ridotto in formanormale, ovvero che si abbia ρ(A) = m ≤ n. Se m = n, il sistema (8) e diCramer e quindi ammette un’unica soluzione, e cioe quella banale.

Teorema 3.53. L’insieme S0 delle soluzioni del sistema lineare omogeneo(8), che supponiamo ridotto in forma normale, e un sottospazio vettoriale diKn e si ha che dim S0 = n − m.

Dimostrazione. Gia sappiamo che 0 ∈ S0. Inoltre, se λ ∈ K e i vettorinumerici colonna (di ordine n) ξ, ξ′ sono in S0, si ha che

Aξ = 0 ; Aξ′ = 0

e quindiA(ξ + ξ′) = Aξ + Aξ′ = 0 ; A(λξ) = λ(Aξ) = 0

e cioe ξ + ξ′ e λξ sono ancora soluzioni di (8), ovvero elementi di S0. PertantoS0 e un sottospazio di Kn. Osserviamo poi che l’applicazione ω definita nellaformula (19) per sistemi lineari arbitrari, risulta lineare quando (e solo quando)il sistema e omogeneo. Poiche poi ω e una biezione, ω e un isomorfismo traKq e S0. Quindi dimS0 = q = n − m. 2

In generale, se S0 ⊆ Kn e ξ ∈ Kn, l’insieme

S ={

ξ′ ∈ Kn | ∃ ξ′′ ∈ S0 | ξ′ = ξ + ξ′′}

si dice ξ-traslato di S0 e si indica con il simbolo ξ +S0. Se S0 e un sottospaziovettoriale di Kn, ξ+S0 prende anche il nome di laterale di S0 in Kn determinato

Page 143: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 135

da ξ. Per quanto detto in precedenza, se consideriamo un sistema lineare (7)ed il sistema lineare omogeneo (8) ad esso associato, ed indichiamo con S, S0 irispettivi insiemi di soluzioni e con ξ un qualunque elemento di S, abbiamo cheS = ξ + S0. Osserviamo che S0 e un sottospazio vettoriale di Kn, mentre S eun sottospazio vettoriale di Kn se e solo se il sistema (7) e omogeneo, ovvero see solo se gli scalari b1, . . . , bm sono tutti nulli, come e facile verificare notando,ad esempio, che 0 ∈ S se e solo se il sistema (7) e omogeneo. Un insiemeS di questo tipo viene considerato un sottoinsieme notevole di Kn e prendeil nome di sottospazio affine di Kn. Anche Kn puo vedersi come sottospazioaffine (improprio) di se stesso, in quanto e l’insieme delle soluzioni del sistemalineare vuoto.

Lemma 3.54. Siano S0, T0 ≤ Kn, ξ, ξ′ ∈ Kn tali che ξ+S0 = ξ′+T0. AlloraS0 = T0 e ξ′ − ξ ∈ S0.

Dimostrazione. Poiche ξ ∈ ξ′+T0, esiste un vettore z ∈ T0 tale che ξ = ξ′+z,cioe ξ−ξ′ ∈ T0. Se x ∈ S0 si ha che ξ +x ∈ ξ +S0 = ξ′ +T0, e quindi esiste unvettore y ∈ T0 tale che ξ + x = ξ′ + y. Pertanto x = y + ξ′ − ξ = y − z ∈ T0.Dunque S0 ⊆ T0. Analogamente si vede che T0 ⊆ S0. 2

Dal Lemma 3.54 deduciamo che se S = ξ + S0 e un sottospazio affine diKn il sottospazio (vettoriale) S0 ≤ Kn e univocamente determinato. Talesottospazio prende il nome di sottospazio direttore di S e la dimensione di S0

viene anche dette dimensione affine di S.Quando si considera Kn insieme con i suoi sottospazi affini, si dice anche

che si considera lo spazio affine numerico (di dimensione affine n) su K. Intal caso, se S e l’insieme delle soluzioni del sistema lineare (7), diremo chetale sistema e una rappresentazione cartesiana di S, mentre la (19), o ancheil sistema (17) al variare dei parametri ξk1

, . . . , ξkq∈ K, prende il nome di

rappresentazione parametrica di S. In particolare quindi, i sistemi lineari rap-presentano sottospazi affini di Kn e quelli omogenei rappresentano sottospazivettoriali di Kn. Si puo poi verificare che ogni sottospazio affine o vettorialedi Kn ammette una rappresentazione cartesiana. Sia infatti H un sottospazioaffine. Siano inoltre W un sottospazio vettoriale e v un vettore di Kn tali cheH = v + W . Supponiamo che W abbia dimensione h ≤ n e che (w1, . . . ,wh)sia una base ordinata di W . Sia ad esempio

v =

v1...

vn

; w1 =

w1,1

...w1,n

; . . . ; wh =

wh,1

...wh,n

Page 144: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

136 Un’introduzione all’algebra lineare

e consideriamo il sistema

w1,1x1 + · · · + w1,nxn = 0

......

wh,1x1 + · · · + wh,nxn = 0

Poiche la matrice di tale sistema ha rango h, l’insieme delle sue soluzioni e unsottospazio vettoriale di Kn di dimensione n − h. Sia (a1, . . . ,an−h) una suabase e posto

a1 = (a1,1, . . . , a1,n) ; . . . ; an−h = (an−h,1, . . . , an−h,n)

consideriamo il sistema

(20)

a1,1x1 + · · · + a1,nxn = 0

......

an−h,1x1 + · · · + an−h,nxn = 0

E’ chiaro che il sistema (20) ammette i vettori numerici w1, . . . ,wh comesoluzioni. D’altra parte la matrice di tale sistema ha rango n − h e quindil’insieme delle sue soluzioni e un sottospazio di dimensione h, cioe coincidecon W . Pertanto il sistema (20) e una rappresentazione cartesiana di W .Poniamo ora

b1 = a1,1v1 + · · · + a1,nvn ; . . . ; bn−h = an−h,1v1 + · · · + an−h,nvn .

Il sistema

(21)

a1,1x1 + · · · + a1,nxn = b1

......

an−h,1x1 + · · · + an−h,nxn = bn−h

e una rappresentazione cartesiana di H. Infatti dalla costruzione si deduceche v e una soluzione di tale sistema. Inoltre il sistema omogeneo ad essoassociato e proprio il sistema (20), che ha W come spazio delle soluzioni.Pertanto l’insieme delle soluzioni del sistema (21) e proprio H = v + W .

Page 145: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 137

§9. Il metodo di Gauss-Jordan

Studieremo ora un altro procedimento, che coinvolge l’uso delle operazionielementari sulle righe di una matrice, per la risoluzione di un sistema lineare.Tale procedimento e noto come il metodo di Gauss-Jordan.

Lemma 3.55. Consideriamo il sistema lineare (7) e indichiamo con A,A′

le matrici di tale sistema. Sia poi P ′ una matrice a scala equivalente ad A′.Indichiamo con P = (pi,j) il blocco di P ′ costituito dalle prime n colonne, e

con Q =

q1...

qm

l’ultima colonna di P ′. Il sistema lineare

(22) PX = Q

e equivalente al sistema (7).

Dimostrazione. E’ chiaro che occorre e basta provare l’asserto nel caso in cuiP ′ si ottiene da A′ mediante una sola operazione elementare. Se l’operazionee di tipo (i) oppure (ii), l’asserto e banale. Infatti se si effettua una operazionedel tipo Ri λRi nel sistema lineare (22) compaiono le stesse equazionidel sistema lineare (7), tranne la i-ma, che risulta moltiplicata per λ, e questonon influenza l’insieme delle soluzioni. Se l’operazione e del tipo (ii), il sistema(22) coincide con il sistema (7), variando soltanto l’ordine in cui compaiono leequazioni. Supponiamo infine che P ′ si ottenga da A′ mediante l’operazioneRi Ri + λRj . Sia ad esempio i < j. I sistemi (7) e (22) sono della forma

A1X = b1

...

AiX = bi

...

AjX = bj

...

AmX = bm

;

A1X = b1

...

(Ai + λAj)X = bi + λbj

...

AjX = bj

...

AmX = bm

Page 146: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

138 Un’introduzione all’algebra lineare

Essi differiscono solo nella i-ma equazione. Se Y =

y1...

yn

e una soluzione del

primo sistema, allora AhY = bh per ogni h e quindi

(Ai + λAj)Y = AiY + λAjY = bi + λbj .

Pertanto Y e anche soluzione del secondo sistema. Il viceversa e analogo. 2

Il lemma precedente puo essere usato per la risoluzione del sistema lineare(7). Infatti gia sappiamo che esiste una matrice P ′ del tipo richiesto nel lemma.Pertanto possiamo studiare il sistema (22). La matrice P e anch’essa a scala.Abbiamo gia osservato che ρ(P ) e il numero di righe non nulle di P e ρ(P ′)e il numero di righe non nulle di P ′. Pertanto il sistema lineare (22) saracompatibile se e solo se l’ultima riga non banale di P e anche l’ultima riganon banale di P ′. Il sistema lineare (22) sara invece incompatibile se cio nonaccade, ovvero se esiste un indice di riga h tale che

ph,1 = . . . = ph,n = 0 ; qh 6= 0 .

In tal caso infatti, la h-ma equazione sara

0x1 + · · · + 0xn = qh 6= 0

e quindi e ovvio che (22) non ha soluzioni.Se entrambe le matrici di un sistema lineare sono a scala, il sistema stesso

si dira a scala. Consideriamo ora un sistema a scala compatibile del tipo (22),trascurando le eventuali equazioni banali. Il sistema lineare (22) e del tipo

p1,j1xj1 + · · ·+p1,j2xj2+· · ·+p1,jhxjh

+ · · · = q1

p2,j2xj2+· · ·+p2,jhxjh

+ · · · = q2...

ph,jhxjh

+ · · · = qh

dove p1,j1 , . . . , ph,jhsono i pivot. Poiche p1,j1 , . . . , ph,jh

6= 0, la sottomatrice

P j1,...,jh

1,...,h e triangolare alta ed e non degenere, in quanto

detP j1,...,jh

1,...,h = p1,j1 · . . . · ph,jh6= 0 .

Pertanto, usando il metodo dei determinanti, si ottengono le soluzioni di (22)scegliendo dei valori arbitrari per le incognite di posto diverso da j1, . . . , jh e

Page 147: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 139

risolvendo poi il sistema di Cramer nelle incognite xj1 , . . . , xjhcosı ottenuto.

Si opera, in pratica, come segue. L’ultima equazione e

ph,jhxjh

+ ph,jh+1xjh+1 + · · · + ph,nxn = qh .

Poiche ph,jh6= 0, si fissano degli scalari ξjh+1, . . . ξn in modo arbitrario, si

sostituiscono alle incognite xjh+1, . . . , xn e si ottiene l’equazione

ph,jhxjh

= qh − ph,jh+1ξjh+1 − · · · − ph,nξn

da cui si ricava un unico valore ξjhda sostituire a xjh

. Sostituendo nellapenultima equazione si ottiene

ph−1,jh−1xjh−1

+ · · · + ph−1,jh−1xjh−1

= qh−1 − ph−1,jhξjh

− ph−1,jh+1ξjh+1 − · · · − ph−1,nξn .

Si scelgono arbitrariamente degli scalari ξjh−1+1, . . . , ξjh−1 da sostituire al-le incognite xjh−1+1, . . . , xjh−1 e si ricava un unico valore ξjh−1

da sostitureall’incognita xjh−1

. Si continua in modo analogo ad agire usando successiva-mente le equazioni di posto h − 2, h − 3, . . . , 1.

Esempio 7. Consideriamo il sistema lineare

(23)

{x + y = 1

x − y = 0

di due equazioni nelle due incognite x, y. Le due matrici A, A′ di tale sistemae il vettore colonna B dei termini noti sono

A =

(1 1

1 −1

); B =

(1

0

); A′ = (A|B) =

(1 1 1

1 −1 0

).

Poiche detA = −2 6= 0, si ha che ρ(A) = ρ(A′) = 2. Pertanto il sistema(23) e di Cramer ed ammette un’unica soluzione ξ = (x, y), dove

x =

∣∣∣∣1 1

0 −1

∣∣∣∣−2

=1

2; y =

∣∣∣∣1 1

1 0

∣∣∣∣−2

=1

2.

Risolviamo ora il sistema (23) con il metodo di Gauss-Jordan. La matricea scala P ′ che si ottiene da A′ con l’algoritmo di Gauss e

P ′ =

(1 1 1

0 2 1

).

Page 148: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

140 Un’introduzione all’algebra lineare

Pertanto il sistema (23) e equivalente al seguente sistema a scala

(24)

{x + y = 1

2y = 1

Dalla seconda delle (24) si ricava y = 1/2. Sostituendo nella prima delle(24) si ottiene anche x = 1/2.

Esempio 8. Consideriamo il sistema lineare

(25)

x + y = 1

x − y = 0

x + 3y = 2

di tre equazioni nelle due incognite x, y. Con le solite notazioni relative allematrici del sistema, abbiamo che

A′ = (A|B) =

1 1 1

1 −1 0

1 3 2

.

Poiche detA1,21,2 = −2 6= 0 e detA′ = 0, si ha che ρ(A) = ρ(A′) = 2.

Pertanto il sistema (25) e compatibile (per il Teorema di Rouche-Capelli),ed e equivalente ad un suo sottosistema costituito da due equazioni. PoichedetA1,2

1,2 6= 0, possiamo selezionare le prime due equazioni e il sistema (25)

e equivalente al sistema (23).Risolviamo ora il sistema (25) con il metodo di Gauss-Jordan. La matricea scala P ′ che si ottiene da A′ con l’algoritmo di Gauss e

P ′ =

1 1 1

0 2 1

0 0 0

.

Pertanto il sistema (25) e equivalente al sistema a scala (24).

Esempio 9. Consideriamo il sistema lineare

(26)

x + y + z = 1

x − y = 0

2x + z = 2

Page 149: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 141

di tre equazioni nelle tre incognite x, y, z. Con le solite notazioni relativealle matrici del sistema, abbiamo che

A′ = (A|B) =

1 1 1 1

1 −1 0 0

2 0 1 1

.

Poiche detA1,31,2 = −1 6= 0 e non ci sono in A e in A′ minori non nulli di

ordine 3, si ha che ρ(A) = ρ(A′) = 2. Pertanto il sistema (26) e compatibile(per il Teorema di Rouche-Capelli), ed e equivalente ad un suo sottosistema

costituito da due equazioni. Poiche detA1,31,2 6= 0, possiamo selezionare le

prime due equazioni e il sistema (26) e equivalente al seguente sistema

(27)

{x + y + z = 1

x − y = 0

Inoltre, avendo selezionato A1,31,2 come sottomatrice fondamentale, seguendo

il procedimento indicato dal 2o Teorema di Unicita possiamo riscrivere ilsistema (27) portando al secondo membro i termini in y. Otteniamo

(28)

{x + z = 1 − y

x = y

Assegnamo valori arbitrari ξ ∈ R ad y e risolviamo in x, z con la regola diCramer, ovvero risolviamo, per ogni ξ ∈ R il sistema di Cramer

{x + z = 1 − ξ

x = ξ

Otteniamo

x =

∣∣∣∣1 − ξ 1

ξ 0

∣∣∣∣∣∣∣∣1 1

1 0

∣∣∣∣= ξ ; y =

∣∣∣∣1 1 − ξ

1 ξ

∣∣∣∣∣∣∣∣1 1

1 0

∣∣∣∣= 1 − 2ξ .

Pertanto l’insieme S delle soluzioni del sistema (26) e

S ={

(ξ, ξ, 1 − 2ξ) | ξ ∈ R

}⊆ R3 .

Si dice che S e descritto al variare del parametro reale ξ. Vediamo cosasuccede se scegliamo come sottomatrice fondamentale di A (e anche di A′) la

Page 150: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

142 Un’introduzione all’algebra lineare

sottomatrice A1,21,2. Si selezionano ancora le prime due equazioni del sistema

(26), ma l’incognita usata come parametro e questa volta z. Pertanto perogni λ ∈ R si pone z = λ e si risolve, con la regola di Cramer, il sistema

(29)

{x + y = 1 − λ

x − y = 0

Si ottiene

x =

∣∣∣∣1 − λ 1

0 −1

∣∣∣∣∣∣∣∣1 1

1 −1

∣∣∣∣=

1 − λ

2; y =

∣∣∣∣1 1 − λ

1 0

∣∣∣∣∣∣∣∣1 1

1 −1

∣∣∣∣=

1 − λ

2.

Naturalmente si puo anche dedurre direttamente dalla seconda delle (29)che x = y, sostituire nella prima delle (29) e trovare che x = y = (1−λ)/2.L’insieme delle soluzioni S′ e pertanto

S′ ={

((1 − λ)/2, (1 − λ)/2, λ) | λ ∈ R

}⊆ R3 .

Verifichiamo che S = S′. Fissato un elemento (ξ, ξ, 1 − 2ξ) ∈ S (relativoal valore ξ del parametro ξ, osserviamo che tale terna e anche un elementodi S′ (relativo al valore λ = 1 − 2ξ del parametro λ), e quindi S ⊆ S′.Analogamente si vede che S′ ⊆ S.Risolviamo ora il sistema (26) con il metodo di Gauss-Jordan. La matricea scala P ′ che si ottiene da A′ con l’algoritmo di Gauss e

P ′ =

1 1 1 1

0 2 1 1

0 0 0 0

.

Pertanto il sistema (26) e equivalente al seguente sistema a scala.

(30)

{x + y + z = 1

2y + z = 1

Posto y = ξ, dalla seconda delle (30) si ricava che z = 1 − 2ξ, e poi sosti-tuendo nella prima si trova che x = ξ.

Esempio 10. Consideriamo il sistema lineare

(31)

x1 + x2 + x3 + x4 = 1

2x1 + x4 = 1

x1 − x2 − x3 = 0

3x1 + 2x2 + 2x3 + 2x4 = 2

Page 151: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 143

di quattro equazioni nelle quattro incognite x1, x2, x3, x4. Con le solitenotazioni relative alle matrici del sistema, abbiamo che

A′ = (A|B) =

1 1 1 1 1

2 0 0 1 1

1 −1 −1 0 0

3 2 2 2 2

.

Si ha che detA1,3,41,2,4 = 1 6= 0 e A1,3,4

1,2,4 e una sottomatrice fondamentale di A e

di A′. Pertanto ρ(A) = ρ(A′) = 3 e il sistema (31) risulta compatibile (peril Teorema di Rouche-Capelli) ed equivalente al suo sottosistema costituitodalla prima, seconda e quarta equazioni. Seguendo il metodo del 2o Teore-ma di Unicita possiamo usare l’incognita x2 come parametro, ponendo adesempio x2 = ξ, e risolvere, per ogni ξ ∈ R, il sistema di Cramer

x1 + x3 + x4 = 1 − ξ

2x1 + x4 = 1

3x1 + 2x3 + 2x4 = 2 − 2ξ

Con la regola di Cramer otteniamo

x1 =

∣∣∣∣∣∣

1 − ξ 1 1

1 0 1

2 − 2ξ 2 2

∣∣∣∣∣∣

detA1,3,41,2,4

= 0 ; x3 =

∣∣∣∣∣∣

1 1 − ξ 1

2 1 1

3 2 − 2ξ 2

∣∣∣∣∣∣

detA1,3,41,2,4

= −ξ

x4 =

∣∣∣∣∣∣

1 1 1 − ξ

2 0 1

3 2 2 − 2ξ

∣∣∣∣∣∣

detA1,3,41,2,4

= 1 .

L’insieme delle soluzioni S del sistema (31), descritto parametricamente, e

S ={

(0, ξ,−ξ, 1) | ξ ∈ R

}.

Risolviamo ora il sistema (31) con il metodo di Gauss-Jordan. La matricea scala P ′ che si ottiene da A′ con l’algoritmo di Gauss e

P ′ =

1 1 1 1 1

0 2 2 1 1

0 0 0 1 1

0 0 0 0 0

.

Page 152: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

144 Un’introduzione all’algebra lineare

Pertanto il sistema (31) e equivalente al seguente sistema a scala.

(32)

x1 + x2 + x3 + x4 = 1

2x2 + 2x3 + x4 = 1

x4 = 1

Dalla terza delle (32) si ricava che x4 = 1. Sostituendo nella seconda delle(32) tale valore, ponendo x3 = ξ si ottiene x2 = −ξ. Sostituendo nellaprima delle (32) si trova che x1 = 0.

Esempio 11. Sia k un arbitrario numero reale e consideriamo il sistema

(33)

{kx + y = 1

x − y = 0

Se si studia il sistema al variare di k ∈ R, si dice che tale sistema e para-metrico e k si dice parametro (reale). Con le solite notazioni relative allematrici associate al sistema, abbiamo che

A′ = (A|B) =

(k 1 1

1 −1 0

).

Si ha che ρ(A′) = 2 per ogni k ∈ R e una sua sottomatrice fondamentale e

data da A′2,31,2, poiche detA′2,3

1,2 = 1 6= 0. Il rango di A dipende invece dallascelta di k. Infatti detA = −k − 1 e quindi ρ(A) = 1 se k = −1 e ρ(A) = 2se k 6= −1. Pertanto, in base al Teorema di Rouche-Capelli, il sistema (33)e incompatibile se k = −1. Se invece k 6= −1, il sistema e compatibile (ede di Cramer) e la sua unica soluzione e data da

x = −

∣∣∣∣1 1

0 −1

∣∣∣∣k + 1

=1

k + 1; y = −

∣∣∣∣k 1

1 0

∣∣∣∣k + 1

=1

k + 1.

Risolviamo ora il sistema (33) usando il procedimento di Gauss-Jordan.Applicando l’operazione elementare R2 R2 − 1

kR1 alla matrice A′ si

ottiene la matrice

P ′ =

(k 1 1

0 − 1+kk

− 1k

).

Tale operazione ha senso solo se k 6= 0, quindi il caso k = 0 va trattato aparte. Per k 6= 0 il sistema (33) e equivalente al seguente sistema a scala

(34)

kx + y = 1

k + 1

ky =

1

k

Page 153: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 145

Moltiplicando la seconda equazione del sistema (34) per k si ottiene il si-stema (ancora equivalente) a scala

(35)

{kx + y = 1

(k + 1)y = 1

il quale e compatibile se e solo se k 6= −1. In tal caso dalla seconda delle(35) si ricava che y = 1

k+1 . Sostituendo tale valore della y nella prima delle

(35) si ricava che x = 1k+1 . Rimane da esaminare il caso k = 0, che e

peraltro banale.

Esempio 12. Consideriamo il seguente sistema

(36)

{hx + ky = −1

x − ky = h

Il sistema (36) e un sistema di 2 equazioni nelle 2 incognite x, y, con dueparametri reali h, k. Con le solite notazioni relative alle matrici del sistema,abbiamo che

A′ = (A|B) =

(h k −1

1 −k h

).

Studiamo i ranghi di A, A′ al variare di h, k. Abbiamo che det A = −k(h +1). Pertanto ρ(A) = 1 se k = 0 oppure h = −1, ρ(A) = 2 se k 6= 0 e

h 6= −1. Osserviamo che per ogni h, k la sottomatrice A′1,31,2 e fondamentale,

in quanto detA′1,31,2 = h2 + 1 6= 0. Pertanto ρ(A′) = 2 per ogni valore dei

parametri e, in base al Teorema di Rouche-Capelli, il sistema (36) risultacompatibile (e di Cramer) se e solo se k 6= 0 e h 6= −1. In tal caso lasoluzione, fornita dalla regola di Cramer, e

x =

∣∣∣∣−1 k

h −k

∣∣∣∣∣∣∣∣h k

1 −k

∣∣∣∣=

h − 1

h + 1; y =

∣∣∣∣h −1

1 h

∣∣∣∣∣∣∣∣h k

1 −k

∣∣∣∣= − h2 + 1

k(h + 1).

Risolviamo ora il sistema (36) con il metodo di Gauss-Jordan. Applicandol’operazione elementare R2 R2− 1

hR1 alla matrice A′ si ottiene la matrice

a scala

P ′ =

(h k −1

0 −kh+1h

h2+1h

).

Page 154: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

146 Un’introduzione all’algebra lineare

Affinche tale operazione abbia senso, si deve supporre h 6= 0. Pertanto ilcaso h = 0 va trattato a parte (ed e peraltro banale). Quindi, per h 6= 0 ilsistema (36) e equivalente al seguente sistema a scala

(37)

hx + ky = −1

−k(h + 1)

hy =

h2 + 1

h

o anche, moltiplicando la seconda delle (37) per h, al sistema

(38)

{hx + ky = −1

−k(h + 1)y = h2 + 1

Osserviamo che h2 +1 6= 0 per ogni valore dei parametri, e quindi il sistema(38) e compatibile se e solo se −k(h + 1) 6= 0, ovvero k 6= 0 e h 6= −1. In

tal caso dalla seconda delle (38) si ricava che y = − h2+1k(h+1) . Sostituendo poi

tale valore nella prima delle (38) si trova anche che x = h−1h+1 .

Esempio 13. Consideriamo il seguente sistema sul campo C.

(39)

{x − ky = 1

kx + y = 0

Con le solite notazioni si ha che

A′ = (A|B) =

(1 −k 1

k 1 0

).

Quindi detA = 1 + k2 = 0 se e solo se k = ±i; d’altra parte

detA′2,31,2 =

∣∣∣∣−k 1

1 0

∣∣∣∣ = −1 6= 0 ∀ k ∈ C .

Pertanto ρ(A) = 2 se k 6= ±i e ρ(A) = 1 se k = ±i, mentre ρ(A′) = 2 perogni k ∈ C. Il sistema (39) e dunque incompatibile per k = ±i. Negli altricasi e compatibile, di Cramer, e la soluzione e

(40) x =

∣∣∣∣1 −k

0 1

∣∣∣∣k2 + 1

=1

k2 + 1; y =

∣∣∣∣1 1

k 0

∣∣∣∣k2 + 1

= − k

k2 + 1.

Page 155: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 147

Naturalmente lo stesso sistema studiato sul campo R risulta sempre com-patibile e la soluzione e ancora data dalle (40).

Esempio 14. Consideriamo il seguente sistema sul campo Q.

(41)

{2x + ky = |k|kx + y = 1

Con le solite notazioni si ha che

A′ = (A|B) =

(2 k |k|k 1 1

).

Quindi detA = 2 − k2 6= 0 per ogni k ∈ Q e si ha che ρ(A) = ρ(A′) = 2e il sistema (41) e compatibile, di Cramer, per ogni k ∈ Q. La soluzione equindi

x =

∣∣∣∣|k| k

1 1

∣∣∣∣2 − k2

; y =

∣∣∣∣2 |k|k 1

∣∣∣∣2 − k2

.

Lo stesso sistema, studiato sul campo R richiede una discussione piu arti-colata. Infatti

detA = 2 − k2 = 0 ⇐⇒ k = ±√

2

e quindi ρ(A) = 1 se k = ±√

2, ρ(A) = 2 se k 6= ±√

2. Pertanto per

k 6= ±√

2 si ha che che ρ(A′) = 2 e il sistema (41) e compatibile, di Cramer,

e la sua soluzione e come sopra. Per k = ±√

2 bisogna studiare il rango diA′. Nel caso k = −

√2 si ha che ρ(A′) = 2 e il sistema (41) e incompatibile.

Nel caso k =√

2 si ha che ρ(A′) = 1 e il sistema (41) e compatibile edequivalente ad un suo sottosistema costituito da una sola equazione, adesempio la seconda, e si risolve con il metodo del 2o Teorema di Unicitaponendo x = ξ e ricavando quindi che y = 1−

√2ξ. L’insieme delle soluzioni

S e quindi descritto, al variare del parametro ξ come segue

S ={

(ξ, 1 −√

2ξ) | ξ ∈ R

}.

Page 156: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

148 Un’introduzione all’algebra lineare

Esercizi.

1. Determinare i valori del parametro κ ∈ R per cui la matrice

A =

κ 1 1 1

1 κ 0 1

0 κ 1 0

0 0 1 κ

ha rango 3.

2. Si determini l’inversa della matrice

A =

1 3 2

0 1 0

1 −1 3

.

3. Consideriamo la matrice

A =

(1 κ

1 + κ 1

).

Stabilire per quali valori del parametro reale κ tale matrice e invertibile, e in cor-rispondenza di tali valori di κ calcolare A−1.

4. Sia

A =

λ1 0 . . . 0

0 λ2 . . . 0...

.... . .

...

0 0 . . . λn

una matrice diagonale su un campo, tale che se i 6= j allora λi 6= λj , e supponiamoche λj 6= 0 per ogni j. Sia B una matrice quadrata di ordine n sullo stesso campo.Provare che se A · B = B · A allora anche B e una matrice diagonale.

5. Al variare del parametro reale κ, consideriamo la matrice

A =

1 κ 0

0 1 0

0 0 1

.

Determinare la matrice inversa A−1.

6. Sia Un = {A ∈ GLn(R) | ai,j = 0 ∀ i > j , ah,h = 1 }. Provare che Un e unsottogruppo di GLn(R).

Page 157: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 149

7. Consideriamo la matrice

A =

1 0

1 1

0 1

∈ M3,2(Q) .

(i) Trovare una matrice B ∈ M2,3(Q) che sia inversa a sinistra di A, ovvero tale che

B · A = I2 =

(1 0

0 1

).

(ii) Trovarne un’altra.(iii) Trovare tutte le inverse a sinistra di A.

8. Calcolare il determinante della matrice

A =

1 2 . . . n

n + 1 n + 2 . . . 2n...

.... . .

...

n2 − n + 1 n2 − n + 2 . . . n2

∈ Mn,n(Z)

per ogni n ∈ N.

9. Siano f1, . . . , fn ∈ K[x] dei polinomi di grado non superiore a n − 2 (n > 2). Perogni n-pla (a1, . . . , an) di scalari, calcolare il determinante della matrice

A =

f1(a1) f1(a2) . . . f1(an)

f2(a1) f2(a2) . . . f2(an)...

.... . .

...

fn(a1) fn(a2) . . . fn(an)

∈ Mn,n(K) .

10. Sia B un anello commutativo unitario. Si consideri il monoide (M2,2; ·), dovel’operazione · e il prodotto righe per colonne, e il suo sottoinsieme

S ={ ( a b

−b a

)| a,∈ B

}.

(i) Si provi che S e una parte stabile di M2,2, dotata di elemento neutro (ovveroun sottomonoide);

(ii) si verifichi se il sottoinsieme S′ = S − {O} (ottenuto privando S della matricenulla) e un gruppo rispetto all’operazione · quando B e uno dei seguenti anelli:R, C, Z/5Z, Z/7Z.

Page 158: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

150 Un’introduzione all’algebra lineare

11. Sia B un anello commutativo unitario e si definisca il determinante in Mn,n(B)usando la (8).

(j) Si provi che det verifica le proprieta D;(jj) si provi che anche in questo caso vale la regola di Laplace;(jjj) si determinino le matrici invertibili in Mn,n(B) in generale e nel caso in cui

B = Z;(jv) si verifichi che vale ancora il Teorema di Binet.

12. Siano z1, . . . , zn ∈ K e sia

A =

1 z1 z21 . . . zn−1

1

1 z2 z22 . . . zn−1

2...

......

. . ....

1 zn z2n . . . zn−1

n

∈ Mn,n(K) .

Si provi che

detA =∏

h>k

(zh − zk) .

La matrice A si dice matrice di Vandermonde associata agli scalari z1, . . . , zn.

13. Studiare il sistema lineare {hx + k2y = 1

kx + hy = 0

al variare dei parametri reali h, k.

14. Studiare la compatibilita del seguente sistema lineare, determinandone le eventualisoluzioni, al variare del parametro κ ∈ R.

x + κz = 0

x + y + z = 2κ

κx + 2y + z = 4

15. Studiare la compatibilita del seguente sistema lineare, determinandone le eventualisoluzioni, al variare del parametro κ ∈ R.

κx + y = 2

κx + κy = 2 − κ

2κx + 2y = 2κ + 6

16. Studiare la compatibilita del seguente sistema lineare, determinandone le eventualisoluzioni, al variare del parametro κ ∈ R.

κx + y + z = κ + 1

x + κy + z = 1

x + y + (1 − κ)w + z = 1

Page 159: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 3 – Matrici, determinanti, sistemi lineari 151

17. Studiare la compatibilita del seguente sistema lineare, determinandone le eventualisoluzioni, al variare del parametro κ ∈ R.

κx + y = 0

x + y + z = κ

x + κy + 2z = 2

18. Studiare la compatibilita del seguente sistema lineare, determinandone le eventualisoluzioni, al variare del parametro κ ∈ R.

x + κy = 0

κx − z = 1

(κ + 2)y + z = κ

19. Studiare la compatibilita del seguente sistema lineare, determinandone le eventualisoluzioni, al variare del parametro κ ∈ R.

κx + y = 1

κx + κy + z = 1

x + y + z = 0

20. Studiare la compatibilita del seguente sistema lineare, determinandone le eventualisoluzioni, al variare del parametro κ ∈ R.

{κx + y = κ

x + κy = κ

21. Studiare la compatibilita del seguente sistema lineare, determinandone le eventualisoluzioni, al variare del parametro κ ∈ R.

x + κy + z = 1

−x + κy = 0

x + y + z = κ

22. Studiare il seguente sistema lineare, al variare del parametro reale κ

x + κy + 2z = 1

y + κz = 1

2x + κy = 0

23. Discutere il seguente sistema di equazioni lineari sul campo dei numeri reali, alvariare del parametro κ.

x + κy = κ −√

2

κx + y + z = κ

2κy + z = 0

Page 160: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica
Page 161: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Capitolo 4

Matrici e applicazioni lineari

§1. Matrici associate ad applicazioni lineari

Consideriamo due spazi vettoriali V, V ′ di dimensione n,m rispettivamente, esia

f : V −→ V ′

una applicazione lineare. Fissiamo inoltre delle basi ordinate

B = (u1, . . . ,un) ; B′ = (u′1, . . . ,u

′m)

degli spazi vettoriali V, V ′ rispettivamente. E’ possibile associare ad f unamatrice A ∈ Mm,n rispetto alle basi B,B′ al modo seguente. La colonna j-madella matrice A sara il vettore numerico colonna (di ordine m)

Aj =

a1,j

...am,j

delle componenti del vettore f(uj) nella base B′. In altre parole, essendoB′ una base di V ′, per ogni j sono univocamente determinati degli scalaria1,j , . . . , am,j tali che

f(uj) = a1,ju′1 + · · · + am,ju

′m .

Tali scalari formano la colonna j-ma della matrice A. Sia ora v ∈ V e siano

X =

x1...

xn

; Y =

y1...

ym

153

Page 162: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

154 Un’introduzione all’algebra lineare

i vettori numerici colonna delle componenti di v e di f(v) rispetto alle basiB,B′. Si ha che

Y = AX .

Infatti, poiche

v =

n∑

j=1

xjuj

si ha che

f(v) = f( n∑

j=1

xjuj

)

=n∑

j=1

xjf(uj)

=n∑

j=1

xj

( m∑

i=1

ai,ju′i

)

=

m∑

i=1

( n∑

j=1

ai,jxj

)u′

i .

D’altra parte abbiamo anche che

f(v) =

m∑

i=1

yiu′i

e quindi, poiche ogni vettore si esprime in modo unico come combinazionelineare dei vettori di una base, deduciamo che

yi =n∑

j=1

ai,jxj

e cioe Y = AX. Viceversa, se A e una matrice tale che per ogni vettore v ∈ Vdetti X,Y i vettori numerici colonna delle componenti di v e di f(v) in B,B′

si ha che Y = AX allora A e la matrice associata ad f rispetto alle basi B,B′.Infatti, per ogni j = 1, . . . , n il vettore uj ha come vettore numerico colonnadelle componenti in B il vettore

0...1...0

Page 163: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 155

dove lo scalare 1 compare nella j-ma posizione. Pertanto il vettore numericocolonna delle componenti di f(uj) sara

A

0...1...0

= Aj .

Se indichiamo con Φ,Ψ gli isomorfismi coordinati di V, V ′ rispetto alle basiB,B′, quanto detto finora si riassume dicendo che A e la matrice associata adf rispetto alle basi B,B′ se e solo se

Ψ(f(v)

)= A

(Φ(v)

)∀ v ∈ V .

Talvolta l’espressione Y = AX e detta rappresentazione di f , e puo anchescriversi come segue:

y1 = a1,1x1 + · · · + a1,nxn

y2 = a2,1x1 + · · · + a2,nxn

......

...

ym = am,1x1 + · · · + am,nxn

Esempio 1. Sia f : V → V ′ l’applicazione nulla, definita ponendo f(u) =0 per ogni u ∈ V . Fissati comunque dei riferimenti in V e V ′, si verificaimmediatamente che la matrice associata ad f rispetto a tali riferimenti equella nulla.

Esempio 2. Sia V = V ′, fissiamo una base B in V e consideriamo l’appli-cazione identica idV (che e lineare). La matrice associata ad idV rispettoalla base B e la matrice identica.

Esempio 3. Definiamo una applicazione

f : R2 −→ R3

Page 164: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

156 Un’introduzione all’algebra lineare

ponendo f(x, y) = (x − y, x + y, 2x). L’applicazione f e lineare, poichetali sono le sue componenti. La matrice A associata ad f rispetto alle basicanoniche e

A =

1 −1

1 1

2 0

come e agevole verificare calcolando f(1, 0) e f(0, 1).

Esempio 4. Siano f, g : V → V ′ due applicazioni lineari, e siano A, Ble matrici ad esse associate rispetto a dei fissati riferimenti. Si verificaagevolmente che f = g se e solo se A = B.

Consideriamo ora una applicazione lineare

ω : Kn −→ Km

tra spazi vettoriali numerici. Siano ω1, . . . , ωm le componenti di ω. In altritermini, se indichiamo, come gia fatto nel Capitolo 2, con

πi : Km −→ K i = 1, . . . ,m

la proiezione di Km sull’i-mo fattore, le componenti di ω saranno le composte

ωi = πi ◦ ω (i = 1, . . . ,m) .

Fissiamo in Kn, Km le rispettive basi canoniche (ordinate)

B = (e1, . . . , en) ; B′ = (e′1, . . . , e′m)

e consideriamo la matrice A associata ad ω rispetto a tali basi. Si ha, inparticolare, che

ω(ej) = Aj j = 1, . . . , n .

Lemma 4.1. Nella situazione ora descritta dim im ω = ρ(A).

Dimostrazione. Poiche B genera Kn, il sistema [A1, . . . , An] genera im ω ≤Km e quindi una base di imω e fornita da un sistema massimale di colonneindipendenti si A. La cardinalita di tale base e quindi, per definizione, proprioρ(A). 2

Page 165: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 157

Proposizione 4.2. Sia f : V → V ′ una applicazione lineare e sia A ∈ Mm,n

la matrice associata ad f rispetto a delle basi ordinate fissate

B = (u1, . . . ,un) ; B′ = (u′1, . . . ,u

′m)

di V, V ′. Si ha che dim im f = ρ(A).

Dimostrazione. Consideriamo gli isomorfismi coordinati

Φ : V −→ Kn ; Ψ : V ′ −→ Km

rispetto alle basi B,B′. Si verifica agevolmente che A e anche la matriceassociata all’applicazione lineare

ω = Ψ ◦ f ◦ Φ−1 : Kn −→ Km

rispetto alle basi canoniche. Osserviamo che Φ−1(Kn) = V e quindi

im(f ◦ Φ−1) = f ◦ Φ−1(Kn) = f(V ) = im f .

Inoltre

im ω = im(Ψ ◦ f ◦ Φ−1) = Ψ(f ◦ Φ−1(Kn)

)= Ψ(im f ◦ Φ−1) = Ψ(im f)

e poiche Ψ e un isomorfismo, la sua restrizione

Ψ| im f : im f −→ im ω

e un isomorfismo. Pertanto, in base al lemma precedente, possiamo concludereche dim im f = dim im ω = ρ(A). 2

Consideriamo ora, oltre agli spazi vettoriali V, V ′ e alle loro basi ordinateB,B′, anche un terzo spazio vettoriale V ′′ e una sua base ordinata

B′′ = (u′′1 , . . . ,u′′

s ) .

Siano poif : V −→ V ′ ; g : V ′ −→ V ′′

due applicazioni lineari e A,B le matrici ad esse associate rispetto alle basifissate. Abbiamo che A ∈ Mm,n, B ∈ Ms,m, ed ha pertanto senso considerarela matrice C = BA ∈ Ms,n.

Page 166: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

158 Un’introduzione all’algebra lineare

Proposizione 4.3. Nella situazione sopra descritta, la matrice associataall’applicazione lineare composta g ◦ f , rispetto alle basi B,B′′, e C.

Dimostrazione. Per ogni v ∈ V , detti X,Y,Z i vettori numerici colonnadelle componenti di v, f(v), gf(v) rispetto alle basi B,B′,B′′, abbiamo che

Y = AX ; Z = BY .

PertantoZ = B(AX) = (BA)X

e quindi, posto C = BA, C e la matrice associata a g ◦ f rispetto alle basiB,B′′. 2

Corollario 4.4. Sia f : V → V ′ un isomorfismo. Fissate delle basi B,B′ inV, V ′ e dette A,B le matrici associate ad f, f−1 rispetto a tali basi si ha cheA e una matrice invertibile e che B = A−1.

Dimostrazione. Osserviamo che se V ∼= V ′ allora V e V ′ hanno la stessadimensione, diciamo n e quindi A,B sono entrambe quadrate di ordine n. Poi-che f−1 ◦f = idV , in base ai risultati ed esempi precedenti si ha che la matriceassociata ad idV rispetto alla base B, e cioe In, e proprio il prodotto righe percolonne di B ed A, ovvero In = BA. Ripetendo lo stesso ragionamento usandoil fatto che f ◦ f−1 = idV ′ si trova che AB = In, da cui l’asserto. 2

Osserviamo che si puo procedere anche in modo opposto a quanto fattofinora: a partire da una matrice costruiremo delle applicazioni lineari (traspazi vettoriali numerici o anche di tipo generale) che ammettono tale matricecome matrice ad esse associata rispetto a basi fissate. Sia dunque A ∈ Mm,n

una matrice e definiamo una applicazione

(1) ωA : Kn −→ Km

ponendo, per ogni vettore numerico di ordine n

β =

β1...

βn

scritto in forma di colonna

ωA(β) = A

β1...

βn

∈ Km .

Page 167: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 159

Si verifica che ωA e lineare (esercizio: usare la distributivita del prodottorighe per colonne rispetto alla somma di matrici) e che la matrice associataad ωA rispetto alle basi canoniche e proprio A. Possiamo ora verificare, comeannunciato nel Capitolo 3, che se la matrice A e invertibile, essa e anche,necessariamente, quadrata.

Proposizione 4.5. Ogni matrice invertibile e necessariamente quadrata.

Dimostrazione. Sia A ∈ Mm,n una matrice invertibile, e sia B ∈ Mn,m

la sua inversa. Definiamo ωA come sopra, e ωB in modo analogo. PoicheB · A = In e A · B = Im, avremo che ωB ◦ ωA = idKn e ωA ◦ ωB = idKm .Pertanto ωA e un isomorfismo e m = n. 2

Siano ora V, V ′ due spazi vettoriali di dimensione n,m e B,B′ due basi ordi-nate di V, V ′ rispettivamente. Fissata una matrice A ∈ Mm,n esiste un’unicaapplicazione lineare f : V → V ′ che ammette A come matrice associata rispet-to a B,B′. f si costruisce come segue. Indichiamo con Φ,Ψ gli isomorfismicoordinati di V, V ′ rispetto a B,B′, consideriamo l’applicazione lineare ωA eponiamo

f = Ψ ◦ ωA ◦ Φ−1 .

Tale applicazione e lineare, in quanto composta di applicazioni lineari. E’poi agevole verificare che la matrice associata ad f rispetto alle basi fissate eproprio A. Il Corollario 4.4 si inverte, nel seguente senso.

Corollario 4.6. Sia A ∈ Mn,n una matrice invertibile. Siano V, V ′ duespazi vettoriali, di dimensione n e B,B′ delle basi ordinate fissate in tali spazivettoriali. Sia inoltre f : V → V ′ l’applicazione lineare tale che A sia lamatrice associata ad f rispetto alle basi B,B′. Allora f e un isomorfismo eA−1 e la matrice associata all’isomorfismo inverso f−1 rispetto a B′,B.

Dimostrazione. Sia g : V ′ → V tale che A−1 sia la matrice associata a grispetto a B′,B. Allora la matrice associata a gf : V → V e A−1A = In

e quindi gf = idV . Analogamente si vede che fg = idV ′ . Quindi f e unisomorfismo, g = f−1 e A−1 e la matrice associata a f−1 rispetto a B′,B. 2

Il seguente enunciato e in realta gia noto dal Capitolo 3, ma viene qui fornitauna dimostrazione diversa.

Page 168: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

160 Un’introduzione all’algebra lineare

Corollario 4.7. Sia A ∈ Mn,n una matrice. Allora A e invertibile se e solose ρ(A) = n.

Dimostrazione. Sia f come nel Corollario 4.6. Se A e invertibile si ha che fe un isomorfismo, e quindi

ρ(A) = dim im f = dim V ′ = n .

Viceversa, sia ρ(A) = n. Allora dim im f = n = dim V ′ e quindi f e unepimorfismo. D’altra parte dimV = n e quindi dall’equazione dimensionale(Teorema 2.63) segue che

dimker f = dimV − dim im f = 0

e cioe ker f = {0} ed f e anche un monomorfismo. Pertanto f e un isomorfismoe A e invertibile. 2

Corollario 4.8. Siano A ∈ Mm,n e B ∈ Mn,s. Allora

ρ(A · B) ≤ ρ(A) .

Dimostrazione. Fissate le basi canoniche in Ks, Kn, Km, consideriamo leapplicazioni lineari

ωA : Kn −→ Km ; ωB : Ks −→ Kn .

Si ha che ωB(Ks) ⊆ Kn e quindi ωA ◦ ωB(Ks) ⊆ ωA(Kn), cioe

im(ωA ◦ ωB) ≤ im ωA (≤ Km)

e quindi

ρ(A · B) = dim im(ωA ◦ ωB) ≤ dim im(ωA) = ρ(A) .

2

Esercizio. Provare che ρ(A · B) ≤ ρ(B).

Page 169: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 161

Corollario 4.9. (i) Sia A ∈ Mn,n e sia B una inversa destra di A. AlloraA e invertibile e B e la sua inversa.(ii) Sia A ∈ Mn,n e sia C una inversa sinistra di A. Allora A e invertibile e Ce la sua inversa.

Dimostrazione. (i) Si ha che A · B = In e quindi

n = ρ(In) = ρ(A · B) ≤ ρ(A)

e quindi ρ(A) = n e A e invertibile. Inoltre

B = In · B = (A−1 · A) · B = A−1 · (A · B) = A−1 · In = A−1 .

(ii) Analoga. 2

Concludiamo questa sezione con una osservazione. Sia A ∈ Mm,n e suppo-niamo che per ogni vettore colonna Y ∈ Kn il prodotto righe per colonne AYsia nullo. Allora ωA e l’applicazione lineare nulla; quindi A e la matrice nulla.

§2. Cambiamenti di riferimento

Ci chiediamo ora che relazione esiste tra le componenti di un vettore in due di-verse basi. Consideriamo quindi la seguente situazione. Sia V uno spazio vetto-riale e consideriamo due sue basi ordinate B = (u1, . . . ,un), B = (u1, . . . , un).Siano inoltre

Φ, Φ : V −→ Kn

gli isomorfismi coordinati di V rispetto a B, B. Per ogni vettore v ∈ V sonounivocamente determinati gli scalari β1, . . . , βn, β1, . . . , βn tali che

(2) v =

n∑

j=1

βjuj =

n∑

j=1

βjuj

ovvero

Φ(v) =

β1...

βn

; Φ(v) =

β1...

βn

.

Costruiamo una matrice B = (bi,j) ∈ Mn,n ponendo Bj = Φ(uj). In altritermini, la colonna j-ma di B e costituita dalle componenti b1,j , . . . , bn,j del

vettore uj in B:

(3) uj = b1,ju1 + · · · + bn,jun .

Page 170: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

162 Un’introduzione all’algebra lineare

Dalle (2),(3) deduciamo che

n∑

i=1

βiui =

n∑

j=1

βjuj

=n∑

j=1

βj

( n∑

i=1

bi,jui

)

=

n∑

i=1

( n∑

j=1

bi,jβj

)ui

e quindi

(4) βi =n∑

j=1

bi,jβj ∀ i .

Le relazioni scalari (4) corrispondono alla relazione vettoriale

(5)

β1...

βn

= B

β1...

βn

.

La (5) si dice formula di cambiamento delle componenti relativa al passaggioda B a B e B prende il nome di matrice di passaggio da B a B.

Esercizio. Provare che la matrice associata all’applicazione lineare idV : V →V rispetto alle basi B, B e proprio B.

Dall’esercizio ora proposto si puo dedurre che B e invertibile. Sia infatti lamatrice associata a idV rispetto alle basi B, B. Schematizziamo tale situazioneindicando di fianco allo spazio vettoriale in questione anche la base fissata esotto la freccia la matrice associata. Si ha che

V,BidV

−→B

V, BidV

−→B′

V,B .

In base ad un risultato gia acquisito, la matrice associata alla composta

idV = idV ◦ idV : V,B −→ V,B

Page 171: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 163

e B′ · B, ma sappiamo anche che essa coincide con In e quindi B′ · B = In.Analogamente si verifica che B · B′ = In. Pertanto B e invertibile e B′ ela sua inversa. In modo analogo si prova che se B e un’altra base e B′′ e lamatrice associata ad idV rispetto alle basi B e B allora la matrice associataad idV rispetto a B e B e B′′ · B. Tutte le osservazioni fatte finora possono

essere sintetizzate come segue. Indichiamo con M BB la matrice associata ad

idV rispetto a B, B (ovvero, per quanto detto la matrice di passaggio da B aB). Valgono le seguenti relazioni

MBB = In ; M B

B· M B

B = M BB .

In particolare

MBB· M B

B = MBB = In = M B

B= M B

B · MBB

e quindi

MBB

=(M B

B

)−1.

§3. Alcune applicazioni dei determinanti

Usiamo ora la teoria dei determinanti per affrontare la seguente questione.Sia f : V → V ′ una applicazione lineare, siano B, B delle basi ordinate di Ve B′, B′ delle basi ordinate di V ′. Siano inoltre A la matrice associata ad frispetto a B,B′ e A la matrice associata ad f rispetto a B, B′. Per fissare leidee, sia dim V = n, dimV ′ = m. Studiamo la relazione tra A e A. Posto

B = M BB ; B′ = M B′

B′

abbiamo, graficamente, la seguente situazione

V, BidV

−→B−1

V,Bf

−→A

V ′, B′idV ′

−→B′

V ′, B′ .

D’altra parte abbiamo anche che

V, Bf = idV ′ ◦ f ◦ idV

−−−−−−−−−−−−−−−→A

V ′, B′ .

Poiche la matrice associata alla composta f = idV ′ ◦ f ◦ idV coincide con ilprodotto delle matrici associate alle singole applicazioni idV ′ , f, idV , si ha che

A = B′ · A · B−1 .

Page 172: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

164 Un’introduzione all’algebra lineare

Se poniamo

A = MB′

B (f) ; A = M B′

B(f)

abbiamo che

M B′

B(f) = M B′

B′ · MB′

B (f) · MBB

.

Lemma 4.10. Siano V e B = (u1, . . . ,un) come sopra e sia B ∈ GLn(K).

Esiste allora un’unica base ordinata B = (u1, . . . , un) tale che B = M BB .

Dimostrazione. Sia C = (ci,j) l’inversa di B e poniamo, per ogni i =1, . . . , n,

ui =

n∑

j=1

cj,iuj .

Poniamo inoltre

B = (u1, . . . , un) .

Osserviamo che, per ogni h = 1, . . . , n,

n∑

i=1

bi,hui =n∑

i=1

bi,h

( n∑

j=1

cj,iuj

)

=n∑

j=1

( n∑

i=1

bi,hcj,i

)uj

=

n∑

j=1

δj,huj

= uh

cioe

(6) uh =

n∑

i=1

bi,hui .

Infatti

(7)n∑

i=1

bi,hcj,i =n∑

i=1

bi,h

(−1)i+j detB(i,j)

detB=

1

det B

n∑

i=1

(−1)i+jbi,h detB(i,j) .

Page 173: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 165

Se nella (7) poniamo h = j si ha che

n∑

i=1

(−1)i+jbi,h det B(i,j) =

n∑

i=1

(−1)i+jbi,j detB(i,j) = detB

︸ ︷︷ ︸Laplace

.

Se invece h 6= j,n∑

i=1

(−1)i+jbi,h det B(i,j) = 0

in quanto tale espressione e il determinante della matrice

(B1, . . . , Bh, . . . , Bh . . . , Bn)

dove la colonna Bh compare sia all’h-mo che al j-mo posto, sviluppato secondola j-ma colonna (in pratica si applica il 2o teorema di Laplace alle colonne).In ogni caso quindi

n∑

i=1

bi,hcj,i = δj,h .

La (6) ci assicura che i vettori di base uh dipendono da B. Quindi B genera V .Se B fosse dipendente, da esso si potrebbe estrarre una base di V di cardinalitaminore di n. Cio non puo accadere, in quanto tutte le basi sono equipotentie B ha n elementi. Pertanto B e indipendente e quindi e una base di V .

Osserviamo infine che, per costruzione, C = B−1 = MBB

e quindi B = M BB . 2

Vogliamo ora introdurre una relazione in Mm,n.

Definizione 4.11. Siano A, A ∈ Mm,n. Diremo che A e A sono equivalenti

(e scriveremo A ∼ A) se esistono delle matrici B ∈ GLn(K) e B′ ∈ GLm(K)tali che

A = B′AB−1 .

Proposizione 4.12. La relazione ∼ e di equivalenza in Mm,n.

Dimostrazione. La relazione e riflessiva, in quanto A = ImAI−1n . Inoltre, se

A = B′AB−1, moltiplicando entrambi i membri a sinistra per l’inversa di B′

e a destra per B si ottiene la relazione A = B′−1AB ovvero anche

A = B′−1A(B−1)−1

Page 174: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

166 Un’introduzione all’algebra lineare

e cio dimostra la simmetria della relazione. Se poi A = B′AB−1 e A =C ′AC−1 abbiamo che

A = C ′B′AB−1C−1 = C ′B′A(CB)−1

da cui si deduce la transitivita di ∼. 2

Corollario 4.13. Se A ∼ A allora ρ(A) = ρ(A).

Dimostrazione. Sia A = B′AB−1. Siano inoltre V, V ′ due spazi vettoriali,B,B′ due basi ordinate di tali spazi e f : V → V ′ una applicazione lineare,tali che A sia la matrice associata ad f rispetto a B,B′. E’ sempre possibiletrovare V, V ′, f,B,B′ con le proprieta richieste. Basta infatti porre V = Kn,V ′ = Km, considerare le basi canoniche B,B′ di tali spazi e l’applicazionelineare f = ωA (vedi la (1)). In base al Lemma 4.10 esiste un’unica base B di

V tale che B = M BB ed esiste un’unica base B′ di V ′ tale che B′ = M B′

B′ . Maallora A e la matrice associata ad f rispetto a B, B′. In base alla Proposizione4.2 si ha quindi che ρ(A) = dim im f = ρ(A). 2

In sostanza, due matrici sono equivalenti se e solo se esse possono vedersicome le matrici associate ad una stessa applicazione lineare, rispetto a basidiverse (scelte opportunamente).

Concludiamo questo capitolo con una generalizzazione della definizione dideterminante. Osserviamo che se B e un anello commutativo unitario, possia-mo ancora definire, formalmente allo stesso modo, una applicazione

det : Mn,n(B) −→ B

ponendo per ogni A ∈ Mn,n(B)

det A =∑

f∈Sn

σ(f) ·n∏

j=1

af(j),j .

Naturalmente non tutte le proprieta dei determinanti di matrici su un camposaranno valide. In seguito useremo tale generalizzazione nel caso B = K[x].Ad esempio, sia

A =

(3 x2 + 2x x − 1

).

Tale matrice ha coefficienti in B = R[x] e quindi il suo determinante sara asua volta un polinomio a coefficienti reali, ovvero

detA = 3(x − 1) − x(x2 + 2) = −x3 + x − 3 ∈ R[x] .

Page 175: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 167

§4. Autovettori, autovalori e polinomio caratteristico diun endomorfismo

Sia V uno spazio vettoriale su un campo K e sia dim V = n.

Definizione 4.14. Un endomorfismo di V e una applicazione lineare

f : V −→ V .

Sia f un endomorfismo di V .

Definizione 4.15. Un vettore non nullo v ∈ V si dice autovettore di f seesiste uno scalare λ tale che

(8) f(v) = λv .

Definizione 4.16. Uno scalare λ si dice autovalore di f se esiste un auto-vettore v tale che valga la (8).

Se v 6= 0 e vale la (8), diremo che v e un autovettore associato a λ e che λe un autovalore associato a v.

Lemma 4.17. Sia v un autovettore. Esiste allora un unico autovalore adesso associato.

Dimostrazione. Siano λ, µ degli scalari tali che

f(v) = λv = µv .

Si ha allora che (λ−µ)v = 0 e quindi, essendo v 6= 0, deve accadere che λ−µ =0, ovvero λ = µ, e cio prova l’unicita dell’autovalore associato all’autovettorev. 2

Sia ora λ ∈ K e definiamo il sottoinsieme Vλ(f), o piu semplicemente Vλ,ponendo

Vλ ={v ∈ V

∣∣ f(v) = λv}⊆ V .

Page 176: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

168 Un’introduzione all’algebra lineare

Proposizione 4.18. Per ogni scalare λ, il sottoinsieme Vλ di V e un sotto-spazio vettoriale.

Dimostrazione. E’ chiaro che 0 ∈ Vλ, in quanto

f(0) = 0 = λ0 ∀ λ ∈ K .

Siano ora α, β ∈ K, u,v ∈ Vλ. Allora f(u) = λu e f(v) = λv. Pertanto

f(αu + βv) = αf(u) + βf(v) = αλu + βλv = λ(αu + βv)

e quindi αu + βv ∈ Vλ. 2

Osserviamo che Vλ 6= {0} se e solo se esiste un vettore non nullo v tale chef(v) = λv, e cioe se e solo se λ e un autovalore di f .

Definizione 4.19. Se λ e un autovalore di f , il sottospazio vettoriale Vλ

(necessariamente non banale) di V si dice autospazio di f associato all’autova-lore λ.

Pertanto l’autospazio Vλ associato ad un autovalore λ e costituito dal vettorenullo 0 e dagli autovettori associati a λ.

Esempio 5. E’ immediato verificare che V0 = ker f . Pertanto 0 e unautovalore se e solo se f non e un monomorfismo, ovvero se e solo se f none un isomorfismo.

Definizione 4.20. L’endomorfismo f si dice diagonalizzabile se esiste unabase ordinata D = (v1, . . . ,vn) costituita da autovettori. Una base siffatta sidice anche base spettrale.

Osserviamo che se D = (v1, . . . ,vn) e una base ordinata di autovettori eλ1, . . . , λn sono gli autovalori associati agli autovettori v1, . . . ,vn, la matriceD associata ad f rispetto a tale base e la matrice diagonale

(9) D =

λ1 0 . . . 00 λ2 . . . 0...

.... . .

...0 0 . . . λn

.

Viceversa, se D e una base ordinata e la matrice D associata ad f rispettoa D e diagonale ed e data dalla (9), allora D e una base di autovettori e glielementi della diagonale di D sono gli autovalori associati a tali autovettori.Le osservazioni precedenti giustificano in qualche modo la terminologia usatae possono essere formalizzate nel seguente enunciato.

Page 177: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 169

Teorema 4.21. L’endomorfismo f e diagonalizzabile se e solo se esiste unabase ordinata D tale che la matrice D associata ad f rispetto a D risultidiagonale.

Definizione 4.22. Siano A,B due matrici quadrate di ordine n. Tali matricisi dicono simili, o anche coniugate, se esiste una matrice invertibile C, dellostesso ordine, tale che B = C−1AC.

Osserviamo che due matrici simili sono anche equivalenti e quindi hannoanche lo stesso rango. E’ facile verificare che la relazione di similitudine tramatrici quadrate dello stesso ordine e una relazione di equivalenza.

Gli endomorfismi diagonalizzabili possono anche essere caratterizzati comesegue.

Teorema 4.23. Sia f : V → V un endomorfismo e sia B una base ordinatadi V . Allora f e diagonalizzabile se e solo se la matrice A = MB

B (f) e similead una matrice diagonale.

Dimostrazione. Per quanto visto finora, se f e diagonalizzabile esiste unabase ordinata D di autovettori, con matrice associata

D = MDD (f) =

λ1 0 . . . 00 λ2 . . . 0...

.... . .

...0 0 . . . λn

dove λ1, . . . , λn sono gli autovalori (non necessariamente distinti) di f . Postoquindi C = MB

D, si avra che

(10) D = C−1AC

e cioe A e simile ad una matrice diagonale. Se viceversa vale la (10), conD diagonale e C ∈ GLn(K), il Lemma 4.10 ci assicura che esiste un’unicabase ordinata D tale che C = MB

D . Quindi la matrice D data dalla (10) e lamatrice associata ad f rispetto alla base D. Poiche D e diagonale, la base De costituita da autovettori ed f risulta diagonalizzabile. 2

Sia ora B = (e1, . . . , en) una base ordinata, A = (ai,j) ∈ Mn,n la matriceassociata ad f rispetto a B e

Φ : V −→ Kn

l’isomorfismo coordinato associato a B.

Page 178: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

170 Un’introduzione all’algebra lineare

Teorema di caratterizzazione degli autovalori 4.24. Uno scalare λ eun autovalore di f se e solo se

det(A − λIn) = 0 .

Dimostrazione. Ricordiamo che lo scalare λ e un autovalore se e solo seesiste un vettore non nullo w tale che f(w) = λw. Sia dunque w un vettorenon nullo e sia

W =

w1...

wn

= Φ(w)

il suo vettore coordinato rispetto a B. Se f(w) = w′ e

W ′ =

w′1...

w′n

= Φ(w′)

abbiamo chew′ = f(w) = λw ⇐⇒ W ′ = λW

come si deduce facilmente dal confronto delle componenti. D’altra parte, si egia osservato che la matrice A e tale che risulti W ′ = AW . Quindi f(w) = λwse e solo se AW = λW . Ma λW puo anche scriversi come (λIn)W e quindi λe un autovalore, e w e un autovettore ad esso associato, se e solo se

AW − (λIn)W = 0

ovvero se e solo se(A − λIn)W = 0

ovvero ancora se e solo se la n-pla W =

w1...

wn

e una soluzione non banale

del sistema lineare omogeneo (scritto in forma matriciale)

(11) (A − λIn)X = 0 .

In definitiva λ e un autovalore se e solo se esiste una soluzione non banale Wdel sistema lineare (11) omogeneo, e cio avviene se e solo se

det(A − λIn) = 0

Page 179: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 171

e cio e quanto si voleva dimostrare. 2

Osserviamo che

A − λIn =

a1,1 a1,2 . . . a1,n

a2,1 a2,2 . . . a2,n

......

. . ....

an,1 an,2 . . . an,n

λ 0 . . . 00 λ . . . 0...

.... . .

...0 . . . 0 λ

=

a1,1 − λ a1,2 . . . a1,n

a2,1 a2,2 − λ . . . a2,n

......

. . ....

an,1 an,2 . . . an,n − λ

e quindi det(A − λIn) e una espressione polinomiale in λ. Infatti si ha unaespressione del tipo

det(A − λIn) = (−1)nλn + αn−1λn−1 + · · · + α0

dove α0, . . . , αn−1 sono scalari opportuni. Se poniamo allora

pA = α0 + α1x + · · · + αn−1xn−1 + (−1)nxn

la discussione precedente ci assicura che λ e un autovalore di f se e solo se euna radice del polinomio pA.

Esempio 6. Sia V uno spazio vettoriale su R di dimensione 3 e sia B =(u,v, w) una sua base. Definiamo un endomorfismo

f : V −→ V

ponendo

f(u) = u + v ; f(v) = u + w ; f(w) = −3u− v .

La matrice A associata ad f rispetto a B e

A =

1 1 −3

1 0 −1

0 1 0

.

Pertanto

det(A − λI3) = det

1 − λ 1 −3

1 −λ −1

0 1 −λ

= −λ3 + λ2 − 2

Page 180: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

172 Un’introduzione all’algebra lineare

(cioe α0 = −2, α1 = 0, α2 = 1), e si ha che

pA(x) = −x3 + x2 − 2 = −(x + 1)(x2 − 2x + 2) .

Da cio si deduce che λ = −1 e un autovalore (l’unico peraltro) di f .

Poiche gli autovalori di un endomorfismo f dipendono unicamente da fstesso, non certo da eventuali basi fissate in V , si deduce che la costruzionedel polinomio pA potrebbe dipendere dalla base B fissata e dalla matrice Aassociata ad f rispetto a B, ma le radici di pA, che sono appunto gli autovaloridi f , non possono dipendere dalla scelta di B. Si puo dire in effetti qualcosadi piu: il polinomio pA non dipende dalla base B scelta. Sia infatti B′ un’altrabase di V e A′ la matrice associata ad f rispetto a B′. Se C e la matrice dipassaggio da B a B′ si ha che

A′ = C−1AC

e quindidet(A′ − xIn) = det(C−1AC − xIn)

= det(C−1AC − C−1xInC)

= det(C−1(A − xIn)C)

= det(C−1) det(A − xIn) det(C)

= det(A − xIn)

e cioe i polinomi pA, pA′ coincidono. Ha quindi senso porre

(12) p = pA

poiche tale espressione non dipende dalla base B scelta.

Definizione 4.25. Il polinomio p definito dalla (12) prende il nome dipolinomio caratteristico dell’endomorfismo f .

In base a tale definizione ed al teorema precedente, si ha che λ e un autovalo-re di f se e solo se e una radice del polinomio caratteristico p di f . Osserviamoche, in base alla discussione precedente, il polinomio caratteristico p di un en-domorfismo f si puo definire ponendo

p = det(A − xIn)

dove A e la matrice associata ad f rispetto ad una qualunque base fissata.

Page 181: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 173

§5. Diagonalizzazione di un endomorfismo e di una ma-trice quadrata

Sia λ un autovalore di f .

Definizione 4.26. La molteplicita algebrica m(λ) dell’autovalore λ e lamolteplicita di λ come radice del polinomio caratteristico p.

Pertanto m(λ) = h se (x − λ)h divide p(x) ma (x − λ)h+1 non divide p(x).L’autovalore λ si dira semplice se m(λ) = 1, doppio se m(λ) = 2, triplo sem(λ) = 3, e cosı via.

Definizione 4.27. La molteplicita geometrica dell’autovalore λ e la dimen-sione dim Vλ dell’autospazio Vλ.

Osserviamo esplicitamente che la molteplicita geometrica di un autovalore λe sempre strettamente positiva. Infatti poiche λ e un autovalore, il sottospazioVλ e certamente non banale, e cioe dimVλ ≥ 1.

Teorema sulle Molteplicita 4.28. Se λ e un autovalore dell’endomorfismof , si ha che

dimVλ ≤ m(λ) .

Dimostrazione. Sia t = dim Vλ. E’ chiaro che t ≤ n e m(λ) ≤ n. SiaBλ = (v1, . . . ,vt) una base ordinata di Vλ. Si ha quindi che

(13) f(vi) = λvi ∀ i = 1, . . . , t .

Sia B = (v1, . . . ,vt,vt+1, . . . ,vn) una base ordinata di V ottenuta comple-tando la base Bλ di Vλ e A la matrice associata ad f rispetto a B. Abbiamoche

A =

t︷ ︸︸ ︷ n−t︷︸︸︷

λ 0 . . . 00 λ . . . 0...

.... . .

...0 0 . . . λ

H

O K

t

} n−t

dove H ∈ Mt,n−t, K ∈ Mn−t,n−t sono opportune matrici e O ∈ Mn−t,t ela matrice nulla. Infatti la (13) ci assicura che i vettori coordinati dei vettori

Page 182: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

174 Un’introduzione all’algebra lineare

immagine f(v1), . . . , f(vt) sono rispettivamente i vettori numerici colonna diordine n

λ0...00...0

;

0λ...00...0

; . . . ;

0...0λ0...0

t

n−t

che sono proprio le prime t colonne di A. Ma allora

p = det(A − xIn)

= det

λ − x 0 . . . 00 λ − x . . . 0...

.... . .

...0 0 . . . λ − x

H

O K − xIn−t

= (λ − x)t · det(K − xIn−t)

e quindi λ e una radice di p di molteplicita almeno t. 2

Sia ora λ un autovalore di f , B una base ordinata di V e A = MBB (f).

L’autospazio Vλ e l’insieme dei vettori w tali che il vettore delle componentiW di w in B sia una soluzione del sistema lineare omogeneo

(A − λIn)X = 0 .

Detto Sλ l’insieme delle soluzioni di tale sistema, abbiamo che Sλ ≤ Kn edim Sλ = n − ρ(A − λIn). Inoltre l’isomorfismo coordinato

ΦB : V −→ Kn

induce, per restrizione, un isomorfismo

φλ : Vλ −→ Sλ .

Pertanto dimVλ = n − ρ(A − λIn).

Al fine di fornire alcune caratterizzazioni della diagonalizzabilita di un en-domorfismo, premettiamo il seguente risultato.

Page 183: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 175

Lemma 4.29. Sia f un endomorfismo e siano λ1, . . . , λt degli autovalori dif , a due a due distinti. Inoltre, per ogni i = 1, . . . , t, sia vi un autovettoreassociato all’autovalore λi. Allora il sistema [v1, . . . ,vt] e indipendente.

Dimostrazione. Se t = 1, l’enunciato e ovvio. Procediamo allora per induzio-ne. Supponiamo che m ≥ 1 e che l’enunciato sia vero per ogni t ≤ m, e provia-mo che l’enunciato e vero anche per t = m+1. Siano dunque λ1, . . . , λm, λm+1

degli autovalori di f a due a due distinti e per ogni i = 1, . . . ,m+1 scegliamo unautovettore vi associato a λi. Vogliamo provare che il sistema [v1, . . . ,vm+1]e indipendente. Supponiamo allora che α1, . . . , αm, β siano degli scalari taliche

(14) α1v1 + · · · + αmvm + βvm+1 = 0 .

Bisogna verificare che tali scalari sono tutti nulli. Moltiplichiamo entrambi imembri della (14) per λm+1 ed otteniamo

α1λm+1v1 + · · · + αmλm+1vm + βλm+1vm+1 = 0 .

Applichiamo ora f ad entrambi i membri della (14). Otteniamo

α1λ1v1 + · · · + αmλmvm + βλm+1vm+1 = 0 .

Sottraendo membro a membro otteniamo

α1(λm+1 − λ1)v1 + · · · + αm(λm+1 − λm)vm = 0 .

Pertanto, poiche per ipotesi induttiva i vettori v1, . . . ,vm sono indipendenti,si avra che α1 = . . . = αm = 0. La (14) si riduce quindi a

βvm+1 = 0

e poiche vm+1 6= 0 avremo anche che β = 0. 2

Corollario 4.30. Siano λ1, . . . , λt degli autovalori a due a due distinti del-l’endomorfismo f . Allora il sottospazio

W = Vλ1+ · · · + Vλt

≤ V

e una somma diretta.

Dimostrazione. Sia w ∈ W . Esistono allora dei vettori

v1 ∈ Vλ1, . . . ,vt ∈ Vλt

Page 184: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

176 Un’introduzione all’algebra lineare

tali chew = v1 + · · · + vt .

Supponiamo che esistano anche dei vettori u1 ∈ Vλ1, . . . ,ut ∈ Vλt

tali che

w = u1 + · · · + ut .

Sottraendo membro a membro abbiamo che

0 = (v1 − u1) + · · · + (vt − ut) .

Applicando allora il lemma precedente deduciamo che

v1 − u1 = 0 , . . . , vt − ut = 0 ,

e cioe w si esprime in unico modo come somma di vettori degli autospaziVλ1

, . . . , Vλt. 2

Il seguente enunciato esprime delle condizioni equivalenti per la diagonaliz-zabilita di un endomorfismo, ed e noto come il Teorema Spettrale.

Teorema 4.31. Sia V uno spazio vettoriale di dimensione n su un campoK, sia f : V → V un endomorfismo e siano λ1, . . . , λm gli autovalori (a due adue distinti) di f . Le seguenti affermazioni sono equivalenti.

(i) f e diagonalizzabile;(ii) V = Vλ1

⊕ · · · ⊕ Vλm;

(iii)∑m

i=1 dimVλi= n;

(iv)∑m

i=1 m(λi) = n e dim Vλj= m(λj) per ogni j.

Dimostrazione. (i) ⇒ (ii) Sia B = (v1, . . . ,vn) una base di autovettori,ordinata in modo tale che compaiano prima tutti gli autovettori associati aλ1, poi quelli associati a λ2, e cosı via. Piu precisamente, esisteranno degliinteri positivi

1 ≤ h1 < h2 < . . . < hm = n

tali che

v1, . . . ,vh1∈Vλ1

; vh1+1, . . . ,vh2∈Vλ2

; . . . ; vhm−1+1, . . . ,vn∈Vλm.

Ma allora

dimVλ1≥ h1 , dim Vλ2

≥ h2 − h1 , . . . , dimVλm≥ n − hm−1 .

Page 185: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 177

Pertanto il sottospazio

W = Vλ1⊕ · · · ⊕ Vλm

≤ V

ha dimensione

dim W ≥ h1 + (h2 − h1) + · · · + (n − hm−1) = n .

Poiche la dimensione di W non puo superare quella di V , si avra dim W = ne quindi W = V .(ii) ⇒ (iii) Si deduce da risultati gia acquisiti sulle somme dirette.(iii) ⇒ (ii) Posto

W = Vλ1⊕ · · · ⊕ Vλm

≤ V

abbiamo che

dimW =m∑

i=1

dim Vλi= dimV

e quindi W = V .(ii) ⇒ (i) Scegliamo delle basi B1,B2, . . . ,Bm di Vλ1

, Vλ2, . . . , Vλm

rispettiva-mente. Posto

B = B1 ∪ . . . ∪ Bm

si avra che B e una base di V , per la Proposizione 2.44, costituita da autovet-tori.(iii) ⇒ (iv) Poiche il polinomio caratteristico p ha grado n, e chiaro che lasomma delle molteplicita algebriche degli autovalori non puo superare n. D’al-tra parte dimVλi

≤ m(λi), per ogni i. Si deduce che la somma delle moltepli-cita algebriche degli autovalori e proprio n. Inoltre si avra dimVλi

= m(λi),per ogni i, perche se fosse dim Vλj

< m(λj) per qualche j, avremmo anche che

m∑

i=1

m(λi) >m∑

i=1

dimVλi= n

e cio non e possibile.(iv) ⇒ (iii) Ovvio. 2

Poiche, come gia osservato, fissata una base ordinata B e posto A = MBB (f),

si ha che

dim Vλi= n − ρ(A − λiIn)

Page 186: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

178 Un’introduzione all’algebra lineare

la (iii) del teorema precedente si puo anche scrivere

n =

m∑

i=1

(n − ρ(A − λiIn)

)

e la (iv)m∑

i=1

m(λi) = n ; m(λj) = n − ρ(A − λjIn) (∀ j) .

Osserviamo che la condizione∑m

i=1 m(λi) = n equivale a dire che il polinomiocaratteristico p e completamente riducibile, ovvero che p puo esprimersi comeprodotto di fattori lineari, o anche

p = (−1)n(x − λ1)m(λ1) · . . . · (x − λm)m(λm) .

Corollario 4.32. Se f ammette n autovalori distinti, allora f e diagonaliz-zabile.

Dimostrazione. Siano λ1, . . . , λn gli autovalori di f . Poiche la dimensionedi ogni autospazio e almeno 1, la somma delle dimensioni degli autospazi saraalmeno n. D’altra parte tale somma non puo superare n, e quindi, per la (iii)del teorema precedente, f e diagonalizzabile. 2

Il concetto di diagonalizzabilita puo anche essere studiato considerando lematrici quadrate invece degli endomorfismi. Ricordiamo che se A e una ma-trice quadrata n × n, e definito un endomorfismo

ωA : Kn −→ Kn

che ammette A come matrice associata rispetto alla base canonica B di Kn.

Definizione 4.33. Uno scalare λ (rispettivamente un vettore numerico Wdi Kn) si dice autovalore (autovettore rispettivamente) di A se e un autovalore(autovettore rispettivamente) di ωA.

Definizione 4.34. La matrice A si dice diagonalizzabile se tale e ωA.

Abbiamo gia osservato che l’endomorfismo ωA e diagonalizzabile se e solose esiste una base ordinata D tale che la matrice D associata ad ωA rispetto

Page 187: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 179

a D sia diagonale. In tal caso, detta C la matrice di passaggio da D a B, siavra che C e invertibile e

(15) D = C−1AC .

Viceversa, se esistono una matrice invertibile C ed una matrice diagonale Dtali che valga la (15), allora detta D la base di Kn tale che C sia la matrice dipassaggio da D a B, si ha che D e la matrice associata ad ωA rispetto a D e ωA

risulta diagonalizzabile. Pertanto A e diagonalizzabile se e solo se esistono unamatrice diagonale D e una martice invertibile C tali che valga la (15), ovverose e solo se A e simile ad una matrice diagonale. In una tale situazione, si diceche C diagonalizza A. Osserviamo che le colonne di C costituiscono una basedi autovettori di ωA. Infatti, detti λ1, . . . , λn gli elementi (non necessariamentedistinti) della diagonale di D, dalla (15) si deduce che

ACj = λjCj ∀ j .

Concludiamo il capitolo con uno schema che riassume il modo di procedereper studiare la diagonalizzabilita di un endomorfismo f : V → V . Sia B unabase fissata e sia A = MB

B (f).

(a) Trovare gli autovalori di f , ovvero le radici λ1, . . . , λm del polinomio carat-teristico p = det(A−xIn). In altri termini, studiare l’equazione algebricadet(A − xIn) = 0.

(b) Determinare le molteplicita algebriche m(λ1), . . . ,m(λm) degli autovaloridi f .

(c) Sia∑m

i=1 m(λi) = t. Se t < n allora f non e diagonalizzabile. Se t = n,determinare la molteplicita geometrica

dim Vλi= n − ρ(A − λiIn)

dell’autovalore λi. Se, per ogni i, essa coincide con m(λi), alloraf e diagonalizzabile.

Nel punto (c), se t = n, basta verificare che dim Vλi= m(λi) solo per gli

autovalori multipli di f . Infatti, se ad esempio λ e un autovalore semplice,deve necessariamente accadere che dimVλ = m(λ) = 1.

Nel caso f sia diagonalizzabile, se occorre determinare una base B di auto-vettori di f , si deve determinare una base Bλi

di Vλiper ogni i e porre

B = Bλ1∪ . . . ∪ Bλm

.

Page 188: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

180 Un’introduzione all’algebra lineare

In generale, fissata una qualunque base B, e posto A = MBB (f), se λ e un

autovalore e w ∈ V , detto W il vettore delle componenti di w in B, avremoche w ∈ Vλ se e solo se W e soluzione del sistema lineare omogeneo

(16) (A − λIn)X = 0 .

Pertanto il sistema (16) e una rappresentazione cartesiana del sottospazio Vλ inB. Posto h = dimVλ, per quanto visto nel Capitolo 7, il sistema (16) e equiva-lente ad un suo sottosistema costituito da n−h equazioni (in n incognite) che sirisolve, con il metodo del 2o Teorema di Unicita, descrivendo tutte le soluzioniin funzione di h parametri t1, . . . , th. Allora una base Bλ = (w1, . . . ,wh) diVλ si ottiene come segue. Per ogni j = 1, . . . , h, si pone ti = δi,j , si determinala soluzione Wj associata a tali valori dei parametri e si considera il vettorewj che ammette Wj come vettore coordinato in B.

Page 189: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 181

Esercizi.

1. Sia V uno spazio vettoriale reale e sia [u,v, w] una sua base. Consideriamo, alvariare del parametro reale t, l’endomorfismo

f : V −→ V

definito ponendo

f(u) = u + tv ; f(v) = tu ; f(w) = t2u − tv + w .

Studiare la diagonalizzabilita f al variare del parametro t.

2. Sia f : R2 → R2 l’endomorfismo definito ponendo

f(a, b) = (ha + k2b, a − hb) .

Studiare la diagonalizzabilita di f al variare dei parametri reali h, k.

3. Costruire un endomorfismo f : R2 → R2 tale che(i) ker f 6= {0};(ii) lo scalare λ = 2 sia un autovalore di f .

e provare che tale endomorfismo e diagonalizzabile.

4. Sia V uno spazio vettoriale su R. Sia inoltre [u,v, w] una base di V . Si definiscaun endomorfismo Φ tale che

(i) u sia un autovettore di autovalore associato −1;(ii) u + v sia un autovettore di autovalore associato 0;(iii) u + v + w sia un autovettore di autovalore associato 2

e se ne provi l’unicita. Si determini inoltre Φ(u − v) e Φ−1(u− v).

5. Costruire un isomorfismo diagonalizzabile, distinto dall’identita, f : R2 → R2 taleche il vettore v = (2, 1) sia un autovettore con autovalore associato uguale ad 1.

6. SiaΦ : R3 −→ R3

l’endomorfismo definito ponendo

Φ(a, b, c) = (2a + b, 2b + c, a + 2c) .

Trovare gli autovalori di Φ e studiarne la eventuale diagonalizzabilita.

7. Determinare un endomorfismo

Φ : R4 −→ R4

Page 190: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

182 Un’introduzione all’algebra lineare

tale che(i) 1 sia un autovalore di Φ tale che µ(1) = 2 = dimV1;(ii) Φ non sia un epimorfismo;(iii) Φ non sia diagonalizzabile.

8. Sia Φ : R2 → R2 l’endomorfismo definito ponendo

Φ(x, y) = (hx, ky)

dove h, k sono parametri reali. Trovare per quali valori di tali parametri l’endomor-fismo risulta diagonalizzabile.

9. SiaΦ : R4 −→ R4

definito ponendoΦ(a, b, c, d) = (b, a, 2c + d, c) .

(i) Studiare la diagonalizzabilita di Φ, ovvero della matrice A ad esso associatarispetto alle basi canoniche;

(ii) trovare tre autovettori indipendenti.

10. Sia f : R3 → R3 l’endomorfismo definito ponendo

f(a, b, c) = (a +1

2b + κc,−1

2a,

1

2c) .

Dimostrare che non esiste alcun valore di κ ∈ R per cui f e diagonalizzabile.

11. SiaΦ : R4 −→ R4

l’endomorfismo definito ponendo

Φ(a, b, c, d) = (a + b, b + c, c + d, d) .

Studiare la diagonalizzabilita di Φ, ovvero della matrice A ad esso associata rispettoalle basi canoniche.

12. Sia V uno spazio vettoriale su R e sia [u,v] una sua base. Definiamo un endomor-fismo

f : V −→ V

ponendof(u) = u + κv ; f(v) = κ2u + v

dove κ e un parametro reale. Studiare la diagonalizzabilita di f al variare di κ.

Page 191: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 4 – Matrici e applicazioni lineari 183

13. Sia V uno spazio vettoriale su R e sia [u,v,w, z] una sua base. Definiamo unendomorfismo f : V → V ponendo

f(u) = v ; f(v) = u + v ; f(w) = u + w ; f(z) = u + z .

Studiare la diagonalizzabilita di f .

14. Sia

A =

(10 −5

8 −3

)

e sia φ : R2 → R2 l’applicazione lineare associata ad A rispetto alle basi standard,ovvero si ponga

φ(X) = A · X X =

(x1

x2

)∈ R2 .

Si calcolino gli autovalori di φ e si determini una base di R2 costituita da autovettori.

15. Sia A ∈ M2,2 una matrice 2×2 su R e sia φ : R2 → R2 l’applicazione lineare ad essaassociata rispetto alle basi standard. Si supponga che φ abbia un solo autovalore,che denoteremo con α. Si dimostri che

(i) A e coniugata alla matrice

(α 0

0 α

)

oppure

(ii) A e coniugata alla matrice

(α 1

0 α

)

Si ricorda che due matrici A, B sono coniugate se e solo se esiste una matriceinvertibile C tale che B = C−1AC.

16. Sia φ : R2 → R2 l’applicazione lineare definita ponendo

φ(x, y) = (x + κy, (1 + κ)x + y) .

Studiare la diagonalizzabilita di φ al variare del parametro reale κ.

17. Determinare un endomorfismo

f : R3 −→ R3

di R3 tale che(i) f risulti diagonalizzabile;(ii) 2 sia un autovalore doppio e v = (1, 0, 1) sia un autovettore ad esso associato;(iii) ker f 6= {(0, 0, 0)}.

18. Sia V lo spazio vettoriale su Q dato da

V := {α + β√

2 | α, β ∈ Q} .

Page 192: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

184 Un’introduzione all’algebra lineare

Dato a ∈ V , sia φa : V → V l’applicazione lineare definita da

φa(x) := a · x ,

dove la moltiplicazione e quella tra numeri reali. Dimostrare che φa e diagonaliz-zabile se e solo se a ∈ Q.

19. Sia V uno spazio vettoriale reale finitamente generato e siano f, g : V → V dueendomorfismi tali che g ◦ f = f ◦ g. Si dimostri che se v ∈ V e un autovettore di fcon autovalore associato λ allora anche g(v) e un autovettore di f con autovaloreassociato λ, a meno che non sia g(v) = 0.

20. Sia V uno spazio vettoriale su un campo K, [u,v, w] una sua base e g : V → Vl’endomorfismo definito ponendo

g(u) = u + v ; g(v) = −v ; g(w) = v + w .

Studiare la diagonalizzabilita di g.

21. Costruire una applicazione lineare : R3 → R3 tale che(i) dimker f = 1;(ii) il vettore u = (1, 1, 1) sia un autovettore;(iii) f risulti diagonalizzabile.

Page 193: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Capitolo 5

Spazi vettoriali euclidei

§1. Forme bilineari e prodotti scalari

Siano V, V ′,W degli spazi vettoriali su uno stesso campo K.

Definizione 5.1. Una applicazione

f : V × V ′ −→ W

si dice bilineare se per ogni α, β ∈ K, u,v ∈ V, u′,v′ ∈ V ′ si ha che(i) f(αu + βv,v′) = αf(u,v′) + βf(v,v′)(ii) f(v, αu′ + βv′) = αf(v,u′) + βf(v,v′)

Le (i) e (ii) si dicono proprieta di linearita sulla prima e sulla seconda com-ponente rispettivamente. Osserviamo che se f e una applicazione bilineareallora

f(0,v′) = 0 = f(v,0) ∀ v ∈ V, v′ ∈ V ′

come il lettore potra facilmente verificare. Noi siamo interessati al caso parti-colare in cui V = V ′ e W = K.

Definizione 5.2. Si dice forma bilineare su V una applicazione bilineare

(1) s : V × V −→ K .

Definizione 5.3. La forma bilineare (1) si dice simmetrica se

s(u,v) = s(v,u) ∀ u,v ∈ V ,

antisimmetrica, o anche alternante, se

s(u,v) = −s(v,u) ∀ u,v ∈ V .

185

Page 194: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

186 Un’introduzione all’algebra lineare

Una forma bilineare simmetrica si dice anche prodotto scalare su V . Forni-remo ora alcuni esempi.

Esempio 1. Sia dimV = 2 e sia B = (e1, e2) una base ordinata di V . Perogni w, z ∈ V , detti (w1, w2), (z1, z2) i vettori delle componenti di w, z inB, poniamo

s(w, z) = w2z2 .

Esempio 2. Sia dimV = 2 e sia B = (e1, e2) una base ordinata di V . Perogni w, z ∈ V , detti (w1, w2), (z1, z2) i vettori delle componenti di w, z inB, poniamo

s(w, z) = w2z1 + w1z2 + w2z2 .

Esempio 3. Sia dimV = 2 e sia B = (e1, e2) una base ordinata di V . Perogni w, z ∈ V , detti (w1, w2), (z1, z2) i vettori delle componenti di w, z inB, poniamo

s(w, z) = w2z1 + w2z2 .

Esempio 4. Sia V = Kn. Se X, Y ∈ Kn e si ha che

X =

x1

...

xn

; Y =

y1

...

yn

poniamo

s(X, Y ) =

n∑

i=1

xiyi .

Esempio 5. Sia V = R3 e consideriamo la matrice

A =

1 0 1

0 1 0

1 0 0

.

Se X,Y ∈ R3 e si ha che

X =

x1

x2

x3

; Y =

y1

y2

y3

Page 195: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 187

poniamos(X, Y ) = XtAY = x1y1 + x3y1 + x2y2 + x1y3 .

Esempio 6. Sia V = R3 e consideriamo la matrice

B =

1 0 1

0 1 0

1 0 1

.

Se X,Y ∈ R3 e si ha che

X =

x1

x2

x3

; Y =

y1

y2

y3

poniamo

s(X,Y ) = Xt · A · Y = x1y1 + x3y1 + x2y2 + x1y3 + x3y3 .

Esempio 7. Sia V = R2 e definiamo s ponendo

s(

(x1, x2), (y1, y2))

= x1y1 − x2y2 .

Il lettore potra verificare per esercizio che s e bilineare in tutti gli esempiprecedenti. Inoltre s e simmetrica in tutti gli esempi tranne il 3. Il prodottoscalare dell’Esempio 4 e noto come prodotto scalare standard in Kn.

Definizione 5.4. Un prodotto scalare s : V × V → K si dice non degenerese

(2) s(u,v) = 0 ∀ u ∈ V ⇒ v = 0

o equivalentemente

(2′) ∀ v 6= 0 ∃ u ∈ V | s(u,v) 6= 0 .

Page 196: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

188 Un’introduzione all’algebra lineare

Quando cio non accade diremo che s e un prodotto scalare degenere.

Quindi s sara degenere se e solo se

∃ v 6= 0 | s(u,v) = 0 ∀ u ∈ V .

I prodotti scalari degli Esempi 2,4,5,7 sono non degeneri. Sono invece dege-neri quelli degli Esempi 1,6. Vedremo in seguito come verificare se un prodottoscalare e non degenere. Comunque osserviamo che nell’Esempio 1 per ogniz ∈ V si ha che

s(z, e1) = 0

ma e1 6= 0 (e quindi s e degenere). Analogamente, se nell’Esempio 6 conside-riamo il vettore Y = (1, 0,−1), abbiamo che

s(X,Y ) = 0 ∀ X ∈ R3 .

Definizione 5.5. Sia s un prodotto scalare in V . Un vettore non nullou ∈ V si dice isotropo se s(u,u) = 0.

Osserviamo che se non ci sono vettori isotropi allora s e non degenere.Altrimenti esisterebbe infatti un vettore non nullo v tale che s(u,v) = 0 perogni u ∈ V . In particolare si avrebbe quindi che s(v,v) = 0, e cioe v sarebbeun vettore isotropo. Viceversa, se s e non degenere possono esistere vettoriisotropi. Ad esempio, se si considera il vettore (1,−1) ∈ R2 nell’Esempio 7, siha che

s((1,−1), (1,−1)

)= 0 .

Se in V e stata fissata una base, e possibile costruire una matrice a partireda una forma bilineare al modo seguente. Consideriamo la forma bilineare(1) e sia B = (e1, . . . , en) una base ordinata di V . Definiamo una matriceA = (ai,j) ∈ Mn,n(K) ponendo

ai,j = s(ei, ej) .

Si dice che A e la matrice associata ad s rispetto a B. Se u,v ∈ V e

X =

x1...

xn

; Y =

y1...

yn

Page 197: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 189

sono i vettori delle componenti di u,v in B, abbiamo che

s(u,v) = s( n∑

i=1

xiei,

n∑

j=1

yjej

)

=n∑

i,j=1

xiyjs(ei, ej)

=n∑

i,j=1

xiyjai,j

= Xt · A · Y

Viceversa, fissati V e B come sopra, e considerata una matrice A ∈ Mn,n(K),se per ogni coppia di vettori (u,v) ∈ V × V si pone

s(u,v) = Xt · A · Y

dove X,Y sono i vettori numerici delle componenti di u,v in B, si verificache l’applicazione s cosı definita e bilineare (usando la distributivita e le altreproprieta del prodotto righe per colonne tra matrici). Ad esempio, le matriciassociate alle forme bilineari degli Esempi 1,2,3 rispetto alla base B = (e1, e2),e alle forme bilineari degli Esempi 4,5,6,7 rispetto alle basi canoniche, sonorispettivamente (

0 00 1

);

(0 11 1

);

(0 01 1

); In

1 0 10 1 01 0 0

;

1 0 10 1 01 0 1

;

(1 00 −1

).

Esempio 8. Decomposizione di una forma bilineare.Sia V uno spazio vettoriale reale e indichiamo con Bil(V ), Sym(V ) e Alt(V )rispettivamente l’insieme delle forme bilineari, simmetriche e alternanti suV . Possiamo dare a Bil(V ) una struttura di spazio vettoriale introducen-do una operazione interna (addizione) ed una esterna con operatori in R(moltiplicazione esterna) al modo seguente. Siano f, g ∈ Bil(V ), λ ∈ R edefiniamo due applicazioni

h, k : V × V −→ R

ponendo

h(u,v) = f(u,v) + g(u,v) ; k(u,v) = λf(u, v) .

Page 198: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

190 Un’introduzione all’algebra lineare

Si verifica agevolmente che h, k ∈ Bil(V ) e si pone

f ⋆ g = h ; λ ∗ f = k .

Il lettore potra verificare che la struttura (Bil(V ); ⋆, ∗) e uno spazio vet-toriale, che i sottoinsiemi Sym(V ) e Alt(V ) sono sottospazi di Bil(V ) eche Sym(V ) ∩ Alt(V ) e il sottospazio banale. Se f ∈ Bil(V ) definiamof1, f2 ∈ Bil(V ) ponendo

f1(u,v) =1

2

(f(u,v) + f(v,u)

); f2(u, v) =

1

2

(f(u,v) − f(v, u)

).

Si verifica che f1 ∈ Sym(V ), e f2 ∈ Alt(V ). E’ poi evidente che f = f1 +f2.Pertanto Bil(V ) = Sym(V ) + Alt(V ) e quindi anche

Bil(V ) = Sym(V ) ⊕ Alt(V ) .

Definiamo due applicazioni

ω1 : Bil(V ) −→ Sym(V ) ; ω2 : Bil(V ) −→ Alt(V )

ponendo ωi(f) = fi. Tali applicazioni sono epimorfismi e si dicono rispet-tivamente operatore di simmetrizzazione e di antisimmetrizzazione. Osser-viamo che kerω1 = Alt(V ) = imω2 e kerω2 = Sym(V ) = imω1.

Proposizione 5.6. Sia V uno spazio vettoriale sul campo K e sia B =(e1, . . . , en) una sua base ordinata, s una forma bilineare su V e A la matriceassociata ad s rispetto a B. Allora s e un prodotto scalare se e solo se A esimmetrica.

Dimostrazione. Sia s un prodotto scalare. Allora per ogni u,v ∈ V si hache s(u,v) = s(v,u). In particolare quindi

ai,j = s(ei, ej) = s(ej , ei) = aj,i

e la matrice A risulta simmetrica.Viceversa, supponiamo che A sia simmetrica. Se u,v ∈ V e X,Y sono i vettoridelle componenti di u,v in B, si ha che s(u,v) = Xt · A · Y . Xt · A · Y e unoscalare, ovvero una matrice di tipo 1 × 1, e quindi coincide con lo scalare(Xt · A · Y )t. D’altra parte A = At (A e simmetrica), e quindi

s(u,v) = Xt · A · Y = (Xt · A · Y )t = Yt · At · X = Yt · A · X = s(v,u)

e quindi s e un prodotto scalare. 2

La seguente proposizione ci consente di riconoscere se un prodotto scalare edegenere.

Page 199: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 191

Proposizione 5.7. Sia V uno spazio vettoriale sul campo K e sia B =(e1, . . . , en) una sua base ordinata, s un prodotto scalare su V e A la matriceassociata ad s rispetto a B. Allora s e non degenere se e solo se A e nondegenere.

Dimostrazione. Sia s degenere e sia v un vettore non nullo tale che s(w,v) =0 per ogni w ∈ V . Se indichiamo con

Y =

y1...

yn

; W =

w1...

wn

i vettori delle componenti di v e del generico vettore w in B, abbiamo che

Wt · A · Y = 0 ∀ W ∈ Kn

e quindi, come osservato in precedenza, deve accadere che

A · Y = 0

ovvero il vettore numerico non nullo Y e una soluzione (non banale) del sistemalineare omogeneo

A · X = 0 .

Pertanto avremo detA = 0 e A risulta degenere.Il viceversa si prova in modo analogo. 2

Studiamo ora la relazione che intercorre tra due matrici associate ad unostesso prodotto scalare rispetto a basi distinte. Sia dunque V uno spaziovettoriale dotato di un prodotto scalare s e siano

B = (e1, . . . , en) ; B = (e1, . . . , en)

due basi ordinate di V . Siano inoltre A, A le matrici associate ad s rispetto atali basi, e poniamo

B = MBB

.

Per ogni u,v ∈ V , indicati con X,Y i vettori delle componenti di u,v in B econ X, Y i vettori delle componenti di u,v in B, si ha che

s(u,v) = Xt · A · Y= Xt · A · Y= (B · X)t · A · (B · Y )

= Xt · Bt · A · B · Y .

Page 200: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

192 Un’introduzione all’algebra lineare

Tale relazione sussiste per ogni u,v ∈ V , cioe

Xt · A · Y = Xt · Bt · A · B · Y ∀ X, Y ∈ Kn

e da cio si deduce che

A = Bt · A · B .

Quando in V e definito un prodotto scalare s, si puo introdurre la nozionedi ortogonalita in V (rispetto ad s).

Definizione 5.8. Siano u,v ∈ V . Diremo che u e v sono ortogonali, escriveremo u ⊥ v, se s(u,v) = 0. Se poi S ⊆ V diremo che u e ortogonale adS, o anche che u e normale ad S, e scriveremo u ⊥ S se u ⊥ v per ogni v ∈ S.

Se invece due vettori u,v sono proporzionali, ovvero esiste uno scalare λtale che v = λu oppure u = λv (in simboli u ∝ v), si dice talvolta che u e vsono paralleli, e si scrive u ‖ v.

Definizione 5.9. Sia S ⊆ V una parte di V . Definiamo un altro sottoinsiemeS⊥ di V ponendo

S⊥ ={u ∈ V | u ⊥ S

}.

Proposizione 5.10. Per ogni parte S di V si ha che S⊥ e un sottospazio diV .

Dimostrazione. E’ chiaro che 0 ∈ S⊥. Inoltre, se u,u′ ∈ S⊥ e α,α′ ∈ K,∀ w ∈ S si ha che

s(αu + α′u′,w) = αs(u,w) + α′s(u′,w) = 0

e quindi αu + α′u′ ∈ S⊥. 2

Definizione 5.11. Sia W ≤ V . Il sottospazio W⊥ ≤ V si dice complementoortogonale di W in V (rispetto ad s).

Osserviamo che se z ∈ W ∩ W⊥, z 6= 0, allora, in particolare, z ⊥ z, cioes(z, z) = 0 e z e isotropo. Pertanto, se non esistono vettori isotropi si ha cheW ∩ W⊥ = {0} e il sottospazio congiungente W + W⊥ e una somma diretta.

Page 201: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 193

Proposizione 5.12. Sia W ≤ V e sia B = [w1, . . . ,wr] una base di W .Allora un vettore u e ortogonale a W se e solo se u ⊥ wi per ogni i = 1, . . . , r.

Dimostrazione. Se u ∈ W⊥, e chiaro che u ⊥ wi per ogni i = 1, . . . , r.Viceversa, sia s(u,wi) = 0 per ogni i = 1, . . . , r. Per ogni w ∈ W esistonodegli scalari α1, . . . , αr tali che w =

∑i αiwi. Pertanto

s(u,w) = s(u,

r∑

i=1

αiwi

)=

r∑

i=1

αis(u,wi) = 0

e quindi u ⊥ w. 2

§2. Spazi vettoriali euclidei

Restringiamo ora ulteriormente la nostra attenzione e consideriamo il casoK = R.

Definizione 5.13. Sia V uno spazio vettoriale su R e sia s un prodottoscalare in V . Si dice che s e definito positivo se

s(u,u) > 0 ∀ u 6= 0 .

Il lettore potra agevolmente verificare che se s e definito positivo allora se anche non degenere, e non esistono vettori isotropi in V rispetto ad s. Inparticolare quindi, per ogni sottospazio W di V si ha che W ∩ W⊥ = {0}.

Definizione 5.14. Uno spazio vettoriale euclideo e una coppia (V, s), doveV e uno spazio vettoriale su R ed s e un prodotto scalare definito positivo suV .

D’ora in avanti considereremo solo spazi vettoriali euclidei finitamente gene-rati, e scriveremo semplicemente V in luogo di (V, s). Il prodotto scalare tradue vettori u,v in uno spazio vettoriale euclideo viene indicato, oltre che conil simbolo s(u,v), anche con i simboli

〈u,v〉 ; u · v .

Teorema (disuguaglianza di Schwarz) 5.15. Per ogni u,v ∈ V si ha che

(3) (u · v)2 ≤ (u · u)(v · v) .

Page 202: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

194 Un’introduzione all’algebra lineare

Se poi i vettori u,v sono indipendenti, allora

(3′) (u · v)2 < (u · u)(v · v) .

Dimostrazione. Se u = 0 o v = 0 la (3) e ovvia. Siano dunque u,v 6= 0.Per ogni λ ∈ R si ha che

0 ≤ (λu + v) · (λu + v) = (u · u)λ2 + 2(u · v)λ + v · v .

Pertanto il discriminante (ridotto) della disequazione di II grado

(u · u)x2 + 2(u · v)x + v · v ≥ 0

e non positivo, ovvero

(u · v)2 − (u · u)(v · v) ≤ 0

e cio equivale alla (3). Se poi u,v sono indipendenti si ha che λu + v 6= 0 perogni scalare λ, e quindi

0 < (λu + v) · (λu + v) = (u · u)λ2 + 2(u · v)λ + v · v

e, ragionando come sopra, si deduce la (3′). 2

Definizione 5.16. Per ogni u ∈ V poniamo

‖u‖ = u · u ; |u| =√

u · u .

Gli scalari ‖u‖, |u| si dicono rispettivamente norma e lunghezza (o anche mo-dulo) di u.

La (3) puo quindi anche scriversi come

(u · v)2 ≤ ‖u‖ · ‖v‖

o anche

(4) |u · v| ≤ |u| · |v| .

In questa ultima formulazione della disuguaglianza di Schwarz si e usato ilsimbolo | | sia per indicare la lunghezza di un vettore che per indicare il valoreassoluto di un numero reale.

Page 203: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 195

Teorema 5.17. Per ogni u,v ∈ V e per ogni λ ∈ R si ha che(a) |u| ≥ 0;(b) |u| = 0 ⇐⇒ u = 0;(c) |λu| = |λ| |u|;(d) |u + v| ≤ |u| + |v|.

Dimostrazione. Le parti (a),(b),(c) dell’enunciato sono evidenti. Inoltre

|u + v|2 = ‖u + v‖ = (u + v) · (u + v)

= u · u + 2u · v + v · v≤ u · u + 2|u · v| + v · v≤ u · u + 2|u| |v| + v · v= |u|2 + 2|u| |v| + |v|2

=(|u| + |v|

)2

e cio prova la (d). 2

Siano ora dati due vettori u,v. Vogliamo introdurre la nozione di angolo(non orientato) θ = uv tra u e v. Se u = 0 oppure v = 0 poniamo θ = 0. Seinvece u,v sono vettori non nulli, θ e l’unico scalare, nell’intervallo [0, π], taleche

(5) cos θ =u · v|u| |v| ∈ [−1, 1] .

La (5) ha senso, come si deduce dalla disuguaglianza di Schwarz nella formu-lazione (4). Osserviamo che u · v = |u| |v| cos θ.

Teorema (di Pitagora) 5.18. Siano u,v ∈ V e sia u ⊥ v. Allora

‖u + v‖ = ‖u‖ + ‖v‖ .

Dimostrazione.

‖u + v‖ = (u + v) · (u + v) = u · u + 2u · v + v · v = ‖u‖ + ‖v‖

in quanto u · v = 0. 2

Consideriamo ora un sistema S = [v1, . . . ,vm] di vettori di uno spazioeuclideo V .

Page 204: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

196 Un’introduzione all’algebra lineare

Definizione 5.19. Il sistema S si dice ortogonale se

vi · vj = 0 ∀ i 6= j .

Diremo invece che S e ortonormale se

vi · vj = δi,j ∀ i, j .

Esempio 9. In R2 con il prodotto scalare standard, il sistema

S = [(1, 1), (1,−1)]

e ortogonale, ma non ortonormale. Il sistema

S′ =

[(1√2,

1√2

),

(1√2,− 1√

2

)]

e invece ortonormale. In R3 con il prodotto scalare standard, per ogni t ∈ Ril sistema

S = [(−1, sen t, cos t), (1, sen t, cos t)]

e ortogonale, ma non ortonormale. Il sistema

S′ =

[(− 1√

2,sen t√

2,cos t√

2

),

(1√2,sen t√

2,cos t√

2

)]

e invece ortonormale.

Proposizione 5.20. Sia S = [v1, . . . ,vm] un sistema ortogonale di vettorinon nulli di uno spazio vettoriale euclideo V . Allora S e indipendente.

Dimostrazione. Siano α1, . . . , αm degli scalari tali che

α1v1 + · · · + αmvm = 0 .

Allora per ogni i si ha che

0 = 0 · vi = (α1v1 + · · · + αmvm) · vi = αivi · vi .

Poiche il prodotto scalare e definito positivo e vi 6= 0, si ha che vi · vi 6= 0 equindi αi = 0, per ogni i. 2

Page 205: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 197

Proposizione 5.21. Sia S = [v1, . . . ,vm] un sistema ortonormale di vettoridi uno spazio vettoriale euclideo V , e supponiamo che il vettore u ∈ V dipendada S. Allora

u =

m∑

i=1

(u · vi)vi .

Dimostrazione. Se u dipende dal sistema S esistono degli scalari β1, . . . , βm

tali che

u =

m∑

j=1

βjvj .

Pertanto

u · vi =

( m∑

j=1

βjvj

)· vi =

m∑

j=1

βjδj,i = βi

per ogni i. 2

Corollario 5.22. Sia B = (v1, . . . ,vn) una base ordinata ortonormale dellospazio vettoriale euclideo V . Allora per ogni u ∈ V si ha che

u =n∑

i=1

(u · vi)vi .

In generale, dati due vettori u,w ∈ V , con w 6= 0, il vettore u·w‖w‖w si dice

proiezione ortogonale di u su w e lo scalare u·w‖w‖

prende il nome di coefficiente

di Fourier di u rispetto a w. Il corollario precedente ci dice quindi che lecomponenti di un vettore u in una base ortonormale sono proprio i coefficientidi Fourier di u rispetto ai vettori di tale base. Osserviamo che u puo scriversicome

(6) u =u · w‖w‖ w +

(u − u ·w

‖w‖ w

).

Il primo addendo della (6) e proporzionale a w. Il secondo addendo invece eortogonale a w. Infatti

u ·w‖w‖ w ·

(u− u · w

‖w‖ w

)=

u ·w‖w‖ (w · u) − u ·w

‖w‖u ·w‖w‖ (w · w) = 0 .

Pertanto la (6) si dice decomposizione ortogonale di u rispetto a w. Si vedefacilmente che una decomposizione siffatta e unica. Infatti, se

u = w′ + z′ = w′′ + z′′

Page 206: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

198 Un’introduzione all’algebra lineare

con w′,w′′ proporzionali a w e z′, z′′ ortogonali a w, allora

w′ − w′′ + z′ − z′′ = 0 .

Poiche w′ − w′′ ⊥ z′ − z′′, se fosse w′ 6= w′′ (e quindi anche z′ 6= z′′), avrem-mo che la somma di due vettori non nulli ortogonali (e quindi indipendenti)sarebbe banale, e cio e assurdo.

Esempio 10. Sia A ∈ GLn(R). Consideriamo la spazio vettoriale euclideoRn (con il prodotto scalare standard). Ricordiamo che A ∈ On(R) (ovveroA e una matrice ortogonale) quando A−1 = At. Abbiamo che A ∈ On(R)se e solo se le sue righe costituiscono una base ortonormale di Rn. Infatti,se A ∈ On(R) si ha che

A · At = A · A−1 = In = (δi,j) .

Quindi Ai · (At)j = δi,j . Ma (At)

j = Aj e dunque il sistema delle righe di Ae ortonormale, e quindi e anche indipendente ed e una base avendo ordinen. Il viceversa e analogo. Un simile ragionamento puo essere fatto anchecon le colonne di A.

§3. Il procedimento di Gram-Schmidt

Vogliamo ora studiare un metodo per costruire una base ortonormale a partireda una base ordinata arbitraria. Tale metodo prende il nome di procedimentodi ortonormalizzazione di Gram–Schmidt. Sia dunque B = (u1, . . . ,un) unabase ordinata dello spazio vettoriale euclideo V . Costruiamo una base orto-gonale B′ = (v1, . . . ,vn) al modo seguente. Poniamo v1 = u1. Se n = 1,abbiamo gia costruito una base ortogonale di V . Se invece n > 1, supponiamoinduttivamente di aver gia costruito un sistema ortogonale v1, . . . ,vm (m ≥ 1,m < n) in modo tale che

L(u1, . . . ,um) = L(v1, . . . ,vm) .

Poniamo

vm+1 = um+1 −m∑

i=1

um+1 · vi

‖vi‖vi .

Page 207: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 199

Il sistema S = [v1, . . . ,vm,vm+1] e ancora ortogonale. Infatti, per ogni j =1, . . . ,m

vm+1 · vj =

(um+1 −

m∑

i=1

um+1 · vi

‖vi‖vi

)· vj

= um+1 · vj −m∑

i=1

um+1 · vi

‖vi‖(vi · vj)

= um+1 · vj −um+1 · vj

‖vj‖(vj · vj)

= 0

D’altra parte e chiaro che vm+1 ∈ L(u1, . . . ,um+1) e quindi

L(v1, . . . ,vm+1) ≤ L(u1, . . . ,um+1) .

Inoltre S e indipendente e quindi e una base di L(v1, . . . ,vm+1). Pertanto

dim(L(v1, . . . ,vm+1)

)= m + 1 = dim

(L(u1, . . . ,um+1)

)

e dunque

L(v1, . . . ,vm+1) = L(u1, . . . ,um+1) .

Cio conclude il procedimento induttivo. Possiamo concludere che e deter-minato in tal modo un sistema ortogonale B′ = (v1, . . . ,vn) che, essendoindipendente, e una base (ortogonale) di V . Osserviamo che la costruzioneeffettuata e tale che

L(v1, . . . ,vi) = L(u1, . . . ,ui) ∀ i .

In termini piu espliciti, la base B′si ottiene ponendo

v1 = u1 ;

v2 = u2 −u2 · v1

‖v1‖v1 ;

v3 = u3 −u3 · v1

‖v1‖v1 −

u3 · v2

‖v2‖v2 ;

...

vn = un − un · v1

‖v1‖v1 − · · · − un · vn−1

‖vn−1‖vn−1 .

Page 208: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

200 Un’introduzione all’algebra lineare

Poniamo infine

wi =vi

|vi|∀ i .

E’ chiaro che B′′ = (w1, . . . ,wn) e una base ortonormale di V , come il lettorepotra facilmente verificare.

Esempio 11. Consideriamo la base ordinata B = (u1,u2) di R2, con

u1 = (1, 1) ; u2 = (1, 2) .

Poniamo

v1 = u1 = (1, 1) ;

v2 = u2 −u2 · v1

‖v1‖v1 = (1, 2) − (1, 2) · (1, 1)

‖(1, 1)‖ (1, 1) =

(− 1

2,1

2

).

Abbiamo che B′ = (v1,v2) e una base ortogonale (ma non ortonormale) diR2. Poniamo dunque

w1 =v1

|v1|=

1√2(1, 1) =

(1√2,

1√2

);

w2 =v2

|v2|=

√2

(− 1

2,1

2

)=

(− 1√

2,

1√2

)

e otteniamo la base ortonormale B′′ = (w1,w2).

Esempio 12. Consideriamo la base ordinata B = (u1,u2,u3) di R3, con

u1 = (1, 0, 1) ; u2 = (1, 1, 0) ; u3 = (0, 0, 1) .

Page 209: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 201

Poniamo

v1 = u1 = (1, 0, 1) ;

v2 = u2 −u2 · v1

‖v1‖v1

= (1, 1, 0) − (1, 1, 0) · (1, 0, 1)

‖(1, 0, 1)‖ (1, 0, 1)

= (1, 1, 0) − 1

2(1, 0, 1)

=

(1

2, 1,−1

2

);

v3 = u3 −(

u3 · v1

‖v1‖v1 +

u3 · v2

‖v2‖v2

)

= (0, 0, 1) −(

(0, 0, 1) · (1, 0, 1)

‖(1, 0, 1)‖ (1, 0, 1)

+(0, 0, 1) · (1/2, 1,−1/2)

‖(1/2,1,−1/2)‖ (1/2, 1,−1/2)

)

= (0, 0, 1) −(

1

2(1, 0, 1) +

−1/2

3/2

(1

2, 1,−1

2

))

=

(− 1

3,1

3,1

3

).

Si verifica agevolmente che B′ e una base ortogonale, ma non ortonormale.Si pone poi

w1 =v1

|v1|=

1√2(1, 0, 1) =

(1√2, 0,

1√2

);

w2 =v2

|v2|=

√2

3

(1

2, 1,−1

2

)=

(1√6,

√2√3,− 1√

6

);

w3 =v3

|v3|=

√3

(− 1

3,1

3,1

3

)=

(− 1√

3,

1√3,

1√3

)

e si ottiene una base ortonormale B′′ = (w1,w2,w3) di R3.

Poiche gia sappiamo che ogni spazio vettoriale finitamente generato possiedebasi, dal procedimento di ortonormalizzazione di Gram–Schmidt deduciamoche ogni spazio vettoriale euclideo finitamente generato possiede basi ortonor-mali.

Page 210: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

202 Un’introduzione all’algebra lineare

Teorema 5.23. Sia W un sottospazio dello spazio vettoriale euclideo V esia u ∈ V . Esistono allora, e sono unici, dei vettori w ∈ W e z ∈ W⊥ tali cheu = w + z.

Dimostrazione. Sia B = (w1, . . . ,wr) una base ordinata ortonormale di W .Poniamo

w =

r∑

i=1

(u ·wi)wi ; z = u− w .

E’ chiaro che w ∈ W e u = w + z. Proviamo che z ∈ W⊥. Basta provare chez ⊥ wi per ogni j. Abbiamo

z ·wj = (u − w) · wj

= u · wj −( r∑

i=1

(u ·wi)wi

)·wj

= u · wj −r∑

i=1

(u ·wi)(wi · wj)

= u · wj − u ·wj

= 0 .

In altre parole, V = W + W⊥. E’ poi gia noto che il sottospazio congiungenteW + W⊥ e una somma diretta, ovvero che l’espressione u = w + z e unica.2

Corollario 5.24. Sia W un sottospazio dello spazio vettoriale euclideo V .Si ha allora che

V = W ⊕ W⊥

e quindi dim V = dim W + dimW⊥.

Dimostrazione. Basta osservare che in base al teorema precedente ogni vet-tore di V si esprime in modo unico come somma di un vettore di W e di unvettore di W⊥. 2

In particolare si ha che dimW⊥ = dim V − dim W .

Corollario 5.25. Sia W un sottospazio dello spazio vettoriale euclideo V .Si ha allora che (

W⊥)⊥

= W .

Page 211: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 203

Dimostrazione. Sia w ∈ W . Per ogni z ∈ W⊥ si ha che w ⊥ z. Quindi

w ∈(W⊥

)⊥e W ⊆

(W⊥

)⊥. D’altra parte, per il corollario precedente

dim(W⊥

)⊥= dim V − dim W⊥ = dimW

e quindi W =(W⊥

)⊥. 2

Definizione 5.26. Siano W1,W2 ≤ V due sottospazi tali che W1 6⊆ W2 eW2 6⊆ W1. Diremo che W1 e ortogonale a W2, e scriveremo W1 ⊥ W2, se W1

contiene il complemento ortogonale di W2 in W1 + W2.

Il lettore potra verificare per esercizio che tale relazione e simmetrica.

Esempio 13. Ortogonalita tra sottospazi.Consideriamo uno spazio euclideo V di dimensione n e due suoi sottospaziW1, W2 tali che W1 6⊆ W2 e W2 6⊆ W1.(i) Sia n ≥ 2, dimW1 = 1, dim W2 = n − 1. Allora W1 + W2 = V e quindiW1 e ortogonale a W2 se e solo se W1 contiene W⊥

2 , ovvero, per motividimensionali, coincide con esso. In formule

W1 ⊥ W2 ⇐⇒ W1 = W⊥2 .

(ii) Sia n ≥ 2, dimW1 = dimW2 = 1. Allora dim(W1 +W2) = 2 e quindi ilcomplemento ortogonale di W ′ di W2 in W1+W2 ha dimensione 1. PertantoW1 ⊥ W2 se e solo se W1 = W ′.(iii) Sia dimV > 2 e sia dim W1 = dim W2 = 2. Supponiamo inoltreche dim(W1 ∩ W2) = 1 (e quindi dim(W1 + W2) = 3). Osserviamo chetale situazione si realizza, in particolare, nel caso in cui n = 3 (in tal casoV = W1 + W2). La dimensione del complemento ortogonale di W2 inW1 + W2 e 1. Detti n1,n2 dei vettori di W1 + W2 ortogonali a W1, W2

rispettivamente, si ha che

W1 ⊥ W2 ⇐⇒ n2 ∈ W1 ⇐⇒ n1 ⊥ n2 .

Consideriamo una base ordinata ortonormale B = (e1, . . . , en) dello spaziovettoriale euclideo V , sia B′ = (e′1, . . . , e

′n) un’altra base ordinata e poniamo

B = MBB′ = (bi,j).

Page 212: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

204 Un’introduzione all’algebra lineare

Teorema 5.27. La base B′ e ortonormale se e solo se la matrice B e orto-gonale.

Dimostrazione. La h-ma colonna di B e il vettore numerico delle componentidi e′h in B, ovvero

e′h =

n∑

s=1

bs,hes .

Analogamente si avra

e′k =

n∑

t=1

bt,ket .

Pertantoe′h · e′k =

s,t

bs,hbt,kes · et

=∑

s,t

bs,hbt,kδs,t

=∑

s

bs,hbs,k .

Quindi se B′ e ortonormale si ha che∑

s

bs,hbs,k = e′h · e′k = δh,k

e le colonne di B sono ortonormali, ovvero B e ortogonale. Il viceversa eanalogo. 2

§4. Diagonalizzazione ortogonale

Per concludere il capitolo, affrontiamo il problema della diagonalizzazione neglispazi vettoriali euclidei. D’ora in poi sia V uno spazio vettoriale euclideo didimensione n, s il suo prodotto scalare ed f : V → V un endomorfismo.Fissata una base ordinata B = (e1, . . . , en) di V possiamo considerare duematrici: la matrice M associata ad s e la matrice A = MB

B (f) associata ad f ,entrambe rispetto a B. Si verifica agevolmente che M e diagonale se e solo seB e ortogonale, e si ha M = In se e solo se B e ortonormale. D’altra parte,gia sappiamo che A e diagonale se e solo se B e costituita da autovettori.Ci si pone quindi il problema di cercare una base ortonormale di autovettori.Ovviamente non sempre esiste una tale base, e se esiste essa non e, in generale,unica.

Page 213: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 205

Definizione 5.28. L’endomorfismo f si dice ortogonalmente diagonalizza-bile se esiste una base ortonormale di autovettori di f .

Definizione 5.29. L’endomorfismo f si dice simmetrico (o anche autoag-giunto) se si ha che

s(u, f(v)

)= s(f(u),v

)∀ u,v ∈ V .

Proposizione 5.30. Sia f un endomorfismo simmetrico e sia B ortonormale.Allora A = MB

B (f) e simmetrica.

Dimostrazione. Per ogni h, k abbiamo che

s(eh, f(ek)

)= s(f(eh), ek

)

ef(ek) = a1,ke1 + · · · + an,ken .

Quindi

s(eh, f(ek)

)= s(eh,

n∑

i=1

ai,kei

)

=

n∑

i=1

ai,ks(eh, ei)

=

n∑

i=1

ai,kδh,i

= ah,k .

Analogamente si vede che

s(f(eh), ek

)= ak,h .

Quindi ah,k = ak,h. 2

Proposizione 5.31. Sia f un endomorfismo e sia B ortonormale. Se A =MB

B (f) e simmetrica, allora f e simmetrico.

Dimostrazione. Siano u,v ∈ V e siano X,Y i vettori delle componenti diu,v in B. Allora, poiche B e ortonormale, la matrice associata ad s rispetto aB e In e si ha che

s(u,v) = Xt · In · Y = Xt · Y =n∑

i=1

xiyi .

Page 214: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

206 Un’introduzione all’algebra lineare

I vettori coordinati di f(u), f(v) sono invece A · X,A · Y . Si ha quindi che

s(f(u),v

)=(A · X

)t· Y = Xt · At · Y = Xt · A · Y

es(u, f(v)

)= Xt · A · Y

e quindi f e simmetrico. 2

Pertanto f e simmetrico se e solo se e simmetrica la matrice ad esso associatarispetto ad una base ortonormale (e quindi anche rispetto ad ogni altra baseortonormale).

Teorema 5.32. Sia f un endomorfismo simmetrico e sia p ∈ R[x] il suopolinomio caratteristico. Allora p e completamente riducibile, ovvero esistonodegli scalari α1, . . . , αt e degli interi positivi κ1, . . . , κt tali che

(7) p = (−1)n(x − α1)κ1 · . . . · (x − αt)

κt .

Dimostrazione. Sia B una fissata base ortonormale e sia A = MBB (f) la

matrice (simmetrica) associata ad f rispetto a B. Come gia osservato, si hache

p = det(A − xIn) .

Il polinomio p puo vedersi come elemento di C[x] e come tale, per il TeoremaFondamentale dell’Algebra, esso e completamente riducibile, ossia vale la (7)con opportuni scalari αi ∈ C. Vogliamo provare che tali scalari sono tuttireali. Considerare p ∈ C[x] significa considerare il polinomio caratteristicodell’endomorfismo

ωA : Cn −→ Cn ,

l’estensione di ωA a Cn, che ammette A come matrice associata rispetto allabase canonica di Cn, inteso come lo spazio vettoriale numerico di dimensionen su C. Gli scalari αi sono quindi gli autovalori di ωA e bisogna provare cheessi sono reali. Sia dunque λ un autovalore di ωA. Sia Z ∈ Cn un autovettoreassociato a λ, ovvero una n-pla di numeri complessi (non tutti nulli) z1, . . . , zn.Abbiamo che

AZ = λZ

ovvero

(8)

a1,1z1 + · · · + a1,nzn = λz1

......

an,1z1 + · · · + an,nzn = λzn

Page 215: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 207

Indichiamo con zi il complesso coniugato di zi e, per ogni i, moltiplichiamo lai-ma delle (8) per zi. Otteniamo

(9)

a1,1z1z1 + · · · + a1,nznz1 = λz1z1

......

an,1z1zn + · · · + an,nznzn = λznzn

Sommiamo membro a membro le (9) ed otteniamo, sfruttando la simmetria diA,

(10)

n∑

i=1

ai,izizi +∑

h<k

ah,k(zhzk + zk zh) = λ

n∑

i=1

zizi .

Osserviamo che i numeri zizi e zhzk + zk zh sono reali ∀ i, h, k, ed inoltre

n∑

i=1

zizi > 0 .

Pertanto dalla (10) si deduce che λ e reale. 2

Siamo ora in grado di caratterizzare gli endomorfismi ortogonalmente dia-gonalizzabili.

Teorema 5.33. Sia f : V → V un endomorfismo. Allora f e ortogonalmentediagonalizzabile se e solo se f e simmetrico.

Dimostrazione. Se f e ortogonalmente diagonalizzabile e B e una base or-tonormale di autovettori di f , allora la matrice MB

B (f) e diagonale, e quindianche simmetrica, e quindi f e simmetrico.Viceversa, supponiamo che f sia simmetrico. Procediamo per induzione sulladimensione n di V . Se n = 1 e λ e l’unico autovalore di f , scelto un autovettorev associato a λ si pone

w =v

|v| .

E’ agevole verificare che (w) e una base ortonormale di autovettori di f . Sup-poniamo ora che n > 1 e che l’asserto sia vero per ogni m < n. Sia λ unautovalore di f e w un autovettore associato a λ, tale che |w| = 1. Ponia-mo W = L(w) e consideriamo il complemento ortogonale W⊥ di W in V .

Page 216: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

208 Un’introduzione all’algebra lineare

Si ha che dim(W⊥) = n − 1. Inoltre, se u ∈ W⊥ si ha che u ⊥ w, ovveros(u,w) = 0. Pertanto

s(f(u),w

)= s(u, f(w)

)= s(u, λw) = λs(u,w) = 0

e quindi anche f(u) ∈ W⊥. Possiamo considerare l’endomorfismo

f : W⊥ −→ W⊥

indotto da f per restrizione (ovvero si pone f(z) = f(z) per ogni z ∈ W⊥). E’chiaro che anche f e un endomorfismo simmetrico, e poiche W⊥ ha dimensioneminore di n, per ipotesi induttiva esiste una base ortonormale (u1, . . . ,un−1)di autovettori di f . ma allora u1, . . . ,un−1 sono anche autovettori ortonormaliper f e

(u1, . . . ,un−1,w)

e una base ortonormale di autovettori di f . 2

Allo scopo di fornire un metodo per costruire una base ortonormale di au-tovettori dell’endomorfismo simmetrico f , premettiamo il seguente

Lemma 5.34. Sia f un endomorfismo simmetrico di V . Siano λ, µ dueautovalori distinti di f e u,v degli autovettori associati a tali autovalori. Allorau ⊥ v.

Dimostrazione. Poiche f e simmetrico, si ha

λs(u,v) = s(λu,v) = s(f(u),v

)

= s(u, f(v)

)= s(u, µv) = µs(u,v) .

Quindi

(λ − µ)s(u,v) = 0

ed essendo λ 6= µ, si avra s(u,v) = 0. 2

La costruzione di una base ortonormale B di autovettori dell’endomorfismosimmetrico f puo essere effettuata come segue. f e ortogonalmente diagona-lizzabile, e quindi anche diagonalizzabile. Se λ1, . . . , λt sono gli autovalori dif avremo che

dimVλ1+ · · · + dimVλt

= n .

Page 217: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 209

Possono dunque essere determinate delle basi B′1, . . . ,B′

t associate rispettiva-mente agli autospazi Vλ1

, . . . , Vλt. Con il procedimento di Gram–Schmidt si

ottengono poi delle basi ortonormali B1, . . . ,Bt di tali autospazi. Si pone poi

B = B1 ∪ . . . ∪ Bt .

Dalla costruzione, in base al lemma precedente, e agevole verificare che B euna base ortogonale di autovettori di f .

Concludiamo questo paragrafo con alcune osservazioni sulla diagonalizza-zione ortogonale di matrici. Sia A ∈ Mn,n(R) e sia B la base canonica di Rn.Se A e simmetrica, l’endomorfismo

ωA : Rn −→ Rn

e simmetrico e quindi anche ortogonalmente diagonalizzabile. Esiste pertantouna base spettrale ortonormale B′ di Rn ed una matrice P ∈ GLn(R) taleche P−1 · A · P = D risulta diagonale (e sulla diagonale di D compaiono gliautovalori di A). Le colonne di P sono i vettori numerici delle componenti degliautovettori di cui e costituita la base spettrale B′ in B, e cioe P = MB

B′ . QuindiP ∈ On(R), essendo anche B ortonormale, e dunque si ha che P−1 = P − t e

D = Pt · A · P .

§5. Forme quadratiche

Sia V uno spazio vettoriale reale.

Definizione 5.35. Una applicazione q : V → R si dice forma quadratica suV se esiste una forma bilineare q su V tale che

q(v) = q(v,v) ∀ v ∈ V .

Diremo che q e la forma quadratica associata a q. E’ chiaro che q puo essereassociata a varie forme bilineari, mentre ogni forma bilineare ammette un’unicaforma quadratica associata. In altri termini, indicato con Q(V ) l’insieme delleforme quadratiche su V , l’applicazione

ω : Bil(V ) −→ Q(V )

Page 218: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

210 Un’introduzione all’algebra lineare

che associa ad ogni forma bilineare la sua forma quadratica associata risultasuriettiva. Se q ∈ Q(V ), definiamo una applicazione

q : V × V −→ R

ponendo

q(u,v) =1

2

(q(u + v) − q(u) − q(v)

).

Il lettore potra verificare che q ∈ Sym(V ) ≤ Bil(V ) e che ω(q) = q, quindiogni forma quadratica e associata ad (almeno) una forma bilineare simmetrica.Definiamo ora una applicazione

ω : Q(V ) −→ Bil(V )

ponendo ω(q) = q. Si ha che im ω ⊆ Sym(V ). Inoltre ω ◦ ω = idQ(V ). Illettore potra verificare che ω ◦ ω(f) = ω1(f) per ogni f ∈ Bil(V ), dove ω1 el’operatore di simmetrizzazione dell’Esempio 8. La restrizione

(ω ◦ ω)| : Sym(V ) −→ Sym(V )

e un isomorfismo (l’isomorfismo identico) e quindi le restrizioni

ω| : Sym(V ) −→ Q(V ) ; ω| : Q(V ) −→ Sym(V )

sono l’una l’inversa dell’altra. L’insieme Q(V ) ha una struttura vettoriale,visto come sottoinsieme di A(V ) (vedi Esempio 2, Capitolo 2), e ω| e unisomorfismo. Pertanto ogni forma quadratica e associata ad un’unica formabilineare simmetrica.

Supponiamo ora che dimV = n e sia B′′ una base ordinata di V . Con-sideriamo una forma bilineare simmetrica f e la forma quadratica q ad essaassociata. La matrice A associata ad f in B′′ si dice anche associata a q in

B′′ (ed e simmetrica). Per ogni u ∈ V , indicato con X ′′ =

x′′1...

x′′n

il vettore

coordinato di u rispetto a B′′, abbiamo che

q(u) = f(u,u) = X ′′t · A · X ′′ =

i,j

ai,jx′′i x′′

j .

Page 219: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 211

Poiche A e simmetrica, esiste una matrice ortogonale P ∈ On(R) tale che

D = P−1 · A · P = Pt · A · P =

λ1 0 . . . 00 λ2 . . . 0...

.... . .

...0 0 . . . λn

dove λ1, . . . , λn sono gli autovalori di A. La matrice P puo essere sceltain modo tale che nella n-pla (λ1, . . . , λn) compaiano prima gli (eventuali)scalari positivi, diciamo λ1, . . . , λs, poi gli (eventuali) scalari negativi, di-ciamo λs+1, . . . , λs+t, ed infine, eventualmente, degli zeri. Osserviamo ches + t = ρ(A) = ρ(D) (essendo P invertibile). Sappiamo che esiste un’unicabase ordinata B′ tale che P sia la matrice di passaggio da B′ a B′′. Indicato

con X ′ =

x′1...

x′n

il vettore coordinato di u in B′, si ha che X ′′ = PX ′ e quindi

q(u) = (P ·X ′)t ·A · P ·X ′ = X ′t · Pt ·A · P · X ′ = X ′

t ·D ·X ′ =n∑

h=1

λh(x′h)2 .

Consideriamo ora la matrice diagonale B definita come segue

bh,h =

λ− 1

2

h se 1 ≤ h ≤ s

(−λh)−1

2 se s < h ≤ s + t1 se s + t < h

Posto C = BtDB si vede facilmente che

C =

Is O O

O −It O

O O O

Sia B la base ordinata tale che la matrice invertibile B sia la matrice di

passaggio da B a B′. Indicato con X =

x1...

xn

il vettore coordinato di u in

B si ha che X ′ = B · X e quindi

q(u) = X ′t · D · X ′ = (B · X)t · D · B · X = Xt · Bt · D · B · X = Xt · C · X

= x21 + · · · + x2

s −(x2

s+1 + · · · + x2s+t

).

Page 220: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

212 Un’introduzione all’algebra lineare

Abbiamo quindi determinato una base ordinata B tale che, con le solite nota-zioni

(11) q(u) = x21 + · · · + x2

s −(x2

s+1 + · · · + x2s+t

).

Supponiamo che B sia una base ordinata e che, per ogni u ∈ V , detto

Y =

y1...

yn

il vettore coordinato di u in B, si abbia

(12) q(u) = y21 + · · · + y2

p −(y2

p+1 + · · · + y2p+r

).

Se A e la matrice di q in B sappiamo che ρ(A) = ρ(A) e quindi s + t = p + r.Vogliamo provare che s = p (e quindi anche t = r). Sia, per assurdo p < s.Sia W il sottospazio di V rappresentato in B (in forma cartesiana) dal sistema

xs+1 = 0

...

xn = 0

e W ′ il sottospazio di V rappresentato in B (in forma cartesiana) dal sistema

x1 = 0

...

xp = 0

Abbiamo che dim W = s, dimW ′ = n − p e V = W + W ′. Quindi, per laformula di Grassmann,

dim(W ∩ W ′) = dimW + dim W ′ − dimV = s − p > 0 .

Esiste pertanto un vettore non nullo w ∈ W ∩ W ′. Poiche w ∈ W , le suecomponenti non banali in B sono tra le prime s e quindi, in base alla (11),q(w) > 0. D’altra parte, essendo w ∈ W ′, le sue componenti non banali in Bsono tra le ultime n − p e quindi, per la (12), q(w) ≤ 0, e questo e assurdo.In definitiva, gli interi non negativi s, t sono caratteristici di q; si dice allorache q e in forma canonica in B e la (11) si dice forma canonica di q. La coppia(s, t) si dice segnatura di q. A posteriori vediamo quindi che la segnatura di qsi ricava, fissato un qualunque riferimento, considerando la matrice A di q intale riferimento e contando gli autovalori positivi e quelli negativi di A.

Page 221: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Cap. 5 – Spazi vett. euclidei 213

Esercizi.

1. Consideriamo i vettori u,v, w ∈ R3 definiti da

u = (1, t, 0) ; v = (0, 1, t) ; w = (s, 0, 1) .

(i) Per quali valori dei parametri s, t il sistema [u,v,w] e ortogonale (rispetto alprodotto scalare standard)?

(ii) Per quali valori di s e t il sistema [u,v,w] e ortonormale (rispetto al prodottoscalare standard)?

2. Sia W ⊂ R3 il sottospazio definito da

W :={

(x1, x2, x3) ∈ R3 | x1 + 2x2 + 2x3 = 0}

e sia v = (1, 1, 1). Decomporre v ortogonalmente (per il prodotto scalare standard)rispetto a W , ovvero determinare due vettori u,w ∈ R3 tali che w ∈ W , u+w = ve inoltre u ⊥ W , ovvero si abbia u · z = 0 per ogni z ∈ W .

3. Sia W ⊂ R3 il sottospazio definito da

W :={

(x1, x2, x3) ∈ R3 | x1 − x2 + x3 = 0}

e sia v = (4, 4, 2). Decomporre v ortogonalmente (per il prodotto scalare standard)rispetto a W , ovvero determinare due vettori u,w ∈ R3 tali che w ∈ W , u+w = ve inoltre u ⊥ W , ovvero si abbia u · z = 0 per ogni z ∈ W .

4. Sia V ⊂ R4 il sottoinsieme definito da

V :={

(x1, x2, x3, x4) ∈ R4 | x1 + x2 + x3 + x4 = 0}

.

Provare che V e un sottospazio di R4 e trovare una base di V ortonormale per ilprodotto scalare Euclideo (cioe standard) su R4.

5. Trovare un vettore non nullo w ∈ R3 ortogonale ai vettori u = (1, 1, 2) e v =(3, 0,−1).

6. Sia V uno spazio vettoriale di dimensione finita (su un certo campo K), con prodottoscalare 〈 , 〉. Decidete quale delle seguenti affermazioni e vera o falsa.

(a) Esiste una base di V costituita di vettori isotropi, cioe vettori v tali che 〈v, v〉 =0.

(b) Se v1, . . . ,vn ∈ V sono ortonormali, cioe se

〈vi,vj〉 =

{0 per i 6= j,

1 per i = j,

Page 222: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

214 Un’introduzione all’algebra lineare

allora il sistema S costituito dai vettori v1, . . . ,vn ∈ V e linearmente indipen-dente.

(c) Se W ⊂ V e un sottospazio vettoriale allora

dimW⊥ = dim V − dimW ,

dove

W⊥ :={

v ∈ V | 〈v, w〉 = 0 ∀ w ∈ W}

.

7. Sia 〈 , 〉 il prodotto scalare su R2 definito da

〈(x1, x2), (y1, y2)〉 =: (x1, x2) ·(

2 4

4 8

)·(

y1

y2

).

Trovare un vettore a = (a1, a2) 6= 0 tale che 〈a,b〉 = 0 per ogni vettore b ∈ R2.

8. Consideriamo l’endomorfismo f : R4 → R4 definito da

f(a, b, c, d) = (2a + b, b, 3c, c + 2d) .

(i) Studiare la diagonalizzabilita di f .(ii) Determinare due sistemi ortonormali costituiti ciascuno da due autovettori di f .

9. Sia V uno spazio vettoriale finitamente generato, W un suo sottospazio e s unprodotto scalare non degenere su V .

(i) Provare che dimW + dimW⊥ = dimV .(ii) Indicate con sW , sW⊥ le restrizioni di s a W × W e W⊥ × W⊥ rispettivamente,

provare chesW e non degenere ⇐⇒ W ∩ W⊥ = {0}

⇐⇒ sW⊥ e non degenere

⇐⇒ W ⊕ W⊥ = V .

Page 223: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Indici 215

TAVOLA DELLE NOTAZIONI

N, N0, Z, Q, R, C, insiemi numerici;

F, K, campi;

F[x], K[x], anelli di polinomi nell’indeterminata x;

V , V ′, V ′′, spazi vettoriali;

0, vettore nullo;

V∗, spazio vettoriale privato del vettore nullo;

Kn, insieme delle n-ple di scalari, spazio vettoriale numerico;

B, B′, B′′, B, basi di spazi vettoriali;⊕

, ⊕, somma diretta tra sottospazi;

ΦB, Φ, isomorfismo coordinato;

dim V , dimensione dello spazio vettoriale V ;

ker f , nucleo dell’applicazione lineare f ;

im f , immagine dell’applicazione lineare f ;

Mm,n, Mm,n(K), insieme delle matrici di tipo m × n su K

RA, CA, sistemi di righe e colonne della matrice A;

ρ(A), ρA, rango della matrice A;

In, matrice identica;

At, matrice trasposta;

A(i,j), matrice complementare;

det A, determinante della matrice A;

Aj1,...,jq

i1,...,ip, sottomatrice, o anche matrice subordinata;

Page 224: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

216 Un’introduzione all’algebra lineare

det Aj1,...,jp

i1,...,ip,∣∣Aj1,...,jp

i1,...,ip

∣∣, minore di una matrice;

det A(i,j),∣∣A(i,j)

∣∣, minore complementare;

(−1)i+j det A(i,j), (−1)i+j∣∣A(i,j)

∣∣, complemento algebrico;

GLn(K), On(K), gruppo lineare generale e ortogonale sul campo K;

MB′

B (f), matrice associata all’applicazione lineare f rispetto alle basi B,B′;

ωA : Kn → Km, applicazione lineare che ammette A come matrice associatarispetto alle basi standard;

Vλ, autospazio associato all’autovalore λ;

dim Vλ, m(λ), molteplicita geometrica e algebrica dell’autovalore λ;

s(u,v), 〈u,v〉, u · v, simboli che indicano il prodotto scalare tra u e v;

||u||, |u|, norma e modulo del vettore u;

W⊥, complemento ortogonale del sottospazio W .

Page 225: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Indici 217

INDICE ANALITICO

Algoritmo di Gauss 93Algoritmo di Gauss-Jordan 96Algoritmo euclideo della divisione 19Anello 12Applicazione bilineare 185Applicazione lineare 64Associativa (operazione interna) 1Autospazio 168Autovalore 167Autovettore 167Base 45Base spettrale 168Binet (Teorema di) 109Campo 13Coefficiente di Fourier 197Combinazione lineare 40Complemento algebrico 106Complemento ortogonale 192Corpo 13Cramer (Regola di) 130Cramer (Teorema di) 129Degenere, non degenere 107Determinante 99Dimensione 50Elemento neutro 2Endomorfismo 167Endomorfismo diagonalizzabile 168Endomorfismo ortogonalmente diagonalizzabile 205Endomorfismo simmetrico 205Epimorfismo 69Equazione algebrica 124Equazione Dimensionale 76Equazione lineare 124Forma bilineare 185Forma lineare 65

Page 226: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

218 Un’introduzione all’algebra lineare

Forma quadratica 209Grado (di un polinomio) 17Grassmann (Formula di) 61Gruppo 5Gruppo generale lineare 88Gruppo ortogonale 88Ideale 14Immagine (di una applicazione lineare) 69Isomorfismo 69Isomorfismo coordinato 75Laplace (1o Teorema di) 107Laplace (2o Teorema di) 111Laplace (Regola di) 106Matrice (in)completa (di un sistema lineare) 126Matrice 83Matrice a scala 92Matrice antisimmetrica 84Matrice complementare 97Matrice di passaggio 161Matrice degenere, non degenere 107Matrice diagonale 84Matrice identica 85Matrice invertibile 88Matrice quadrata 84Matrice simmetrica 84Matrice subordinata 97Matrice trasposta 84Matrice triangolare alta 84Matrice triangolare bassa 84Metodo dei determinanti 128Metodo di Gauss–Jordan 137Minore 114Minore principale 114Modulo (di un vettore) 194Molteplicita (di una radice) 24Molteplicita algebrica (di un autovalore) 173Molteplicita geometrica (di un autovalore) 173Monomorfismo 69Norma (di un vettore) 194Nucleo (di una applicazione lineare) 69

Page 227: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Indici 219

Operazione 1Operazione elementare sulle righe 91Orlati (Teorema degli) 116Ortogonalita 192Parametro direttore 17Permutazioni 6Pitagora (Teorema di) 195Pivot 92Polinomi 16Polinomio caratteristico 172Polinomio irriducibile 28Principio di identita dei polinomi 23Procedimento di Gram–Schmidt 198Prodotto righe per colonne 86Prodotto scalare 186Prodotto scalare definito positivo 193Prodotto scalare standard 39Proiezione ortogonale 197Radice (di un polinolio) 22Rango 91Rouche–Capelli (Teorema di) 127Ruffini (Teorema di) 22Schwarz (Disuguaglianza di) 193Simbolo di Kronecker 75Sistema (linearmente) dipendente 40Sistema (linearmente) indipendente 43Sistema di generatori 44Sistema di ordine n 11Sistema lineare (di equazioni) 125Sistema ortogonale 196Sistema ortonormale 196Somma diretta 59Sottomatrice 97Sottospazio (di uno spazio vettoriale) 53Sottospazio congiungente 58Spazio vettoriale 37Spazio vettoriale finitamente generato 44Spazio vettoriale numerico 38Steinitz (Lemma di) 49Struttura algebrica 2

Page 228: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

220 Un’introduzione all’algebra lineare

Teorema Fondamentale dell’Algebra 30Teorema Spettrale 176Teorema di Completamento di una Base 52Vettore isotropo 188Vettore libero ordinario 39Vettore numerico 38

Page 229: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica
Page 230: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica
Page 231: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica

Finito di stampare nel mese di ottobre del 2011

dalla ERMES. Servizi Editoriali Integrati S.r.l.

00040 Ariccia (RM) – via Quarto Negroni, 15

per la Aracne editrice S.r.l. di Roma

Page 232: 74 · piu` classici argomenti elementari di Algebra Lineare. Si assume che lo studioso lettore abbia gia una certa familiarita con al- cuni argomenti di base quali l’insiemistica