a01 - aracne editrice · di base di algebra lineare e di geometria, cercando di mantenere un...

216
A

Upload: lyminh

Post on 15-Feb-2019

269 views

Category:

Documents


24 download

TRANSCRIPT

Page 1: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

A

Page 2: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno
Page 3: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

Luciano Amito Lomonaco

Geometria e algebra

Vettori, equazioni e curve elementari

Page 4: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

Copyright © MMXIIIARACNE editrice S.r.l.

[email protected]

via Raffaele Garofalo, /A–B Roma()

----

I diritti di traduzione, di memorizzazione elettronica,di riproduzione e di adattamento anche parziale,

con qualsiasi mezzo, sono riservati per tutti i Paesi.

Non sono assolutamente consentite le fotocopiesenza il permesso scritto dell’Editore.

I edizione: agosto

Page 5: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

a nadia, stefano e viola

Page 6: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno
Page 7: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

Qui non si trattano so

lotematic

hematem

atichem

atematichemetam

atem

atichemet

ameta

matematiche

(s. rao)

Page 8: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno
Page 9: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

9

Indice

1 Strutture algebriche 131.1 Richiami . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.2 Generalita sulle strutture algebriche . . . . . . . . . . . . . . . . 22

2 Spazi vettoriali 292.1 Generalita, dipendenza lineare . . . . . . . . . . . . . . . . . . . 292.2 Basi e dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.3 Sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.4 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3 Matrici 553.1 Generalita sulle matrici . . . . . . . . . . . . . . . . . . . . . . . 553.2 Determinanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653.3 Matrici e dipendenza lineare . . . . . . . . . . . . . . . . . . . . . 71

4 Sistemi di equazioni lineari 754.1 Generalita sui sistemi lineari . . . . . . . . . . . . . . . . . . . . . 754.2 Metodi di risoluzione . . . . . . . . . . . . . . . . . . . . . . . . . 784.3 Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 874.4 Rappresentazione di sottospazi vettoriali . . . . . . . . . . . . . . 92

5 Endomorfismi 975.1 Matrici e applicazioni lineari . . . . . . . . . . . . . . . . . . . . 975.2 Cambiamenti di riferimento . . . . . . . . . . . . . . . . . . . . . 1025.3 Alcune applicazioni dei determinanti . . . . . . . . . . . . . . . . 1045.4 Autovettori e autovalori . . . . . . . . . . . . . . . . . . . . . . . 1065.5 Diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

6 Spazi vettoriali euclidei 1176.1 Forme bilineari e prodotti scalari . . . . . . . . . . . . . . . . . . 1176.2 Spazi vettoriali euclidei . . . . . . . . . . . . . . . . . . . . . . . 1226.3 Il procedimento di Gram-Schmidt . . . . . . . . . . . . . . . . . . 1256.4 Diagonalizzazione ortogonale . . . . . . . . . . . . . . . . . . . . 1286.5 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . 130

9

Page 10: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

Indice10 INDICE

7 Spazi affini 1357.1 Generalita su spazi e sottospazi affini . . . . . . . . . . . . . . . . 1357.2 Riferimenti e coordinate . . . . . . . . . . . . . . . . . . . . . . . 1387.3 Rappresentazione di sottospazi affini . . . . . . . . . . . . . . . . 1407.4 Rette ed iperpiani . . . . . . . . . . . . . . . . . . . . . . . . . . 1437.5 Spazi affini euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . 1457.6 Il piano affine ed euclideo reale . . . . . . . . . . . . . . . . . . . 1467.7 Lo spazio affine ed euclideo reale . . . . . . . . . . . . . . . . . . 1527.8 Posizione reciproca tra rette . . . . . . . . . . . . . . . . . . . . . 1617.9 Questioni metriche nello spazio . . . . . . . . . . . . . . . . . . . 1647.10 Ampliamento complesso e proiettivo . . . . . . . . . . . . . . . . 167

8 Coniche 1738.1 Circonferenza, ellisse, iperbole, parabola . . . . . . . . . . . . . . 1738.2 Generalita sulle coniche . . . . . . . . . . . . . . . . . . . . . . . 1798.3 Riduzione in forma canonica . . . . . . . . . . . . . . . . . . . . . 191

9 Esercizi 197

10 Indice

Page 11: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

11

10 INDICE

7 Spazi affini 1357.1 Generalita su spazi e sottospazi affini . . . . . . . . . . . . . . . . 1357.2 Riferimenti e coordinate . . . . . . . . . . . . . . . . . . . . . . . 1387.3 Rappresentazione di sottospazi affini . . . . . . . . . . . . . . . . 1407.4 Rette ed iperpiani . . . . . . . . . . . . . . . . . . . . . . . . . . 1437.5 Spazi affini euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . 1457.6 Il piano affine ed euclideo reale . . . . . . . . . . . . . . . . . . . 1467.7 Lo spazio affine ed euclideo reale . . . . . . . . . . . . . . . . . . 1527.8 Posizione reciproca tra rette . . . . . . . . . . . . . . . . . . . . . 1617.9 Questioni metriche nello spazio . . . . . . . . . . . . . . . . . . . 1647.10 Ampliamento complesso e proiettivo . . . . . . . . . . . . . . . . 167

8 Coniche 1738.1 Circonferenza, ellisse, iperbole, parabola . . . . . . . . . . . . . . 1738.2 Generalita sulle coniche . . . . . . . . . . . . . . . . . . . . . . . 1798.3 Riduzione in forma canonica . . . . . . . . . . . . . . . . . . . . . 191

9 Esercizi 197

Premessa

In questo testo ho provato ad esporre in modo sintetico i principali argomentidi base di Algebra Lineare e di Geometria, cercando di mantenere un livelloaccettabile di rigore formale. L’opera e indirizzata a studenti del primo anno dicorsi di laurea in Matematica, Fisica, Informatica e Ingegneria.

Al lettore e richiesta una certa familiarita con alcuni argomenti di base qualil’insiemistica (insiemi, coppie ordinate, relazioni ed applicazioni) e la costruzionedegli insiemi numerici (numeri naturali, interi, razionali, reali, complessi).

Ho scelto di omettere molte dimostrazioni. Quelle principali saranno disponibili,insieme ad altri contenuti aggiuntivi, sul mio sito docente, in area pubblica.

Avrei tanti ringraziamenti da fare. Mi limitero a menzionare gli amici Mauri-zio Brunetti, Giovanni Cutolo, Bruno Buonomo, Francesco Della Pietra, CarloNitsch.

Luciano A. Lomonaco

11

Page 12: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno
Page 13: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

13

Capitolo 1

Strutture algebriche

1.1 Richiami

Si assume che il lettore abbia gia una certa familiarita con l’insiemistica (insie-mi, sottoinsiemi, relazioni di appartenenza e di inclusione, implicazioni, coppieordinate) e conosca i seguenti simboli standard:

∅ , ∈ , ⊆ , ⊂ , ⇐ , ⇒ , ⇔ , ∀ , ∃ , ∃! ,

nonche infine gli insiemi numerici piu comuni, quali ad esempio i numeri natu-rali N, gli interi Z, gli interi non negativi N0, i razionali Q, i reali R, i complessiC, e l’insieme R[x] dei polinomi a coefficienti reali. Useremo nel seguito i con-nettivi logici ∧ (congiunzione) e ∨ (disgiunzione inclusiva). I simboli R+ ed R+

0

indicheranno i reali positivi ed i reali non negativi.Consideriamo un insieme non vuoto Y . Indicheremo con P(Y ) il corrispon-

dente insieme delle parti, ovvero

P(Y ) ={X

∣∣ X ⊆ Y}.

Diremo che il sottoinsieme X ⊆ Y e una parte propria di Y se non coincidecon Y , e cioe se X ⊂ Y .

Siano A,B due insiemi. Costruiamo un nuovo insieme, il prodotto cartesianodi A e B, indicato con il simbolo A × B, costituito da tutte le coppie ordinatecon prima componente in A e seconda in B, ovvero

A×B ={(a, b)

∣∣ a ∈ A , b ∈ B}.

Osserviamo che

A = ∅ ∨ B = ∅ ⇒ A×B = ∅ .

In modo analogo si puo procedere per definire il prodotto cartesiano di piudi due insiemi, usando le terne, quadruple, o, piu in generale n-ple di elementi.

13

Page 14: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

14 CAPITOLO 1. STRUTTURE ALGEBRICHE

Ad esempio, se n e un numero naturale e A1, . . . , An �= ∅, definiamo il prodottocartesiano A1 ×A2 × · · · ×An di tali insiemi ponendo

A1 ×A2 × · · · ×An ={(a1, a2, . . . , an)

∣∣ a1 ∈ A1, a2 ∈ A2, . . . , an ∈ An

}.

Se gli insiemi in questione sono tutti uguali, ad esempio A1 = A2 = · · · =An = A, scriveremo An per indicare tale prodotto, che sara detto n-ma potenzacartesiana di A. Avremo quindi

An = A×A× · · · ×A︸ ︷︷ ︸n copie

={(a1, a2, . . . , an)

∣∣ a1, a2, . . . , an ∈ A}.

Quando n = 2 si parla di quadrato cartesiano. Se n = 1 la potenza cartesianaA1 e identificata con A. Introduciamo ora la nozione di corrispondenza tra dueinsiemi, che ci permettera di sviluppare il concetto di relazione in un insieme edi applicazione tra due insiemi.

1.1 Definizione. Siano A,B �= ∅. Una corrispondenza h di A in B e unacoppia (A × B,G), dove G e un sottoinsieme di A × B. G si dice grafico dellacorrispondenza. Se la coppia (x, y) ∈ G, si dice che l’elemento y di B corrispondeall’elemento x di A, e si scrive x h y.

Osserviamo esplicitamente che un elemento x di A puo non avere alcuncorrispondente in B, oppure averne piu d’uno. Definire una corrispondenza hequivale a specificare, per ogni x ∈ A, quali elementi di B corrispondono ad x,ovvero per quali elementi y ∈ B accade che x h y.

1.2 Esempio. Sia A = R, B = R+0 , e definiamo il sottoinsieme

G ={(x, y) ∈ R× R+

0

∣∣ x2 = y}.

La corrispondenza h di R in R+0 di cui G e il grafico e tale che (0, 0) ∈ G, ovvero 0 h 0, o

ancora 0 corrisponde a 0, ed anche (1, 1), (−1, 1) ∈ G, ovvero 1 h 1 e −1 h 1, o ancora 1corrisponde sia a 1 che a −1.

1.3 Esempio. Sia A = R, B = R+0 , e definiamo il sottoinsieme

G′ ={(x, y) ∈ R× R+

0

∣∣ x = y2}.

La corrispondenza h′ di R in R+0 di cui G e il grafico e tale che (4, 2) ∈ G′, ovvero 4 h′ 2, o

ancora 2 corrisponde a 4, ma −2 �h′ y, ovvero (−2, y) �∈ G′, per ogni y ∈ R+0 . In altri termini,

non eiste alcun elemento di R+0 che corrisponde all’elemento −2 ∈ R.

Ci sono due casi particolari molto importanti.

1.4 Definizione. Sia A �= ∅. Una relazione (binaria) h in A e una corrispon-denza di A in A stesso.

14 Geometria e algebra

Page 15: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

14 CAPITOLO 1. STRUTTURE ALGEBRICHE

Ad esempio, se n e un numero naturale e A1, . . . , An �= ∅, definiamo il prodottocartesiano A1 ×A2 × · · · ×An di tali insiemi ponendo

A1 ×A2 × · · · ×An ={(a1, a2, . . . , an)

∣∣ a1 ∈ A1, a2 ∈ A2, . . . , an ∈ An

}.

Se gli insiemi in questione sono tutti uguali, ad esempio A1 = A2 = · · · =An = A, scriveremo An per indicare tale prodotto, che sara detto n-ma potenzacartesiana di A. Avremo quindi

An = A×A× · · · ×A︸ ︷︷ ︸n copie

={(a1, a2, . . . , an)

∣∣ a1, a2, . . . , an ∈ A}.

Quando n = 2 si parla di quadrato cartesiano. Se n = 1 la potenza cartesianaA1 e identificata con A. Introduciamo ora la nozione di corrispondenza tra dueinsiemi, che ci permettera di sviluppare il concetto di relazione in un insieme edi applicazione tra due insiemi.

1.1 Definizione. Siano A,B �= ∅. Una corrispondenza h di A in B e unacoppia (A × B,G), dove G e un sottoinsieme di A × B. G si dice grafico dellacorrispondenza. Se la coppia (x, y) ∈ G, si dice che l’elemento y di B corrispondeall’elemento x di A, e si scrive x h y.

Osserviamo esplicitamente che un elemento x di A puo non avere alcuncorrispondente in B, oppure averne piu d’uno. Definire una corrispondenza hequivale a specificare, per ogni x ∈ A, quali elementi di B corrispondono ad x,ovvero per quali elementi y ∈ B accade che x h y.

1.2 Esempio. Sia A = R, B = R+0 , e definiamo il sottoinsieme

G ={(x, y) ∈ R× R+

0

∣∣ x2 = y}.

La corrispondenza h di R in R+0 di cui G e il grafico e tale che (0, 0) ∈ G, ovvero 0 h 0, o

ancora 0 corrisponde a 0, ed anche (1, 1), (−1, 1) ∈ G, ovvero 1 h 1 e −1 h 1, o ancora 1corrisponde sia a 1 che a −1.

1.3 Esempio. Sia A = R, B = R+0 , e definiamo il sottoinsieme

G′ ={(x, y) ∈ R× R+

0

∣∣ x = y2}.

La corrispondenza h′ di R in R+0 di cui G e il grafico e tale che (4, 2) ∈ G′, ovvero 4 h′ 2, o

ancora 2 corrisponde a 4, ma −2 �h′ y, ovvero (−2, y) �∈ G′, per ogni y ∈ R+0 . In altri termini,

non eiste alcun elemento di R+0 che corrisponde all’elemento −2 ∈ R.

Ci sono due casi particolari molto importanti.

1.4 Definizione. Sia A �= ∅. Una relazione (binaria) h in A e una corrispon-denza di A in A stesso.

1.1. RICHIAMI 15

1.5 Definizione. Siano A,B �= ∅. Un’applicazione h di A in B e una corri-spondenza che gode della seguente proprieta:

∀x ∈ A ∃ ! y ∈ B∣∣ x h y .

Scriveremo, in tale situazione, h(x) = y e diremo che y e l’immagine di x(mediante h). Spesso si utilizza il simbolo h : A → B, e gli insiemi A,B sonodetti rispettivamente dominio e codominio di h.

Studiamo ora alcune questioni riguardanti le relazioni.

1.6 Definizione. Consideriamo una relazione h nell’insieme non vuoto A.

• h si dice riflessiva se per ogni x ∈ A accade che x h x;

• h si dice simmetrica se per ogni x, x′ ∈ A vale la seguente implicazione:

x h x′ ⇒ x′ h x ;

• h si dice antisimmetrica se per ogni x, x′ ∈ A vale la seguente implicazione:

x h x′ ∧ x′ h x ⇒ x = x′ ;

• h si dice transitiva se per ogni x, x′, x′′ ∈ A vale la seguente implicazione:

x h x′ ∧ x′ h x′′ ⇒ x h x′′ .

Siamo interessati a due tipi di relazioni.

1.7 Definizione. La relazione h si dice relazione d’equivalenza se e riflessiva,simmetrica e transitiva.

1.8 Definizione. La relazione h si dice relazione d’ordine se e riflessiva, anti-simmetrica e transitiva.

Vediamo ora qualche questione riguardante le relazioni d’equivalenza.

1.9 Definizione. Sia h una relazione d’equivalenza nell’insieme non vuoto A.Per ogni x ∈ A, si dice classe d’equivalenza di x il sottoinsieme

[x] ={x′ ∈ A

∣∣ x h x′ } .

15Strutture algebriche

Page 16: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

16 CAPITOLO 1. STRUTTURE ALGEBRICHE

E chiaro che x ∈ [x], in quanto x h x. Ogni elemento di [x], e quindi anche xstesso, si dice rappresentante della classe. Si vede facilmente che l’unione delleclassi d’equivalenza e proprio A, e che se a, b ∈ A possono presentarsi due casi:[a] = [b] (quando a h b), oppure [a] ∩ [b] = ∅ (quando a �h b). Tale situazionesi esprime dicendo che le classi d’equivalenza costituiscono una partizione di A.Un simbolo usato di frequente per le relazioni d’equivalenza e ≡.

1.10 Definizione. Sia h una relazione d’equivalenza nell’insieme non vuotoA. L’insieme delle classi d’equivalenza rispetto a tale relazione si dice insiemequoziente di A rispetto ad h, e si denota con il simbolo A/h.

1.11 Esempio. Sia E2 il piano della geometria elementare e consideriamo l’insieme Σ deisegmenti orientati di E2. Se σ ∈ Σ e un segmento di primo estremo A e secondo estremoB, indicheremo tale segmento con il simbolo σ(A,B) oppure AB. Sia τ = τ(A′, B′) un altrosegmento. Ricordiamo che σ e equipollente a τ (in simboli σ ≡ τ) se e solo se il quadrilateroABB′A′ e un parallelogramma (eventualmente degenere). Osserviamo che la relazione diequipollenza e una relazione di equivalenza in Σ. Denotiamo con V 2 l’insieme quoziente Σ/≡.Un elemento di V 2 sara detto vettore libero ordinario ed e una classe di segmenti equipollenti.

A

B

A′

B′

A′′

B′′A′′′

B′′′

A′′′′

B′′′′

u

16 Geometria e algebra

Page 17: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

16 CAPITOLO 1. STRUTTURE ALGEBRICHE

E chiaro che x ∈ [x], in quanto x h x. Ogni elemento di [x], e quindi anche xstesso, si dice rappresentante della classe. Si vede facilmente che l’unione delleclassi d’equivalenza e proprio A, e che se a, b ∈ A possono presentarsi due casi:[a] = [b] (quando a h b), oppure [a] ∩ [b] = ∅ (quando a �h b). Tale situazionesi esprime dicendo che le classi d’equivalenza costituiscono una partizione di A.Un simbolo usato di frequente per le relazioni d’equivalenza e ≡.

1.10 Definizione. Sia h una relazione d’equivalenza nell’insieme non vuotoA. L’insieme delle classi d’equivalenza rispetto a tale relazione si dice insiemequoziente di A rispetto ad h, e si denota con il simbolo A/h.

1.11 Esempio. Sia E2 il piano della geometria elementare e consideriamo l’insieme Σ deisegmenti orientati di E2. Se σ ∈ Σ e un segmento di primo estremo A e secondo estremoB, indicheremo tale segmento con il simbolo σ(A,B) oppure AB. Sia τ = τ(A′, B′) un altrosegmento. Ricordiamo che σ e equipollente a τ (in simboli σ ≡ τ) se e solo se il quadrilateroABB′A′ e un parallelogramma (eventualmente degenere). Osserviamo che la relazione diequipollenza e una relazione di equivalenza in Σ. Denotiamo con V 2 l’insieme quoziente Σ/≡.Un elemento di V 2 sara detto vettore libero ordinario ed e una classe di segmenti equipollenti.

A

B

A′

B′

A′′

B′′A′′′

B′′′

A′′′′

B′′′′

u

1.1. RICHIAMI 17

Nella figura e evidenziato che AB ≡ A′B′, in quanto ABB′A′ e un parallelogramma e isegmenti AB, A′B′, A′′B′′, A′′′B′′′, A′′′′B′′′′ sono tutti equipollenti tra loro. Ad esempioil quadrilatero ABB′′′′A′′′′ e un parallelogramma degenere. Il vettore libero u e la classe diognuno di tali segmenti orientati, e si ha

u ={AB,A′B′, A′′B′′, A′′′B′′′, A′′′′B′′′′, . . .

}.

Se ad esempio u ∈ V 2 e AB e un rappresentante di u, scriveremo u = [AB]. Ricordiamo cheinvece il segmento AB e talvolta chiamato vettore applicato, con punto di applicazione A esecondo estremo B e che per ogni vettore libero ordinario u ∈ V 2 e per ogni P ∈ E2 esiste ununico Q ∈ E2 tale che u = [PQ].

1.12 Esempio. Consideriamo l’insieme numerico Z degli interi. In esso definiamo una relazione≡ ponendo, per ogni a, b ∈ Z, a ≡ b ⇐⇒ a − b e un numero pari. Si verifica agevolmenteche ≡ e una relazione d’equivalenza, e che le classi di equivalenza sono esattamente due: ilsottoinsieme P dei numeri pari e il sottoinsieme D dei numeri dispari. Pertanto l’insiemequoziente Z/ ≡ consta di due elementi.

1.13 Esempio. Sia A l’insieme dei deputati della Repubblica Italiana in un fissato istante t0.In A definiamo una relazione ≡ ponendo, per ogni a, b ∈ A, a ≡ b se e solo se i deputati a e bappartengono allo stesso gruppo parlamentare. La relazione ≡ e d’equivalenza, e le classi diequivalenza sono proprio i gruppi parlamentari. Pertanto l’insieme quoziente A/ ≡ e l’insiemedei gruppi parlamentari (all’istante t0).

1.14 Esempio. Sia X un insieme non vuoto e sia n ∈ N, n > 1. Consideriamo ora l’insiemeA = Xn, la potenza cartesiana n-ma dell’insieme X. In A definiamo una relazione σ al modoseguente. Due n-ple sono in relazione se e solo se l’una si ottiene dall’altra mediante unapermutazione dell’ordine in cui gli elementi compaiono. Ad esempio, in R3 (cioe con X = R,e n = 3), abbiamo (3, 5, 7) σ (3, 7, 5), o anche (1, 1, 2) σ (2, 1, 1). Osserviamo esplicitamenteche una particolare permutazione e quella identica, quella cioe che lascia ogni elemento al suoposto. Quindi, ad esempio, (3, 5, 7) σ (3, 5, 7). Si verifica che σ e una relazione d’equivalenzain Xn. Una classe di equivalenza si dice orbita in Xn (rispetto all’azione di permutazione),o, piu spesso, sistema di elementi di X, di ordine n. In un sistema sono quindi rilevanti leeventuali ripetizioni, ma non e rilevante l’ordine in cui compaiono gli elementi.

Passiamo ora alle relazioni d’ordine.

1.15 Definizione. Sia h una relazione d’ordine nell’insieme non vuoto A. Talerelazione si dice totale se per ogni x, x′ ∈ A si ha che x h x′ ∨ x′ h x.

1.16 Esempio. Sia Y un insieme non vuoto e sia A = P(Y ), l’insieme delle parti di X. In A

consideriamo la relazione ⊆ di inclusione. E agevole verificare che essa e una relazione d’ordine.Non si tratta pero di un ordine totale. Consideriamo ad esempio la seguente situazione.Sia Y = {a, b, c, d} e consideriamo i sottoinsiemi S = {a, b, c}, T = {c, d}. Abbiamo cheS �⊆ T ∧ T �⊆ S.

1.17 Esempio. Nell’insieme A = R dei numeri reali, consideriamo la ben nota relazione ≤.Essa e una relazione d’ordine e si tratta di un ordine totale. Osserviamo che possiamo definireun’analoga relazione d’ordine su N, Z, Q.

17Strutture algebriche

Page 18: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

18 CAPITOLO 1. STRUTTURE ALGEBRICHE

1.18 Esempio. Nell’insieme A = R2, consideriamo la relazione � definita come segue. Perogni (a, b), (c, d) ∈ R2 poniamo (a, b) � (c, d) se e solo se a ≤ c. Tale relazione non e unarelazione d’ordine. Infatti sono verificate le proprieta riflessiva e transitiva, ma la proprietaantisimmetrica non e verificata. Ad esempio, si ha che (1, 2) � (1, 3) e (1, 3) � (1, 2), maovviamente (1, 2) �= (1, 3).

1.19 Esempio. Nell’insieme A = R2, consideriamo la relazione � definita come segue. Perogni (a, b), (c, d) ∈ R2 poniamo (a, b) � (c, d) se e solo se a ≤ c ∧ b ≤ d. Tale relazione e unarelazione d’ordine (non totale).

A livello intuitivo possiamo prendere la relazione ⊆ come prototipo di rela-zione d’ordine, e ≤ come prototipo di relazione d’ordine totale. Nelle relazionid’ordine totale abbiamo il concetto intuitivo di elemento massimo, o minimo,dell’insieme o di una sua parte, che comunque definiremo in modo preciso. Se larelazione d’ordine non e totale, e piu utile introdurre un altro concetto, quellodi elemento massimale, o minimale, ricordando che se un elemento e massimo (ominimo), esso e anche massimale (minimale rispettivamente). Usiamo il simbolo� per indicare una generica relazione d’ordine.

1.20 Definizione. Sia � una relazione d’ordine nell’insieme non vuoto A. Siainoltre B un sottoinsieme non vuoto di A e consideriamo un suo elemento m.Diremo che m e massimale in B (rispetto alla relazione �) se per ogni x ∈ B siha che m �� x. L’elemento m sara invece detto minimale in B se per ogni x ∈ Bsi ha che x �� m.

1.21 Definizione. Sia � una relazione d’ordine nell’insieme non vuoto A. Siainoltre B un sottoinsieme non vuoto di A e consideriamo un suo elemento m.Diremo che m e massimo in B (rispetto alla relazione �) se per ogni x ∈ B siha che x � m. L’elemento m sara invece detto minimo in B se per ogni x ∈ Bsi ha che m � x.

Non sempre esiste un massimo (minimo risp.), ma quando cio accade, taleelemento e unico. Se la relazione d’ordine e totale, un elemento massimale eanche massimo, ed un elemento minimale e anche minimo.

1.22 Esempio. Consideriamo l’insieme Y = {a, b, c, d}, sia A = P(Y ). Sia B il sottoinsiemedi A costituito da tutte e sole le parti proprie di Y :

B = A− {Y } ={Z ∈ P(Y )

∣∣ Z �= Y}=

{Z ∈ P(Y )

∣∣ Z ⊂ Y}.

Consideriamo in B la relazione ⊆ di inclusione. Il sottoinsieme S = {a, b, c} di A e un elementodi B, ed e massimale in B, ma non massimo. Osserviamo che ogni sottoinsieme di Y con treelementi gode della stessa proprieta.

Affrontiamo ora lo studio delle applicazioni. Consideriamo quindi un’appli-

18 Geometria e algebra

Page 19: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

18 CAPITOLO 1. STRUTTURE ALGEBRICHE

1.18 Esempio. Nell’insieme A = R2, consideriamo la relazione � definita come segue. Perogni (a, b), (c, d) ∈ R2 poniamo (a, b) � (c, d) se e solo se a ≤ c. Tale relazione non e unarelazione d’ordine. Infatti sono verificate le proprieta riflessiva e transitiva, ma la proprietaantisimmetrica non e verificata. Ad esempio, si ha che (1, 2) � (1, 3) e (1, 3) � (1, 2), maovviamente (1, 2) �= (1, 3).

1.19 Esempio. Nell’insieme A = R2, consideriamo la relazione � definita come segue. Perogni (a, b), (c, d) ∈ R2 poniamo (a, b) � (c, d) se e solo se a ≤ c ∧ b ≤ d. Tale relazione e unarelazione d’ordine (non totale).

A livello intuitivo possiamo prendere la relazione ⊆ come prototipo di rela-zione d’ordine, e ≤ come prototipo di relazione d’ordine totale. Nelle relazionid’ordine totale abbiamo il concetto intuitivo di elemento massimo, o minimo,dell’insieme o di una sua parte, che comunque definiremo in modo preciso. Se larelazione d’ordine non e totale, e piu utile introdurre un altro concetto, quellodi elemento massimale, o minimale, ricordando che se un elemento e massimo (ominimo), esso e anche massimale (minimale rispettivamente). Usiamo il simbolo� per indicare una generica relazione d’ordine.

1.20 Definizione. Sia � una relazione d’ordine nell’insieme non vuoto A. Siainoltre B un sottoinsieme non vuoto di A e consideriamo un suo elemento m.Diremo che m e massimale in B (rispetto alla relazione �) se per ogni x ∈ B siha che m �� x. L’elemento m sara invece detto minimale in B se per ogni x ∈ Bsi ha che x �� m.

1.21 Definizione. Sia � una relazione d’ordine nell’insieme non vuoto A. Siainoltre B un sottoinsieme non vuoto di A e consideriamo un suo elemento m.Diremo che m e massimo in B (rispetto alla relazione �) se per ogni x ∈ B siha che x � m. L’elemento m sara invece detto minimo in B se per ogni x ∈ Bsi ha che m � x.

Non sempre esiste un massimo (minimo risp.), ma quando cio accade, taleelemento e unico. Se la relazione d’ordine e totale, un elemento massimale eanche massimo, ed un elemento minimale e anche minimo.

1.22 Esempio. Consideriamo l’insieme Y = {a, b, c, d}, sia A = P(Y ). Sia B il sottoinsiemedi A costituito da tutte e sole le parti proprie di Y :

B = A− {Y } ={Z ∈ P(Y )

∣∣ Z �= Y}=

{Z ∈ P(Y )

∣∣ Z ⊂ Y}.

Consideriamo in B la relazione ⊆ di inclusione. Il sottoinsieme S = {a, b, c} di A e un elementodi B, ed e massimale in B, ma non massimo. Osserviamo che ogni sottoinsieme di Y con treelementi gode della stessa proprieta.

Affrontiamo ora lo studio delle applicazioni. Consideriamo quindi un’appli-

1.1. RICHIAMI 19

cazione f : A → B. Se x ∈ A e y = f(x) ∈ B, scriveremo anche, talvolta,x �→ y. Il sottoinsieme

im f = f(A) :={y ∈ B

∣∣ ∃x ∈ A∣∣ y = f(x)

}⊆ B

si dice immagine di f . Puo accadere che im f = B oppure che im f ⊂ B. Inoltre,se y ∈ im f , puo accadere che sia unico l’elemento x ∈ A tale che y = f(x),oppure possono esistere vari elementi x, x�, x��, · · · ∈ A tali che

y = f(x) = f(x�) = f(x��), . . . ,

cioe y puo essere immagine di vari elementi del dominio. Per ogni y ∈ B edefinito un sottoinsieme di A, detto controimmagine di y mediante f e denotatocon il simbolo f−1(y), al modo seguente:

f−1(y) ={x ∈ A

∣∣ f(x) = y}.

1.23 Osservazione. E bene tener presente che

• Il sottoinsieme f−1(y) puo essere vuoto;

• f−1(y) �= ∅ ⇐⇒ y ∈ im f ;

• Se f−1(y) �= ∅, esso puo essere costituito da uno o piu elementi del dominio A.

Piu in generale, se Y ⊆ B e un sottoinsieme del codominio, si definiscecontroimmagine di Y il sottoinsieme

f−1(Y ) ={x ∈ A

∣∣ f(x) ∈ Y}⊆ A .

1.24 Definizione. Sia f : A → B un’applicazione. Essa si dice iniettiva se perogni x�, x�� ∈ A tali che x� �= x�� si abbia che f(x�) �= f(x��).

Cio si puo esprimere anche dicendo che per ogni y ∈ im f esiste un unicoelemento x ∈ A tale che y = f(x), oppure che vale la seguente implicazione:

f(x�) = f(x��) =⇒ x� = x�� .

1.25 Definizione. Sia f : A → B un’applicazione. Essa si dice suriettiva seim f = B, ovvero se per ogni y ∈ B esiste almeno un elemento x ∈ A tale chey = f(x).

1.26 Definizione. Sia f : A → B un’applicazione. Essa si dice biettiva se esia iniettiva che suriettiva.

1.27 Esempio. Sia A l’insieme degli abitanti di una certa citta, ad esempio Napoli, in uncerto istante. Definiamo un’applicazione f : A → N0 al modo seguente. Se a e un abitante

19Strutture algebriche

Page 20: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

20 CAPITOLO 1. STRUTTURE ALGEBRICHE

di Napoli, sia f(a) la sua eta. E chiaro che f e un’applicazione, in quanto ogni abitante hasicuramente una eta ben definita. f non e iniettiva, in quanto molti abitanti di Napoli sonocoetanei, e non e suriettiva. Se scegliamo infatti un numero naturale m abbastanza grande,ad esempio m = 1000, certamente non potremo trovare un abitante di Napoli con quell’eta,ovvero � ∃ a ∈ A tale che f(a) = 1000. Quindi 1000 �∈ im f .

1.28 Esempio. Definiamo un’applicazione f : R → R ponendo x �→ x2, per ogni x ∈ R. fnon e iniettiva (ad esempio abbiamo che f(2) = f(−2) = 4) e neppure suriettiva (ad esempioscelto −1 nel codominio R, e ben noto che non esiste alcun elemento del dominio R che abbia−1 come quadrato). Osserviamo che

f−1(0) = {0} ; f−1(1) = {1,−1} ; f−1(−1) = ∅ .

Possiamo ora definire due nuove applicazioni che agiscono come f , ma su insiemi diversi.Definiamo

g : R+0 −→ R ; h : R+

0 −→ R+0

ponendo, come nel caso di f , g(x) = x2 e h(x) = x2, per ogni x ∈ R+0 . Si verifica agevolmente

che g e un’applicazione iniettiva, ma non suriettiva, mentre h e sia iniettiva che suriettiva, equindi e biettiva.

Questo esempio suggerisce la seguente

1.29 Definizione. Sia f : A → B un’applicazione. Scelto un qualunque sot-toinsieme non vuoto A del dominio A e un sottoinsieme B del codominio B taleche si abbia im f ⊆ B, l’applicazione f : A → B definita ponendo f(x) = f(x),per ogni x ∈ A, si dice restrizione di f .

Se A ⊂ A e B = B, la restrizione f si indica anche con il simbolo f|A.Nell’esempio precedente, g ed h sono entrambe restrizioni di f , e in particolareg = f|R+

0.

1.30 Esempio. Sia A un qualunque insieme non vuoto. L’applicazione idA : A → A definitaponendo idA(x) = x per ogni x ∈ A si dice applicazione identica di A e si indica spessocon il simbolo id. Se X ⊆ A, la restrizione dell’identita al sottoinsieme X sul dominio sidice applicazione d’inclusione, o piu semplicemente inclusione, di X in A, e si scrive talvoltaid|X : X �→ A.

Concludiamo questa breve esposizione sulle applicazioni introducendo i con-cetti di applicazione composta ed inversa.

1.31 Definizione. Siano A,B,C degli insiemi non vuoti, e siano f : A → Be g : B → C due applicazioni. Definiamo una nuova applicazione h : A → Cponendo, per ogni x ∈ A, h(x) = g

(f(x)

). L’applicazione h si dice composta di

f e g e si scrive h = g ◦ f , o anche h = gf .

20 Geometria e algebra

Page 21: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

20 CAPITOLO 1. STRUTTURE ALGEBRICHE

di Napoli, sia f(a) la sua eta. E chiaro che f e un’applicazione, in quanto ogni abitante hasicuramente una eta ben definita. f non e iniettiva, in quanto molti abitanti di Napoli sonocoetanei, e non e suriettiva. Se scegliamo infatti un numero naturale m abbastanza grande,ad esempio m = 1000, certamente non potremo trovare un abitante di Napoli con quell’eta,ovvero � ∃ a ∈ A tale che f(a) = 1000. Quindi 1000 �∈ im f .

1.28 Esempio. Definiamo un’applicazione f : R → R ponendo x �→ x2, per ogni x ∈ R. fnon e iniettiva (ad esempio abbiamo che f(2) = f(−2) = 4) e neppure suriettiva (ad esempioscelto −1 nel codominio R, e ben noto che non esiste alcun elemento del dominio R che abbia−1 come quadrato). Osserviamo che

f−1(0) = {0} ; f−1(1) = {1,−1} ; f−1(−1) = ∅ .

Possiamo ora definire due nuove applicazioni che agiscono come f , ma su insiemi diversi.Definiamo

g : R+0 −→ R ; h : R+

0 −→ R+0

ponendo, come nel caso di f , g(x) = x2 e h(x) = x2, per ogni x ∈ R+0 . Si verifica agevolmente

che g e un’applicazione iniettiva, ma non suriettiva, mentre h e sia iniettiva che suriettiva, equindi e biettiva.

Questo esempio suggerisce la seguente

1.29 Definizione. Sia f : A → B un’applicazione. Scelto un qualunque sot-toinsieme non vuoto A del dominio A e un sottoinsieme B del codominio B taleche si abbia im f ⊆ B, l’applicazione f : A → B definita ponendo f(x) = f(x),per ogni x ∈ A, si dice restrizione di f .

Se A ⊂ A e B = B, la restrizione f si indica anche con il simbolo f|A.Nell’esempio precedente, g ed h sono entrambe restrizioni di f , e in particolareg = f|R+

0.

1.30 Esempio. Sia A un qualunque insieme non vuoto. L’applicazione idA : A → A definitaponendo idA(x) = x per ogni x ∈ A si dice applicazione identica di A e si indica spessocon il simbolo id. Se X ⊆ A, la restrizione dell’identita al sottoinsieme X sul dominio sidice applicazione d’inclusione, o piu semplicemente inclusione, di X in A, e si scrive talvoltaid|X : X �→ A.

Concludiamo questa breve esposizione sulle applicazioni introducendo i con-cetti di applicazione composta ed inversa.

1.31 Definizione. Siano A,B,C degli insiemi non vuoti, e siano f : A → Be g : B → C due applicazioni. Definiamo una nuova applicazione h : A → Cponendo, per ogni x ∈ A, h(x) = g

(f(x)

). L’applicazione h si dice composta di

f e g e si scrive h = g ◦ f , o anche h = gf .

1.1. RICHIAMI 21

Per evidenziare che h e la composta di f e g, si scrive talvolta

h : Af−→ B

g−→ C .

Consideriamo ora il caso particolare in cui A = C.

1.32 Definizione. Siano f : A → B e g : B → A due applicazioni. Diremo cheg e inversa di f se accade che gf = idA e fg = idB .

In altri termini deve accadere che, per ogni x ∈ A, si abbia che gf(x) = xe che, per ogni y ∈ B, si abbia fg(y) = y. Osserviamo che non sempre esisteun’applicazione inversa di un’applicazione data f , ma se esiste e unica, e siindica con il simbolo f−1. Va sottolineato che, nel caso in cui f sia dotata diinversa, per ogni elemento y del codominio di f il simbolo f−1(y) indica sial’immagine dell’elemento y mediante f−1 (che e un elemento del dominio di f)che la controimmagine dell’elemento y mediante f (che e un sottoinsieme deldominio di f costituito da un solo elemento, ovvero un singleton), un chiaroabuso di notazione che e pero di uso comune. Si dovra capire dal contesto ilsignificato del simbolo.

1.33 Esempio. Consideriamo l’applicazione h : R+0 −→ R+

0 definita, come sopra, ponendo

h(x) = x2, per ogni numero reale non negativo x, e l’applicazione k : R+0 −→ R+

0 definitaponendo, per ogni numero reale non negativo x, k(x) =

√x. Si verifica agevolmente che k e

l’inversa di h, cioe k = h−1. Si scrivera quindi, ad esempio, h−1(4) = 2 oppure h−1(4) = {2}a seconda che si voglia indicare l’immagine tramite h−1 di 4, oppure la controimmmagine di4 mediante h.

Le applicazioni dotate di inversa si caratterizzano al modo seguente.

1.34 Proposizione. Un’applicazione e dotata di inversa se e solo se essa ebiettiva.

Dimostrazione. Sia f : A → B un’applicazione. Supponiamo che f sia biettiva.Definiamo un’applicazione g : B → A al modo seguente. Per ogni y ∈ B,osserviamo che esiste un unico elemento x ∈ A tale che f(x) = y. L’esistenza edovuta al fatto che f e suriettiva, l’unicita al fatto che f e iniettiva. Poniamoallora g(y) = x. E agevole verificare che g e l’inversa di f . Supponiamo orache f sia dotata di inversa, diciamo g. Per ogni y ∈ B consideriamo l’elementox = g(y) ∈ A. Abbiamo che

f(x) = fg(y) = idB(y) = y ,

21Strutture algebriche

Page 22: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

22 CAPITOLO 1. STRUTTURE ALGEBRICHE

e quindi f e suriettiva. Siano ora x′, x′′ ∈ A e sia f(x′) = f(x′′) = y. Allora

g(y) = gf(x′) = idA(x′) = x′

= gf(x′′) = idA(x′′) = x′′

e quindi f e anche iniettiva.

1.2 Generalita sulle strutture algebriche

In alcuni insiemi, come ad esempio quelli numerici, o dei vettori liberi o applicati,siamo abituati a considerare delle operazioni (addizione, moltiplicazione, . . . ).A seconda delle operazioni che consideriamo, e delle loro proprieta, possiamosviluppare certi strumenti di calcolo. Precisiamo dunque tali concetti intro-ducendo le nozioni di operazione (binaria) interna ed esterna, e di strutturaalgebrica.

1.35 Definizione. Sia S un insieme non vuoto. Una operazione (binaria)interna di S e un’applicazione f : S × S → S.

E d’uso comune associare un simbolo, ad esempio ∗, a tale operazione escrivere a ∗ b invece di f(a, b), per ogni (a, b) ∈ S × S.

1.36 Definizione. L’operazione interna ∗ di S e associativa se

(a ∗ b) ∗ c = a ∗ (b ∗ c) ∀ a, b, c ∈ S .

1.37 Esempio. L’addizione + e la moltiplicazione · negli insiemi numerici N, N0, Z, Q, R, Csono operazioni interne associative. La divisione : non e una operazione (non si puo dividereper 0 in N0,Z,Q,R,C e si puo effettuare la divisione tra i numeri naturali o interi relativim,n se e solo se m e multiplo di n). In Q − {0} e sempre possibile effettuare la divisione, epertanto in tale insieme la divisione e una operazione interna, ma e facile verificare che essanon e associativa. Infatti, ad esempio,

(16 : 4) : 2 �= 16 : (4 : 2) .

1.38 Definizione. Sia S un insieme non vuoto. Una struttura algebrica (conuna operazione interna) con sostegno S e una coppia (S; ∗), dove ∗ e unaoperazione interna di S.

Quasi sempre, con abuso di notazione, si scrivera S sia per indicare l’insiemedi sostegno che per indicare la struttura.

22 Geometria e algebra

Page 23: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

22 CAPITOLO 1. STRUTTURE ALGEBRICHE

e quindi f e suriettiva. Siano ora x′, x′′ ∈ A e sia f(x′) = f(x′′) = y. Allora

g(y) = gf(x′) = idA(x′) = x′

= gf(x′′) = idA(x′′) = x′′

e quindi f e anche iniettiva.

1.2 Generalita sulle strutture algebriche

In alcuni insiemi, come ad esempio quelli numerici, o dei vettori liberi o applicati,siamo abituati a considerare delle operazioni (addizione, moltiplicazione, . . . ).A seconda delle operazioni che consideriamo, e delle loro proprieta, possiamosviluppare certi strumenti di calcolo. Precisiamo dunque tali concetti intro-ducendo le nozioni di operazione (binaria) interna ed esterna, e di strutturaalgebrica.

1.35 Definizione. Sia S un insieme non vuoto. Una operazione (binaria)interna di S e un’applicazione f : S × S → S.

E d’uso comune associare un simbolo, ad esempio ∗, a tale operazione escrivere a ∗ b invece di f(a, b), per ogni (a, b) ∈ S × S.

1.36 Definizione. L’operazione interna ∗ di S e associativa se

(a ∗ b) ∗ c = a ∗ (b ∗ c) ∀ a, b, c ∈ S .

1.37 Esempio. L’addizione + e la moltiplicazione · negli insiemi numerici N, N0, Z, Q, R, Csono operazioni interne associative. La divisione : non e una operazione (non si puo dividereper 0 in N0,Z,Q,R,C e si puo effettuare la divisione tra i numeri naturali o interi relativim,n se e solo se m e multiplo di n). In Q − {0} e sempre possibile effettuare la divisione, epertanto in tale insieme la divisione e una operazione interna, ma e facile verificare che essanon e associativa. Infatti, ad esempio,

(16 : 4) : 2 �= 16 : (4 : 2) .

1.38 Definizione. Sia S un insieme non vuoto. Una struttura algebrica (conuna operazione interna) con sostegno S e una coppia (S; ∗), dove ∗ e unaoperazione interna di S.

Quasi sempre, con abuso di notazione, si scrivera S sia per indicare l’insiemedi sostegno che per indicare la struttura.

1.2. GENERALITA SULLE STRUTTURE ALGEBRICHE 23

1.39 Definizione. Sia S una struttura algebrica (con operazione interna ∗) esia T ⊆ S. Diremo che T e una parte stabile di S se per ogni a, b ∈ T si ha chea ∗ b ∈ T .

Si puo facilmente verificare che l’intersezione di parti stabili e ancora unaparte stabile.

1.40 Definizione. Sia S una struttura algebrica (con operazione interna ∗).Se l’operazione ∗ e associativa, la struttura si dice semigruppo.

1.41 Definizione. Sia S una struttura algebrica (con operazione interna ∗) esia u ∈ S. L’elemento u si dice neutro a destra se x ∗ u = x per ogni x ∈ S,neutro a sinistra se u ∗ y = y per ogni y ∈ S. Infine, u si dice neutro se lo e siaa destra che a sinistra.

1.42 Proposizione. Sia S una struttura algebrica (con operazione interna ∗).Se u′ ∈ S e neutro a sinistra e u′′ ∈ S e neutro a destra, si ha che u′ = u′′. Inparticolare quindi esiste al piu un elemento neutro.

Dimostrazione. Poiche u′ e neutro a sinistra, si ha che u′ ∗ u′′ = u′′. Ma poicheu′′ e neutro a destra, si ha che u′ ∗ u′′ = u′. Quindi u′ = u′′.

1.43 Definizione. Un semigruppo dotato di elemento neutro si dice monoide.

1.44 Definizione. Sia S un monoide e sia u il suo elemento neutro. Un ele-mento x ∈ S e simmetrizzabile a sinistra se esiste x′ ∈ S tale che x′ ∗ x = u, adestra se esiste x′′ ∈ S tale che x ∗ x′′ = u. Infine x e simmetrizzabile se esistey ∈ S tale che y ∗ x = u = x ∗ y. Gli elementi x′, x′′, y si dicono rispettivamentesimmetrico a sinistra, simmetrico a destra, simmetrico di x.

1.45 Proposizione. Sia S un monoide e sia x ∈ S. Se x′ e un simmetricosinistro di x e x′′ e un simmetrico destro di x, allora x′ = x′′.

23Strutture algebriche

Page 24: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

24 CAPITOLO 1. STRUTTURE ALGEBRICHE

Dimostrazione. Denotiamo con u l’elemento neutro del monoide. Abbiamo che

x� = x� ∗ u= x� ∗ (x ∗ x��)= (x� ∗ x) ∗ x�� (per l’associativita)

= u ∗ x��

= x�� ,

cioe x� = x��.

Osserviamo che in generale il simmetrico sinistro (o destro), se esiste, non eunico. La proposizione precedente ci assicura pero che il simmetrico, se esiste,e unico.

1.46 Esempio. Consideriamo gli insiemi numerici N, N0, Z, Q, R, C con l’addizione. Taleoperazione e associativa e quindi tutte le strutture considerate sono semigruppi. Lo 0 el’elemento neutro, e quindi N0, Z, Q, R, C sono monoidi. In Z, Q, R, C ogni elemento edotato di simmetrico (l’opposto). Consideriamo ora N, N0, Z, Q, R, C con la moltiplicazione,anch’essa associativa. In questo caso 1 e l’elemento neutro, e tutte le strutture sono monoidi.In N ed N0 l’unico elemento simmetrizzabile e l’elemento neutro, che e simmetrico di se stesso,come avviene in generale. In Z e simmetrizzabile anche −1, che e simmetrico di se stesso. In Q,R, C ogni elemento non nullo e simmetrizzabile, ed il simmetrico e l’inverso o reciproco. In Q+,R+ ogni elemento e simmetrizzabile. Come gia osservato, la divisione non puo considerarsicome operazione in N, N0, Z, Q, R, C in quanto, dati due elementi a, b non sempre e possibileeffettuare la divisione a : b. In particolare, in Q, R, C e possibile effettuare tale operazione see solo se b �= 0. In Q+, R+, Q− {0}, R− {0}, C− {0} la divisione e una operazione, ma none associativa.

In analogia con il caso numerico, quando si usa il simbolo +, l’operazione edetta addizione (notazione additiva) ed il simmetrico di un elemento x e dettoopposto e denotato −x. Quando invece si usa il simbolo · l’operazione e dettamoltiplicazione (notazione moltiplicativa) ed il simmetrico di un elemento x edetto inverso o reciproco e denotato con x−1 o anche 1/x. E frequente chein notazione moltiplicativa il simbolo · sia omesso (e in tal caso si dice chel’operazione e denotata per giustapposizione).

1.47 Definizione. Un monoide G e un gruppo se ogni suo elemento e simme-trizzabile.

1.48 Definizione. Una operazione ∗ in un insieme non vuoto S si dice com-mutativa se si ha che a ∗ b = b ∗ a per ogni a, b ∈ S.

1.49 Definizione. Un gruppo G la cui operazione e commutativa prende ilnome di gruppo abeliano.

24 Geometria e algebra

Page 25: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

24 CAPITOLO 1. STRUTTURE ALGEBRICHE

Dimostrazione. Denotiamo con u l’elemento neutro del monoide. Abbiamo che

x� = x� ∗ u= x� ∗ (x ∗ x��)= (x� ∗ x) ∗ x�� (per l’associativita)

= u ∗ x��

= x�� ,

cioe x� = x��.

Osserviamo che in generale il simmetrico sinistro (o destro), se esiste, non eunico. La proposizione precedente ci assicura pero che il simmetrico, se esiste,e unico.

1.46 Esempio. Consideriamo gli insiemi numerici N, N0, Z, Q, R, C con l’addizione. Taleoperazione e associativa e quindi tutte le strutture considerate sono semigruppi. Lo 0 el’elemento neutro, e quindi N0, Z, Q, R, C sono monoidi. In Z, Q, R, C ogni elemento edotato di simmetrico (l’opposto). Consideriamo ora N, N0, Z, Q, R, C con la moltiplicazione,anch’essa associativa. In questo caso 1 e l’elemento neutro, e tutte le strutture sono monoidi.In N ed N0 l’unico elemento simmetrizzabile e l’elemento neutro, che e simmetrico di se stesso,come avviene in generale. In Z e simmetrizzabile anche −1, che e simmetrico di se stesso. In Q,R, C ogni elemento non nullo e simmetrizzabile, ed il simmetrico e l’inverso o reciproco. In Q+,R+ ogni elemento e simmetrizzabile. Come gia osservato, la divisione non puo considerarsicome operazione in N, N0, Z, Q, R, C in quanto, dati due elementi a, b non sempre e possibileeffettuare la divisione a : b. In particolare, in Q, R, C e possibile effettuare tale operazione see solo se b �= 0. In Q+, R+, Q− {0}, R− {0}, C− {0} la divisione e una operazione, ma none associativa.

In analogia con il caso numerico, quando si usa il simbolo +, l’operazione edetta addizione (notazione additiva) ed il simmetrico di un elemento x e dettoopposto e denotato −x. Quando invece si usa il simbolo · l’operazione e dettamoltiplicazione (notazione moltiplicativa) ed il simmetrico di un elemento x edetto inverso o reciproco e denotato con x−1 o anche 1/x. E frequente chein notazione moltiplicativa il simbolo · sia omesso (e in tal caso si dice chel’operazione e denotata per giustapposizione).

1.47 Definizione. Un monoide G e un gruppo se ogni suo elemento e simme-trizzabile.

1.48 Definizione. Una operazione ∗ in un insieme non vuoto S si dice com-mutativa se si ha che a ∗ b = b ∗ a per ogni a, b ∈ S.

1.49 Definizione. Un gruppo G la cui operazione e commutativa prende ilnome di gruppo abeliano.

1.2. GENERALITA SULLE STRUTTURE ALGEBRICHE 25

1.50 Esempio. Consideriamo gli insiemi numerici N, N0, Z, Q, R, C con l’addizione. Perquanto gia osservato, vediamo che N, N0 non sono gruppi, mentre Z, Q, R, C sono gruppiabeliani. Se consideriamo invece le strutture numeriche moltiplicative, osserviamo che lo 0non e mai invertibile. Esempi di gruppi (abeliani) moltiplicativi sono Q+, R+, Q−{0}, R−{0},C− {0}.

1.51 Esempio. Consideriamo l’insieme

H ={1,−1, i,−i, j,−j, k,−k

},

ed in esso definiamo una moltiplicazione mediante la seguente tabella

· 1 −1 i −i j −j k −k

1 1 −1 i −i j −j k −k

−1 −1 1 −i i −j j −k k

i i −i −1 1 k −k −j j

−i −i i 1 −1 −k k j −j

j j −j −k k −1 1 i −i

−j −j j k −k 1 −1 −i i

k k −k j −j −i i −1 1

−k −k k −j j i −i 1 −1

dove il prodotto tra due elementi x e y si ottiene selezionando x sulla prima colonna e ysulla prima riga e determinando l’elemento della tabella sull’intersezione della riga di x edella colonna di y. La struttura (H; ·) cosı ottenuta e un gruppo non abeliano: il gruppo deiquaternioni.

Possiamo considerare anche strutture con piu operazioni. In particolaresiamo interessati alle strutture con due operazioni interne. E d’uso comunedenotare tali operazioni con i simboli +, · (addizione e moltiplicazione).

1.52 Definizione. Sia A un insieme non vuoto e siano +, · due sue operazioniinterne. La terna (A; +, ·) si dice anello se

(i) la struttura (A,+) e un gruppo abeliano;

(ii) la struttura (A, ·) e un semigruppo;

(iii) x · (a′ + a′′) = x · a′ + x · a′′, per ogni x, a′, a′′ ∈ A;

(iv) (a′ + a′′) · y = a′ · y + a′′ · y, per ogni a′, a′′, y ∈ A.

Le ultime due proprieta sono note come distributivita (a sinistra e a de-stra) della moltiplicazione rispetto all’addizione. Abbiamo qui implicitamenteadottato la convenzione che la moltiplicazione ha la precedenza sull’addizione,evitando cosı di dover usare alcune ulteriori parentesi. Quando la moltiplicazio-ne e commutativa, l’anello e detto commutativo. Se poi esiste l’elemento neutrorispetto alla moltiplicazione, l’anello e detto unitario.

25Strutture algebriche

Page 26: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

26 CAPITOLO 1. STRUTTURE ALGEBRICHE

1.53 Esempio. Consideriamo gli insiemi numerici N, N0, Z, Q, R, C con l’addizione e lamoltiplicazione. Per quanto gia osservato, vediamo che N, N0 non sono anelli, mentre Z, Q,R, C sono anelli commutativi unitari. Il sottoinsieme P ⊂ Z dei numeri pari e stabile rispettoad entrambe le operazioni ed e anch’esso un anello commutativo, ma non e unitario.

1.54 Esempio. L’insieme R[x] dei polinomi nell’indeterminata x a coefficienti reali, con leusuali operazioni di addizione e moltiplicazione e un ulteriore esempio notevole di anellocommutativo unitario. I coefficienti possono anche essere presi in un qualunque altro anello, adesempio gli interi, i razionali o i complessi. Si puo considerare anche l’insieme R[x1, x2, . . . , xn]dei polinomi a coefficienti reali in n indeterminate. Anche questo insieme ha una struttura dianello, con le usuali operazioni di addizione e moltiplicazione tra polinomi.

1.55 Definizione. Un anello unitario A di dice corpo se, privato dello 0,e un gruppo rispetto alla moltiplicazione. Se poi la moltiplicazione e anchecommutativa, la struttura prende il nome di campo.

Tradizionalmente, gli elementi di un campo si dicono scalari.

1.56 Esempio. Gli anelli commutativi unitari Z e R[x] non sono campi. Gli insiemi numericidei razionali, reali e complessi sono invece altrettanti esempi di struttura di campo.

1.57 Esempio. Consideriamo il sottoinsieme A ⊂ R cosı definito:

A ={a+ b

√2∣∣ a, b ∈ Q

}.

E agevole verificare che A e stabile rispetto ad entrambe le operazioni ed e un campo, checontiene propriamente il campo dei numeri razionali ed e contenuto propriamente nel camporeale. Tale campo si dice estensione di Q mediante

√2.

1.58 Esempio. Consideriamo l’insieme H delle espressioni formali del tipo w = a+bi+cj+dkdove a, b, c, d ∈ R. Definiamo due operazioni +, · come segue. Se w′,w′′ ∈ H, ad esempiow′ = a′ + b′i+ c′j + d′k, w′′ = a′′ + b′′i+ c′′j + d′′k, poniamo

w′ +w′′ = a′ + a′′ + (b′ + b′′)i+ (c′ + c′′)j + (d′ + d′′)k ; w′ ·w′′ = α+ βi+ γj + δk

dove

α = a′a′′ − b′b′′ − c′c′′ − d′d′′ , β = a′b′′ + b′a′′ + c′d′′ − d′c′′ ,

γ = a′c′′ − b′d′′ + c′a′′ + d′b′′ , δ = a′d′′ + bc′′ − c′b′′ + d′a′′ .

Osserviamo che la moltiplicazione e definita formalmente rispettando la tabella dell’Esempio1.51 sui simboli i, j, k e la consueta regola dei segni, e imponendo la distributivita. La verificadel fatto che (H; +) e un gruppo abeliano e agevole. La verifica del fatto che (H−{0}; ·) e ungruppo richiede qualche calcolo in piu. La costruzione della struttura (H; +, ·) ricalca quelladei numeri complessi: i, j, k sono tutte radici di −1. La moltiplicazione non e commutativa.Infatti, ad esempio, ij = k, ji = −k. Pertanto (H; +, ·) e un corpo, ma non un campo, ed enoto come il corpo dei quaternioni introdotto dal matematico irlandese W. R. Hamilton.

Sia ora A una struttura con una operazione di addizione associativa, e suppo-niamo di voler sommare non necessariamente due ma piu elementi, ad esempio

26 Geometria e algebra

Page 27: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

26 CAPITOLO 1. STRUTTURE ALGEBRICHE

1.53 Esempio. Consideriamo gli insiemi numerici N, N0, Z, Q, R, C con l’addizione e lamoltiplicazione. Per quanto gia osservato, vediamo che N, N0 non sono anelli, mentre Z, Q,R, C sono anelli commutativi unitari. Il sottoinsieme P ⊂ Z dei numeri pari e stabile rispettoad entrambe le operazioni ed e anch’esso un anello commutativo, ma non e unitario.

1.54 Esempio. L’insieme R[x] dei polinomi nell’indeterminata x a coefficienti reali, con leusuali operazioni di addizione e moltiplicazione e un ulteriore esempio notevole di anellocommutativo unitario. I coefficienti possono anche essere presi in un qualunque altro anello, adesempio gli interi, i razionali o i complessi. Si puo considerare anche l’insieme R[x1, x2, . . . , xn]dei polinomi a coefficienti reali in n indeterminate. Anche questo insieme ha una struttura dianello, con le usuali operazioni di addizione e moltiplicazione tra polinomi.

1.55 Definizione. Un anello unitario A di dice corpo se, privato dello 0,e un gruppo rispetto alla moltiplicazione. Se poi la moltiplicazione e anchecommutativa, la struttura prende il nome di campo.

Tradizionalmente, gli elementi di un campo si dicono scalari.

1.56 Esempio. Gli anelli commutativi unitari Z e R[x] non sono campi. Gli insiemi numericidei razionali, reali e complessi sono invece altrettanti esempi di struttura di campo.

1.57 Esempio. Consideriamo il sottoinsieme A ⊂ R cosı definito:

A ={a+ b

√2∣∣ a, b ∈ Q

}.

E agevole verificare che A e stabile rispetto ad entrambe le operazioni ed e un campo, checontiene propriamente il campo dei numeri razionali ed e contenuto propriamente nel camporeale. Tale campo si dice estensione di Q mediante

√2.

1.58 Esempio. Consideriamo l’insieme H delle espressioni formali del tipo w = a+bi+cj+dkdove a, b, c, d ∈ R. Definiamo due operazioni +, · come segue. Se w′,w′′ ∈ H, ad esempiow′ = a′ + b′i+ c′j + d′k, w′′ = a′′ + b′′i+ c′′j + d′′k, poniamo

w′ +w′′ = a′ + a′′ + (b′ + b′′)i+ (c′ + c′′)j + (d′ + d′′)k ; w′ ·w′′ = α+ βi+ γj + δk

dove

α = a′a′′ − b′b′′ − c′c′′ − d′d′′ , β = a′b′′ + b′a′′ + c′d′′ − d′c′′ ,

γ = a′c′′ − b′d′′ + c′a′′ + d′b′′ , δ = a′d′′ + bc′′ − c′b′′ + d′a′′ .

Osserviamo che la moltiplicazione e definita formalmente rispettando la tabella dell’Esempio1.51 sui simboli i, j, k e la consueta regola dei segni, e imponendo la distributivita. La verificadel fatto che (H; +) e un gruppo abeliano e agevole. La verifica del fatto che (H−{0}; ·) e ungruppo richiede qualche calcolo in piu. La costruzione della struttura (H; +, ·) ricalca quelladei numeri complessi: i, j, k sono tutte radici di −1. La moltiplicazione non e commutativa.Infatti, ad esempio, ij = k, ji = −k. Pertanto (H; +, ·) e un corpo, ma non un campo, ed enoto come il corpo dei quaternioni introdotto dal matematico irlandese W. R. Hamilton.

Sia ora A una struttura con una operazione di addizione associativa, e suppo-niamo di voler sommare non necessariamente due ma piu elementi, ad esempio

1.2. GENERALITA SULLE STRUTTURE ALGEBRICHE 27

gli n elementi x1, x2, . . . , xn, dove n e un qualunque numero naturale. Usere-mo allora, talvolta, la notazione di sommatoria

∑, scegliendo un qualunque

simbolo, ad esempio i, detto indice di sommatoria, che varia da 1 ad n, escriveremo

n∑i=1

xi

invece dix1 + x2 + · · ·+ xn .

Naturalmente si puo utilizzare una notazione analoga per altre operazioni. Adesempio, nel caso della moltiplicazione si utilizza il simbolo

∏e si parla di

produttoria.

1.59 Esempio. Se vogliamo considerare la somma dei primi 1000 numeri naturali, possiamoscrivere

1 + 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9 + · · ·+ 999 + 1000 =1000∑n=1

n = 500500 .

Nel prossimo capitolo introdurremo una nuova struttura algebrica nella qualesi utilizza un tipo di operazione diverso da quello considerato finora. Si trattadi una operazione esterna, nel senso della seguente definizione.

1.60 Definizione. Siano S,K insiemi non vuoti. Una operazione esterna μ inS, con operatori in K, e un’applicazione

μ : K × S −→ S .

Gli elementi di K si dicono scalari.

Scelto un simbolo, ad esempio · per rappresentare l’operazione μ, scriveremo,come per le operazioni interne, a · x invece di μ(a, x), per ogni a ∈ S, x ∈ K,ovvero, come si suol dire, useremo la notazione moltiplicativa.

27Strutture algebriche

Page 28: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno
Page 29: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

29

Capitolo 2

Spazi vettoriali

In questo capitolo introdurremo e studieremo una struttura algebrica che gio-chera un ruolo chiave nella nostra esposizione: la struttura di spazio vettorialesu un campo.

2.1 Generalita, dipendenza lineare

2.1 Definizione. Sia K un campo e V un insieme non vuoto. In V sianodefinite due operazioni: una interna, detta addizione e denotata con il simbolo+, ed una esterna, con operatori in K, detta moltiplicazione e denotata con ilsimbolo ·. La struttura (V ; +, ·) e uno spazio vettoriale sul campo K, o ancheK-spazio, se sono verificati i seguenti assiomi:

(1) la struttura (V ; +) e un gruppo abeliano;

(2) α · (β · v) = (αβ) · v, ∀ α, β ∈ K, ∀ v ∈ V ;

(3) 1 · v = v, ∀ v ∈ V ;

(4) (α+ β) · v = α · v + β · v, ∀ α, β ∈ K, ∀ v ∈ V ;

(5) α · (u+ v) = α · u+ α · v, ∀ α ∈ K, ∀ u,v ∈ V .

L’assioma (ii) e detto associativita mista. Gli assiomi (iv) e (v) esprimonoproprieta di distributivita. Il lettore notera che si usa lo stesso simbolo + perindicare l’addizione in K e in V . Come in ogni struttura algebrica, l’insieme Vprende il nome di sostegno della struttura (V ; +, ·). Per semplicita scriveremo Vanche per indicare la terna (V ; +, ·). Gli elementi di V sono detti vettori, quel-li di K scalari. Il simbolo 0 indichera sempre l’elemento neutro di V rispettoall’addizione, detto anche vettore nullo; inoltre, per ogni vettore v ∈ V , scrivere-mo −v per indicare il vettore opposto. Dagli assiomi ora enunciati, discendonovarie proprieta, che andiamo ad esaminare.

29

Page 30: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

30 CAPITOLO 2. SPAZI VETTORIALI

2.2 Proposizione. Sia V uno spazio vettoriale. Valgono le seguenti proprieta:

(i) per ogni v ∈ V si ha che 0 · v = 0;

(ii) per ogni v ∈ V si ha che (−1) · v = −v;

(iii) per ogni λ ∈ K si ha che λ · 0 = 0;

(iv) se λ · v = 0 e λ �= 0 si ha che v = 0.

Dimostrazione. (i) Per ogni v ∈ V si ha che

0 · v = (0 + 0) · v = 0 · v + 0 · v ,

e quindi, sommando ad entrambi i membri il vettore −(0 · v), otteniamo

0 = −(0 · v) + 0 · v = −(0 · v) + (0 · v + 0 · v)= (−(0 · v) + 0 · v) + 0 · v = 0+ 0 · v= 0 · v .

(ii) Per ogni v ∈ V si ha che

0 = 0 · v = ((−1) + 1) · v = (−1) · v + 1 · v = (−1) · v + v ,

e quindi, sommando ad entrambi i membri il vettore −v otteniamo

(−v) = 0+ (−v) = ((−1) · v + v) + (−v)

= (−1) · v + (v + (−v)) = (−1) · v + 0

= (−1) · v .

(iii) Per ogni λ ∈ K si ha che

λ · 0 = λ · (0+ 0) = λ · 0+ λ · 0 ,

e quindi, sommando ad entrambi i membri il vettore −(λ · 0), otteniamol’asserto, imitando la dimostrazione del primo punto.

(iv) Sia λ uno scalare non nullo, sia v un vettore qualunque, e supponiamo cheλ · v = 0. Allora

v = 1 · v = (λ−1λ) · v = λ−1 · (λ · v) = λ−1 · 0 = 0 .

Il lettore osservi che in ogni uguaglianza della dimostrazione appena svolta siutilizza un opportuno assioma della Definizione 2.1. Quando si opera come nelladimostrazione dei punti (i) e (ii) si dice che si procede per cancellazione. D’orain avanti ometteremo quasi sempre il simbolo · nella notazione di moltiplicazioneesterna, cosı come e d’uso comune fare per la moltipicazione interna di K, ovvero,come si suol dire, l’operazione sara indicata per giustapposizione.

30 Geometria e algebra

Page 31: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

30 CAPITOLO 2. SPAZI VETTORIALI

2.2 Proposizione. Sia V uno spazio vettoriale. Valgono le seguenti proprieta:

(i) per ogni v ∈ V si ha che 0 · v = 0;

(ii) per ogni v ∈ V si ha che (−1) · v = −v;

(iii) per ogni λ ∈ K si ha che λ · 0 = 0;

(iv) se λ · v = 0 e λ �= 0 si ha che v = 0.

Dimostrazione. (i) Per ogni v ∈ V si ha che

0 · v = (0 + 0) · v = 0 · v + 0 · v ,

e quindi, sommando ad entrambi i membri il vettore −(0 · v), otteniamo

0 = −(0 · v) + 0 · v = −(0 · v) + (0 · v + 0 · v)= (−(0 · v) + 0 · v) + 0 · v = 0+ 0 · v= 0 · v .

(ii) Per ogni v ∈ V si ha che

0 = 0 · v = ((−1) + 1) · v = (−1) · v + 1 · v = (−1) · v + v ,

e quindi, sommando ad entrambi i membri il vettore −v otteniamo

(−v) = 0+ (−v) = ((−1) · v + v) + (−v)

= (−1) · v + (v + (−v)) = (−1) · v + 0

= (−1) · v .

(iii) Per ogni λ ∈ K si ha che

λ · 0 = λ · (0+ 0) = λ · 0+ λ · 0 ,

e quindi, sommando ad entrambi i membri il vettore −(λ · 0), otteniamol’asserto, imitando la dimostrazione del primo punto.

(iv) Sia λ uno scalare non nullo, sia v un vettore qualunque, e supponiamo cheλ · v = 0. Allora

v = 1 · v = (λ−1λ) · v = λ−1 · (λ · v) = λ−1 · 0 = 0 .

Il lettore osservi che in ogni uguaglianza della dimostrazione appena svolta siutilizza un opportuno assioma della Definizione 2.1. Quando si opera come nelladimostrazione dei punti (i) e (ii) si dice che si procede per cancellazione. D’orain avanti ometteremo quasi sempre il simbolo · nella notazione di moltiplicazioneesterna, cosı come e d’uso comune fare per la moltipicazione interna di K, ovvero,come si suol dire, l’operazione sara indicata per giustapposizione.

2.1. GENERALITA, DIPENDENZA LINEARE 31

2.3 Esempio. Spazio banale. Sia V un singleton, ovvero un insieme con un solo elemento, edenotiamo tale elemento con il simbolo 0. Con le ovvie operazioni banali di addizione internae di moltiplicazione esterna, la struttura (V ; +, ·) e uno spazio vettoriale su K, detto spaziovettoriale banale, o nullo, e 0 e il suo vettore nullo.

2.4 Esempio. Spazio numerico. Per ogni n ∈ N consideriamo la n-ma potenza cartesianaKn del campo K, ovvero l’insieme

Kn = { (a1, . . . , an) | ai ∈ K, ∀ i }delle n-ple di elementi di K. In Kn si definiscono le operazioni di addizione (interna) e dimoltiplicazione (esterna) ponendo

(a1, . . . , an) + (b1, . . . , bn) = (a1 + b1, . . . , an + bn) ;

λ · (a1, . . . , an) = (λa1, . . . , λan)

per ogni (a1, . . . , an), (b1, . . . , bn) ∈ Kn e per ogni λ ∈ K. Si verifica agevolmente che (Kn; +, ·)e uno spazio vettoriale su K. In particolare se n = 1 lo spazio vettoriale K1 puo identificarsicon il campo K, ovvero K puo vedersi come spazio vettoriale su se stesso. Kn prende il nomedi n-spazio vettoriale numerico su K. Un suo elemento sara detto vettore numerico di ordinen. Il vettore nullo di Kn e manifestamente il vettore 0 = (0, . . . , 0). Definiamo un’applicazione

μ : Kn × Kn −→ Kal modo seguente. Se a = (a1, . . . , an), b = (b1, . . . , bn), poniamo

μ(a,b) =

n∑i=1

aibi .

L’applicazione μ non e una operazione nel senso gia acquisito, ma e comunque nota comeprodotto scalare standard in Kn. Di solito si scrive a · b, o anche �a,b�, invece di μ(a,b).

2.5 Esempio. Vettori liberi. Consideriamo il piano E2 della geometria elementare e l’insiemequoziente dei vettori liberi ordinari V 2 dell’Esempio 1.11. Ricordiamo nuovamente che perogni vettore libero ordinario u ∈ V 2 e per ogni A ∈ E2 esiste un unico B ∈ E2 tale cheu = [AB]. Consideriamo ora un altro vettore libero ordinario v, e sia C l’unico punto di E2

tale che v = [BC]. Poniamou+ v = [AC] .

Questa costruzione e detta talvolta regola del triangolo.

A

B

C

u

v

w

31Spazi vettoriali

Page 32: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

32 CAPITOLO 2. SPAZI VETTORIALI

Abbiamo in tal modo definito una operazione di addizione in V 2; e agevole verificare che taleoperazione e associativa e che ∀ P ∈ E2 il vettore rappresentato dal segmento degenere [PP ]funge da elemento neutro rispetto a tale addizione. Tale vettore sara detto vettore nullo esara indicato con il simbolo 0. Infine ogni vettore libero ordinario [PQ] e dotato di opposto[QP ]. Osserviamo che tale addizione e commutativa e quindi (V 2; +) e un gruppo abeliano.Vogliamo ora definire una moltiplicazione esterna · in V 2 con operatori in R. Per ogni scalareλ ∈ R poniamo λ · 0 = 0. Per ogni vettore libero ordinario [PQ] poniamo 0 · [PQ] = 0. Sianoora λ uno scalare non nullo e [PQ] un vettore libero ordinario non nullo (ovvero sia P �= Q).Sia r la retta passante per P e Q e denotiamo con �, �� le due semirette di r di origine P . Siaad esempio � quella contenente Q. Se λ ∈ R+, sia T l’unico punto di � tale che il segmentoPT abbia lunghezza λ, avendo usato la lunghezza di [PQ] come unita di misura. Poniamoallora λ · [PQ] = [PT ]. Se invece λ ∈ R−, sia T � l’unico punto di �� tale che il segmento PT �abbia lunghezza −λ. Poniamo allora λ · [PQ] = [PT �]. Si verifica, con semplici costruzionigeometriche elementari, che la struttura (V 2; +, ·) e uno spazio vettoriale, che prende il nomedi spazio vettoriale dei vettori liberi ordinari del piano. In modo analogo si costruisce, a partiredallo spazio euclideo tridimensionale E3, lo spazio vettoriale V 3 dei vettori liberi ordinari dellospazio.

2.6 Esempio. Vettori applicati. Consideriamo il piano E2 della geometria elementare.Se A,B ∈ E2 il segmento orientato AB e anche detto vettore applicato, A e il suo punto diapplicazione o primo estremo, B il secondo estremo. Fissiamo un punto O ∈ E2. Consideriamol’insieme E2

O dei vettori applicati in O. Se P,Q ∈ E2 esiste un unico punto R ∈ E2 tale cheil quadrilatero OPRQ sia un parallelogramma (eventualmente degenere). Definiamo unaoperazione di addizione in E2

O, ponendo OP +OQ = OR. Questa costruzione e detta talvoltaregola del parallelogramma. Si puo procedere anche, equivalentemente, considerando il vettorelibero α rappresentato da OP e il vettore libero β rappresentato da OQ ed osservare che ilpunto R di cui sopra e l’unico tale che α+ β sia rappresentato da OR. Si definisce anche unamoltiplicazione esterna con operatori in R in analogia con l’esempio precedente, e si ottieneuna struttura di spazio vettoriale su E2

O, detta spazio dei vettori applicati nel piano (conorigine, o punto di applicazione, O).

2.7 Esempio. Polinomi. Sia V = K[x], l’insieme dei polinomi sul campo K nell’indeterminatax. La struttura (V ; +) e un gruppo abeliano. Definiamo una operazione esterna su V conoperatori in K al modo seguente. Siano f ∈ V , λ ∈ K, ad esempio sia

f = a0 + a1x+ · · ·+ anxn =

n∑h=0

ahxh .

Poniamo allora λ · f = g dove

g = λa0 + λa1x+ · · ·+ λanxn .

In altri termini il prodotto di uno scalare per un polinomio non e altro che il prodotto tra duepolinomi, nel caso in cui il primo sia semplicemente uno scalare, ovvero il polinomio nullo odi grado 0. E agevole verificare che la struttura (V ; +, ·) cosı ottenuta e uno spazio vettorialesu K. Nell’Esempio 1.54 avevamo utilizzato anche l’operazione di moltiplicazione interna,ottenendo cosı una struttura di anello. Vediamo quindi che uno stesso insieme, K[x] in questocaso, e sostegno di strutture diverse, a seconda delle operazioni considerate.

2.8 Esempio. Campi e sottocampi. Sia V = R il campo dei numeri reali e K = Q il campodei numeri razionali. Consideriamo in V l’usuale addizione tra numeri reali. Inoltre, per ogninumero razionale k e per ogni numero reale λ, definiamo il loro prodotto (esterno) considerandodi nuovo l’usuale prodotto tra numeri reali, considerando che un numero razionale e ancheun numero reale. Con queste operazioni l’insieme dei numeri reali puo vedersi come spaziovettoriale sul campo dei numeri razionali.

32 Geometria e algebra

Page 33: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

32 CAPITOLO 2. SPAZI VETTORIALI

Abbiamo in tal modo definito una operazione di addizione in V 2; e agevole verificare che taleoperazione e associativa e che ∀ P ∈ E2 il vettore rappresentato dal segmento degenere [PP ]funge da elemento neutro rispetto a tale addizione. Tale vettore sara detto vettore nullo esara indicato con il simbolo 0. Infine ogni vettore libero ordinario [PQ] e dotato di opposto[QP ]. Osserviamo che tale addizione e commutativa e quindi (V 2; +) e un gruppo abeliano.Vogliamo ora definire una moltiplicazione esterna · in V 2 con operatori in R. Per ogni scalareλ ∈ R poniamo λ · 0 = 0. Per ogni vettore libero ordinario [PQ] poniamo 0 · [PQ] = 0. Sianoora λ uno scalare non nullo e [PQ] un vettore libero ordinario non nullo (ovvero sia P �= Q).Sia r la retta passante per P e Q e denotiamo con �, �� le due semirette di r di origine P . Siaad esempio � quella contenente Q. Se λ ∈ R+, sia T l’unico punto di � tale che il segmentoPT abbia lunghezza λ, avendo usato la lunghezza di [PQ] come unita di misura. Poniamoallora λ · [PQ] = [PT ]. Se invece λ ∈ R−, sia T � l’unico punto di �� tale che il segmento PT �abbia lunghezza −λ. Poniamo allora λ · [PQ] = [PT �]. Si verifica, con semplici costruzionigeometriche elementari, che la struttura (V 2; +, ·) e uno spazio vettoriale, che prende il nomedi spazio vettoriale dei vettori liberi ordinari del piano. In modo analogo si costruisce, a partiredallo spazio euclideo tridimensionale E3, lo spazio vettoriale V 3 dei vettori liberi ordinari dellospazio.

2.6 Esempio. Vettori applicati. Consideriamo il piano E2 della geometria elementare.Se A,B ∈ E2 il segmento orientato AB e anche detto vettore applicato, A e il suo punto diapplicazione o primo estremo, B il secondo estremo. Fissiamo un punto O ∈ E2. Consideriamol’insieme E2

O dei vettori applicati in O. Se P,Q ∈ E2 esiste un unico punto R ∈ E2 tale cheil quadrilatero OPRQ sia un parallelogramma (eventualmente degenere). Definiamo unaoperazione di addizione in E2

O, ponendo OP +OQ = OR. Questa costruzione e detta talvoltaregola del parallelogramma. Si puo procedere anche, equivalentemente, considerando il vettorelibero α rappresentato da OP e il vettore libero β rappresentato da OQ ed osservare che ilpunto R di cui sopra e l’unico tale che α+ β sia rappresentato da OR. Si definisce anche unamoltiplicazione esterna con operatori in R in analogia con l’esempio precedente, e si ottieneuna struttura di spazio vettoriale su E2

O, detta spazio dei vettori applicati nel piano (conorigine, o punto di applicazione, O).

2.7 Esempio. Polinomi. Sia V = K[x], l’insieme dei polinomi sul campo K nell’indeterminatax. La struttura (V ; +) e un gruppo abeliano. Definiamo una operazione esterna su V conoperatori in K al modo seguente. Siano f ∈ V , λ ∈ K, ad esempio sia

f = a0 + a1x+ · · ·+ anxn =

n∑h=0

ahxh .

Poniamo allora λ · f = g dove

g = λa0 + λa1x+ · · ·+ λanxn .

In altri termini il prodotto di uno scalare per un polinomio non e altro che il prodotto tra duepolinomi, nel caso in cui il primo sia semplicemente uno scalare, ovvero il polinomio nullo odi grado 0. E agevole verificare che la struttura (V ; +, ·) cosı ottenuta e uno spazio vettorialesu K. Nell’Esempio 1.54 avevamo utilizzato anche l’operazione di moltiplicazione interna,ottenendo cosı una struttura di anello. Vediamo quindi che uno stesso insieme, K[x] in questocaso, e sostegno di strutture diverse, a seconda delle operazioni considerate.

2.8 Esempio. Campi e sottocampi. Sia V = R il campo dei numeri reali e K = Q il campodei numeri razionali. Consideriamo in V l’usuale addizione tra numeri reali. Inoltre, per ogninumero razionale k e per ogni numero reale λ, definiamo il loro prodotto (esterno) considerandodi nuovo l’usuale prodotto tra numeri reali, considerando che un numero razionale e ancheun numero reale. Con queste operazioni l’insieme dei numeri reali puo vedersi come spaziovettoriale sul campo dei numeri razionali.

2.1. GENERALITA, DIPENDENZA LINEARE 33

2.9 Definizione. Una n-pla, ovvero una sequenza ordinata, S = (v1, . . . ,vn)di vettori sara detta anche sistema ordinato. L’intero positivo n sara dettoordine di S.

Quando l’ordine in cui compaiono i vettori non e essenziale, parleremo sem-plicemente di sistema e scriveremo S = [v1, . . . ,vn]. Consideriamo dunque unsistema S = [v1, . . . ,vn]. Utilizzeremo, con abuso di notazione, alcune notazio-ni di tipo insiemistico. Ad esempio, se w e uno degli elementi di S scriveremow ∈ S. Diremo poi che t e la molteplicita di w in S se il vettore w comparet volte in S. Sia ora S ′ = [w1, . . . ,wm] un altro sistema. Se accade che ognivettore che appartiene a S con una certa molteplicita, appartiene anche ad S ′

con molteplicita non minore, diremo che S e incluso in S ′, o anche che S e unsottosistema di S ′, e scriveremo S ⊆ S ′. Ad esempio, se

S = [u,v,u,w] , S ′ = [u,v,w] , S ′′ = [u,v,u,w,w]

avremo che S ′ ⊆ S ⊆ S ′′, ma S �⊆ S ′. Osserviamo che il vettore u hamolteplicita 2 in S, 1 in S ′, 2 in S ′′.

2.10 Definizione. Sia S = (v1, . . . ,vn) un sistema ordinato di vettori e sia(α1, . . . , αn) ∈ Kn una n-pla di scalari. Il vettore

v =

n∑j=1

αjvj

si dice combinazione lineare di S, ovvero dei vettori v1, . . . ,vn, con coefficientiα1, . . . , αn.

Osserviamo esplicitamente che se α1 = · · · = αn = 0, tale combinazionelineare risultera nulla, qualunque siano i vettori v1, . . . ,vn considerati. Ci sipuo chiedere invece se una combinazione lineare non banale di S, ovvero concoefficienti non tutti nulli, puo ancora essere nulla.

2.11 Definizione. Il sistema ordinato S si dice (linearmente) dipendente seesiste una n-pla non banale di scalari (α1, . . . , αn) ∈ Kn tale che risulti

n∑j=1

αjvj = 0 . (2.1)

Ricordiamo che la n-pla di scalari (α1, . . . , αn) si dice non banale quandonon tutti gli scalari α1, . . . , αn sono nulli. La (2.1) prende il nome di relazionedi dipendenza del sistema ordinato S. E chiaro che la definizione di dipenden-za lineare non dipende dall’ordine con cui si considerano i vettori. Talvolta si

33Spazi vettoriali

Page 34: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

34 CAPITOLO 2. SPAZI VETTORIALI

dice anche che i vettori v1, . . . ,vn sono dipendenti. In alcuni casi si riconosceimmediatamente che un sistema e dipendente. Ad esempio, se il vettore nulloappartiene al sistema, oppure se nel sistema c’e una ripetizione, allora certa-mente il sistema e dipendente. Piu in generale, vale la seguente proposizione dicaratterizzazione.

2.12 Definizione. Sia v un vettore e S = (v1, . . . ,vn) un sistema ordinato.Diremo che v dipende da S se esiste una n-pla di scalari (α1, . . . , αn) ∈ Kn taleche risulti

v =

n∑j=1

αjvj .

In particolare, osserviamo che il vettore nullo dipende da ogni sistema, e cheogni vettore appartenente ad un sistema dipende dal sistema stesso.

2.13 Lemma. Sia v un vettore e siano S = (v1, . . . ,vn), S ′ = (w1, . . . ,wm)due sistemi ordinati. Se v dipende da S e ogni vettore di S dipende da S ′, allorav dipende da S ′.

Dimostrazione. Omessa.

Nella situazione descritta nel lemma precedente, si dice anche che il sistemaS dipende dal sistema S ′. Anche in questo caso l’ordine non e rilevante. Echiaro che se S e un sottosistema di S ′, allora S dipende da S ′.

2.14 Proposizione. Il sistema S e dipendente se e solo se esiste un vettore inS che dipende dai rimanenti.

Dimostrazione. Omessa.

Osserviamo esplicitamente che se il sistema S e dipendente e si ha che S ⊆ S ′,allora anche il sistema S ′ e dipendente.

2.15 Definizione. Il sistema ordinato S = (v1, . . . ,vn) si dice indipendentese non e dipendente, ovvero se l’unica combinazione lineare nulla di S e quellabanale, ovvero a coefficienti tutti nulli. In formule, deve essere vera la seguenteimplicazione:

n∑j=1

αjvj = 0 =⇒ αj = 0 ∀j .

34 Geometria e algebra

Page 35: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

34 CAPITOLO 2. SPAZI VETTORIALI

dice anche che i vettori v1, . . . ,vn sono dipendenti. In alcuni casi si riconosceimmediatamente che un sistema e dipendente. Ad esempio, se il vettore nulloappartiene al sistema, oppure se nel sistema c’e una ripetizione, allora certa-mente il sistema e dipendente. Piu in generale, vale la seguente proposizione dicaratterizzazione.

2.12 Definizione. Sia v un vettore e S = (v1, . . . ,vn) un sistema ordinato.Diremo che v dipende da S se esiste una n-pla di scalari (α1, . . . , αn) ∈ Kn taleche risulti

v =

n∑j=1

αjvj .

In particolare, osserviamo che il vettore nullo dipende da ogni sistema, e cheogni vettore appartenente ad un sistema dipende dal sistema stesso.

2.13 Lemma. Sia v un vettore e siano S = (v1, . . . ,vn), S ′ = (w1, . . . ,wm)due sistemi ordinati. Se v dipende da S e ogni vettore di S dipende da S ′, allorav dipende da S ′.

Dimostrazione. Omessa.

Nella situazione descritta nel lemma precedente, si dice anche che il sistemaS dipende dal sistema S ′. Anche in questo caso l’ordine non e rilevante. Echiaro che se S e un sottosistema di S ′, allora S dipende da S ′.

2.14 Proposizione. Il sistema S e dipendente se e solo se esiste un vettore inS che dipende dai rimanenti.

Dimostrazione. Omessa.

Osserviamo esplicitamente che se il sistema S e dipendente e si ha che S ⊆ S ′,allora anche il sistema S ′ e dipendente.

2.15 Definizione. Il sistema ordinato S = (v1, . . . ,vn) si dice indipendentese non e dipendente, ovvero se l’unica combinazione lineare nulla di S e quellabanale, ovvero a coefficienti tutti nulli. In formule, deve essere vera la seguenteimplicazione:

n∑j=1

αjvj = 0 =⇒ αj = 0 ∀j .

2.2. BASI E DIMENSIONE 35

Anche in questo caso l’ordine non e rilevante. Talvolta diremo allora sempli-cemente che i vettori v1, . . . ,vn sono indipendenti. Da quanto detto finora segueche se S e indipendente, il vettore nullo non appartiene al sistema, ed i vettoridel sistema sono a due a due distinti. Nella teoria degli spazi vettoriali giocaun ruolo fondamentale lo studio dei sistemi di vettori e dei loro sottosistemiindipendenti massimali.

2.16 Lemma. Siano S = [v1, . . . ,vn], S ′ = [w1, . . . ,wm] due sistemi di vettori.Supponiamo che S sia indipendente e sia contenuto in S ′. S e indipendentemassimale in S ′ se e solo se ogni vettore di S ′ dipende da S.

Dimostrazione. Omessa.

2.2 Basi e dimensione

2.17 Definizione. Il sistema ordinato S = (v1, . . . ,vn) si dice sistema di ge-neratori di V se ogni vettore di V dipende da S. In tal caso diremo anche cheS genera V , ovvero che i vettori v1, . . . ,vn generano V , o anche che i vettoriv1, . . . ,vn sono generatori di V , e scriveremo

V = L(S) = L(v1, . . . ,vn) . (2.2)

Anche in questo caso l’ordine non e rilevante.

2.18 Definizione. Uno spazio vettoriale V si dice finitamente generato seammette un sistema di generatori.

Naturalmente una definizione relativa agli spazi vettoriali riveste un certointeresse se alcuni spazi vettoriali soddisfano tale definizione ed altri no.

2.19 Esempio. Consideriamo lo spazio vettoriale V = K[x] dei polinomi sul campo K dell’E-sempio 2.7. Tale spazio non e finitamente generato. Sia infatti

S = [ f1, . . . , fm ]

un sistema di elementi di V . Se t e il massimo tra 0 e massimo dei gradi dei polinomi nonbanali di S, allora si verifica che i polinomi di grado maggiore di t non possono esprimersicome combinazione lineare dei polinomi f1, . . . , fm. Quindi in ogni caso S non e un sistemadi generatori di V .

E chiaro dalla definizione che, se S e un sistema di generatori di V e S ⊆ S ′,anche S ′ e un sistema di generatori. Introduciamo ora una nozione di grandeimportanza.

35Spazi vettoriali

Page 36: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

36 CAPITOLO 2. SPAZI VETTORIALI

2.20 Definizione. Un sistema ordinato B = (e1, . . . , en) si dice base ordinata,o anche riferimento, se e indipendente e genera V .

Sottolineiamo ancora che le nozioni di dipendenza ed indipendenza lineare diun sistema, di sistema di generatori e di base sono tutte indipendenti dall’ordinecon cui vengono considerati i vettori del sistema. D’ora in avanti non specifi-cheremo se un sistema e ordinato. Inoltre indicheremo, con abuso di notazione,con lo stesso simbolo S un sistema ordinato di vettori (v1, . . . ,vn) e anche lostesso sistema (non ordinato) [v1, . . . ,vn].

Osserviamo esplicitamente che lo spazio banale non possiede basi, in quantoin esso non esistono sistemi indipendenti. Anche uno spazio vettoriale nonfinitamente generato non ha basi, in quanto non possiede sistemi di generatori.E utile avere dei criteri per riconoscere se un sistema e una base.

2.21 Teorema di caratterizzazione delle basi. Sia V uno spazio vetto-riale non banale. Un sistema ordinato di vettori B = (e1, . . . , en) di V e unabase ordinata se e solo se vale una delle seguenti condizioni:

(a) B e un sistema indipendente massimale di vettori di V ;

(b) B e un sistema di generatori minimale di vettori di V ;

(c) ∀ v ∈ V, ∃ ! (α1, . . . , αn) ∈ Kn | v =∑n

j=1 αjej .

Dimostrazione. Sia B = [e1, . . . , en]. Supponiamo che B sia una base e provia-mo che valgono le condizioni (a), (b), (c).Proviamo che vale la (a). Gia sappiamo che B e indipendente. Proviamo chee anche massimale, verificando che ogni sistema che contiene B propriamentee dipendente. Sia B′ un sistema contenente propriamente B. Se in B′ c’e unvettore che compare piu di una volta, allora B′ e dipendente. Se invece in B′

non ci sono ripetizioni, deve esistere un vettore v ∈ B′ tale che v �∈ B. PoicheB genera V , v dipende da B e quindi dipende anche dai rimanenti vettori di B′.Pertanto, anche in questo caso, B′ e dipendente.Proviamo che vale la (b). Gia sappiamo che B genera V . Proviamo che B e mi-nimale come sistema di generatori. Per assurdo, sia B′ un sistema di generatoricontenuto propriamente in B. Esiste allora un vettore ej ∈ B tale che ej �∈ B′.Poiche B′ genera V , ej dipende da B′ e quindi anche dai rimanenti vettori di B,che risulta quindi dipendente, in contraddizione con la sua ipotizzata indipen-denza.Proviamo che vale la (c). Gia sappiamo che B e un sistema di generatori. Quindiper ogni v ∈ V esistono degli scalari α1, . . . , αn tali che

v =n∑

j=1

αjej .

36 Geometria e algebra

Page 37: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

36 CAPITOLO 2. SPAZI VETTORIALI

2.20 Definizione. Un sistema ordinato B = (e1, . . . , en) si dice base ordinata,o anche riferimento, se e indipendente e genera V .

Sottolineiamo ancora che le nozioni di dipendenza ed indipendenza lineare diun sistema, di sistema di generatori e di base sono tutte indipendenti dall’ordinecon cui vengono considerati i vettori del sistema. D’ora in avanti non specifi-cheremo se un sistema e ordinato. Inoltre indicheremo, con abuso di notazione,con lo stesso simbolo S un sistema ordinato di vettori (v1, . . . ,vn) e anche lostesso sistema (non ordinato) [v1, . . . ,vn].

Osserviamo esplicitamente che lo spazio banale non possiede basi, in quantoin esso non esistono sistemi indipendenti. Anche uno spazio vettoriale nonfinitamente generato non ha basi, in quanto non possiede sistemi di generatori.E utile avere dei criteri per riconoscere se un sistema e una base.

2.21 Teorema di caratterizzazione delle basi. Sia V uno spazio vetto-riale non banale. Un sistema ordinato di vettori B = (e1, . . . , en) di V e unabase ordinata se e solo se vale una delle seguenti condizioni:

(a) B e un sistema indipendente massimale di vettori di V ;

(b) B e un sistema di generatori minimale di vettori di V ;

(c) ∀ v ∈ V, ∃ ! (α1, . . . , αn) ∈ Kn | v =∑n

j=1 αjej .

Dimostrazione. Sia B = [e1, . . . , en]. Supponiamo che B sia una base e provia-mo che valgono le condizioni (a), (b), (c).Proviamo che vale la (a). Gia sappiamo che B e indipendente. Proviamo chee anche massimale, verificando che ogni sistema che contiene B propriamentee dipendente. Sia B′ un sistema contenente propriamente B. Se in B′ c’e unvettore che compare piu di una volta, allora B′ e dipendente. Se invece in B′

non ci sono ripetizioni, deve esistere un vettore v ∈ B′ tale che v �∈ B. PoicheB genera V , v dipende da B e quindi dipende anche dai rimanenti vettori di B′.Pertanto, anche in questo caso, B′ e dipendente.Proviamo che vale la (b). Gia sappiamo che B genera V . Proviamo che B e mi-nimale come sistema di generatori. Per assurdo, sia B′ un sistema di generatoricontenuto propriamente in B. Esiste allora un vettore ej ∈ B tale che ej �∈ B′.Poiche B′ genera V , ej dipende da B′ e quindi anche dai rimanenti vettori di B,che risulta quindi dipendente, in contraddizione con la sua ipotizzata indipen-denza.Proviamo che vale la (c). Gia sappiamo che B e un sistema di generatori. Quindiper ogni v ∈ V esistono degli scalari α1, . . . , αn tali che

v =n∑

j=1

αjej .

2.2. BASI E DIMENSIONE 37

Vogliamo provare che tali scalari sono univocamente determinati. Se β1, . . . , βn

sono degli scalari tali che

v =n∑

j=1

βjej

avremo chen∑

j=1

(βj − αj)ej = 0

e poiche B e indipendente, si avra che βj − αj = 0, ovvero βj = αj , per ogni j,e cioe gli scalari α1, . . . , αn sono univocamente determinati.Proviamo ora che ognuna delle condizioni (a), (b), (c) implica che B e una base.Supponiamo che valga la (a). Allora gia sappiamo che B e indipendente. Vo-gliamo provare che B genera V . Sia dunque v un qualunque vettore di V . Ilsistema

B� = [e1, . . . , en,v]

contiene propriamente B e quindi, per la massimalita di B come sistema indi-pendente, B� deve risultare dipendente. Pertanto esistono degli scalari non tuttinulli β1, . . . , βn, α tali che

n∑j=1

βjej + αv = 0 . (2.3)

Se α = 0 la (3) si riduce an∑

j=1

βjej = 0 (2.4)

con qualcuno degli scalari βj non nullo. Ma allora la (2.4) e una relazione didipendenza di B e questa e una contraddizione. Deve quindi essere α �= 0 e dalla(2.3) si deduce che

v = −α−1β1e1 + · · · − α−1βnen

e cioe v dipende da B e B genera V .Supponiamo che valga la (b). Sappiamo che B genera V . Vogliamo provare cheB e indipendente. Per assurdo supponiamo che B sia dipendente. Esiste alloraun vettore di B che dipende dai rimanenti. Sia esso, per fissare le idee, e1. Ciovuol dire che esistono degli scalari β2, . . . , βn tali che

e1 =

n∑j=2

βjej .

Poiche B genera V , per ogni v ∈ V esistono degli scalari α1, . . . , αn tali che

v = α1e1 + · · ·+ αnen

37Spazi vettoriali

Page 38: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

38 CAPITOLO 2. SPAZI VETTORIALI

e quindi

v = α1(

n∑j=2

βjej) + α2e2 + · · ·+ αnen

= (α1β2 + α2)e2 + · · ·+ (α1βn + αn)en

e v dipende da [e2, . . . , en]. Ma allora [e2, . . . , en] genera V , e cio e in contrad-dizione con l’ipotizzata minimalita di B come sistema di generatori.Supponiamo infine che valga la (c). Da tale condizione si deduce banalmenteche B genera V . Rimane da verificare l’indipendenza di B. Poiche 0 ∈ V , per la(c) 0 si esprime in unico modo come combinazione lineare di B. D’altra parte echiaro che

0 = 0e1 + · · ·+ 0en

e quindi l’unica combinazione lineare nulla di B e quella banale, ovvero acoefficienti tutti nulli, e B e indipendente.

La condizione (c) si esprime anche dicendo che ogni vettore dello spazio siesprime in modo unico come combinazione lineare di B.

2.22 Definizione. Sia B = (e1, . . . , en) una base di V e sia v ∈ V . Gli scalariα1, . . . , αn di cui alla condizione (c) del teorema precedente si dicono componentidel vettore v in B.

Il seguente risultato, che potrebbe essere enunciato anche in modo piu gene-rale, e essenziale nello studio delle basi di uno spazio vettoriale.

2.23 Lemma di Steinitz. Consideriamo una base B = (e1, . . . , en) di V e siaS � = (w1, . . . ,wm) un sistema (qualunque) di vettori. Se m > n, il sistema S �

e dipendente.

Dimostrazione. Se qualche vettore di S e nullo, allora S e dipendente. Sia invecevj �= 0 per ogni j. Poiche B e un sistema di generatori, v1 si puo esprimerecome combinazione lineare di B; esistono cioe degli scalari α1, . . . , αn tali che

v1 = α1e1 + · · ·+ αnen . (2.5)

Gli αi non possono essere tutti nulli (altrimenti si avrebbe v1 = 0). Sia adesempio α1 �= 0. Tale assunzione non e restrittiva, in quanto in un sistema nonconta l’ordine dei vettori. Dalla (2.5) si deduce allora che

e1 = α−11 v1 − α−1

1 α2e2 + · · · − α−11 αnen .

38 Geometria e algebra

Page 39: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

38 CAPITOLO 2. SPAZI VETTORIALI

e quindi

v = α1(

n∑j=2

βjej) + α2e2 + · · ·+ αnen

= (α1β2 + α2)e2 + · · ·+ (α1βn + αn)en

e v dipende da [e2, . . . , en]. Ma allora [e2, . . . , en] genera V , e cio e in contrad-dizione con l’ipotizzata minimalita di B come sistema di generatori.Supponiamo infine che valga la (c). Da tale condizione si deduce banalmenteche B genera V . Rimane da verificare l’indipendenza di B. Poiche 0 ∈ V , per la(c) 0 si esprime in unico modo come combinazione lineare di B. D’altra parte echiaro che

0 = 0e1 + · · ·+ 0en

e quindi l’unica combinazione lineare nulla di B e quella banale, ovvero acoefficienti tutti nulli, e B e indipendente.

La condizione (c) si esprime anche dicendo che ogni vettore dello spazio siesprime in modo unico come combinazione lineare di B.

2.22 Definizione. Sia B = (e1, . . . , en) una base di V e sia v ∈ V . Gli scalariα1, . . . , αn di cui alla condizione (c) del teorema precedente si dicono componentidel vettore v in B.

Il seguente risultato, che potrebbe essere enunciato anche in modo piu gene-rale, e essenziale nello studio delle basi di uno spazio vettoriale.

2.23 Lemma di Steinitz. Consideriamo una base B = (e1, . . . , en) di V e siaS � = (w1, . . . ,wm) un sistema (qualunque) di vettori. Se m > n, il sistema S �

e dipendente.

Dimostrazione. Se qualche vettore di S e nullo, allora S e dipendente. Sia invecevj �= 0 per ogni j. Poiche B e un sistema di generatori, v1 si puo esprimerecome combinazione lineare di B; esistono cioe degli scalari α1, . . . , αn tali che

v1 = α1e1 + · · ·+ αnen . (2.5)

Gli αi non possono essere tutti nulli (altrimenti si avrebbe v1 = 0). Sia adesempio α1 �= 0. Tale assunzione non e restrittiva, in quanto in un sistema nonconta l’ordine dei vettori. Dalla (2.5) si deduce allora che

e1 = α−11 v1 − α−1

1 α2e2 + · · · − α−11 αnen .

2.2. BASI E DIMENSIONE 39

Proviamo che il sistema [v1, e2, . . . , en] genera V . Sia v ∈ V . Poiche B e unsistema di generatori, esistono degli scalari β1, . . . , βn tali che

v = β1e1 + β2e2 + · · ·+ βnen

= β1

(α−11 v1 − α−1

1 α2e2 + · · · − α−11 αnen

)+ β2e2 + · · ·+ βnen

= β1α−11 v1 + (β2 − β1α

−11 α2)e2 + · · ·+ (βn − β1α

−11 αn)en

Pertanto ogni vettore di V si esprime come combinazione lineare dei vettoriv1, e2, . . . , en e tali vettori generano V . In particolare v2 si potra esprimere comecombinazione lineare di tali vettori: esisteranno quindi degli scalari γ1, . . . , γntali che

v2 = γ1v1 + γ2e2 + · · ·+ γnen .

I γi non sono tutti nulli, altrimenti si avrebbe v2 = 0. Se accade che

γ2 = · · · = γn = 0 ,

si deduce chev2 = γ1v1

e quindi il sistema S e linearmente dipendente. Supponiamo invece che qualcunodegli scalari γ2, . . . , γn, ad esempio γ2, sia diverso da 0. Avremo allora che

e2 = −γ1γ−12 v1 + γ−1

2 v2 − γ−12 γ3e3 + · · · − γ−1

2 γnen .

Come gia fatto in precedenza, si prova che il sistema

[v1,v2, e3, . . . , en]

genera V . Si procede in modo analogo sostituendo ai vettori ei i vettori vi

e si trova, dopo altri n − 2 passaggi, che il sistema [v1, . . . ,vn] genera V . Inparticolare vm dipende da tale sistema, e quindi S e dipendente.

Tale Lemma e del tutto equivalente al seguente enunciato.

2.24 Lemma. Sia B = (e1, . . . , en) una base di V e sia S � = (w1, . . . ,wm) unsistema (qualunque) di vettori. Se il sistema S � e indipendente allora m ≤ n.

Una importante conseguenza del Lemma di Steinitz e il seguente

2.25 Teorema di equipotenza delle basi. Sia V uno spazio vettoriale nonbanale e finitamente generato. Le basi di V sono tutte equipotenti.

Dimostrazione. Siano B�,B�� due basi, di cardinalita s, t rispettivamente, di unospazio vettoriale V finitamente generato. Applicando il Lemma 2.24 con B� nelruolo di B e B�� nel ruolo di S si trova che t ≤ s. Scambiando i ruoli di B�,B��

si verifica invece che t ≥ s. Quindi s = t.

39Spazi vettoriali

Page 40: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

40 CAPITOLO 2. SPAZI VETTORIALI

Abbiamo osservato che affinche esistano basi e necessario che lo spazio sianon banale e finitamente generato. La seguente proposizione ci assicura che talecondizione e anche sufficiente.

2.26 Teorema di estrazione di una base. Sia V uno spazio vettoriale nonbanale e sia S = [v1, . . . ,vm] un sistema di generatori di V . Da S si puo estrarreuna base di V .

Dimostrazione. Sia S = [v1, . . . ,vm]. Se S e un sistema minimale di generatori,allora S e una base di V . Se S non e minimale, esiste un indice i tale che ilsistema [v1, . . . ,vi−1,vi+1, . . . ,vm] genera ancora V . Se tale sistema di genera-tori e minimale, abbiamo trovato una base estratta da S. Altrimenti possiamorimuovere un altro vettore e procedere in modo analogo fino a che non si per-viene ad un sistema minimale di generatori (che sara necessariamente di ordinealmeno 1, in quanto lo spazio non e banale).

Pertanto ogni spazio vettoriale non banale ammette basi, ed esse sono tutteequipotenti. Ha pertanto senso la seguente definizione.

2.27 Definizione. Sia V uno spazio vettoriale finitamente generato. La di-mensione di V , che si indica con il simbolo dimV , e 0 se V e lo spazio banale;e invece la cardinalita di una sua base se V e non banale.

2.28 Esempio. Consideriamo il 2-spazio numerico V = K2 sul campo K e il sistema

B2 =[(1, 0), (0, 1)

].

E agevole verificare che B2 e indipendente e genera K2. Pertanto B2 e una base di K2, ognialtra base ha ordine 2 e dimK2 = 2. In modo analogo, per ogni n ∈ N, consideriamo lo spazionumerico V = Kn su K e il sistema

Bn =[(1, 0, . . . , 0), (0, 1, . . . , 0), . . . (0, 0, . . . , 1)

].

E agevole verificare che Bn e una base di Kn, ogni altra base ha ordine n e dimKn = n.Il sistema Bn prende il nome di base canonica, oppure standard, oppure naturale o ancorausuale di Kn.

2.29 Esempio. Consideriamo lo spazio vettoriale V 2 dei vettori liberi ordinari del piano. Unqualunque sistema formato da due vettori non nulli e non paralleli e una base di V 2, ognialtra base ha ordine 2 e dimV 2 = 2. Consideriamo ora lo spazio vettoriale V 3 dei vettoriliberi ordinari dello spazio. Un qualunque sistema formato da tre vettori non nulli e noncomplanari e una base di V 3, ogni altra base ha ordine 3 e dimV 3 = 3. Ricordiamo che trevettori liberi dello spazio u1,u2,u3 sono non complanari se, fissato un punto O e determinatii punti P1, P2, P3 tali che u1 = [OP1], u2 = [OP2], u3 = [OP3], si ha che i punti O,P1, P2, P3

sono non complanari (ovvero non esiste un piano che li contiene tutti).

Abbiamo gia osservato come da un sistema di generatori di uno spazio nonbanale si possa estrarre una base eliminando eventualmente alcuni vettori. Ve-

40 Geometria e algebra

Page 41: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

40 CAPITOLO 2. SPAZI VETTORIALI

Abbiamo osservato che affinche esistano basi e necessario che lo spazio sianon banale e finitamente generato. La seguente proposizione ci assicura che talecondizione e anche sufficiente.

2.26 Teorema di estrazione di una base. Sia V uno spazio vettoriale nonbanale e sia S = [v1, . . . ,vm] un sistema di generatori di V . Da S si puo estrarreuna base di V .

Dimostrazione. Sia S = [v1, . . . ,vm]. Se S e un sistema minimale di generatori,allora S e una base di V . Se S non e minimale, esiste un indice i tale che ilsistema [v1, . . . ,vi−1,vi+1, . . . ,vm] genera ancora V . Se tale sistema di genera-tori e minimale, abbiamo trovato una base estratta da S. Altrimenti possiamorimuovere un altro vettore e procedere in modo analogo fino a che non si per-viene ad un sistema minimale di generatori (che sara necessariamente di ordinealmeno 1, in quanto lo spazio non e banale).

Pertanto ogni spazio vettoriale non banale ammette basi, ed esse sono tutteequipotenti. Ha pertanto senso la seguente definizione.

2.27 Definizione. Sia V uno spazio vettoriale finitamente generato. La di-mensione di V , che si indica con il simbolo dimV , e 0 se V e lo spazio banale;e invece la cardinalita di una sua base se V e non banale.

2.28 Esempio. Consideriamo il 2-spazio numerico V = K2 sul campo K e il sistema

B2 =[(1, 0), (0, 1)

].

E agevole verificare che B2 e indipendente e genera K2. Pertanto B2 e una base di K2, ognialtra base ha ordine 2 e dimK2 = 2. In modo analogo, per ogni n ∈ N, consideriamo lo spazionumerico V = Kn su K e il sistema

Bn =[(1, 0, . . . , 0), (0, 1, . . . , 0), . . . (0, 0, . . . , 1)

].

E agevole verificare che Bn e una base di Kn, ogni altra base ha ordine n e dimKn = n.Il sistema Bn prende il nome di base canonica, oppure standard, oppure naturale o ancorausuale di Kn.

2.29 Esempio. Consideriamo lo spazio vettoriale V 2 dei vettori liberi ordinari del piano. Unqualunque sistema formato da due vettori non nulli e non paralleli e una base di V 2, ognialtra base ha ordine 2 e dimV 2 = 2. Consideriamo ora lo spazio vettoriale V 3 dei vettoriliberi ordinari dello spazio. Un qualunque sistema formato da tre vettori non nulli e noncomplanari e una base di V 3, ogni altra base ha ordine 3 e dimV 3 = 3. Ricordiamo che trevettori liberi dello spazio u1,u2,u3 sono non complanari se, fissato un punto O e determinatii punti P1, P2, P3 tali che u1 = [OP1], u2 = [OP2], u3 = [OP3], si ha che i punti O,P1, P2, P3

sono non complanari (ovvero non esiste un piano che li contiene tutti).

Abbiamo gia osservato come da un sistema di generatori di uno spazio nonbanale si possa estrarre una base eliminando eventualmente alcuni vettori. Ve-

2.2. BASI E DIMENSIONE 41

diamo ora come si puo ottenere una base aggiungendo opportunamente vettoriad un sistema indipendente.

2.30 Teorema di completamento di una base. Sia V uno spazio vet-toriale finitamente generato e sia S = [v1, . . . ,vr] un sistema indipendentedi vettori di V . Esistono allora dei vettori vr+1, . . . ,vn tali che il sistemaS � = [v1, . . . ,vr,vr+1, . . . ,vn] sia una base di V .

Dimostrazione. Sia dimV = n. Se S e un sistema di generatori di V , alloraS e una base di V (e n = r). In caso contrario, si puo scegliere un vettorevr+1 ∈ V che non dipende da S. Proviamo che il sistema S � = [v1, . . . ,vr,vr+1]e indipendente. Siano α1, . . . , αr, β ∈ K tali che

α1v1 + · · ·+ αrvr + βvr+1 = 0 . (2.6)

Se fosse β �= 0, avremmo che

vr+1 = (−β−1α1)v1 + · · ·+ (−β−1αr)vr

e quindi vr+1 dipenderebbe da S ed S � risulterebbe dipendente. Dunque β = 0e la (2.6) si riduce a

α1v1 + · · ·+ αrvr = 0 .

Pertanto, poiche S e indipendente, α1 = · · · = αr = 0. Quindi S � e indipenden-te. Se S � e un sistema di generatori, allora S � e una base di V . Altrimenti siprocede in modo analogo per trovare altri vettori vr+2, . . . ,vn, ottenendo cosıuna base di V , in quanto sara sicuramente impossibile determinare un sistemaindipendente di ordine maggiore di n.

Il teorema ora enunciato e utile sotto il profilo teorico, ma non e costruttivo,ovvero non spiega come trovare i vettori vr+1, . . . ,vn utilizzati per completare abase il sistema S. Talvolta e utile allora la seguente riformulazione (piu debole)del teorema precedente.

2.31 Teorema di completamento bis. Sia V uno spazio vettoriale di dimen-sione n, sia B = [e1, . . . , en] una base di V , e sia S = [v1, . . . ,vr] un sistemaindipendente di vettori di V . Allora i vettori vr+1, . . . ,vn tali che il sistemaS � = [v1, . . . ,vr,vr+1, . . . ,vn] sia una base di V , esistenti in base al teoremaprecedente, possono essere scelti tra i vettori di B.

Dimostrazione. E chiaro che r ≤ n. Se r = n in base a risultati gia acquisitiS e una base. Pertanto se r < n vuol dire che S non e una base, e poiche eindipendente, non e un sistema di generatori di V . Esiste allora un vettore ei1in B che non dipende da S. Infatti, se ogni vettore di B dipendesse da S, poiche

41Spazi vettoriali

Page 42: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

42 CAPITOLO 2. SPAZI VETTORIALI

B e una base, ogni vettore di V dipenderebbe da S. E agevole provare che ilsistema

S ′ = [v1, . . . ,vr, ei1 ]

e indipendente. Se r + 1 = n, allora S ′ e una base. Altrimenti si procede inmodo analogo e si scelgono dei vettori ei2 , . . . , ein−r in B tali che il sistema

S ′′ = [v1, . . . ,vr, ei1 , . . . , ein−r]

sia indipendente. Poiche S ′′ consta di n vettori, esso sara una base di V , deltipo richiesto nell’enunciato.

2.32 Esempio. Consideriamo il 2-spazio numerico V = K2 sul campo K e il sistema

B� =[(1, 1), (1,−1)

].

E agevole verificare che B� e indipendente. Poiche B2 e una base, in base al Lemma diSteinitz, non possono esistere sistemi indipendenti di ordine maggiore di 2. Quindi B� eindipendente massimale, cioe e una base. Osserviamo che, per ogni coppia (a, b) ∈ K2, everificata l’uguaglianza

(a, b) =a+ b

2(1, 1) +

a− b

2(1,−1)) .

Pertanto, le componenti del vettore (a, b) in B2 sono proprio gli scalari a, b, ma le componenti

dello stesso vettore (a, b) nella base B� sono gli scalari a+b2

, a−b2

.

2.33 Esempio. Consideriamo il 2-spazio numerico V = R2 sul campo R e il sistema

S =[(1, 1), (1, 2), (2, 1)

].

E agevole verificare che S genera R2. Infatti se consideriamo un generico elemento (a, b) ∈ R2,osserviamo che, per ogni h ∈ R, e verificata l’uguaglianza

(a, b) = (2a− b− 3h)(1, 1) + (−a+ b+ h)(1, 2) + h(2, 1)

e quindi la coppia (a, b) si esprime (in infiniti modi differenti) come combinazione lineare deivettori di S. Ad esempio, se consideriamo la coppia (3, 5), scelto h = 2, abbiamo

(3, 5) = (−5)(1, 1) + 4(1, 2) + 2(2, 1) .

Poiche B2 e una base, in base al Lemma di Steinitz, non possono esistere sistemi indipendentidi ordine maggiore di 2. Quindi S e dipendente e non e una base.

2.34 Esempio. Consideriamo il 3-spazio numerico V = R3 sul campo R e il sistema

S =[(1, 0, 1), (1, 1, 1)

].

E agevole verificare che S e un sistema indipendente. Consideriamo, infatti, una genericacombinazione lineare di S, del tipo x(1, 0, 1) + y(1, 1, 1) e imponiamo che essa sia uguale alvettore nullo (0, 0, 0):

x(1, 0, 1) + y(1, 1, 1) = (0, 0, 0) .

Effettuando i calcoli troviamo

(x+ y, y, x+ y) = (0, 0, 0) ,

e quindi, uguagliando componente per componente, deduciamo che deve essere x = 0 e y = 0.Poiche B3 e una base, S non puo essere una base (ha solo 2 elementi), e quindi non puoessere un sistema di generatori. Possiamo ottenere una base aggiungendo ad S un opportunovettore che, in base al Teorema di completamento bis, puo essere scelto nella base standardB3. Osserviamo che, in questo caso, possiamo scegliere sia il vettore (1, 0, 0) che il vettore(0, 0, 1), ma non (0, 1, 0).

42 Geometria e algebra

Page 43: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

42 CAPITOLO 2. SPAZI VETTORIALI

B e una base, ogni vettore di V dipenderebbe da S. E agevole provare che ilsistema

S ′ = [v1, . . . ,vr, ei1 ]

e indipendente. Se r + 1 = n, allora S ′ e una base. Altrimenti si procede inmodo analogo e si scelgono dei vettori ei2 , . . . , ein−r in B tali che il sistema

S ′′ = [v1, . . . ,vr, ei1 , . . . , ein−r]

sia indipendente. Poiche S ′′ consta di n vettori, esso sara una base di V , deltipo richiesto nell’enunciato.

2.32 Esempio. Consideriamo il 2-spazio numerico V = K2 sul campo K e il sistema

B� =[(1, 1), (1,−1)

].

E agevole verificare che B� e indipendente. Poiche B2 e una base, in base al Lemma diSteinitz, non possono esistere sistemi indipendenti di ordine maggiore di 2. Quindi B� eindipendente massimale, cioe e una base. Osserviamo che, per ogni coppia (a, b) ∈ K2, everificata l’uguaglianza

(a, b) =a+ b

2(1, 1) +

a− b

2(1,−1)) .

Pertanto, le componenti del vettore (a, b) in B2 sono proprio gli scalari a, b, ma le componenti

dello stesso vettore (a, b) nella base B� sono gli scalari a+b2

, a−b2

.

2.33 Esempio. Consideriamo il 2-spazio numerico V = R2 sul campo R e il sistema

S =[(1, 1), (1, 2), (2, 1)

].

E agevole verificare che S genera R2. Infatti se consideriamo un generico elemento (a, b) ∈ R2,osserviamo che, per ogni h ∈ R, e verificata l’uguaglianza

(a, b) = (2a− b− 3h)(1, 1) + (−a+ b+ h)(1, 2) + h(2, 1)

e quindi la coppia (a, b) si esprime (in infiniti modi differenti) come combinazione lineare deivettori di S. Ad esempio, se consideriamo la coppia (3, 5), scelto h = 2, abbiamo

(3, 5) = (−5)(1, 1) + 4(1, 2) + 2(2, 1) .

Poiche B2 e una base, in base al Lemma di Steinitz, non possono esistere sistemi indipendentidi ordine maggiore di 2. Quindi S e dipendente e non e una base.

2.34 Esempio. Consideriamo il 3-spazio numerico V = R3 sul campo R e il sistema

S =[(1, 0, 1), (1, 1, 1)

].

E agevole verificare che S e un sistema indipendente. Consideriamo, infatti, una genericacombinazione lineare di S, del tipo x(1, 0, 1) + y(1, 1, 1) e imponiamo che essa sia uguale alvettore nullo (0, 0, 0):

x(1, 0, 1) + y(1, 1, 1) = (0, 0, 0) .

Effettuando i calcoli troviamo

(x+ y, y, x+ y) = (0, 0, 0) ,

e quindi, uguagliando componente per componente, deduciamo che deve essere x = 0 e y = 0.Poiche B3 e una base, S non puo essere una base (ha solo 2 elementi), e quindi non puoessere un sistema di generatori. Possiamo ottenere una base aggiungendo ad S un opportunovettore che, in base al Teorema di completamento bis, puo essere scelto nella base standardB3. Osserviamo che, in questo caso, possiamo scegliere sia il vettore (1, 0, 0) che il vettore(0, 0, 1), ma non (0, 1, 0).

2.3. SOTTOSPAZI 43

2.3 Sottospazi

Introdurremo ora la nozione di sottospazio di uno spazio vettoriale. Sia V unospazio vettoriale su K e sia W ⊆ V .

2.35 Definizione. Il sottoinsieme W si dice sottospazio (vettoriale) di V sesono soddisfatte le seguenti condizioni:

(i) 0 ∈ W ;

(ii) ∀ u,v ∈ W si ha che u+ v ∈ W ;

(iii) ∀ α ∈ K, ∀ v ∈ W si ha che αv ∈ W .

La (i) ci assicura, in particolare, che W �= ∅. La (ii) e la (iii) rappresentanola stabilita del sottoinsieme W rispetto alle operazioni di addizione (interna) emoltiplicazione (esterna), ovvero ci assicurano che W e, come si suol dire, unaparte stabile di V , ed equivalgono alla condizione seguente:

∀ α, β ∈ K, ∀ u,v ∈ W si ha che αu+ βv ∈ W .

Tale condizione coinvolge simultaneamente le operazioni di addizione e molti-plicazione ed e nota come condizione di stabilita rispetto alla formazione dicombinazioni lineari con due vettori e due scalari. In realta il fatto che si uti-lizzino solo due vettori e due scalari e del tutto irrilevante, e la condizione puoscriversi, in forma piu generale, al modo seguente:

∀ k ∈ N, ∀ α1, . . . , αk ∈ K, ∀ u1, . . . ,uk ∈ W si ha che

k∑�=1

α�u� ∈ W .

2.36 Proposizione. Sia V uno spazio vettoriale e sia W un suo sottospazio.Con le operazioni che W eredita da V , W e a sua volta uno spazio vettoriale.

Dimostrazione. E lasciata al lettore per esercizio.

Per indicare che W e un sottospazio di V scriveremo W ≤ V . Useremo lanotazione W < V nel caso di inclusione stretta. Osserviamo che se W ≤ V eV e finitamente generato, anche W e finitamente generato e dimW ≤ dimV .Il segno di uguaglianza tra le dimensioni vale inoltre se e solo se W = V . Illettore potra verificare facilmente, per esercizio, che l’intersezione di due o piusottospazi di V e ancora un sottospazio di V . Un modo molto utile per costruiree descrivere i sottospazi e il seguente. Sia S un sistema di vettori, oppure unsemplice sottoinsieme di V . Indichiamo con il simbolo L(S) l’insieme di tutte lepossibili combinazioni lineari di vettori di S. Per convenzione, se S = ∅ poniamoL(S) = {0}, lo spazio banale, o nullo.

43Spazi vettoriali

Page 44: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

44 CAPITOLO 2. SPAZI VETTORIALI

2.37 Proposizione. Per ogni sistema, o anche sottoinsieme, S dello spaziovettoriale V , L(S) e un sottospazio di V .

Dimostrazione. E lasciata al lettore per esercizio.

Il sottospazio L(S) viene comunemente detto sottospazio generato da S. Inaltri termini, L puo vedersi come applicazione dell’insieme delle parti di V nel-l’insieme dei sottospazi di V , ed in quanto tale gode di interessanti proprieta,che saranno evidenziate negli esercizi, dette subadditivita ed idempotenza. Os-serviamo che se S e un sistema di generatori di V si ha che L(S) = V , e cio econsistente con le notazioni gia utilizzate nella (2.2). E poi chiaro che L(V ) = V ,e infine L(W ) = W per ogni sottospazio W di V . Si potrebbe dimostrare facil-mente che per ogni sistema, o anche sottoinsieme, S dello spazio vettoriale V ,il sottospazio L(S) e il piu piccolo sottospazio di V contenente S, o anche cheL(S) e l’intersezione di tutti i sottospazi di V che contengono S.

2.38 Esempio. Consideriamo lo spazio vettoriale numerico V = R2 di dimensione 2 su R ed isuoi sottoinsiemi

A ={(a, b) ∈ R2

∣∣ a, b ≥ 0};

B ={(a, b) ∈ R2

∣∣ a · b ≥ 0};

C ={(a, b) ∈ R2

∣∣ a− b = 0}.

Il lettore potra verificare che C e un sottospazio, ma A e B non lo sono.

2.39 Esempio. Consideriamo lo spazio vettoriale numerico V = R3 di dimensione 3 su R ed isuoi sottoinsiemi

A ={(a, b, c) ∈ R3

∣∣ a+ b+ c = 0};

B ={(a, b, c) ∈ R3

∣∣ a ≥ b ≥ c};

C ={(a, b, c) ∈ R3

∣∣ a− b = a+ c = 0}.

Il lettore potra verificare che A e C sono sottospazi, ma B non lo e.

2.40 Esempio. Sia V uno spazio vettoriale non banale sul campo K e sia u ∈ V un vettorenon nullo. L’insieme A = { ku | k ∈ K }, costituito dai multipli scalari di u, e un sottospazio diV , detto retta vettoriale. Si osservi che, in base alle notazioni introdotte, si ha che A = L(u).

2.41 Esempio. Consideriamo lo spazio vettoriale dei polinomi V = R[x] su R ed i suoisottoinsiemi

A ={p ∈ R[x]

∣∣ deg p ≤ 3};

B ={p ∈ R[x]

∣∣ deg p = 3};

C ={p ∈ R[x]

∣∣ deg p e pari}.

Il lettore potra verificare che A e un sottospazio, ma B e C non lo sono.

2.42 Proposizione. Consideriamo un sistema S di ordine m e due suoi sotto-sistemi S ′ e S ′′ di ordine h, k rispettivamente. Se S ′ e un sottosistema indipen-dente massimale in S, allora L(S) = L(S ′). Se poi anche S ′′ e un sottosiste-

44 Geometria e algebra

Page 45: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

44 CAPITOLO 2. SPAZI VETTORIALI

2.37 Proposizione. Per ogni sistema, o anche sottoinsieme, S dello spaziovettoriale V , L(S) e un sottospazio di V .

Dimostrazione. E lasciata al lettore per esercizio.

Il sottospazio L(S) viene comunemente detto sottospazio generato da S. Inaltri termini, L puo vedersi come applicazione dell’insieme delle parti di V nel-l’insieme dei sottospazi di V , ed in quanto tale gode di interessanti proprieta,che saranno evidenziate negli esercizi, dette subadditivita ed idempotenza. Os-serviamo che se S e un sistema di generatori di V si ha che L(S) = V , e cio econsistente con le notazioni gia utilizzate nella (2.2). E poi chiaro che L(V ) = V ,e infine L(W ) = W per ogni sottospazio W di V . Si potrebbe dimostrare facil-mente che per ogni sistema, o anche sottoinsieme, S dello spazio vettoriale V ,il sottospazio L(S) e il piu piccolo sottospazio di V contenente S, o anche cheL(S) e l’intersezione di tutti i sottospazi di V che contengono S.

2.38 Esempio. Consideriamo lo spazio vettoriale numerico V = R2 di dimensione 2 su R ed isuoi sottoinsiemi

A ={(a, b) ∈ R2

∣∣ a, b ≥ 0};

B ={(a, b) ∈ R2

∣∣ a · b ≥ 0};

C ={(a, b) ∈ R2

∣∣ a− b = 0}.

Il lettore potra verificare che C e un sottospazio, ma A e B non lo sono.

2.39 Esempio. Consideriamo lo spazio vettoriale numerico V = R3 di dimensione 3 su R ed isuoi sottoinsiemi

A ={(a, b, c) ∈ R3

∣∣ a+ b+ c = 0};

B ={(a, b, c) ∈ R3

∣∣ a ≥ b ≥ c};

C ={(a, b, c) ∈ R3

∣∣ a− b = a+ c = 0}.

Il lettore potra verificare che A e C sono sottospazi, ma B non lo e.

2.40 Esempio. Sia V uno spazio vettoriale non banale sul campo K e sia u ∈ V un vettorenon nullo. L’insieme A = { ku | k ∈ K }, costituito dai multipli scalari di u, e un sottospazio diV , detto retta vettoriale. Si osservi che, in base alle notazioni introdotte, si ha che A = L(u).

2.41 Esempio. Consideriamo lo spazio vettoriale dei polinomi V = R[x] su R ed i suoisottoinsiemi

A ={p ∈ R[x]

∣∣ deg p ≤ 3};

B ={p ∈ R[x]

∣∣ deg p = 3};

C ={p ∈ R[x]

∣∣ deg p e pari}.

Il lettore potra verificare che A e un sottospazio, ma B e C non lo sono.

2.42 Proposizione. Consideriamo un sistema S di ordine m e due suoi sotto-sistemi S ′ e S ′′ di ordine h, k rispettivamente. Se S ′ e un sottosistema indipen-dente massimale in S, allora L(S) = L(S ′). Se poi anche S ′′ e un sottosiste-

2.3. SOTTOSPAZI 45

ma indipendente massimale in S, i sistemi S ′ e S ′′ hanno lo stesso numero dielementi, cioe h = k.

Dimostrazione. In base a risultati gia acquisiti, poiche S ′,S ′′ sono indipendentimassimali in S, ogni vettore di S dipende da S ′ e da S ′′. Consideriamo allorail sottospazio W = L(S). Si verifica agevolmente che S,S ′ sono entrambe basidi W , e quindi h = k.

Nella situazione sopra descritta, si dice talvolta che S ha rango h. Vogliamoora occuparci del problema della costruzione di nuovi sottospazi di uno spaziovettoriale. A tal proposito, consideriamo due sottospazi U,W di V . Abbiamogia osservato che la loro intersezione U∩W e ancora un sottospazio di V . La lorounione U ∪W non e, in generale, un sottospazio. Un caso particolare e quello incui U ⊆ W . E chiaro allora che U ∪W = W , che e un sottospazio. Altrimenti,possiamo considerare il sottospazio generato da U ∪W , ovvero L(U ∪W ).

2.43 Definizione. Sia V uno spazio vettoriale e siano U,W due sottospazi diV . Il sottospazio L(U∪W ) sara detto sottospazio somma, oppure congiungente,di U e W , e sara indicato con il simbolo U +W .

Alcune proprieta dell’operazione ora introdotta di somma di sottospazi sonoriassunte nella seguente proposizione.

2.44 Proposizione. Sia V uno spazio vettoriale e siano U,W due sottospazidi V . Valgono le seguenti proprieta.

(i) Se U ⊆ W , si ha che U +W = U ∪W = L(U ∪W ) = W ;

(ii) In generale

U +W ={v ∈ V

∣∣ ∃u ∈ U, ∃w ∈ W∣∣ v = u+w

};

(iii) Se i vettori u1, . . . ,uh generano U e i vettori w1, . . . ,wk generano W , siha che

U +W = L(u1, . . . ,uh,w1, . . . ,wk) .

Dimostrazione. E lasciata al lettore per esercizio.

Il seguente risultato riveste un notevole interesse e mette in relazione ledimensioni di vari sottospazi vettoriali.

2.45 Teorema di Grassmann. Sia V uno spazio vettoriale e siano U,Wdue suoi sottospazi finitamente generati. Allora anche il sottospazio U + W

45Spazi vettoriali

Page 46: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

46 CAPITOLO 2. SPAZI VETTORIALI

e finitamente generato e si ha che

dim(U +W ) = dimU + dimW − dim(U ∩W ) .

Dimostrazione. Se almeno uno dei due sottospazi e banale, il risultato e im-mediato. Supponiamo quindi che entrambi i sottospazi siano non banali. SiadimU = s, dimW = t, dimU ∩ W = h. Ovviamente si ha che h ≤ s, t.Sia [e1, . . . , eh] una base di U ∩ W . I vettori di tale base sono indipendentied e quindi possibile trovare s − h vettori uh+1, . . . ,us ∈ U e t − h vettoriwh+1, . . . ,wt ∈ W tali che i sistemi

B� = [e1, . . . , eh,uh+1, . . . ,us] , B�� = [e1, . . . , eh,wh+1, . . . ,wt]

risultino delle basi di U e W . Proviamo che il sistema

B = [e1, . . . , eh,uh+1, . . . ,us,wh+1, . . . ,wt]

e una base di U + W . Verifichiamo che B genera U + W . Sia v ∈ U + W .Esistono dei vettori u ∈ U e w ∈ W tali che v = u + w. Poiche B�,B�� sonobasi di U e W , possiamo determinare (in modo peraltro univoco), degli scalariα1, . . . , αs, β1, . . . , βt tali che

u = α1e1 + · · ·+ αheh + αh+1uh+1 + · · ·+ αsus

w = β1e1 + · · ·+ βheh + βh+1wh+1 + · · ·+ βtwt .

Pertanto

v = u+w =h∑

i=1

(αi + βi)ei +

s∑j=h+1

αjuj +

t∑k=h+1

βkwk

e cioe v dipende da B. Resta ora da provare che il sistema di generatori B eindipendente. Consideriamo degli scalari

γ1, . . . , γh, δh+1, . . . , δs, �h+1, . . . , �t

tali cheh∑

i=1

γiei +

s∑j=h+1

δjuj +

t∑k=h+1

�kwk = 0 . (2.7)

Si ha che

−s∑

j=h+1

δjuj

︸ ︷︷ ︸∈U

=

h∑i=1

γiei +

t∑k=h+1

�kwk

︸ ︷︷ ︸∈W

∈ U ∩W .

Esisteranno dunque degli scalari λ1, . . . , λh tali che

−s∑

j=h+1

δjuj =

h∑i=1

λiei

46 Geometria e algebra

Page 47: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

46 CAPITOLO 2. SPAZI VETTORIALI

e finitamente generato e si ha che

dim(U +W ) = dimU + dimW − dim(U ∩W ) .

Dimostrazione. Se almeno uno dei due sottospazi e banale, il risultato e im-mediato. Supponiamo quindi che entrambi i sottospazi siano non banali. SiadimU = s, dimW = t, dimU ∩ W = h. Ovviamente si ha che h ≤ s, t.Sia [e1, . . . , eh] una base di U ∩ W . I vettori di tale base sono indipendentied e quindi possibile trovare s − h vettori uh+1, . . . ,us ∈ U e t − h vettoriwh+1, . . . ,wt ∈ W tali che i sistemi

B� = [e1, . . . , eh,uh+1, . . . ,us] , B�� = [e1, . . . , eh,wh+1, . . . ,wt]

risultino delle basi di U e W . Proviamo che il sistema

B = [e1, . . . , eh,uh+1, . . . ,us,wh+1, . . . ,wt]

e una base di U + W . Verifichiamo che B genera U + W . Sia v ∈ U + W .Esistono dei vettori u ∈ U e w ∈ W tali che v = u + w. Poiche B�,B�� sonobasi di U e W , possiamo determinare (in modo peraltro univoco), degli scalariα1, . . . , αs, β1, . . . , βt tali che

u = α1e1 + · · ·+ αheh + αh+1uh+1 + · · ·+ αsus

w = β1e1 + · · ·+ βheh + βh+1wh+1 + · · ·+ βtwt .

Pertanto

v = u+w =h∑

i=1

(αi + βi)ei +

s∑j=h+1

αjuj +

t∑k=h+1

βkwk

e cioe v dipende da B. Resta ora da provare che il sistema di generatori B eindipendente. Consideriamo degli scalari

γ1, . . . , γh, δh+1, . . . , δs, �h+1, . . . , �t

tali cheh∑

i=1

γiei +

s∑j=h+1

δjuj +

t∑k=h+1

�kwk = 0 . (2.7)

Si ha che

−s∑

j=h+1

δjuj

︸ ︷︷ ︸∈U

=

h∑i=1

γiei +

t∑k=h+1

�kwk

︸ ︷︷ ︸∈W

∈ U ∩W .

Esisteranno dunque degli scalari λ1, . . . , λh tali che

−s∑

j=h+1

δjuj =

h∑i=1

λiei

2.3. SOTTOSPAZI 47

in quanto [e1, . . . , eh] e una base di U ∩W . Si ha quindi che

s∑j=h+1

δjuj +

h∑i=1

λiei = 0 .

Poiche B′ e un sistema indipendente, deduciamo che δh+1, . . . , δs = 0. Analoga-mente si prova che �h+1, . . . , �t = 0 e dalla (2.7) si deduce che

h∑i=1

γiei = 0

e quindi γ1, . . . , γh = 0, poiche il sistema [e1, . . . , eh] e indipendente. Abbiamoquindi provato che B e una base di U +W . D’altra parte la sua cardinalita eh+ (s− h) + (t− h) = s+ t− h e cio conclude la dimostrazione.

La relazione che compare nell’enunciato e nota come formula di Grassmann.Vogliamo ora descrivere un caso particolare nella costruzione della somma didue sottospazi.

2.46 Definizione. Sia V uno spazio vettoriale e siano U,W due sottospazi diV . Il sottospazio congiungente U +W di U e W si dice somma diretta, e saraindicato con il simbolo U⊕W , se per ogni vettore v ∈ U+W i vettori u e w taliche v = u+w di cui alla definizione precedente sono univocamente determinati,ovvero, in formule,

∀v ∈ U +W ∃ !u ∈ U, ∃ !w ∈ W∣∣ v = u+w .

.

La nozione di somma diretta di due sottospazi si caratterizza come segue.

2.47 Proposizione. Sia V uno spazio vettoriale e siano U,W due sottospazidi V . Il sottospazio congiungente U +W di U e W e una somma diretta se esolo se U ∩W = {0}.

Dimostrazione. Supponiamo che il sottospazio congiungente U+W di U eW siauna somma diretta. Sia v ∈ U∩W . Se fosse v �= 0 avremmo che v ∈ U, −v ∈ We

0 = 0+ 0 = v + (−v)

e quindi il vettore nullo si decomporrebbe in due modi distinti in somma divettori di U e di W . Supponiamo, viceversa, che U ∩W = {0}, poniamo V ′ =U +W e consideriamo un vettore v ∈ V ′. Esisteranno allora dei vettori u ∈ U ,w ∈ W tali che v = u + w. Bisogna provare l’unicita di tale decomposizione.

47Spazi vettoriali

Page 48: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

48 CAPITOLO 2. SPAZI VETTORIALI

Siano dunque u′ ∈ U , w′ ∈ W tali che v = u + w = u′ + w′. Si ha cheu′ − u = w−w′ ∈ U ∩W = {0} e quindi u′ − u = 0 = w−w′, ovvero u = u′,w = w′.

Osserviamo esplicitamente che se i sottospazi U,W sono finitamente generati,alla luce di quanto appena enunciato e della formula di Grassmann, si deduce cheil sottospazio congiungente U+W e una somma diretta se e solo se dim(U+W ) =dimU + dimW .

Generalizziamo ora la costruzione di sottospazio congiungente e di som-ma diretta nel caso in cui si considerino non necessariamente solo due, ma unqualunque numero (finito) di sottospazi.

2.48 Definizione. Sia V uno spazio vettoriale e siano U1, . . . , Uk dei sottospazidi V . Il sottospazio L(U1 ∪ · · · ∪ Uk) sara detto sottospazio somma, oppurecongiungente, di U1, . . . , Uk, e sara indicato con il simbolo U1 + · · ·+ Uk.

In perfetta analogia con il caso di due sottospazi, abbiamo la seguenteproposizione e la successiva definizione.

2.49 Proposizione. Sia V uno spazio vettoriale e siano U1, . . . , Uk dei sotto-spazi di V . Si ha che

U1 + · · ·+ Uk ={v ∈ V

∣∣∀ j = 1 . . . , k ∃uj ∈ Uj

∣∣ v = u1 + · · ·+ uk

}.

Dimostrazione. E lasciata al lettore per esercizio.

2.50 Definizione. Sia V uno spazio vettoriale e siano U1, . . . , Uk dei sottospazidi V . Il sottospazio congiungente U1+ · · ·+Uk sara detto somma diretta, e saraindicato con il simbolo U1⊕· · ·⊕Uk, se per ogni vettore v ∈ U1+· · ·+Uk i vettoriu1, . . . ,uk di cui alla proposizione precedente sono univocamente determinati,ovvero, in formule,

∀v ∈ U1 + · · ·+ Uk, ∀ j = 1, . . . , k ∃ !uj ∈ Uj

∣∣ v = u1 + · · ·+ uk .

Anche in questo caso osserviamo che, se i sottospazi in questione sono fini-tamente generati, anche il sottospazio congiungente e finitamente generato, erisulta che esso e una somma diretta se e solo se

dim(U1 + · · ·+ Uk) = dimU1 + · · ·+ dimUk .

Consideriamo ora il caso particolare in cui lo spazio V sia somma diretta dialcuni suoi sottospazi, ovvero esistano U1, . . . , Uk ≤ V tali che

V = U1 ⊕ · · · ⊕ Uk .

48 Geometria e algebra

Page 49: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

48 CAPITOLO 2. SPAZI VETTORIALI

Siano dunque u′ ∈ U , w′ ∈ W tali che v = u + w = u′ + w′. Si ha cheu′ − u = w−w′ ∈ U ∩W = {0} e quindi u′ − u = 0 = w−w′, ovvero u = u′,w = w′.

Osserviamo esplicitamente che se i sottospazi U,W sono finitamente generati,alla luce di quanto appena enunciato e della formula di Grassmann, si deduce cheil sottospazio congiungente U+W e una somma diretta se e solo se dim(U+W ) =dimU + dimW .

Generalizziamo ora la costruzione di sottospazio congiungente e di som-ma diretta nel caso in cui si considerino non necessariamente solo due, ma unqualunque numero (finito) di sottospazi.

2.48 Definizione. Sia V uno spazio vettoriale e siano U1, . . . , Uk dei sottospazidi V . Il sottospazio L(U1 ∪ · · · ∪ Uk) sara detto sottospazio somma, oppurecongiungente, di U1, . . . , Uk, e sara indicato con il simbolo U1 + · · ·+ Uk.

In perfetta analogia con il caso di due sottospazi, abbiamo la seguenteproposizione e la successiva definizione.

2.49 Proposizione. Sia V uno spazio vettoriale e siano U1, . . . , Uk dei sotto-spazi di V . Si ha che

U1 + · · ·+ Uk ={v ∈ V

∣∣∀ j = 1 . . . , k ∃uj ∈ Uj

∣∣ v = u1 + · · ·+ uk

}.

Dimostrazione. E lasciata al lettore per esercizio.

2.50 Definizione. Sia V uno spazio vettoriale e siano U1, . . . , Uk dei sottospazidi V . Il sottospazio congiungente U1+ · · ·+Uk sara detto somma diretta, e saraindicato con il simbolo U1⊕· · ·⊕Uk, se per ogni vettore v ∈ U1+· · ·+Uk i vettoriu1, . . . ,uk di cui alla proposizione precedente sono univocamente determinati,ovvero, in formule,

∀v ∈ U1 + · · ·+ Uk, ∀ j = 1, . . . , k ∃ !uj ∈ Uj

∣∣ v = u1 + · · ·+ uk .

Anche in questo caso osserviamo che, se i sottospazi in questione sono fini-tamente generati, anche il sottospazio congiungente e finitamente generato, erisulta che esso e una somma diretta se e solo se

dim(U1 + · · ·+ Uk) = dimU1 + · · ·+ dimUk .

Consideriamo ora il caso particolare in cui lo spazio V sia somma diretta dialcuni suoi sottospazi, ovvero esistano U1, . . . , Uk ≤ V tali che

V = U1 ⊕ · · · ⊕ Uk .

2.4. APPLICAZIONI LINEARI 49

Esiste una relazione tra le basi dei sottospazi U1, . . . , Uk e le basi di V , espressanella seguente proposizione.

2.51 Proposizione. Sia V uno spazio vettoriale e siano U1, . . . , Uk dei sotto-spazi di V tali che

V = U1 ⊕ · · · ⊕ Uk .

Consideriamo inoltre, per ogni j = 1, . . . , k, una base Bj di Uj . Allora il sistemaunione B e una base di V .

Dimostrazione. Omessa.

2.4 Applicazioni lineari

Siano V, V ′ due spazi vettoriali su uno stesso campo K, e sia f : V → V ′

un’applicazione tra (i sostegni di) tali spazi vettoriali.

2.52 Definizione. Diremo che f e un’applicazione lineare, ovvero un omomor-fismo, se sono verificate le seguenti condizioni:

(i) f(u+ v) = f(u) + f(v) , ∀ u,v ∈ V ;

(ii) f(αv) = αf(v) , ∀ α ∈ K, ∀ v ∈ V .

Le condizioni (i) ed (ii) equivalgono alla condizione

• f(αu+ βv) = αf(u) + βf(v) , ∀ α, β ∈ K, ∀ u,v ∈ V

o anche alla condizione

• f( m∑

i=1

αivi

)=

m∑i=1

αif(vi) , ∀ α1, . . . , αm ∈ K , ∀ u1, . . . ,um ∈ V ,

dove m ∈ N.Lo spazio V e detto dominio dell’applicazione lineare f , lo spazio V ′ e detto

invece codominio. Il sottoinsieme

f(V ) ={v′ ∈ V ′ ∣∣ ∃v ∈ V

∣∣ f(v) = v′ } ⊆ V ′

e detto immagine di f ed e di solito denotato im f , e non va confuso con ilcodominio V ′. Infatti, in generale im f ⊆ V ′ e vale l’uguaglianza se e solo se fe suriettiva.

Dalla definizione di applicazione lineare discendono le seguenti facili pro-prieta:

(i) f(0) = 0 ;

49Spazi vettoriali

Page 50: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

50 CAPITOLO 2. SPAZI VETTORIALI

(ii) f(−v) = −f(v) , ∀ v ∈ V .

In seguito ci capitera di considerare delle applicazioni lineari il cui codominioV ′ coincide con il campo K. Esse prendono il nome di forme lineari.

Focalizziamo ora la nostra attenzione sul caso in cui il dominio V = Kn edil codominio V ′ = Km dell’applicazione lineare f sono entrambi spazi vettorialinumerici, con m,n ∈ N. Per ogni i = 1, . . . ,m definiamo un’applicazione πi :Km → K, detta proiezione i-ma, ponendo

πi(a1, . . . , am) = ai .

E immediato verificare che tale applicazione e lineare. Sia ora f : Kn → Km

un’applicazione, e poniamo fi = πi ◦ f . Ad esempio, se n = 3 e m = 4 e siha che f(a1, a2, a3) = (b1, b2, b3, b4), allora f3(a1, a2, a3) = b3. Le applicazionicomposte fi si dicono componenti di f . Abbiamo la seguente caratterizzazionedelle applicazioni lineari nel caso numerico.

2.53 Proposizione. Consideriamo un’applicazione f : Kn −→ Km tra spazinumerici. Con le notazioni appena introdotte, abbiamo che l’applicazione f elineare se e solo se tali sono le sue componenti f1, . . . , fm

Dimostrazione. Omessa.

In altri termini un’applicazione tra spazi numerici e lineare se e solo se lesue componenti sono forme lineari. E pertanto importante poter caratterizzarele forme lineari su uno spazio numerico.

2.54 Teorema di caratterizzazione delle forme lineari. Consideriamoun’applicazione g : Kn → K. Tale applicazione g e lineare (e quindi e una forma)se e solo se esistono degli scalari γ1, . . . , γn tali che si abbia

g(x1, . . . , xn) = γ1x1 + · · ·+ γnxn , ∀ (x1, . . . , xn) ∈ Kn .

Dimostrazione. Omessa.

Gli scalari γ1, . . . , γn si dicono talvolta coefficienti della forma lineare g.

2.55 Esempio. Siano V, V ′ due spazi vettoriali su un campo K e sia f : V → V ′ l’applicazionenulla, definita ponendo f(u) = 0 per ogni u ∈ V . Tale applicazione e lineare, e si diceomomorfismo nullo.

2.56 Esempio. Sia V uno spazio vettoriale su un campo K. L’applicazione identica idV : V →V , definita ponendo idV (u) = u per ogni u ∈ V , e lineare.

50 Geometria e algebra

Page 51: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

50 CAPITOLO 2. SPAZI VETTORIALI

(ii) f(−v) = −f(v) , ∀ v ∈ V .

In seguito ci capitera di considerare delle applicazioni lineari il cui codominioV ′ coincide con il campo K. Esse prendono il nome di forme lineari.

Focalizziamo ora la nostra attenzione sul caso in cui il dominio V = Kn edil codominio V ′ = Km dell’applicazione lineare f sono entrambi spazi vettorialinumerici, con m,n ∈ N. Per ogni i = 1, . . . ,m definiamo un’applicazione πi :Km → K, detta proiezione i-ma, ponendo

πi(a1, . . . , am) = ai .

E immediato verificare che tale applicazione e lineare. Sia ora f : Kn → Km

un’applicazione, e poniamo fi = πi ◦ f . Ad esempio, se n = 3 e m = 4 e siha che f(a1, a2, a3) = (b1, b2, b3, b4), allora f3(a1, a2, a3) = b3. Le applicazionicomposte fi si dicono componenti di f . Abbiamo la seguente caratterizzazionedelle applicazioni lineari nel caso numerico.

2.53 Proposizione. Consideriamo un’applicazione f : Kn −→ Km tra spazinumerici. Con le notazioni appena introdotte, abbiamo che l’applicazione f elineare se e solo se tali sono le sue componenti f1, . . . , fm

Dimostrazione. Omessa.

In altri termini un’applicazione tra spazi numerici e lineare se e solo se lesue componenti sono forme lineari. E pertanto importante poter caratterizzarele forme lineari su uno spazio numerico.

2.54 Teorema di caratterizzazione delle forme lineari. Consideriamoun’applicazione g : Kn → K. Tale applicazione g e lineare (e quindi e una forma)se e solo se esistono degli scalari γ1, . . . , γn tali che si abbia

g(x1, . . . , xn) = γ1x1 + · · ·+ γnxn , ∀ (x1, . . . , xn) ∈ Kn .

Dimostrazione. Omessa.

Gli scalari γ1, . . . , γn si dicono talvolta coefficienti della forma lineare g.

2.55 Esempio. Siano V, V ′ due spazi vettoriali su un campo K e sia f : V → V ′ l’applicazionenulla, definita ponendo f(u) = 0 per ogni u ∈ V . Tale applicazione e lineare, e si diceomomorfismo nullo.

2.56 Esempio. Sia V uno spazio vettoriale su un campo K. L’applicazione identica idV : V →V , definita ponendo idV (u) = u per ogni u ∈ V , e lineare.

2.4. APPLICAZIONI LINEARI 51

2.57 Esempio. Sia V uno spazio vettoriale su un campo K e sia k ∈ K. L’applicazioneψk : V → V definita ponendo ψk(u) = ku, per ogni u ∈ V e lineare, ed e nota come omotetıadi ragione k. Si osservi che per k = 1 si ottiene l’identita, mentre per k = 0 si ottienel’omomorfismo nullo.

2.58 Esempio. Consideriamo lo spazio vettoriale numerico V = R2 e lo spazio vettoriale deipolinomi V � = R[x] sul campo reale. Definiamo un’applicazione f : R2 → R[x] ponendof(a, b) = ax+ b. Tale applicazione e lineare.

2.59 Esempio. Consideriamo lo spazio vettoriale dei polinomi V = R[x] sul campo reale.Consideriamo poi l’applicazione D : R[x] → R[x] che associa ad ogni polinomio la sua derivata.In altri termini, per ogni polinomio p = a0 + a1x + a2x2 + · · · + anxn, poniamo D(p) =a1 + 2a2x+ · · ·+ nanxn−1. Tale applicazione e lineare.

2.60 Definizione. Sia V un K-spazio vettoriale. Un’applicazione lineare f :V → V si dice endomorfismo.

Le applicazioni lineari di cui negli Esempi 2.56, 2.57, 2.59 sono quindi endo-morfismi. Torniamo ora al caso generale.

2.61 Definizione. Consideriamo un’applicazione lineare f : V → V �. Ilsottoinsieme

ker f = f−1(0) ={v ∈ V

∣∣ f(v) = 0}⊆ V

si dice nucleo di f .

2.62 Proposizione. Il sottoinsieme ker f e un sottospazio di V , ed il sottoin-sieme im f e un sottospazio di V �.

Dimostrazione. E lasciata al lettore per esercizio.

2.63 Definizione. Consideriamo un’applicazione lineare f : V → V �. Diremoche f e un monomorfismo se e iniettiva, un epimorfismo se e suriettiva, unisomorfismo se e biettiva.

Da tale definizione si deduce che l’applicazione lineare f e un epimorfismose e solo se im f = V �. Nel caso in cui V � sia finitamente generato, cio equivalea dire che dim im f = dimV �. Esiste una caratterizzazione corrispondente per imonomorfismi.

51Spazi vettoriali

Page 52: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

52 CAPITOLO 2. SPAZI VETTORIALI

2.64 Teorema di caratterizzazione dei monomorfismi. Sia f : V → V �

un’applicazione lineare. Tale applicazione f e un monomorfismo se e solo seker f = {0}.

Dimostrazione. Se f e iniettiva, per ogni vettore non nullo v ∈ V∗ si ha chef(v) �= f(0) = 0, e quindi v �∈ ker f . Pertanto ker f si riduce al solo vettorenullo. Viceversa, supponiamo che ker f = {0}. Siano u,v ∈ V e sia u �= v.Allora non puo accadere che f(u) = f(v), altrimenti risulterebbe f(u− v) = 0pur essendo u− v �= 0. Deve quindi essere f(u) �= f(v) ed f e iniettiva.

Osserviamo che, poiche un isomorfismo e un’applicazione lineare biettiva,esso e sicuramente dotato di inversa. La proposizione seguente ci assicura chetale inversa e ancora un’applicazione lineare.

2.65 Proposizione. Sia f : V → V � un isomorfismo. Allora anche l’applica-zione inversa f−1 : V � → V e lineare, ed anche biettiva, e cioe un isomorfismo.

Dimostrazione. Poiche f e biettiva, ha senso considerare la sua inversa f−1 cherisulta a sua volta biettiva. Resta da verificare che f−1 e una applicazionelineare. Siano dunque α, β ∈ K, u�,v� ∈ V �. Essendo f biettiva, esiste un unicou ∈ V tale che u� = f(u) ed esiste un unico v ∈ V tale che v� = f(v). Pertantou = f−1(u�), v = f−1(v�) e si ha che

f−1(αu� + βv�) = f−1(αf(u) + βf(v)

)

= f−1(f(αu+ βv)

)

= αu+ βv

= αf−1(u�) + βf−1(v�)

e quindi f−1 e lineare.

Consideriamo ora un’applicazione lineare f : V → V �, un sistema di vettoriS = (v1, . . . ,vm) in V , ed infine il sistema S � = (f(v1), . . . , f(vm)) in V �,costituito dai vettori immagine dei vettori di S. Il seguente enunciato evidenziaalcune relazioni tra proprieta dei due sistemi.

2.66 Proposizione. Nella situazione appena descritta, abbiamo che

(i) se S e dipendente, anche S � e dipendente;

(ii) se S e indipendente ed f e un monomorfismo, anche S � e indipendente;

(iii) se S genera V , il sistema S � genera il sottospazio im f di V �;

(iv) se S genera V ed f e un epimorfismo, il sistema S � genera V �;

52 Geometria e algebra

Page 53: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

52 CAPITOLO 2. SPAZI VETTORIALI

2.64 Teorema di caratterizzazione dei monomorfismi. Sia f : V → V �

un’applicazione lineare. Tale applicazione f e un monomorfismo se e solo seker f = {0}.

Dimostrazione. Se f e iniettiva, per ogni vettore non nullo v ∈ V∗ si ha chef(v) �= f(0) = 0, e quindi v �∈ ker f . Pertanto ker f si riduce al solo vettorenullo. Viceversa, supponiamo che ker f = {0}. Siano u,v ∈ V e sia u �= v.Allora non puo accadere che f(u) = f(v), altrimenti risulterebbe f(u− v) = 0pur essendo u− v �= 0. Deve quindi essere f(u) �= f(v) ed f e iniettiva.

Osserviamo che, poiche un isomorfismo e un’applicazione lineare biettiva,esso e sicuramente dotato di inversa. La proposizione seguente ci assicura chetale inversa e ancora un’applicazione lineare.

2.65 Proposizione. Sia f : V → V � un isomorfismo. Allora anche l’applica-zione inversa f−1 : V � → V e lineare, ed anche biettiva, e cioe un isomorfismo.

Dimostrazione. Poiche f e biettiva, ha senso considerare la sua inversa f−1 cherisulta a sua volta biettiva. Resta da verificare che f−1 e una applicazionelineare. Siano dunque α, β ∈ K, u�,v� ∈ V �. Essendo f biettiva, esiste un unicou ∈ V tale che u� = f(u) ed esiste un unico v ∈ V tale che v� = f(v). Pertantou = f−1(u�), v = f−1(v�) e si ha che

f−1(αu� + βv�) = f−1(αf(u) + βf(v)

)

= f−1(f(αu+ βv)

)

= αu+ βv

= αf−1(u�) + βf−1(v�)

e quindi f−1 e lineare.

Consideriamo ora un’applicazione lineare f : V → V �, un sistema di vettoriS = (v1, . . . ,vm) in V , ed infine il sistema S � = (f(v1), . . . , f(vm)) in V �,costituito dai vettori immagine dei vettori di S. Il seguente enunciato evidenziaalcune relazioni tra proprieta dei due sistemi.

2.66 Proposizione. Nella situazione appena descritta, abbiamo che

(i) se S e dipendente, anche S � e dipendente;

(ii) se S e indipendente ed f e un monomorfismo, anche S � e indipendente;

(iii) se S genera V , il sistema S � genera il sottospazio im f di V �;

(iv) se S genera V ed f e un epimorfismo, il sistema S � genera V �;

2.4. APPLICAZIONI LINEARI 53

(v) se S e una base di V ed f e un isomorfismo, allora S � e una base di V �.

Dimostrazione. Omessa.

Osserviamo che le parti (ii), (iv) e (v) della proposizione precedente si in-vertono, nel senso che se f e un’applicazione lineare e conserva l’indipendenzalineare, ovvero trasforma vettori indipendenti in vettori indipendenti, allora fe un monomorfismo, e, analogamente, se f trasforma sistemi di generatori di Vin sistemi di generatori di V �, allora f e un epimorfismo. Infine, se f trasformabasi di V in basi di V �, allora f e un isomorfismo.

2.67 Definizione. Due spazi vettoriali V e V � si dicono isomorfi, e si scriveV ∼= V �, se esiste un isomorfismo f : V → V �.

In tal caso scriveremo talvolta f : V∼=−→ V �. Osserviamo che quando esiste

un isomorfismo tra due spazi, esso non e, in generale, unico. Dalla proposizioneprecedente si deduce il seguente corollario.

2.68 Corollario. Se gli spazi vettoriali V e V � sono isomorfi e finitamentegenerati, si ha che dimV = dimV �.

Dimostrazione. E lasciata al lettore.

Vedremo in seguito che vale anche il viceversa. A tale scopo studiamo ora unmetodo per costruire un’applicazione lineare a partire da alcuni input iniziali.Consideriamo una base B = (e1, . . . , en) dello spazio V ed un sistema S � =(v�

1, . . . ,v�n) di vettori di V

�, dello stesso ordine. Sottolineiamo che S � e del tuttoarbitrario. Ad esempio puo essere dipendente o indipendente, puo contenere ilvettore nullo, in esso possono comparire delle ripetizioni.

2.69 Proposizione. Nella situazione sopra descritta, esiste una ed una solaapplicazione lineare f : V → V � tale che f(ei) = v�

i, per ogni i = 1, . . . , n.

Dimostrazione. Omessa.

Quando si utilizza questa proposizione, si dice che l’applicazione f e costruitadefinendo i suoi valori sulla base B e poi estendendo per linearita. Al di la delladimostrazione di tale enunciato, desideriamo dare un cenno sulla costruzione dif . Se v ∈ V e un qualunque vettore del dominio, il Teorema di caratterizzazionedelle basi ci assicura che esiste un’unica n-pla di scalari (α1, . . . , αn) tale che

v = α1e1 + · · ·+ αnen .

53Spazi vettoriali

Page 54: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

54 CAPITOLO 2. SPAZI VETTORIALI

Basta allora porref(v) = α1v

′1 + · · ·+ αnv

′n .

Si verifica facilmente che l’applicazione cosı definita e lineare, si comporta comerichiesto sui vettori della base, ed e l’unica con tali proprieta. Il lettore potrainoltre dimostrare, per esercizio, che f e un monomorfismo se e solo se il sistemaS ′ e indipendente, e un epimorfismo se e solo se il sistema S ′ genera V ′, unisomorfismo se e solo se il sistema S ′ e una base di V ′. In particolare, se duespazi hanno la stessa dimensione, essi risultano isomorfi. Vale inoltre il seguenteutile risultato.

2.70 Teorema dell’equazione dimensionale. Siano V, V ′ due spazi vet-toriali su un campo K, e sia V finitamente generato. Sia inoltre f : V → V ′

un’applicazione lineare. Allora il sottospazio im f di V ′ e finitamente generatoe si ha che

dimV = dimker f + dim im f .

Dimostrazione. Omessa.

2.71 Esempio. Sia V uno spazio vettoriale finitamente generato su un campo K, e sia B =(e1, . . . , en) una sua base ordinata. Il Teorema di caratterizzazione delle basi, parte (c), ciassicura che per ogni vettore u ∈ V esiste un’unica n-pla (α1, . . . , αn), detta n-pla delle com-ponenti di u rispetto alla base B, tale che u = α1e1 + · · ·+αnen. Definiamo un’applicazioneΦB : V → Kn associando ad ogni vettore u la sua n-pla delle componenti rispetto alla baseB. Tale applicazione e lineare, e si verifica agevolmente che essa e un isomorfismo, noto comeisomorfismo coordinato. Osserviamo che possiamo definire l’isomorfismo coordinato anche po-nendo, per ogni i = 1, . . . , n, ΦB(ei) = (0, . . . , 1, . . . , 0) (l’i-mo elemento della base standarddi Kn, ovvero la n-pla in cui l’unico elemento non nullo, che e 1, compare nella posizionei-ma), ed estendendo poi per linearita.

54 Geometria e algebra

Page 55: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

55

54 CAPITOLO 2. SPAZI VETTORIALI

Basta allora porref(v) = α1v

′1 + · · ·+ αnv

′n .

Si verifica facilmente che l’applicazione cosı definita e lineare, si comporta comerichiesto sui vettori della base, ed e l’unica con tali proprieta. Il lettore potrainoltre dimostrare, per esercizio, che f e un monomorfismo se e solo se il sistemaS ′ e indipendente, e un epimorfismo se e solo se il sistema S ′ genera V ′, unisomorfismo se e solo se il sistema S ′ e una base di V ′. In particolare, se duespazi hanno la stessa dimensione, essi risultano isomorfi. Vale inoltre il seguenteutile risultato.

2.70 Teorema dell’equazione dimensionale. Siano V, V ′ due spazi vet-toriali su un campo K, e sia V finitamente generato. Sia inoltre f : V → V ′

un’applicazione lineare. Allora il sottospazio im f di V ′ e finitamente generatoe si ha che

dimV = dimker f + dim im f .

Dimostrazione. Omessa.

2.71 Esempio. Sia V uno spazio vettoriale finitamente generato su un campo K, e sia B =(e1, . . . , en) una sua base ordinata. Il Teorema di caratterizzazione delle basi, parte (c), ciassicura che per ogni vettore u ∈ V esiste un’unica n-pla (α1, . . . , αn), detta n-pla delle com-ponenti di u rispetto alla base B, tale che u = α1e1 + · · ·+αnen. Definiamo un’applicazioneΦB : V → Kn associando ad ogni vettore u la sua n-pla delle componenti rispetto alla baseB. Tale applicazione e lineare, e si verifica agevolmente che essa e un isomorfismo, noto comeisomorfismo coordinato. Osserviamo che possiamo definire l’isomorfismo coordinato anche po-nendo, per ogni i = 1, . . . , n, ΦB(ei) = (0, . . . , 1, . . . , 0) (l’i-mo elemento della base standarddi Kn, ovvero la n-pla in cui l’unico elemento non nullo, che e 1, compare nella posizionei-ma), ed estendendo poi per linearita.

Capitolo 3

Matrici

3.1 Generalita sulle matrici

Sia S un insieme non vuoto.

3.1 Definizione. Una matrice di tipo m× n su S e un’applicazione

A : {1, . . . ,m} × {1, . . . , n} −→ S .

Pertanto ad ogni coppia (i, j) ∈ {1, . . . ,m} × {1, . . . , n} risulta associato unelemento A(i, j) ∈ S che si denota di solito con il simbolo ai,j .

In questo capitolo assumeremo quasi sempre che l’insieme S sia un campoK. Molti risultati valgono pero in situazioni piu generali (ad esempio quando Se un anello). E importante capire comunque che una matrice puo essere definitasu un insieme di elementi di qualunque natura.

Una matrice A e completamente determinata dagli scalari ai,j che possonoessere disposti in una tabella per righe e per colonne, e quindi per convenzionescriveremo

A =

⎛⎜⎜⎜⎝

a1,1 a1,2 . . . a1,na2,1 a2,2 . . . a2,n...

.... . .

...am,1 am,2 . . . am,n

⎞⎟⎟⎟⎠

o anche, in forma abbreviata

A = (ai,j) .

I vettori numerici

A1 = (a1,1, a1,2, . . . , a1,n) , . . . , Am = (am,1, am,2, . . . , am,n)

55

Page 56: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

56 CAPITOLO 3. MATRICI

si dicono righe di A. I vettori numerici

A1 =

⎛⎜⎝

a1,1...

am,1

⎞⎟⎠ , . . . , An =

⎛⎜⎝

a1,n...

am,n

⎞⎟⎠

si dicono colonne di A. Un vettore numerico di ordine n

(a1, . . . , an)

puo vedersi come matrice di tipo 1 × n e prende il nome di vettore (numerico)riga. Analogamente, un vettore numerico di ordine m

⎛⎜⎝

b1...bm

⎞⎟⎠

scritto in forma verticale, puo vedersi come matrice di tipom×1 e prende il nomedi vettore (numerico) colonna. Indicheremo con Mm,n(K), o piu semplicementecon Mm,n, l’insieme delle matrici di tipo m× n su K.

3.2 Definizione. Sia A ∈ Mm,n. Si dice trasposta di A, e si indica con uno deisimboli tA, tA, At, la matrice B = (bi,j) ∈ Mn,m definita ponendo bi,j = aj,i.

La matrice tA si ottiene da A scambiando le righe con le colonne. Diremoche una matrice A e quadrata di ordine n se A ∈ Mn,n, ovvero se A possiede nrighe e n colonne. La matrice quadrata A sara poi detta diagonale se per ognicoppia (i, j) tale che i �= j si ha che ai,j = 0. Il vettore numerico

(a1,1, . . . , an,n)

prende il nome di diagonale principale di A. Diremo inoltre che A e una matricetriangolare bassa, ovvero triangolare inferiore, se per ogni coppia (i, j) tale chei < j si ha che ai,j = 0. A e invece una matrice triangolare alta, ovverotriangolare superiore, se per ogni coppia (i, j) tale che i > j si ha che ai,j = 0.Una matrice quadrata A si dira poi simmetrica se ai,j = aj,i, antisimmetrica seai,j = −aj,i, per ogni i, j. Osserviamo che gli elementi della diagonale principaledi una matrice antisimmetrica sono tutti nulli, che una matrice e diagonale see solo se essa e simultaneamente triangolare alta e bassa e che una matrice esimmetrica se e solo se coincide con la sua trasposta.

3.3 Esempio. Se poniamo

A =

⎛⎝1 20 21 3

⎞⎠

56 Geometria e algebra

Page 57: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

56 CAPITOLO 3. MATRICI

si dicono righe di A. I vettori numerici

A1 =

⎛⎜⎝

a1,1...

am,1

⎞⎟⎠ , . . . , An =

⎛⎜⎝

a1,n...

am,n

⎞⎟⎠

si dicono colonne di A. Un vettore numerico di ordine n

(a1, . . . , an)

puo vedersi come matrice di tipo 1 × n e prende il nome di vettore (numerico)riga. Analogamente, un vettore numerico di ordine m

⎛⎜⎝

b1...bm

⎞⎟⎠

scritto in forma verticale, puo vedersi come matrice di tipom×1 e prende il nomedi vettore (numerico) colonna. Indicheremo con Mm,n(K), o piu semplicementecon Mm,n, l’insieme delle matrici di tipo m× n su K.

3.2 Definizione. Sia A ∈ Mm,n. Si dice trasposta di A, e si indica con uno deisimboli tA, tA, At, la matrice B = (bi,j) ∈ Mn,m definita ponendo bi,j = aj,i.

La matrice tA si ottiene da A scambiando le righe con le colonne. Diremoche una matrice A e quadrata di ordine n se A ∈ Mn,n, ovvero se A possiede nrighe e n colonne. La matrice quadrata A sara poi detta diagonale se per ognicoppia (i, j) tale che i �= j si ha che ai,j = 0. Il vettore numerico

(a1,1, . . . , an,n)

prende il nome di diagonale principale di A. Diremo inoltre che A e una matricetriangolare bassa, ovvero triangolare inferiore, se per ogni coppia (i, j) tale chei < j si ha che ai,j = 0. A e invece una matrice triangolare alta, ovverotriangolare superiore, se per ogni coppia (i, j) tale che i > j si ha che ai,j = 0.Una matrice quadrata A si dira poi simmetrica se ai,j = aj,i, antisimmetrica seai,j = −aj,i, per ogni i, j. Osserviamo che gli elementi della diagonale principaledi una matrice antisimmetrica sono tutti nulli, che una matrice e diagonale see solo se essa e simultaneamente triangolare alta e bassa e che una matrice esimmetrica se e solo se coincide con la sua trasposta.

3.3 Esempio. Se poniamo

A =

⎛⎝1 20 21 3

⎞⎠

3.1. GENERALITA SULLE MATRICI 57

la trasposta di A e la matrice

tA =

�1 0 12 2 3

�.

La matrice

B =

⎛⎝1 1 20 2 30 0 1

⎞⎠

e triangolare alta, mentre la sua trasposta

tB =

⎛⎝1 0 01 2 02 3 1

⎞⎠

e triangolare bassa. Le matrici

C =

⎛⎝1 1 31 2 23 2 0

⎞⎠ ; C′ =

⎛⎝

0 1 2−1 0 −2−2 2 0

⎞⎠

sono rispettivamente simmetrica ed antisimmetrica. Infine le matrici

D =

⎛⎝1 0 00 2 00 0 1

⎞⎠ ; D′ =

⎛⎝1 0 00 0 00 0 1

⎞⎠

sono diagonali. La matrice in cui tutti gli scalari sono nulli si dice matrice nulla e si indicacon il simbolo O, e si dovra capire dal contesto il suo tipo.

Per ogni n ∈ N denotiamo con In la matrice

In =

⎛⎜⎜⎜⎝

1 0 . . . 00 1 . . . 0...

.... . .

...0 0 . . . 1

⎞⎟⎟⎟⎠

che prende il nome di matrice identita, o anche matrice identica, di ordine n.Abbiamo che In = (δi,j), dove δi,j e il simbolo di Kronecker (associato allacoppia (i, j)), definito ponendo

δi,j =

�1 se i = j

0 se i �= j(3.1)

In Mm,n possiamo definire una addizione (interna) e una moltiplicazioneesterna con operatori in K come segue. Sia λ uno scalare e siano A = (ai,j), B =(bi,j) due matrici di tipo m× n. Poniamo

A+B = C ; λ ·A = D

dove C = (ci,j), D = (di,j) e ci,j = ai,j + bi,j , di,j = λai,j .

3.4 Proposizione. (Mm,n; +, ·) e uno spazio vettoriale isomorfo a Kmn.

57Matrici

Page 58: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

58 CAPITOLO 3. MATRICI

Dimostrazione. La verifica del fatto che (Mm,n; +, ·) e uno spazio vettoriale elasciata per esercizio. Si osserva poi che le mn matrici aventi un elemento ugualea 1 e tutti gli altri elementi nulli costituiscono una base per (Mm,n; +, ·).

L’elemento neutro dello spazio vettoriale (Mm,n; +, ·) (rispetto all’addizio-ne) e la matrice nulla O. Vogliamo ora definire una moltiplicazione tra matrici.A tale scopo consideriamo due matrici A = (ai,j) ∈ Mm,n, B = (bj,h) ∈ Mn,s.Definiamo una matrice C = (ci,h) ∈ Mm,s ponendo

ci,h =

n∑j=1

ai,jbj,h .

In altri termini, si considerano la i-ma riga Ai di A e la h-ma colonna Bh diB e si effettua la somma dei prodotti delle componenti di ugual posto di talivettori numerici. L’elemento ci,h e quindi il prodotto scalare standard dei vettorinumerici Ai e Bh e possiamo scrivere

ci,h = Ai ·Bh .

La matrice C cosı ottenuta si dice prodotto righe per colonne di A e B e si indicacon C = AB.

Il lettore potra provare per esercizio che per ogni A ∈ Mm,n si ha che

ImA = A ; AIn = A .

3.5 Proposizione. Il prodotto righe per colonne tra matrici e distributivorispetto alla somma, nel senso che se A ∈ Mm,n e B,C ∈ Mn,s si ha che

A(B + C) = AB +AC .

Dimostrazione. Siano i, h tali che 1 ≤ i ≤ m, 1 ≤ h ≤ s. Si ha che

Ai(B + C)h = Ai(Bh + Ch) = AiB

h +AiCh .

Pertanto l’elemento di posto (i, h) di A(B+C) coincide con l’elemento di posto(i, h) di AB +AC.

Analogamente si verifica che se A,B ∈ Mm,n e C ∈ Mn,s allora (A+B)C =AC +BC.

3.6 Proposizione. Il prodotto righe per colonne tra matrici e associativo, nelsenso che se A ∈ Mm,n, B ∈ Mn,s, C ∈ Ms,t allora

(AB)C = A(BC) .

58 Geometria e algebra

Page 59: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

58 CAPITOLO 3. MATRICI

Dimostrazione. La verifica del fatto che (Mm,n; +, ·) e uno spazio vettoriale elasciata per esercizio. Si osserva poi che le mn matrici aventi un elemento ugualea 1 e tutti gli altri elementi nulli costituiscono una base per (Mm,n; +, ·).

L’elemento neutro dello spazio vettoriale (Mm,n; +, ·) (rispetto all’addizio-ne) e la matrice nulla O. Vogliamo ora definire una moltiplicazione tra matrici.A tale scopo consideriamo due matrici A = (ai,j) ∈ Mm,n, B = (bj,h) ∈ Mn,s.Definiamo una matrice C = (ci,h) ∈ Mm,s ponendo

ci,h =

n∑j=1

ai,jbj,h .

In altri termini, si considerano la i-ma riga Ai di A e la h-ma colonna Bh diB e si effettua la somma dei prodotti delle componenti di ugual posto di talivettori numerici. L’elemento ci,h e quindi il prodotto scalare standard dei vettorinumerici Ai e Bh e possiamo scrivere

ci,h = Ai ·Bh .

La matrice C cosı ottenuta si dice prodotto righe per colonne di A e B e si indicacon C = AB.

Il lettore potra provare per esercizio che per ogni A ∈ Mm,n si ha che

ImA = A ; AIn = A .

3.5 Proposizione. Il prodotto righe per colonne tra matrici e distributivorispetto alla somma, nel senso che se A ∈ Mm,n e B,C ∈ Mn,s si ha che

A(B + C) = AB +AC .

Dimostrazione. Siano i, h tali che 1 ≤ i ≤ m, 1 ≤ h ≤ s. Si ha che

Ai(B + C)h = Ai(Bh + Ch) = AiB

h +AiCh .

Pertanto l’elemento di posto (i, h) di A(B+C) coincide con l’elemento di posto(i, h) di AB +AC.

Analogamente si verifica che se A,B ∈ Mm,n e C ∈ Mn,s allora (A+B)C =AC +BC.

3.6 Proposizione. Il prodotto righe per colonne tra matrici e associativo, nelsenso che se A ∈ Mm,n, B ∈ Mn,s, C ∈ Ms,t allora

(AB)C = A(BC) .

3.1. GENERALITA SULLE MATRICI 59

Dimostrazione. Osserviamo intanto che tutti i vari prodotti che compaiononell’enunciato hanno senso e che (AB)C, A(BC) ∈ Mm,t. Poniamo

D = (AB)C ; E = A(BC)

e siano, come al solito,

A = (ai,j), B = (bj,h), C = (ch,k), D = (di,k), E = (ei,k) .

Vogliamo provare che D = E, ovvero che di,k = ei,k per ogni i, k. Per definizione

di,k = (AB)i · Ck .

Si ha che

(AB)i = (Ai ·B1, . . . , Ai ·Bs)

e d’altra parte

Ck =

⎛⎜⎝c1,k...

cs,k

⎞⎟⎠

quindi

di,k = (Ai ·B1)c1,k + · · ·+ (Ai ·Bs)cs,k

=

s�h=1

(Ai ·Bh)ch,k

=

s�h=1

� n�j=1

ai,jbj,h

�ch,k

=�j,h

ai,jbj,hch,k .

In modo analogo si verifica che

ei,k =�j,h

ai,jbj,hch,k

e l’asserto e provato.

3.7 Definizione. Sia A ∈ Mn,n una matrice quadrata. Diremo che A einvertibile se esiste una matrice A� tale che AA� = In = A�A.

Se la matrice A� esiste, essa e unica, e necessariamente quadrata dello stessoordine di A e si denota con il simbolo A−1.

E possibile, ed anche molto utile, introdurre una nozione di invertibilita piudebole.

59Matrici

Page 60: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

60 CAPITOLO 3. MATRICI

3.8 Definizione. Sia A ∈ Mm,n. Diremo che A e invertibile a destra se esisteuna matrice B ∈ Mn,m (che prende il nome di inversa destra di A) tale cheAB = Im. Diremo invece che A e invertibile a sinistra se esiste una matriceC ∈ Mn,m (che prende il nome di inversa sinistra di A) tale che CA = In.

Se A ∈ Mn,n e invertibile e A−1 e inversa di A, e chiaro che essa e ancheinversa destra e sinistra di A. Viceversa, se A ∈ Mn,n e B,C sono rispettiva-mente una inversa destra ed una inversa sinistra di A, allora B = C = A−1.Infatti

C = CIn = C(AB) = (CA)B = InB = B .

Pertanto la matrice inversa, se esiste, e unica. E possibile dimostrare che se A equadrata di ordine n e B e una sua inversa sinistra, essa e anche inversa destra,e cioe e proprio l’inversa di A.

Osserviamo esplicitamente che nel caso di matrici non quadrate le nozionidi invertibilita a destra e a sinistra sono indipendenti tra loro. In particolare,se esiste una inversa sinistra, essa non e unica e non esistono inverse destre.Anologamente, se esiste una inversa destra, essa non e unica e non esistonoinverse sinistre.

3.9 Esempio. Come osservato, il prodotto righe per colonne AB puo effettuarsi solo quandoil numero di colonne di A coincide con il numero di righe di B. In particolare, per ogni n ∈ N,tale prodotto e una operazione interna in Mn,n ed e facile verificare che Mn,n e un monoiderispetto a tale operazione, il cui elemento neutro e In. Il sottoinsieme GLn(K) di Mn,n

costituito dalle matrici quadrate invertibili e un gruppo e prende il nome di gruppo generalelineare (su K). Il sottoinsieme On costituito dalle matrici invertibili tali che A−1 = tA eanch’esso un gruppo e prende il nome di gruppo ortogonale.

Sia A ∈ Mm,n e siano

RA = [A1, . . . , Am] ; CA = [A1, . . . , An] .

E chiaro che RA e un sistema di vettori di Kn e CA e un sistema di vettori diKm (anche se scritti in forma di colonna).

3.10 Proposizione. Sia S = [Ai1 , . . . , Aip ] un sistema indipendente massimaledi vettori di RA e S � = [Aj1 , . . . , Ajq ] un sistema indipendente massimale divettori di CA. Si ha che p = q.

Dimostrazione. Omessa.

In base a risultati gia acquisiti, sappiamo che i sistemi indipendenti massimalidi righe o di colonne di una fissata matrice A sono tutti equipotenti. Pertantoha senso la seguente

60 Geometria e algebra

Page 61: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

60 CAPITOLO 3. MATRICI

3.8 Definizione. Sia A ∈ Mm,n. Diremo che A e invertibile a destra se esisteuna matrice B ∈ Mn,m (che prende il nome di inversa destra di A) tale cheAB = Im. Diremo invece che A e invertibile a sinistra se esiste una matriceC ∈ Mn,m (che prende il nome di inversa sinistra di A) tale che CA = In.

Se A ∈ Mn,n e invertibile e A−1 e inversa di A, e chiaro che essa e ancheinversa destra e sinistra di A. Viceversa, se A ∈ Mn,n e B,C sono rispettiva-mente una inversa destra ed una inversa sinistra di A, allora B = C = A−1.Infatti

C = CIn = C(AB) = (CA)B = InB = B .

Pertanto la matrice inversa, se esiste, e unica. E possibile dimostrare che se A equadrata di ordine n e B e una sua inversa sinistra, essa e anche inversa destra,e cioe e proprio l’inversa di A.

Osserviamo esplicitamente che nel caso di matrici non quadrate le nozionidi invertibilita a destra e a sinistra sono indipendenti tra loro. In particolare,se esiste una inversa sinistra, essa non e unica e non esistono inverse destre.Anologamente, se esiste una inversa destra, essa non e unica e non esistonoinverse sinistre.

3.9 Esempio. Come osservato, il prodotto righe per colonne AB puo effettuarsi solo quandoil numero di colonne di A coincide con il numero di righe di B. In particolare, per ogni n ∈ N,tale prodotto e una operazione interna in Mn,n ed e facile verificare che Mn,n e un monoiderispetto a tale operazione, il cui elemento neutro e In. Il sottoinsieme GLn(K) di Mn,n

costituito dalle matrici quadrate invertibili e un gruppo e prende il nome di gruppo generalelineare (su K). Il sottoinsieme On costituito dalle matrici invertibili tali che A−1 = tA eanch’esso un gruppo e prende il nome di gruppo ortogonale.

Sia A ∈ Mm,n e siano

RA = [A1, . . . , Am] ; CA = [A1, . . . , An] .

E chiaro che RA e un sistema di vettori di Kn e CA e un sistema di vettori diKm (anche se scritti in forma di colonna).

3.10 Proposizione. Sia S = [Ai1 , . . . , Aip ] un sistema indipendente massimaledi vettori di RA e S � = [Aj1 , . . . , Ajq ] un sistema indipendente massimale divettori di CA. Si ha che p = q.

Dimostrazione. Omessa.

In base a risultati gia acquisiti, sappiamo che i sistemi indipendenti massimalidi righe o di colonne di una fissata matrice A sono tutti equipotenti. Pertantoha senso la seguente

3.1. GENERALITA SULLE MATRICI 61

3.11 Definizione. Sia A ∈ Mm,n. Il rango di A e il numero intero non negativoρA (indicato anche con il simbolo ρ(A) ) definito come segue. Se A e la matricenulla, si pone ρA = 0. Altrimenti, ρA e l’ordine di un (qualunque) sistemaindipendente massimale di righe (o anche di colonne) di A.

In alcuni casi e conveniente evidenziare alcuni blocchi di elementi di unamatrice. A tal proposito, se A = (ai,j) ∈ Mm,n e B = (bh,k) ∈ Ms,t con s ≤ me t ≤ n, diremo che B e un blocco di A se esistono due indici non negativi i0, j0tali che

bh,k = ai0+h,j0+k (h = 1, . . . , s ; k = 1, . . . , t ) ,

ovvero se B e costituita dagli elementi di A individuati dalle righe di postoi0 + 1, . . . , i0 + s e dalle colonne di posto j0 + 1, . . . , j0 + t. Possiamo descriveretale situazione con la notazione

A =

⎛⎜⎝ B

⎞⎟⎠ .

Ad esempio, se

A =

⎛⎜⎜⎝11 12 13 1415 16 17 1819 20 21 2223 24 25 26

⎞⎟⎟⎠

e

B =

�11 1215 16

�; C =

�13 1417 18

D =

�19 2023 24

�; E =

�21 2225 26

si scrive

A =

�B C

D E

o anche

A =

�11 1215 16 C

D E

e cosı via. Il lettore potra verificare, per esercizio, che se A = (A′|A′′) e unamatrice a blocchi con

A ∈ Mn,s+t ; A′ ∈ Mn,s ; A′′ ∈ Mn,t

e B ∈ Mm,n alloraB ·A =

�B ·A′ |B ·A′′� .

Vogliamo ora introdurre una relazione di equivalenza nell’insieme Mm,n.Indichiamo con R1, . . . , Rm le righe e con C1, . . . , Cn le colonne di una genericamatrice.

61Matrici

Page 62: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

62 CAPITOLO 3. MATRICI

3.12 Definizione. Sia A ∈ Mm,n. Una operazione elementare sulle righe di Ae una trasformazione di uno dei seguenti tipi:

(i) moltiplicare una riga Ai per uno scalare non nullo λ;

(ii) scambiare di posto due righe Ai, Aj ;

(iii) sostituire la riga Ai con Ai + λAj , (λ ∈ K, i �= j).

Analoghe operazioni sono definite sulle colonne. L’operazione elementare(i) si denota con Ri � λRi, la (ii) con Ri � Rj , la (iii) con Ri � Ri + λRj .Analoghe notazioni si adottano anche per le operazioni elementari sulle colonne.Osserviamo che iterando l’operazione elementare (iii) si ottiene una operazionedel tipo Ri � Ri + λ1Rj1 + · · ·+ λhRjh .

Per meglio comprendere il significato delle operazioni introdotte, il lettorepotra verificare, a titolo di esercizio, che se A,B ∈ Mm,n e supponiamo che lamatrice B sia ottenuta da A mediante una operazione elementare (sulle righe),i sottospazi di Kn generati rispettivamente dai sistemi delle righe di A e di Bcoincidono.

3.13 Definizione. Siano A,B ∈ Mm,n. Diremo che A e B sono equivalenti (escriveremo A ≡ B) se B si ottiene da A mediante un numero finito di operazionielementari.

3.14 Lemma. La relazione ≡ e di equivalenza in Mm,n.

Dimostrazione. L’unica proprieta che merita un commento e quella simmetrica.Osserviamo a tal proposito che le operazioni elementari di tipo (i) e (ii) sonochiaramente reversibili. Supponiamo ora che la matrice B sia ottenuta dallamatrice Amediante l’operazione (di tipo (iii))Rh � Rh+λRk, con λ �= 0. Alloraanche A si ottiene da B con un’analoga operazione, ovvero Rh � Rh−λRk.

3.15 Definizione. Una matrice A si dice a scala (secondo le righe) se sonoverificate le seguenti condizioni:

(i) se Ai = 0 allora Ai+1 = 0;

(ii) per ogni i, se ai,j �= 0 e ai,h = 0 ∀ h < j allora ai+1,h = 0 ∀ h ≤ j.

Non e difficile verificare che una matrice a scala e caratterizzata dalla se-guente proprieta:

Il primo elemento non nullo di ogni riga (non nulla) e piu a destra rispettoal primo elemento non nullo della riga precedente (e le eventuali righe nullesono tutte in basso).

62 Geometria e algebra

Page 63: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

62 CAPITOLO 3. MATRICI

3.12 Definizione. Sia A ∈ Mm,n. Una operazione elementare sulle righe di Ae una trasformazione di uno dei seguenti tipi:

(i) moltiplicare una riga Ai per uno scalare non nullo λ;

(ii) scambiare di posto due righe Ai, Aj ;

(iii) sostituire la riga Ai con Ai + λAj , (λ ∈ K, i �= j).

Analoghe operazioni sono definite sulle colonne. L’operazione elementare(i) si denota con Ri � λRi, la (ii) con Ri � Rj , la (iii) con Ri � Ri + λRj .Analoghe notazioni si adottano anche per le operazioni elementari sulle colonne.Osserviamo che iterando l’operazione elementare (iii) si ottiene una operazionedel tipo Ri � Ri + λ1Rj1 + · · ·+ λhRjh .

Per meglio comprendere il significato delle operazioni introdotte, il lettorepotra verificare, a titolo di esercizio, che se A,B ∈ Mm,n e supponiamo che lamatrice B sia ottenuta da A mediante una operazione elementare (sulle righe),i sottospazi di Kn generati rispettivamente dai sistemi delle righe di A e di Bcoincidono.

3.13 Definizione. Siano A,B ∈ Mm,n. Diremo che A e B sono equivalenti (escriveremo A ≡ B) se B si ottiene da A mediante un numero finito di operazionielementari.

3.14 Lemma. La relazione ≡ e di equivalenza in Mm,n.

Dimostrazione. L’unica proprieta che merita un commento e quella simmetrica.Osserviamo a tal proposito che le operazioni elementari di tipo (i) e (ii) sonochiaramente reversibili. Supponiamo ora che la matrice B sia ottenuta dallamatrice Amediante l’operazione (di tipo (iii))Rh � Rh+λRk, con λ �= 0. Alloraanche A si ottiene da B con un’analoga operazione, ovvero Rh � Rh−λRk.

3.15 Definizione. Una matrice A si dice a scala (secondo le righe) se sonoverificate le seguenti condizioni:

(i) se Ai = 0 allora Ai+1 = 0;

(ii) per ogni i, se ai,j �= 0 e ai,h = 0 ∀ h < j allora ai+1,h = 0 ∀ h ≤ j.

Non e difficile verificare che una matrice a scala e caratterizzata dalla se-guente proprieta:

Il primo elemento non nullo di ogni riga (non nulla) e piu a destra rispettoal primo elemento non nullo della riga precedente (e le eventuali righe nullesono tutte in basso).

3.1. GENERALITA SULLE MATRICI 63

In ogni riga non banale il primo elemento non nullo prende il nome di pivot.

3.16 Esempio. Poniamo

A =

⎛⎝1 0 1 10 1 2 00 0 0 3

⎞⎠ ; B =

⎛⎜⎜⎝1 0 10 0 00 1 00 0 1

⎞⎟⎟⎠ ; C =

⎛⎜⎜⎝1 0 10 1 00 0 10 0 0

⎞⎟⎟⎠ .

A e C sono a scala. B non lo e poiche B2 = 0 ma B3 �= 0. Osserviamo che C si ottiene da Bmediante la sequenza di operazioni R2 � R3, R3 � R4.

3.17 Teorema. Ogni matrice e equivalente ad una matrice a scala.

Dimostrazione. Dimostriamo l’asserto in Mm,n per induzione su m. Se m = 1,per ogni n le matrici di tipo 1× n si riducono a vettori riga, e quindi sono giaa scala. Sia dunque m > 1 e supponiamo che l’asserto sia vero per matrici diMs,t, per ogni s < m e per ogni t. Sia A ∈ Mm,n, sia Aj la prima colonna nonbanale e sia i = min{h | ah,j �= 0 }. In altri termini ai,j e il primo elemento nonbanale della prima colonna non banale:

A =

⎛⎜⎜⎜⎝

O O. . .

O ai,j · · ·O ...

. . .

⎞⎟⎟⎟⎠

Si deve intendere che gli elementi dei blocchi contenenti puntini possono an-nullarsi o non annullarsi. Con l’operazione elementare Ri � R1 si ottiene lamatrice

D =

�O

ai,j...

Dj+1 . . . Dn

�.

Tale operazione e ridondante se i = 1. Applichiamo ora, per ogni h = 2, . . . ,m,le operazioni elementari Rh � Rh − dh,j

ai,jR1 ed otteniamo una matrice del tipo

E =

⎛⎜⎜⎜⎝O

ai,j · · ·0...0

F

⎞⎟⎟⎟⎠

dove F ∈ Mm−1,t con t < n. Per ipotesi induttiva quindi F si trasforma in unamatrice a scala, diciamo H, e si ottiene la matrice a scala

L =

⎛⎜⎜⎜⎝O

ai,j · · ·0...0

H

⎞⎟⎟⎟⎠

63Matrici

Page 64: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

64 CAPITOLO 3. MATRICI

Formalmente, osserviamo che se ad esempio per trasformare F in H si usal’operazione elementare Rp � Rq, in relazione alla matrice E si dovra usarel’operazione elementare Rp+1 � Rq+1, e in generale si dovranno incrementaredi 1 tutti gli indici di riga che compaiono nelle operazioni elementari usate pertrasformare F in H, poiche le righe che occupano le posizioni 1, . . . ,m− 1 di Fcompaiono in posizione 2, . . . ,m rispettivamente in E. Poiche L si ottiene daA con un numero finito di operazioni elementari, si ha che A ≡ L, e l’asserto eprovato.

Il metodo usato nella dimostrazione del precedente teorema prende il nomedi algoritmo di Gauss per la riduzione a scala di una matrice. La riduzione ascala di una matrice, ovvero la ricerca di una matrice a scala equivalente ad unamatrice data, e molto utile per vari motivi. Abbiamo ad esempio il seguente

3.18 Teorema. Due matrici equivalenti hanno lo stesso rango.

Dimostrazione. Basta osservare che le operazioni elementari non cambiano ladipendenza ed indipendenza dei sistemi di righe o di colonne. Pertanto unmetodo per determinare il rango di una matrice e quello di trasformare talematrice in una matrice a scala e poi determinare il rango di quest’ultima matrice.

3.19 Teorema. Il rango di una matrice a scala e il numero di righe non banali.

Dimostrazione. Consideriamo una generica matrice a scala di tipo m× n

H =

⎛⎜⎜⎜⎜⎜⎝

0 . . . 0 a1,j1 . . . a1,j2 . . .0 . . . 0 0 . . . 0 a2,j2 . . .

......

...0 . . . 0 0 . . . 0 0 . . . 0 ak,jk . . .

O

⎞⎟⎟⎟⎟⎟⎠

dove a1,j1 , . . . , ak,jk �= 0, k ≤ m,n e j1 < · · · < jk. E chiaro che le (even-tuali) righe nulle, ovvero quelle di posto k + 1, . . . ,m non contribuiscono alladeterminazione del rango e che ρH ≤ k. Basta quindi provare che il sistema[H1, . . . , Hk] di vettori numerici e indipendente. Siano α1, . . . , αk degli scalaritali che

α1H1 + · · ·+ αkHk = 0 .

64 Geometria e algebra

Page 65: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

64 CAPITOLO 3. MATRICI

Formalmente, osserviamo che se ad esempio per trasformare F in H si usal’operazione elementare Rp � Rq, in relazione alla matrice E si dovra usarel’operazione elementare Rp+1 � Rq+1, e in generale si dovranno incrementaredi 1 tutti gli indici di riga che compaiono nelle operazioni elementari usate pertrasformare F in H, poiche le righe che occupano le posizioni 1, . . . ,m− 1 di Fcompaiono in posizione 2, . . . ,m rispettivamente in E. Poiche L si ottiene daA con un numero finito di operazioni elementari, si ha che A ≡ L, e l’asserto eprovato.

Il metodo usato nella dimostrazione del precedente teorema prende il nomedi algoritmo di Gauss per la riduzione a scala di una matrice. La riduzione ascala di una matrice, ovvero la ricerca di una matrice a scala equivalente ad unamatrice data, e molto utile per vari motivi. Abbiamo ad esempio il seguente

3.18 Teorema. Due matrici equivalenti hanno lo stesso rango.

Dimostrazione. Basta osservare che le operazioni elementari non cambiano ladipendenza ed indipendenza dei sistemi di righe o di colonne. Pertanto unmetodo per determinare il rango di una matrice e quello di trasformare talematrice in una matrice a scala e poi determinare il rango di quest’ultima matrice.

3.19 Teorema. Il rango di una matrice a scala e il numero di righe non banali.

Dimostrazione. Consideriamo una generica matrice a scala di tipo m× n

H =

⎛⎜⎜⎜⎜⎜⎝

0 . . . 0 a1,j1 . . . a1,j2 . . .0 . . . 0 0 . . . 0 a2,j2 . . .

......

...0 . . . 0 0 . . . 0 0 . . . 0 ak,jk . . .

O

⎞⎟⎟⎟⎟⎟⎠

dove a1,j1 , . . . , ak,jk �= 0, k ≤ m,n e j1 < · · · < jk. E chiaro che le (even-tuali) righe nulle, ovvero quelle di posto k + 1, . . . ,m non contribuiscono alladeterminazione del rango e che ρH ≤ k. Basta quindi provare che il sistema[H1, . . . , Hk] di vettori numerici e indipendente. Siano α1, . . . , αk degli scalaritali che

α1H1 + · · ·+ αkHk = 0 .

3.2. DETERMINANTI 65

Da tale relazione vettoriale discendono le seguenti relazioni scalari:

0 = α1a1,j1 ;

0 = α1a1,j2 + α2a2,j2 ;

......

0 = α1a1,jk + α2a2,jk + · · ·+ αkak,jk .

Dalla prima di tali relazioni si ricava che α1 = 0. Sostituendo tale valore nellerelazioni successive si deduce, dalla seconda, che α2 = 0, ecc. Si prova pertantoche tutti gli scalari αi sono nulli.

3.2 Determinanti

Indichiamo, per ogni n ∈ N, con Jn l’insieme { 1, 2, . . . , n } dei primi n numerinaturali. Prima di introdurre la nozione di determinante, fissiamo alcune no-tazioni. Sia A ∈ Mm,n. Se i1, . . . , is ∈ Jm, j1, . . . , jt ∈ Jn, indichiamo con

Aj1,...,jti1,...,is

la matrice

Aj1,...,jti1,...,is

=

⎛⎜⎜⎜⎝

ai1,j1 ai1,j2 . . . ai1,jtai2,j1 ai2,j2 . . . ai2,jt...

.... . .

...ais,j1 ais,j2 . . . ais,jt

⎞⎟⎟⎟⎠

che si ottiene considerando solo gli elementi di A che si trovano simultaneamentesulle righe di posto i1, . . . , is e sulle colonne di posto j1, . . . , jt. In generale, gliindici i1, . . . , is non sono a due a due distinti, e cosı pure j1, . . . , jt. Ad esempio,se

A =

⎛⎝

1 2 3 4 56 7 8 9 1011 12 13 14 15

⎞⎠ ∈ M3,5

si avra

A2,41,2 =

⎛⎝

↓ ↓→ 1 2 3 4 5→ 6 7 8 9 10

11 12 13 14 15

⎞⎠ =

�2 47 9

�; A2,4,5

3,1,1 =

⎛⎝12 14 152 4 52 4 5

⎞⎠ .

Nell’esempio appena fatto, le frecce indicano le righe e le colonne selezionate.Se gli indici di riga i1, . . . , is sono a due a due distinti e compaiono nell’ordinenaturale, e cosı pure gli indici di colonna j1, . . . , jt, la matrice Aj1,...,jt

i1,...,isprende il

nome di matrice subordinata (o anche sottomatrice) di A individuata dalle righedi posto i1, . . . , is e dalle colonne di posto j1, . . . , jt. In particolare, indicheremocon A(i,j) la matrice subordinata

A(i,j) = A1,2,...,j,...,n

1,2,...,i,...,m

65Matrici

Page 66: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

66 CAPITOLO 3. MATRICI

individuata da tutte le righe (nel loro ordine naturale) tranne la i-ma e da tuttele colonne (nel loro ordine naturale) tranne la j-ma. In altri termini, A(i,j) siottiene da A cancellando la i-ma riga e la j-ma colonna:

A(i,j) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1,1 . . . a1,j−1 a1,j+1 . . . a1,n...

. . ....

.... . .

...ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n

ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n

.... . .

......

. . ....

am,1 . . . am,j−1 am,j+1 . . . am,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠

,

ovvero

A(i,j) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

↓a1,1 . . . a1,j−1 a1,j a1,j+1 . . . a1,n...

. . ....

......

. . ....

ai−1,1 . . . ai−1,j−1 ai−1,j ai−1,j+1 . . . ai−1,n

→ ai,1 . . . ai,j−1 ai,jai,jai,j ai,j+1 . . . ai,nai+1,1 . . . ai+1,j−1 ai+1,j ai+1,j+1 . . . ai+1,n

.... . .

......

.... . .

...am,1 . . . am,j−1 am,j am,j+1 . . . am,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

,

dove le frecce indicano la riga e la colonna da cancellare, i cui elementi sonostati indicati in rosso. La matrice A(i,j) si dice matrice complementare dell’ele-mento ai,j in A. Osserviamo esplicitamente che se A e quadrata, anche A(i,j) equadrata. In generale una matrice subordinata puo essere quadrata oppure no,indipendentemente dal fatto che la matrice di partenza lo sia.

Sia ora K un campo, e sia A ∈ Mm,n. Useremo le seguenti notazioni

A = (A1, . . . , An) ; A =

⎛⎜⎝

A1

...Am

⎞⎟⎠

per evidenziare le colonne o le righe che compongono A. In effetti le espressioniappena introdotte possono vedersi come particolari decomposizioni in blocchidi A. Vogliamo definire, per ogni n ∈ N, un’applicazione

det : Mn,n −→ K

che soddisfi le seguenti proprieta D. Sia A ∈ Mn,n e siano Bk, Ck due vettorinumerici colonna di ordine n e poniamo

B = (A1, . . . , Ak−1, Bk, Ak+1, . . . , An) ,

C = (A1, . . . , Ak−1, Ck, Ak+1, . . . , An) .

66 Geometria e algebra

Page 67: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

66 CAPITOLO 3. MATRICI

individuata da tutte le righe (nel loro ordine naturale) tranne la i-ma e da tuttele colonne (nel loro ordine naturale) tranne la j-ma. In altri termini, A(i,j) siottiene da A cancellando la i-ma riga e la j-ma colonna:

A(i,j) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1,1 . . . a1,j−1 a1,j+1 . . . a1,n...

. . ....

.... . .

...ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n

ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n

.... . .

......

. . ....

am,1 . . . am,j−1 am,j+1 . . . am,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠

,

ovvero

A(i,j) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

↓a1,1 . . . a1,j−1 a1,j a1,j+1 . . . a1,n...

. . ....

......

. . ....

ai−1,1 . . . ai−1,j−1 ai−1,j ai−1,j+1 . . . ai−1,n

→ ai,1 . . . ai,j−1 ai,jai,jai,j ai,j+1 . . . ai,nai+1,1 . . . ai+1,j−1 ai+1,j ai+1,j+1 . . . ai+1,n

.... . .

......

.... . .

...am,1 . . . am,j−1 am,j am,j+1 . . . am,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

,

dove le frecce indicano la riga e la colonna da cancellare, i cui elementi sonostati indicati in rosso. La matrice A(i,j) si dice matrice complementare dell’ele-mento ai,j in A. Osserviamo esplicitamente che se A e quadrata, anche A(i,j) equadrata. In generale una matrice subordinata puo essere quadrata oppure no,indipendentemente dal fatto che la matrice di partenza lo sia.

Sia ora K un campo, e sia A ∈ Mm,n. Useremo le seguenti notazioni

A = (A1, . . . , An) ; A =

⎛⎜⎝

A1

...Am

⎞⎟⎠

per evidenziare le colonne o le righe che compongono A. In effetti le espressioniappena introdotte possono vedersi come particolari decomposizioni in blocchidi A. Vogliamo definire, per ogni n ∈ N, un’applicazione

det : Mn,n −→ K

che soddisfi le seguenti proprieta D. Sia A ∈ Mn,n e siano Bk, Ck due vettorinumerici colonna di ordine n e poniamo

B = (A1, . . . , Ak−1, Bk, Ak+1, . . . , An) ,

C = (A1, . . . , Ak−1, Ck, Ak+1, . . . , An) .

3.2. DETERMINANTI 67

Proprieta D.

(i)D det In = 1;

(ii)D Se ∃ j | Aj = Aj+1 allora detA = 0;

(iii)D Se Ak = βBk + γCk, si ha che detA = β detB + γ detC ∀ β, γ ∈ K.

La (iii)D si esprime dicendo che l’applicazione det e lineare sulle colonne.

3.20 Esempio. Una matrice 1× 1 e del tipo (λ) dove λ e uno scalare. Se si pone

det(λ) = λ

e immediato verificare che le D sono soddisfatte. Sia n = 2; una matrice 2× 2 e del tipo

A =

(a bc d

).

Se si pone detA = ad− bc e agevole verificare che le D sono soddisfatte.

Il principale risultato di questo capitolo e espresso dal seguente enunciato.

3.21 Teorema di esistenza e unicita dei determinanti. Per ogni interopositivo n esiste un’unica applicazione

det : Mn,n(K) −→ K

che soddisfi le proprieta D.

La dimostrazione di tale teorema e abbastanza complessa ed e omessa. Talerisultato rende lecita la seguente

3.22 Definizione. L’applicazione det dell’enunciato precedente si dice appli-cazione determinante. Se A e una matrice quadrata di ordine n, lo scalare detAprende il nome di determinante di A.

Talvolta il determinante di una matrice quadrata A viene indicato, oltre checon il simbolo detA, anche con i simboli |A|, D(A).

Dalle proprieta D si deducono anche le seguenti ulteriori proprieta.

(iv) Se in una matrice si scambiano tra loro due colonne, il determinante cambiadi segno.

(v) Se la matrice A ha due colonne uguali, allora detA = 0.

67Matrici

Page 68: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

68 CAPITOLO 3. MATRICI

Il seguente teorema fornisce un metodo operativo per il calcolo dei determi-nanti, in quanto riduce il calcolo del determinante di una matrice quadrata diordine n a calcoli legati a determinanti di matrici piu piccole.

3.23 Teorema. Sia A ∈ Mn,n e sia h un indice di riga. Si ha che

detA =

n∑j=1

(−1)h+jah,j detA(h,j) . (3.2)

Questo teorema e un caso particolare di un risultato piu generale che enun-ceremo tra breve, noto come il 1o Teorema di Laplace. Quando si calcola ildeterminante utilizzando la (3.2), detta anche Regola di Laplace, si dice che sisviluppa detA secondo la h-ma riga. Dal Teorema 3.23 si deducono ulterioriproprieta dei determinanti.

(vi) Se la matrice A possiede una riga nulla, detA = 0.

(vii) Se si aggiunge ad una colonna della matrice A una combinazione linearedelle altre colonne, il determinante della matrice cosı ottenuta coincidecon detA.

Il seguente teorema, di dimostrazione non facile, consente di utilizzare tuttele proprieta relative alle colonne anche sulle righe, e viceversa.

3.24 Teorema. Sia A ∈ Mn,n. Si ha che detA = det tA.

Poiche tA si ottiene da A scambiando le righe con le colonne, il risultato oraacquisito ci assicura che in tutti gli enunciati riguardanti i determinanti le righe ele colonne di una matrice possono essere scambiate. Ad esempio l’applicazionedet e lineare sulle righe, se una matrice A possiede una colonna nulla alloradetA = 0, se una matrice A possiede due righe uguali allora detA = 0, e cosıvia. In particolare si verifica che si puo sviluppare il determinante di una matricequadrata anche secondo una colonna. Se si sceglie ad esempio la j-ma, si ottienel’espressione

detA =n∑

i=1

(−1)i+jai,j det(A(i,j))

che prende il nome di sviluppo di Laplace secondo la colonna j-ma. Talvolta loscalare

(−1)i+j detA(i,j)

si dice complemento algebrico dell’elemento di posto (i, j) in A, e quindi laRegola di Laplace puo anche esprimersi con il seguente enunciato, valido sia perle righe che per le colonne

68 Geometria e algebra

Page 69: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

68 CAPITOLO 3. MATRICI

Il seguente teorema fornisce un metodo operativo per il calcolo dei determi-nanti, in quanto riduce il calcolo del determinante di una matrice quadrata diordine n a calcoli legati a determinanti di matrici piu piccole.

3.23 Teorema. Sia A ∈ Mn,n e sia h un indice di riga. Si ha che

detA =

n∑j=1

(−1)h+jah,j detA(h,j) . (3.2)

Questo teorema e un caso particolare di un risultato piu generale che enun-ceremo tra breve, noto come il 1o Teorema di Laplace. Quando si calcola ildeterminante utilizzando la (3.2), detta anche Regola di Laplace, si dice che sisviluppa detA secondo la h-ma riga. Dal Teorema 3.23 si deducono ulterioriproprieta dei determinanti.

(vi) Se la matrice A possiede una riga nulla, detA = 0.

(vii) Se si aggiunge ad una colonna della matrice A una combinazione linearedelle altre colonne, il determinante della matrice cosı ottenuta coincidecon detA.

Il seguente teorema, di dimostrazione non facile, consente di utilizzare tuttele proprieta relative alle colonne anche sulle righe, e viceversa.

3.24 Teorema. Sia A ∈ Mn,n. Si ha che detA = det tA.

Poiche tA si ottiene da A scambiando le righe con le colonne, il risultato oraacquisito ci assicura che in tutti gli enunciati riguardanti i determinanti le righe ele colonne di una matrice possono essere scambiate. Ad esempio l’applicazionedet e lineare sulle righe, se una matrice A possiede una colonna nulla alloradetA = 0, se una matrice A possiede due righe uguali allora detA = 0, e cosıvia. In particolare si verifica che si puo sviluppare il determinante di una matricequadrata anche secondo una colonna. Se si sceglie ad esempio la j-ma, si ottienel’espressione

detA =n∑

i=1

(−1)i+jai,j det(A(i,j))

che prende il nome di sviluppo di Laplace secondo la colonna j-ma. Talvolta loscalare

(−1)i+j detA(i,j)

si dice complemento algebrico dell’elemento di posto (i, j) in A, e quindi laRegola di Laplace puo anche esprimersi con il seguente enunciato, valido sia perle righe che per le colonne

3.2. DETERMINANTI 69

3.25 1o Teorema di Laplace. Il determinante di una matrice quadrata A e lasomma dei prodotti degli elementi di una linea (riga o colonna) di A moltiplicatiper i loro complementi algebrici.

3.26 Definizione. Sia A ∈ Mn,n. Se detA �= 0 diremo che A e non singolare,o anche non degenere.

Vediamo ora l’effetto delle operazioni elementari sul determinante di unamatrice. Sia A ∈ Mn,n. Se B si ottiene da A mediante Ri � λRi, dalle Ddiscende che detB = λ detA. Se invece B si ottiene da A mediante Ri � Rj ,allora detB = − detA. Se infine B si ottiene da A mediante Ri � Ri +λRj , allora detB = detA. Un discorso analogo vale se le operazioni vengonoeffettuate sulle colonne. In generale quindi se A ≡ B allora

detA = 0 ⇐⇒ detB = 0

ovvero A e singolare se e solo se tale e B. Le operazioni elementari sulle matriciconsentono anche di dimostrare, con procedimenti sostanzialmente elementari,un importante risultato conosciuto come il Teorema di Binet, che consente di cal-colare il determinante del prodotto di due matrici quadrate. Occorre premetterealcune considerazioni.

3.27 Lemma. Siano A ∈ Mn,n, C ∈ Mm,n, D ∈ Mm,m e sia inoltre O ∈ Mn,m

la matrice nulla. Posto

E =

(A O

C D

)∈ Mm+n,m+n

si ha che

detE = detA · detD .

3.28 Lemma. Siano A ∈ Mn,n, B ∈ Mn,m, D ∈ Mm,m e sia inoltre O ∈ Mm,n

la matrice nulla. Posto

E =

(A B

O D

)∈ Mm+n,m+n

si ha che

detE = detA · detD .

3.29 Teorema di Binet. Siano A,B ∈ Mn,n. Si ha che

detAB = detA · detB .

69Matrici

Page 70: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

70 CAPITOLO 3. MATRICI

Il Teorema di Binet ci consente, tra l’altro, di affrontare alcune questioni diinvertibilita di matrici.

3.30 Corollario. Sia A ∈ Mn,n. Se A e invertibile si ha che detA �= 0 edinoltre

detA−1 =1

detA.

3.31 Osservazione. Se B e un anello commutativo unitario, possiamo ancora definire, for-malmente allo stesso modo, un’applicazione

det : Mn,n(B) −→ B .

Naturalmente non tutte le proprieta dei determinanti di matrici su un campo saranno valide,ma resta valido, ad esempio, il Teorema di Binet. In seguito useremo tale generalizzazione nelcaso B = K[x], l’anello dei polinomi in una indeterminata a coefficienti in un campo K. Adesempio, sia

A =

(3 x2 + 2x x− 1

).

Tale matrice ha coefficienti in B = R[x] e quindi il suo determinante sara a sua volta unpolinomio a coefficienti reali, ovvero

detA = 3(x− 1)− x(x2 + 2) = −x3 + x− 3 ∈ R[x] .

Il non annullarsi del determinante e in realta una condizione necessaria e suf-ficiente per l’invertibilita di una matrice quadrata. Per provare cio, procediamocome segue.

3.32 2o Teorema di Laplace. Sia A una matrice quadrata di ordine n. Perogni coppia (h, k) di indici distinti si ha che

n∑j=1

(−1)k+jah,j detA(k,j) = 0 ;

n∑i=1

(−1)i+kai,h detA(i,k) = 0 . (3.3)

Il 2o Teorema di Laplace si enuncia anche dicendo che e nulla la somma deiprodotti degli elementi di una riga (o colonna) di A per i complementi algebricidegli elementi di un’altra riga (colonna rispettivamente). Il 1o e il 2o Teoremadi Laplace si sintetizzano nelle seguenti formule:

n∑j=1

(−1)k+jah,j detA(k,j) = δh,k · detA (3.4)

dove δh,k e il simbolo di Kronecker definito nella (3.1).

n∑i=1

(−1)i+kai,h detA(i,k) = δh,k · detA . (3.5)

Proviamo ora l’inverso del Corollario 3.30.

70 Geometria e algebra

Page 71: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

70 CAPITOLO 3. MATRICI

Il Teorema di Binet ci consente, tra l’altro, di affrontare alcune questioni diinvertibilita di matrici.

3.30 Corollario. Sia A ∈ Mn,n. Se A e invertibile si ha che detA �= 0 edinoltre

detA−1 =1

detA.

3.31 Osservazione. Se B e un anello commutativo unitario, possiamo ancora definire, for-malmente allo stesso modo, un’applicazione

det : Mn,n(B) −→ B .

Naturalmente non tutte le proprieta dei determinanti di matrici su un campo saranno valide,ma resta valido, ad esempio, il Teorema di Binet. In seguito useremo tale generalizzazione nelcaso B = K[x], l’anello dei polinomi in una indeterminata a coefficienti in un campo K. Adesempio, sia

A =

(3 x2 + 2x x− 1

).

Tale matrice ha coefficienti in B = R[x] e quindi il suo determinante sara a sua volta unpolinomio a coefficienti reali, ovvero

detA = 3(x− 1)− x(x2 + 2) = −x3 + x− 3 ∈ R[x] .

Il non annullarsi del determinante e in realta una condizione necessaria e suf-ficiente per l’invertibilita di una matrice quadrata. Per provare cio, procediamocome segue.

3.32 2o Teorema di Laplace. Sia A una matrice quadrata di ordine n. Perogni coppia (h, k) di indici distinti si ha che

n∑j=1

(−1)k+jah,j detA(k,j) = 0 ;

n∑i=1

(−1)i+kai,h detA(i,k) = 0 . (3.3)

Il 2o Teorema di Laplace si enuncia anche dicendo che e nulla la somma deiprodotti degli elementi di una riga (o colonna) di A per i complementi algebricidegli elementi di un’altra riga (colonna rispettivamente). Il 1o e il 2o Teoremadi Laplace si sintetizzano nelle seguenti formule:

n∑j=1

(−1)k+jah,j detA(k,j) = δh,k · detA (3.4)

dove δh,k e il simbolo di Kronecker definito nella (3.1).

n∑i=1

(−1)i+kai,h detA(i,k) = δh,k · detA . (3.5)

Proviamo ora l’inverso del Corollario 3.30.

3.3. MATRICI E DIPENDENZA LINEARE 71

3.33 Proposizione. Sia A una matrice quadrata e sia detA �= 0. Allora A einvertibile e la sua inversa B = (bs,t) si ottiene ponendo

bs,t = (−1)s+t detA(t,s)

detA.

Da questa osservazione, dall’unicita dell’inversa e dal Corollario 3.30 si de-duce il seguente

3.34 Teorema. Sia A ∈ Mn,n. A e invertibile se e solo se detA �= 0. In talcaso A−1 = (bi,j), dove

bi,j = (−1)i+j detA(j,i)

detA.

Si ha inoltre chedet(A−1) = (detA)−1 .

Dal Teorema di Binet e dal Teorema 3.34 si deduce che se A,B sono matriciquadrate di ordine n e si ha che A · B = In allora A e invertibile e B e la suainversa. Infatti per il Teorema di Binet si ha che

detA · detB = det(A ·B) = det In = 1

e quindi detA �= 0 e in base al Teorema 3.34 la matrice A risulta invertibile.Pertanto B, che e l’inversa destra di A, deve coincidere con A−1. A poste-riori osserviamo quindi che se una matrice quadrata ha inversa destra (oppuresinistra) essa e l’inversa, ed e unica.

Il lettore potra provare, a titolo di esercizio, che il determinante di unamatrice triangolare e dato dal prodotto degli elementi della diagonale principale.

3.3 Matrici e dipendenza lineare

La nozione di determinante puo essere usata per studiare la dipendenza o l’indi-pendenza di sistemi di vettori numerici. I risultati che otterremo per i sistemi divettori numerici colonna sono naturalmente validi anche per i vettori numericiriga.

3.35 Teorema. Siano A1, . . . , An ∈ Kn n vettori numerici colonna di ordinen e consideriamo il sistema S = [A1, . . . , An]. Se S e dipendente, posto A =(A1, . . . , An), si ha che detA = 0.

3.36 Corollario. Sia A ∈ Mn,n. Se detA �= 0 allora il sistema S =[A1, . . . , An] e indipendente.

71Matrici

Page 72: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

72 CAPITOLO 3. MATRICI

3.37 Corollario. Sia A ∈ Mn,n e sia detA �= 0. Per ogni vettore numerico

colonna b =

⎛⎜⎝b1...bn

⎞⎟⎠ esiste un’unica n-pla (λ1, . . . , λn) di scalari tale che

b =

n�j=1

λjAj .

Useremo ora la teoria dei determinanti per fornire un metodo per il calcolodel rango di una matrice. Sia ora A ∈ Mm,n e sia A

j1,...,jpi1,...,ip

una sottomatricequadrata di A.

3.38 Definizione. Il determinante detAj1,...,jpi1,...,ip

prende il nome di minore di A

(associato alla sottomatrice Aj1,...,jpi1,...,ip

). Se ih = jh per ogni h, tale minore si diceprincipale.

Consideriamo ora il sistema CA = [A1, . . . , An] delle colonne di A, che e unsistema di vettori numerici colonna di Km.

3.39 Proposizione. Se n ≤ m ed esistono degli indici di riga i1, . . . , in tali che

detA1,...,ni1,...,in

�= 0

allora CA e indipendente.

Un ragionamento analogo vale se scambiamo le righe con le colonne.

3.40 Proposizione. Sia m ≤ n e supponiamo che esistano degli indici dicolonna j1, . . . , jm tali che

detAj1,...,jm1,...,m �= 0 .

Allora [A1, . . . , Am] e indipendente.

E possibile usare i determinanti anche per studiare la dipendenza o indipen-denza lineare di sistemi di vettori non numerici. A tale scopo, se V e uno spaziovettoriale di dimensione n, consideriamo l’isomorfismo coordinato

Φ : V −→ Kn

di V rispetto ad una fissata base ordinata. Poiche Φ e un isomorfismo, unsistema S = [v1, . . . ,vm] di vettori di V e indipendente se e solo se tale e il

72 Geometria e algebra

Page 73: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

72 CAPITOLO 3. MATRICI

3.37 Corollario. Sia A ∈ Mn,n e sia detA �= 0. Per ogni vettore numerico

colonna b =

⎛⎜⎝b1...bn

⎞⎟⎠ esiste un’unica n-pla (λ1, . . . , λn) di scalari tale che

b =

n�j=1

λjAj .

Useremo ora la teoria dei determinanti per fornire un metodo per il calcolodel rango di una matrice. Sia ora A ∈ Mm,n e sia A

j1,...,jpi1,...,ip

una sottomatricequadrata di A.

3.38 Definizione. Il determinante detAj1,...,jpi1,...,ip

prende il nome di minore di A

(associato alla sottomatrice Aj1,...,jpi1,...,ip

). Se ih = jh per ogni h, tale minore si diceprincipale.

Consideriamo ora il sistema CA = [A1, . . . , An] delle colonne di A, che e unsistema di vettori numerici colonna di Km.

3.39 Proposizione. Se n ≤ m ed esistono degli indici di riga i1, . . . , in tali che

detA1,...,ni1,...,in

�= 0

allora CA e indipendente.

Un ragionamento analogo vale se scambiamo le righe con le colonne.

3.40 Proposizione. Sia m ≤ n e supponiamo che esistano degli indici dicolonna j1, . . . , jm tali che

detAj1,...,jm1,...,m �= 0 .

Allora [A1, . . . , Am] e indipendente.

E possibile usare i determinanti anche per studiare la dipendenza o indipen-denza lineare di sistemi di vettori non numerici. A tale scopo, se V e uno spaziovettoriale di dimensione n, consideriamo l’isomorfismo coordinato

Φ : V −→ Kn

di V rispetto ad una fissata base ordinata. Poiche Φ e un isomorfismo, unsistema S = [v1, . . . ,vm] di vettori di V e indipendente se e solo se tale e il

3.3. MATRICI E DIPENDENZA LINEARE 73

sistema S ′ = [Φ(v1), . . . ,Φ(vm)] di vettori numerici di Kn e si possono quindiapplicare i risultati fin qui esposti a proposito dei sistemi di vettori numerici.

Il metodo per il calcolo del rango di una matrice A che ora esporremo, ebasato sullo studio dei minori di A. Se A

j1,...,jqi1,...,ip

e una sottomatrice di A, i e

un indice di riga e j e un indice di colonna, la sottomatrice Aj1,...,jq,ji1,...,ip,i

prende il

nome di orlato di Aj1,...,jqi1,...,ip

mediante la i-ma riga e la j-ma colonna.

3.41 Teorema degli orlati. Consideriamo una matrice A ∈ Mm,n e indi-chiamo con RA, CA i sistemi di righe e colonne di A. Sia B una sua sottomatricequadrata di ordine p tale che detB �= 0. Se ogni orlato B′ della sottomatriceB risulta degenere, allora il sottosistema di RA costituito dalle righe di A chepassano per B e un sottosistema indipendente massimale di RA e, analogamen-te, il sottosistema di CA costituito dalle colonne di A che passano per B e unsottosistema indipendente massimale di CA. In particolare, ρ(A) = p.

Il Teorema degli orlati fornisce un metodo per determinare il rango di unamatrice A, che supponiamo non banale. Chiamiamo sottomatrice fondamentaledi A una sottomatrice quadrata di un certo ordine, diciamo p, avente determi-nante non nullo e tale che ogni minore di ordine maggiore di p e nullo, ovverouna sottomatice con le proprieta della matrice B del Teorema degli orlati. Ilminore associato ad una sottomatrice fondamentale di dice minore fondamen-tale. Se A

j1,...,jpi1,...,ip

e una sottomatrice fondamentale, e chiaro che ogni suo orlatoha determinante nullo e quindi, in base al Teorema degli Orlati,

S = [Ai1 , . . . , Aip ]

e un sistema massimale di righe indipendenti di A,

T = [Aj1 , . . . , Ajp ]

e un sistema massimale di colonne indipendenti di A ed inoltre ρ(A) = p. Diconseguenza ogni altro minore fondamentale di A avra ordine p. Viceversa, seρ(A) = p e S e un sistema massimale di righe indipendenti di A, la sottomatriceA1,...,n

i1,...,ipha rango p, poiche le sue p righe sono indipendenti. Allora, in base

al Teorema degli orlati, deve esistere una sottomatrice quadrata di ordine p diA1,...,n

i1,...,ipcon determinante non nullo. Essa sara individuata da tutte le righe e

da p colonne, ad esempio quelle di posto j1, . . . , jp, che risultano indipenden-

ti nella sottomatrice A1,...,ni1,...,ip

. Pertanto la matrice Aj1,...,jpi1,...,ip

e una sottomatricefondamentale di A. Infatti ogni suo orlato ha determinante nullo, perche altri-menti troveremmo p+1 righe indipendenti. Quindi le colonne Aj1 , . . . , Ajp sonoindipendenti in A. A posteriori possiamo quindi dedurre che una sottomatricefondamentale e una sottomatrice avente determinante non nullo e ordine pari alrango di A.

73Matrici

Page 74: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

74 CAPITOLO 3. MATRICI

3.42 Corollario. Ogni sottomatrice quadrata di A avente determinante nonnullo e contenuta in una sottomatrice fondamentale, ovvero puo essere or-lata in modo opportuno (ripetutamente) fino ad ottenere una sottomatricefondamentale.

Pertanto, per determinare il rango di una matrice non banale A = (ai,j)si puo procedere al modo seguente. Si considera un elemento non nullo ai1,j1di A e si orla la sottomatrice Aj1

i1alla ricerca di una sottomatrice di ordine 2

con determinante non nullo. Se non esiste alcun orlato con questa proprieta,ovvero se per ogni scelta degli indici i2, j2 si ha che detAj1,j2

i1,i2= 0, allora ρ(A) =

1. Altrimenti ρ(A) ≥ 2 e si continua ad orlare finche non si costruisce unminore fondamentale, il cui ordine sara il rango di A. Una facile conseguenzadel Teorema degli orlati e il seguente enunciato, che inverte il Corollario 3.36:

3.43 Proposizione. Sia S = [A1, . . . , An] un sistema indipendente di vettorinumerici colonna di ordine n. Posto A = (A1, . . . , An) si ha che detA �= 0.

Pertanto il determinante di una matrice A e non nullo se e solo se il sistemadei vettori colonna, o anche dei vettori riga, di A e indipendente, ovvero se esolo se ρ(A) = n (e anche se e solo se A e invertibile).

74 Geometria e algebra

Page 75: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

75

74 CAPITOLO 3. MATRICI

3.42 Corollario. Ogni sottomatrice quadrata di A avente determinante nonnullo e contenuta in una sottomatrice fondamentale, ovvero puo essere or-lata in modo opportuno (ripetutamente) fino ad ottenere una sottomatricefondamentale.

Pertanto, per determinare il rango di una matrice non banale A = (ai,j)si puo procedere al modo seguente. Si considera un elemento non nullo ai1,j1di A e si orla la sottomatrice Aj1

i1alla ricerca di una sottomatrice di ordine 2

con determinante non nullo. Se non esiste alcun orlato con questa proprieta,ovvero se per ogni scelta degli indici i2, j2 si ha che detAj1,j2

i1,i2= 0, allora ρ(A) =

1. Altrimenti ρ(A) ≥ 2 e si continua ad orlare finche non si costruisce unminore fondamentale, il cui ordine sara il rango di A. Una facile conseguenzadel Teorema degli orlati e il seguente enunciato, che inverte il Corollario 3.36:

3.43 Proposizione. Sia S = [A1, . . . , An] un sistema indipendente di vettorinumerici colonna di ordine n. Posto A = (A1, . . . , An) si ha che detA �= 0.

Pertanto il determinante di una matrice A e non nullo se e solo se il sistemadei vettori colonna, o anche dei vettori riga, di A e indipendente, ovvero se esolo se ρ(A) = n (e anche se e solo se A e invertibile).

Capitolo 4

Sistemi di equazioni lineari

4.1 Generalita sui sistemi lineari

Sia f ∈ K[x1, . . . , xn] un polinomio di grado m in n indeterminate sul campoK. L’espressione

f(x1, . . . , xn) = 0

prende il nome di equazione algebrica di grado m e rappresenta il problema dellaricerca delle radici di f ovvero delle n-ple ξ = (ξ1, . . . , ξn) ∈ Kn tali che

f(ξ1, . . . , ξn) = 0 .

Le indeterminate x1, . . . , xn si dicono incognite dell’equazione. Una radice ξdi f si dice anche soluzione dell’equazione. Se m = 1 tale equazione si dicelineare. In tal caso, essendo f un polinomio di primo grado, esistono degliscalari a1, . . . , an, detti coefficienti, e b, detto termine noto, tali che

f(x1, . . . , xn) = a1x1 + · · ·+ anxn − b

e quindi l’equazione puo scriversi nella forma

a1x1 + · · ·+ anxn − b = 0

o anchea1x1 + · · ·+ anxn = b .

4.1 Definizione. Un sistema lineare di m equazioni in n incognite (ovvero unsistema lineare m× n) e una espressione del tipo

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩

a1,1x1 + · · ·+ a1,nxn = b1

a2,1x1 + · · ·+ a2,nxn = b2

......

...

am,1x1 + · · ·+ am,nxn = bm

(4.1)

75

Page 76: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

76 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

e rappresenta il problema della ricerca delle eventuali soluzioni comuni alleequazioni lineari

a1,1x1 + · · ·+ a1,nxn = b1

a2,1x1 + · · ·+ a2,nxn = b2

......

...

am,1x1 + · · ·+ am,nxn = bm

Osserviamo che non ha alcuna importanza l’ordine in cui si consideranole equazioni del sistema lineare (4.1). Inoltre, in (4.1) le equazioni non sononecessariamente a due a due distinte. Un sistema lineare si dira compatibile seammette almeno una soluzione, incompatibile altrimenti. Diremo inoltre che duesistemi lineari nello stesso numero di incognite sono equivalenti se ammettonole stesse soluzioni. In particolare i sistemi incompatibili (nello stesso numero diincognite) sono tutti equivalenti e due sistemi equivalenti hanno necessariamentelo stesso numero di incognite. Se un sistema lineare (ad n incognite, e denotato,ad esempio, con il simbolo (∗), indicheremo con il simbolo Sol(∗) l’insieme dellesue soluzioni, che e un sottoinsieme di Kn.

4.2 Definizione. Il sistema lineare (4.1) si dice omogeneo se

b1 = · · · = bm = 0 .

4.3 Definizione. Dato un sistema lineare m × n della forma (4.1) il sistemalineare omogeneo ⎧⎪⎪⎪⎪⎨

⎪⎪⎪⎪⎩

a1,1x1 + · · ·+ a1,nxn = 0

a2,1x1 + · · ·+ a2,nxn = 0

......

...

am,1x1 + · · ·+ am,nxn = 0

(4.2)

prende il nome di sistema lineare omogeneo associato a (4.1).

Vogliamo ora scrivere una espressione del tipo (4.1) in forma compatta, usan-do notazioni matriciali. A tale scopo estendiamo formalmente la nozione di pro-dotto righe per colonne tra matrici anche al caso in cui gli elementi delle matricisiano di natura arbitraria. Con questa convenzione, posto

A = (ai,j) ; B =

⎛⎜⎝

b1...bm

⎞⎟⎠ ; X =

⎛⎜⎝x1

...xn

⎞⎟⎠

i sistemi lineari (4.1),(4.2) possono scriversi nella forma

AX = B ; AX = 0

76 Geometria e algebra

Page 77: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

76 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

e rappresenta il problema della ricerca delle eventuali soluzioni comuni alleequazioni lineari

a1,1x1 + · · ·+ a1,nxn = b1

a2,1x1 + · · ·+ a2,nxn = b2

......

...

am,1x1 + · · ·+ am,nxn = bm

Osserviamo che non ha alcuna importanza l’ordine in cui si consideranole equazioni del sistema lineare (4.1). Inoltre, in (4.1) le equazioni non sononecessariamente a due a due distinte. Un sistema lineare si dira compatibile seammette almeno una soluzione, incompatibile altrimenti. Diremo inoltre che duesistemi lineari nello stesso numero di incognite sono equivalenti se ammettonole stesse soluzioni. In particolare i sistemi incompatibili (nello stesso numero diincognite) sono tutti equivalenti e due sistemi equivalenti hanno necessariamentelo stesso numero di incognite. Se un sistema lineare (ad n incognite, e denotato,ad esempio, con il simbolo (∗), indicheremo con il simbolo Sol(∗) l’insieme dellesue soluzioni, che e un sottoinsieme di Kn.

4.2 Definizione. Il sistema lineare (4.1) si dice omogeneo se

b1 = · · · = bm = 0 .

4.3 Definizione. Dato un sistema lineare m × n della forma (4.1) il sistemalineare omogeneo ⎧⎪⎪⎪⎪⎨

⎪⎪⎪⎪⎩

a1,1x1 + · · ·+ a1,nxn = 0

a2,1x1 + · · ·+ a2,nxn = 0

......

...

am,1x1 + · · ·+ am,nxn = 0

(4.2)

prende il nome di sistema lineare omogeneo associato a (4.1).

Vogliamo ora scrivere una espressione del tipo (4.1) in forma compatta, usan-do notazioni matriciali. A tale scopo estendiamo formalmente la nozione di pro-dotto righe per colonne tra matrici anche al caso in cui gli elementi delle matricisiano di natura arbitraria. Con questa convenzione, posto

A = (ai,j) ; B =

⎛⎜⎝

b1...bm

⎞⎟⎠ ; X =

⎛⎜⎝x1

...xn

⎞⎟⎠

i sistemi lineari (4.1),(4.2) possono scriversi nella forma

AX = B ; AX = 0

4.1. GENERALITA SUI SISTEMI LINEARI 77

rispettivamente, o anche nella forma

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩

A1X = b1

A2X = b2

......

AmX = bm

;

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩

A1X = 0

A2X = 0

......

AmX = 0

dove A1, . . . , Am sono le righe di A e le espressioni AX, AiX sono prodotti righeper colonne (formali). Sottolineiamo il fatto che i simboli ai,j , bh rappresentanodegli scalari, mentre gli xk rappresentano le incognite del sistema lineare. Unaulteriore rappresentazione dei sistemi lineari (4.1),(4.2) e la seguente

A1x1 + · · ·+Anxn = B ; A1x1 + · · ·+Anxn = 0 (4.3)

dove A1, . . . , An sono le colonne di A.

4.4 Definizione. La matrice A si dice matrice incompleta, o matrice dei coeffi-cienti, o anche prima matrice, del sistema lineare (4.1). La matrice A′ = (A|B)si dice invece matrice completa, o anche seconda matrice, del sistema lineare(4.1).

Cercheremo ora di stabilire dei criteri per capire se un sistema lineare ecompatibile e per determinarne le eventuali soluzioni.

4.5 Teorema. Il sistema lineare (4.1) e compatibile se e solo se il vettorenumerico colonna dei termini noti B dipende linearmente dalle colonne di A.

Dimostrazione. Sia ξ =

⎛⎜⎝ξ1...ξn

⎞⎟⎠ una soluzione del sistema lineare in questione.

Cio vuol dire, usando l’espressione (4.3), I parte, del sistema lineare, che

ξ1A1 + · · ·+ ξnA

n = B (4.4)

e quindi B dipende dal sistema di vettori colonna [A1, . . . , An].Viceversa, se B dipende dal sistema di vettori colonna [A1, . . . , An], esistono

degli scalari ξ1, . . . , ξn tali che valga la (4.4) e dunque la n-pla ξ =

⎛⎜⎝ξ1...ξn

⎞⎟⎠ e una

soluzione del sistema lineare (4.1).

Osserviamo che, poiche il vettore nullo dipende da ogni sistema di vettori,ogni sistema lineare omogeneo e compatibile, ammettendo almeno la soluzione

77Sistemi di equazioni lineari

Page 78: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

78 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

banale 0 =

⎛⎜⎝0...0

⎞⎟⎠. Si verifica immediatamente, d’altra parte, che se 0 e soluzione

di un sistema lineare, tale sistema lineare e necessariamente omogeneo. Nelseguito indicheremo con

C = [A1, . . . , An] ; R = [A1, . . . , Am]

i sistemi dei vettori colonna e dei vettori riga della matrice A e con C′, R′ isistemi dei vettori colonna e dei vettori riga della matrice A′. Osserviamo chepoiche C ⊆ C′ si ha che ρ(A) ≤ ρ(A′).

4.6 Teorema di Rouche-Capelli. Il sistema lineare (4.1) e compatibile se esolo se

ρ(A) = ρ(A′) . (4.5)

Dimostrazione. Sia (4.1) compatibile. In base al Teorema 4.5, B dipende dalsistema C. Pertanto se ρ(A) = p e

D = [Aj1 , . . . , Ajp ]

e un sistema indipendente massimale di colonne di A, ogni vettore di C dipendeda D e quindi anche B dipende da D. Ma allora D e anche un sistema in-dipendente massimale di colonne di A′. Pertanto ρ(A′) = p e la prima partedell’enunciato e dimostrata.Viceversa, supponiamo che valga la (4.5), e sia D un sistema indipendente mas-simale di colonne di A. Poiche ρ(A′) = ρ(A) = p, D e anche un sistemaindipendente massimale in C′. Pertanto ogni colonna di A′ dipende da D. Inparticolare B dipende da D e quindi anche da C e, sempre in base al Teorema4.5, il sistema lineare (4.1) risulta compatibile.

Se il sistema lineare (4.1) e comparibile e si ha che ρ(A) = ρ(A′) = k, si diceanche che il sistema lineare e compatibile di rango k.

4.2 Metodi di risoluzione

Analizzeremo ora due procedimenti per lo studio della compatibilita e la ricercadelle eventuali soluzioni di un sistema lineare. Il primo procedimento propostoe noto come il metodo dei determinanti.

In base al Teorema di Rouche-Capelli, per stabilire se il sistema lineare(4.1) e compatibile basta calcolare i ranghi di A ed A′ e confrontarli. La ricer-ca delle eventuali soluzioni di (4.1) e invece piu laboriosa. Diamo quindi unacaratterizzazione per tali soluzioni.

78 Geometria e algebra

Page 79: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

78 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

banale 0 =

⎛⎜⎝0...0

⎞⎟⎠. Si verifica immediatamente, d’altra parte, che se 0 e soluzione

di un sistema lineare, tale sistema lineare e necessariamente omogeneo. Nelseguito indicheremo con

C = [A1, . . . , An] ; R = [A1, . . . , Am]

i sistemi dei vettori colonna e dei vettori riga della matrice A e con C′, R′ isistemi dei vettori colonna e dei vettori riga della matrice A′. Osserviamo chepoiche C ⊆ C′ si ha che ρ(A) ≤ ρ(A′).

4.6 Teorema di Rouche-Capelli. Il sistema lineare (4.1) e compatibile se esolo se

ρ(A) = ρ(A′) . (4.5)

Dimostrazione. Sia (4.1) compatibile. In base al Teorema 4.5, B dipende dalsistema C. Pertanto se ρ(A) = p e

D = [Aj1 , . . . , Ajp ]

e un sistema indipendente massimale di colonne di A, ogni vettore di C dipendeda D e quindi anche B dipende da D. Ma allora D e anche un sistema in-dipendente massimale di colonne di A′. Pertanto ρ(A′) = p e la prima partedell’enunciato e dimostrata.Viceversa, supponiamo che valga la (4.5), e sia D un sistema indipendente mas-simale di colonne di A. Poiche ρ(A′) = ρ(A) = p, D e anche un sistemaindipendente massimale in C′. Pertanto ogni colonna di A′ dipende da D. Inparticolare B dipende da D e quindi anche da C e, sempre in base al Teorema4.5, il sistema lineare (4.1) risulta compatibile.

Se il sistema lineare (4.1) e comparibile e si ha che ρ(A) = ρ(A′) = k, si diceanche che il sistema lineare e compatibile di rango k.

4.2 Metodi di risoluzione

Analizzeremo ora due procedimenti per lo studio della compatibilita e la ricercadelle eventuali soluzioni di un sistema lineare. Il primo procedimento propostoe noto come il metodo dei determinanti.

In base al Teorema di Rouche-Capelli, per stabilire se il sistema lineare(4.1) e compatibile basta calcolare i ranghi di A ed A′ e confrontarli. La ricer-ca delle eventuali soluzioni di (4.1) e invece piu laboriosa. Diamo quindi unacaratterizzazione per tali soluzioni.

4.2. METODI DI RISOLUZIONE 79

4.7 Teorema. Sia ξ una soluzione del sistema lineare (4.1). Allora le soluzioni

di (4.1) sono tutti e soli i vettori numerici del tipo ξ+ λ dove λ =

⎛⎜⎝λ1

...λn

⎞⎟⎠ e una

soluzione del sistema lineare omogeneo associato (4.2).

Dimostrazione. Sia μ =

⎛⎜⎝μ1

...μn

⎞⎟⎠ una soluzione di (4.1). Si ha che Aμ = B.

D’altra parte si ha anche che Aξ = B. Pertanto

A(μ− ξ) = Aμ−Aξ = B −B = 0

e quindi, posto λ = μ − ξ, si ha che λ e una soluzione del sistema lineareomogeneo associato e che μ = ξ + λ.Viceversa, se λ e una soluzione del sistema lineare omogeneo associato, si hache Aλ = 0 e quindi

A(ξ + λ) = Aξ +Aλ = B + 0 = B

e ξ + λ e una soluzione di (4.1).

In pratica quindi, la ricerca delle eventuali soluzioni di un sistema lineare siriduce alla determinazione di una soluzione di tale sistema e alla ricerca dellesoluzioni del sistema lineare omogeneo ad esso associato. Ci occuperemo oradella risoluzione di un particolare tipo di sistema lineare.

4.8 Definizione. Un sistema lineare del tipo

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩

a1,1x1 + · · ·+ a1,nxn = b1

a2,1x1 + · · ·+ a2,nxn = b2

......

...

an,1x1 + · · ·+ an,nxn = bn

(4.6)

si dice quadrato di ordine n. Se la matrice incompleta A di tale sistema e nonsingolare, il sistema si dice di Cramer.

4.9 Teorema di Cramer. Consideriamo un sistema lineare di Cramer (4.6).Tale sistema e compatibile e ammette un’unica soluzione

ξ =

⎛⎜⎝ξ1...ξn

⎞⎟⎠

79Sistemi di equazioni lineari

Page 80: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

80 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

che e descritta come segue. Posto

Fj = (A1, . . . , Aj−1, B,Aj+1, . . . , An)

si ha che

ξj =detFj

detA(4.7)

per ogni j = 1, . . . , n.

Dimostrazione. Poiche detA �= 0, si ha che ρ(A) = n e quindi anche ρ(A�) = n eil sistema (4.6) risulta compatibile, per il Teorema di Rouche-Capelli. Proviamoora che se ξ e una soluzione di (4.6) essa deve esprimersi attraverso le (4.7). Siadunque ξ una soluzione di (4.6). Poiche detA �= 0, per il Teorema 3.34 lamatrice A risulta invertibile. Pertanto

ξ = In · ξ = A−1 ·A · ξ = A−1 ·B . (4.8)

Posto A−1 = (ci,j) la (4.8) equivale alle relazioni scalari

ξj = (A−1)j ·B

=n∑

k=1

cj,kbk

=

n∑k=1

(−1)j+k detA(k,j)

detAbk

=1

detA·

n∑k=1

(−1)j+kbk detA(k,j)

=detFj

detA( j = 1, . . . , n )

La (4.7) e talvolta detta Regola di Cramer.

4.10 Corollario. Un sistema lineare omogeneo quadrato

AX = 0

ammette soluzioni non banali se e solo se detA = 0.

Dimostrazione. Gia sappiamo che un sistema lineare omogeneo e sempre com-patibile ed ammette la soluzione banale. Se detA �= 0, tale soluzione e l’unicapossibile, in base al Teorema di Cramer. Viceversa, se il sistema omogeneo inquestione ammette solo la soluzione banale, cio vuol dire che il vettore colonnanullo si esprime in modo unico (quello banale) come combinazione lineare dellecolonne di A. Pertanto tali colonne sono indipendenti e si ha che detA �= 0.

80 Geometria e algebra

Page 81: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

80 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

che e descritta come segue. Posto

Fj = (A1, . . . , Aj−1, B,Aj+1, . . . , An)

si ha che

ξj =detFj

detA(4.7)

per ogni j = 1, . . . , n.

Dimostrazione. Poiche detA �= 0, si ha che ρ(A) = n e quindi anche ρ(A�) = n eil sistema (4.6) risulta compatibile, per il Teorema di Rouche-Capelli. Proviamoora che se ξ e una soluzione di (4.6) essa deve esprimersi attraverso le (4.7). Siadunque ξ una soluzione di (4.6). Poiche detA �= 0, per il Teorema 3.34 lamatrice A risulta invertibile. Pertanto

ξ = In · ξ = A−1 ·A · ξ = A−1 ·B . (4.8)

Posto A−1 = (ci,j) la (4.8) equivale alle relazioni scalari

ξj = (A−1)j ·B

=n∑

k=1

cj,kbk

=

n∑k=1

(−1)j+k detA(k,j)

detAbk

=1

detA·

n∑k=1

(−1)j+kbk detA(k,j)

=detFj

detA( j = 1, . . . , n )

La (4.7) e talvolta detta Regola di Cramer.

4.10 Corollario. Un sistema lineare omogeneo quadrato

AX = 0

ammette soluzioni non banali se e solo se detA = 0.

Dimostrazione. Gia sappiamo che un sistema lineare omogeneo e sempre com-patibile ed ammette la soluzione banale. Se detA �= 0, tale soluzione e l’unicapossibile, in base al Teorema di Cramer. Viceversa, se il sistema omogeneo inquestione ammette solo la soluzione banale, cio vuol dire che il vettore colonnanullo si esprime in modo unico (quello banale) come combinazione lineare dellecolonne di A. Pertanto tali colonne sono indipendenti e si ha che detA �= 0.

4.2. METODI DI RISOLUZIONE 81

Torniamo ora al caso generale e consideriamo un sistema lineare del tipo(4.1).

4.11 Definizione. Consideriamo un sistema lineare del tipo (4.1). Se

ρ(A) = m ≤ n

diremo che il sistema lineare e ridotto in forma normale.

4.12 Proposizione. Un sistema lineare (4.1) ridotto in forma normale e semprecompatibile.

Dimostrazione. Gia sappiamo che m = ρ(A) ≤ ρ(A′). D’altra parte il rango diA′ non puo superare il numero m di righe di A′. Quindi ρ(A) = ρ(A′) = m e ilsistema lineare risulta compatibile per il Teorema di Rouche-Capelli.

4.13 Lemma. Sia T ′ = [A′i1, . . . , A′

ip] un sistema di righe della matrice A′ e sia

A′k una riga di A′ che dipende da T ′. Allora ogni soluzione del sistema lineare

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩

Ai1X = bi1

Ai2X = bi2...

...

AipX = bip

(4.9)

e anche soluzione dell’equazione

AkX = bk .

Dimostrazione. Sia ξ una soluzione del sistema lineare (4.9). Abbiamo che

Ai1ξ = bi1 ; . . . ; Aipξ = bip .

Poiche A′k dipende da T ′, esistono degli scalari λ1, . . . , λp tali che

A′k = λ1A

′i1 + · · ·+ λpA

′ip

ovveroAk = λ1Ai1 + · · ·+ λpAip ; bk = λ1bi1 + · · ·+ λpbip .

Ma alloraAkξ = (λ1Ai1 + · · ·+ λpAip)ξ

= λ1Ai1ξ + · · ·+ λpAipξ

= λ1bi1 + · · ·+ λpbip

= bk

e questo e quanto si voleva provare.

81Sistemi di equazioni lineari

Page 82: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

82 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

4.14 Teorema. Supponiamo che il sistema lineare (4.1) sia compatibile e chesi abbia

ρ(A) = ρ(A′) = p .

Se T = [Ai1 , . . . , Aip ] e un sistema indipendente massimale di righe di A, ilsistema lineare (4.1) e equivalente al sistema lineare (4.9), che e quindi ancoracompatibile ed e ridotto in forma normale.

Dimostrazione. Il sistema di vettori T ′ = [A′i1, . . . , A′

ip] e un sistema indipen-

dente massimale di righe di A′. Infatti T ′ e indipendente, poiche se esistesse unarelazione di dipendenza tra i vettori di T ′, da essa si dedurrebbe una relazionedi dipendenza tra i vettori di T . T ′ e poi massimale rispetto a tale proprieta,in quanto ρ(A′) = p e quindi non possono esistere sistemi di righe indipendentidi A′ di ordine maggiore di p. Si deduce allora che ogni riga di A′ dipendeda T ′ e, in base al Lemma 4.13, ogni soluzione di (4.9) e anche soluzione diogni equazione del sistema lineare (4.1), e cioe e soluzione del sistema lineare(4.1) stesso. E poi evidente che ogni soluzione del sistema lineare (4.1) e anchesoluzione del sistema lineare (4.9). Infine, e immediato verificare che il sistemalineare (4.9) e ridotto in forma normale, e cio conclude la dimostrazione.

Il Teorema 4.14 ci consente di concentrare la nostra attenzione sui sistemilineari compatibili ridotti in forma normale. Infatti se il sistema lineare (4.1) ecompatibile e p = ρ(A) = ρ(A′) < m, da esso possiamo estrarre un sistema deltipo (4.9), dove T = [Ai1 , . . . , Aip ] e un sistema massimale indipendente di righedi A, che risulta compatibile, ridotto in forma normale ed equivalente a quellodi partenza. Supponiamo quindi d’ora in avanti che il sistema lineare (4.1) siacompatibile e ridotto in forma normale, ovvero che si abbia

ρ(A) = ρ(A′) = m ≤ n .

Se m = n, tale sistema lineare e di Cramer. Infatti esso e quadrato ed inol-tre detA �= 0 poiche ρ(A) = m. Possiamo quindi determinare la sua unicasoluzione con la regola di Cramer. Se invece m < n, procediamo come segue.Sia D = [Aj1 , . . . , Ajm ] un sistema massimale indipendente di colonne di A (equindi anche di A′). Gli indici j1, . . . , jm sono allora a due a due distinti e{ j1, . . . , jm } ⊂ { 1, . . . , n }. Sia q = n−m e sia

{ k1, . . . , kq } = { 1, . . . , n } − { j1, . . . , jm } .

Scriviamo il sistema (4.1) come segue

⎧⎪⎪⎨⎪⎪⎩

a1,j1xj1 + · · ·+ a1,jmxjm = b1− a1,k1xk1

− · · · − a1,kqxkq

......

...

am,j1xj1+ · · ·+am,jmxjm = bm− am,k1xk1

− · · · − am,kqxkq

(4.10)

82 Geometria e algebra

Page 83: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

82 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

4.14 Teorema. Supponiamo che il sistema lineare (4.1) sia compatibile e chesi abbia

ρ(A) = ρ(A′) = p .

Se T = [Ai1 , . . . , Aip ] e un sistema indipendente massimale di righe di A, ilsistema lineare (4.1) e equivalente al sistema lineare (4.9), che e quindi ancoracompatibile ed e ridotto in forma normale.

Dimostrazione. Il sistema di vettori T ′ = [A′i1, . . . , A′

ip] e un sistema indipen-

dente massimale di righe di A′. Infatti T ′ e indipendente, poiche se esistesse unarelazione di dipendenza tra i vettori di T ′, da essa si dedurrebbe una relazionedi dipendenza tra i vettori di T . T ′ e poi massimale rispetto a tale proprieta,in quanto ρ(A′) = p e quindi non possono esistere sistemi di righe indipendentidi A′ di ordine maggiore di p. Si deduce allora che ogni riga di A′ dipendeda T ′ e, in base al Lemma 4.13, ogni soluzione di (4.9) e anche soluzione diogni equazione del sistema lineare (4.1), e cioe e soluzione del sistema lineare(4.1) stesso. E poi evidente che ogni soluzione del sistema lineare (4.1) e anchesoluzione del sistema lineare (4.9). Infine, e immediato verificare che il sistemalineare (4.9) e ridotto in forma normale, e cio conclude la dimostrazione.

Il Teorema 4.14 ci consente di concentrare la nostra attenzione sui sistemilineari compatibili ridotti in forma normale. Infatti se il sistema lineare (4.1) ecompatibile e p = ρ(A) = ρ(A′) < m, da esso possiamo estrarre un sistema deltipo (4.9), dove T = [Ai1 , . . . , Aip ] e un sistema massimale indipendente di righedi A, che risulta compatibile, ridotto in forma normale ed equivalente a quellodi partenza. Supponiamo quindi d’ora in avanti che il sistema lineare (4.1) siacompatibile e ridotto in forma normale, ovvero che si abbia

ρ(A) = ρ(A′) = m ≤ n .

Se m = n, tale sistema lineare e di Cramer. Infatti esso e quadrato ed inol-tre detA �= 0 poiche ρ(A) = m. Possiamo quindi determinare la sua unicasoluzione con la regola di Cramer. Se invece m < n, procediamo come segue.Sia D = [Aj1 , . . . , Ajm ] un sistema massimale indipendente di colonne di A (equindi anche di A′). Gli indici j1, . . . , jm sono allora a due a due distinti e{ j1, . . . , jm } ⊂ { 1, . . . , n }. Sia q = n−m e sia

{ k1, . . . , kq } = { 1, . . . , n } − { j1, . . . , jm } .

Scriviamo il sistema (4.1) come segue

⎧⎪⎪⎨⎪⎪⎩

a1,j1xj1 + · · ·+ a1,jmxjm = b1− a1,k1xk1

− · · · − a1,kqxkq

......

...

am,j1xj1+ · · ·+am,jmxjm = bm− am,k1xk1

− · · · − am,kqxkq

(4.10)

4.2. METODI DI RISOLUZIONE 83

Se fissiamo arbitrariamente degli scalari ξk1 , . . . , ξkq e li sostituiamo al 2o mem-bro della (4.10) al posto delle incognite xk1 , . . . , xkq otteniamo il sistema lineare

⎧⎪⎪⎨⎪⎪⎩

a1,j1xj1+· · ·+a1,jmxjm =b1−a1,k1ξk1

−· · ·−a1,kqξkq

......

...

am,j1xj1+· · ·+am,jmxjm =bm−am,k1ξk1

−· · ·−am,kqξkq

(4.11)

La matrice dei coefficienti del sistema lineare cosı ottenuto e la sottomatricequadrata Aj1,...,jm

1,...,m , che e non singolare, in quanto le sue colonne sono indipen-denti, e non dipende dalla scelta degli scalari ξk1 , . . . , ξkq che compaiono solonella colonna dei termini noti. Quindi il sistema lineare (4.11) e di Cramer ed

ammette come unica soluzione la m-pla

⎛⎜⎝

ξj1...

ξjm

⎞⎟⎠, che si determina con la regola

di Cramer. Ma allora la n-pla

⎛⎜⎝ξ1...ξn

⎞⎟⎠ e una soluzione del sistema (4.1). Al varia-

re di tutte le possibili scelte di ξk1, . . . , ξkq

si ottengono tutte e sole le soluzionidel sistema lineare (4.1). Infatti, se

⎛⎜⎝λ1

...λn

⎞⎟⎠ (4.12)

e una soluzione del sistema (4.1), sostituendo gli scalari λk1, . . . , λkq

alle inco-gnite xk1

, . . . , xkqsi ottiene un sistema di Cramer nelle incognite xj1 , . . . , xjm

che dovra necessariamente ammettere come unica soluzione la m-pla costituitadagli scalari λj1 , . . . , λjm e quindi anche la soluzione (4.12) si ottiene nel modosopra descritto. Tale descrizione delle soluzioni di (4.1) puo esprimersi anchedicendo che esiste una biezione

ω : Kq −→ Sol (4.1) ⊆ Kn (4.13)

che associa all’arbitraria q-pla (ξk1 , . . . , ξkq ) la soluzione completa (ξ1, . . . , ξn)nel modo sopra indicato. Diremo che ξk1 , . . . , ξkq al loro variare in K para-metrizzano Sol (4.1). Pertanto ξk1

, . . . , ξkqvengono detti talvolta parametri, e

si dice che Kq funge da spazio dei parametri. La discussione appena svolta sisintetizza nel seguente enunciato:

4.15 2o Teorema di unicita. Consideriamo il sistema lineare (4.1) e sup-poniamo che esso sia gia ridotto in forma normale e che si abbia m < n. SeS = [Aj1 , . . . , Ajm ] e un sistema massimale di colonne della prima (e quindianche della seconda) matrice del sistema e k1, . . . , kq sono come sopra, per ogniq-pla (ξk1

, . . . , ξkq) ∈ Kq esiste un’unica soluzione ξ = (ξ1, . . . , ξn) ∈ Kn del

83Sistemi di equazioni lineari

Page 84: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

84 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

sistema, fornita dalla regola di Cramer applicata al sistema (4.11) alle incognitexj1 , . . . , xjm . Inoltre, la (4.13) e una biezione.

Consideriamo ora un sistema lineare omogeneo (4.2). Abbiamo gia osservatoche (4.2) e compatibile, poiche ammette sicuramente almeno la soluzione banale.Siamo quindi interessati alla ricerca di altre eventuali soluzioni (non banali) di(4.2). Supponiamo che il sistema lineare omogeneo (4.2) sia ridotto in formanormale, ovvero che si abbia ρ(A) = m ≤ n. Se m = n, il sistema (4.2) e diCramer e quindi ammette un’unica soluzione, e cioe quella banale.

Per semplicita, indichiamo, nel seguito, anche con il simbolo S l’insiemeSol (4.1) e poniamo anche S0 = Sol (4.2).

4.16 Teorema. L’insieme S0 delle soluzioni del sistema lineare omogeneo (4.2),che supponiamo ridotto in forma normale, e un sottospazio vettoriale di Kn esi ha che dimS0 = n−m.

Dimostrazione. Gia sappiamo che 0 ∈ S0. Inoltre, se λ ∈ K e i vettori numericicolonna (di ordine n) ξ, ξ′ sono in S0, si ha che

Aξ = 0 ; Aξ′ = 0

e quindiA(ξ + ξ′) = Aξ +Aξ′ = 0 ; A(λξ) = λ(Aξ) = 0

e cioe ξ+ ξ′ e λξ sono ancora soluzioni di (4.2), ovvero elementi di S0. PertantoS0 e un sottospazio di Kn. Osserviamo poi che l’applicazione ω definita nella(4.13) per sistemi lineari arbitrari, risulta lineare quando (e solo quando) ilsistema e omogeneo. Poiche poi ω e una biezione, ω e un isomorfismo tra Kq eS0. Quindi dimS0 = q = n−m.

In generale, se S0 ⊆ Kn e ξ ∈ Kn, l’insieme

S ={ξ′ ∈ Kn | ∃ ξ′′ ∈ S0 | ξ′ = ξ + ξ′′

}

si dice ξ-traslato di S0 e si indica con il simbolo ξ + S0. Se S0 e un sottospaziovettoriale di Kn, ξ+S0 prende anche il nome di laterale di S0 in Kn determinatoda ξ. Per quanto detto in precedenza, se consideriamo un sistema lineare (4.1)ed il sistema lineare omogeneo (4.2) ad esso associato, ed indichiamo con S, S0

i rispettivi insiemi di soluzioni e con ξ un qualunque elemento di S, abbiamoche S = ξ + S0. Osserviamo che S0 e un sottospazio vettoriale di Kn, mentreS e un sottospazio vettoriale di Kn se e solo se il sistema (4.1) e omogeneo,ovvero se e solo se gli scalari b1, . . . , bm sono tutti nulli, come e facile verificarenotando, ad esempio, che 0 ∈ S se e solo se il sistema (4.1) e omogeneo. Uninsieme S di questo tipo viene considerato un sottoinsieme notevole di Kn eprende il nome di sottospazio affine di Kn, nel senso che verra chiarito in un

84 Geometria e algebra

Page 85: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

84 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

sistema, fornita dalla regola di Cramer applicata al sistema (4.11) alle incognitexj1 , . . . , xjm . Inoltre, la (4.13) e una biezione.

Consideriamo ora un sistema lineare omogeneo (4.2). Abbiamo gia osservatoche (4.2) e compatibile, poiche ammette sicuramente almeno la soluzione banale.Siamo quindi interessati alla ricerca di altre eventuali soluzioni (non banali) di(4.2). Supponiamo che il sistema lineare omogeneo (4.2) sia ridotto in formanormale, ovvero che si abbia ρ(A) = m ≤ n. Se m = n, il sistema (4.2) e diCramer e quindi ammette un’unica soluzione, e cioe quella banale.

Per semplicita, indichiamo, nel seguito, anche con il simbolo S l’insiemeSol (4.1) e poniamo anche S0 = Sol (4.2).

4.16 Teorema. L’insieme S0 delle soluzioni del sistema lineare omogeneo (4.2),che supponiamo ridotto in forma normale, e un sottospazio vettoriale di Kn esi ha che dimS0 = n−m.

Dimostrazione. Gia sappiamo che 0 ∈ S0. Inoltre, se λ ∈ K e i vettori numericicolonna (di ordine n) ξ, ξ′ sono in S0, si ha che

Aξ = 0 ; Aξ′ = 0

e quindiA(ξ + ξ′) = Aξ +Aξ′ = 0 ; A(λξ) = λ(Aξ) = 0

e cioe ξ+ ξ′ e λξ sono ancora soluzioni di (4.2), ovvero elementi di S0. PertantoS0 e un sottospazio di Kn. Osserviamo poi che l’applicazione ω definita nella(4.13) per sistemi lineari arbitrari, risulta lineare quando (e solo quando) ilsistema e omogeneo. Poiche poi ω e una biezione, ω e un isomorfismo tra Kq eS0. Quindi dimS0 = q = n−m.

In generale, se S0 ⊆ Kn e ξ ∈ Kn, l’insieme

S ={ξ′ ∈ Kn | ∃ ξ′′ ∈ S0 | ξ′ = ξ + ξ′′

}

si dice ξ-traslato di S0 e si indica con il simbolo ξ + S0. Se S0 e un sottospaziovettoriale di Kn, ξ+S0 prende anche il nome di laterale di S0 in Kn determinatoda ξ. Per quanto detto in precedenza, se consideriamo un sistema lineare (4.1)ed il sistema lineare omogeneo (4.2) ad esso associato, ed indichiamo con S, S0

i rispettivi insiemi di soluzioni e con ξ un qualunque elemento di S, abbiamoche S = ξ + S0. Osserviamo che S0 e un sottospazio vettoriale di Kn, mentreS e un sottospazio vettoriale di Kn se e solo se il sistema (4.1) e omogeneo,ovvero se e solo se gli scalari b1, . . . , bm sono tutti nulli, come e facile verificarenotando, ad esempio, che 0 ∈ S se e solo se il sistema (4.1) e omogeneo. Uninsieme S di questo tipo viene considerato un sottoinsieme notevole di Kn eprende il nome di sottospazio affine di Kn, nel senso che verra chiarito in un

4.2. METODI DI RISOLUZIONE 85

capitolo successivo. Anche Kn puo vedersi come sottospazio affine (improprio)di se stesso, in quanto e l’insieme delle soluzioni del sistema lineare vuoto.

Studieremo ora un altro procedimento, che coinvolge l’uso delle operazionielementari sulle righe di una matrice, per la risoluzione di un sistema lineare.Tale procedimento e noto come il Metodo di Gauss-Jordan.

4.17 Lemma. Consideriamo il sistema lineare (4.1) e indichiamo con A,A′ lematrici di tale sistema. Sia poi P ′ una matrice a scala equivalente ad A′.Indichiamo con P = (pi,j) il blocco di P ′ costituito dalle prime n colonne, e con

Q =

⎛⎜⎝

q1...qm

⎞⎟⎠ l’ultima colonna di P ′. Il sistema lineare

PX = Q (4.14)

e equivalente al sistema (4.1).

Dimostrazione. E chiaro che occorre e basta provare l’asserto nel caso in cuiP ′ si ottiene da A′ mediante una sola operazione elementare. Se l’operazione edi tipo (i) oppure (ii), l’asserto e banale. Infatti se si effettua una operazionedel tipo Ri � λRi nel sistema lineare (4.14) compaiono le stesse equazioni delsistema lineare (4.1), tranne la i-ma, che risulta moltiplicata per λ, e questonon influenza l’insieme delle soluzioni. Se l’operazione e del tipo (ii), il sistemalineare (4.14) coincide con il sistema lineare (4.1), variando soltanto l’ordine incui compaiono le equazioni. Supponiamo infine che P ′ si ottenga da A′ mediantel’operazione Ri � Ri+λRj . Sia ad esempio i < j. I sistemi lineari (4.1) e (4.14)sono della forma

⎧⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎩

A1X = b1

...

AiX = bi

...

AjX = bj

...

AmX = bm

;

⎧⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎩

A1X = b1

...

(Ai + λAj)X = bi + λbj

...

AjX = bj

...

AmX = bm

Essi differiscono solo nella i-ma equazione. Se Y =

⎛⎜⎝y1...yn

⎞⎟⎠ e una soluzione del

primo sistema, allora AhY = bh per ogni h e quindi

(Ai + λAj)Y = AiY + λAjY = bi + λbj .

85Sistemi di equazioni lineari

Page 86: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

86 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

Pertanto Y e anche soluzione del secondo sistema. Il viceversa e analogo.

Il lemma precedente puo essere usato per la risoluzione del sistema lineare(4.1). Infatti gia sappiamo che esiste una matrice P � del tipo richiesto nellemma. Pertanto possiamo studiare il sistema (4.14). La matrice P e anch’essaa scala. Abbiamo gia osservato che ρ(P ) e il numero di righe non nulle di Pe ρ(P �) e il numero di righe non nulle di P �. Pertanto il sistema lineare (4.14)sara compatibile se e solo se l’ultima riga non banale di P e anche l’ultima riganon banale di P �. Il sistema lineare (4.14) sara invece incompatibile se cio nonaccade, ovvero se esiste un indice di riga h tale che

ph,1 = · · · = ph,n = 0 ; qh �= 0 .

In tal caso infatti, la h-ma equazione sara

0x1 + · · ·+ 0xn = qh �= 0

e quindi e ovvio che (4.14) non ha soluzioni.Se entrambe le matrici di un sistema lineare sono a scala, il sistema stesso si

dira a scala. Consideriamo ora un sistema a scala compatibile del tipo (4.14),trascurando le eventuali equazioni banali. Il sistema lineare (4.14) e del tipo

⎧⎪⎪⎨⎪⎪⎩

p1,j1xj1 + · · ·+p1,j2xj2+· · ·+p1,jhxjh + · · · = q1p2,j2xj2+· · ·+p2,jhxjh + · · · = q2

......

ph,jhxjh + · · · = qh

dove p1,j1 , . . . , ph,jh sono i pivot. Poiche p1,j1 , . . . , ph,jh �= 0, la sottomatrice

P j1,...,jh1,...,h e triangolare alta ed e non degenere, in quanto

detP j1,...,jh1,...,h = p1,j1 · · · · · ph,jh �= 0 .

Pertanto, usando il metodo dei determinanti, si ottengono le soluzioni di (4.14)scegliendo dei valori arbitrari per le incognite di posto diverso da j1, . . . , jh erisolvendo poi il sistema di Cramer nelle incognite xj1 , . . . , xjh cosı ottenuto. Siopera, in pratica, come segue. L’ultima equazione e

ph,jhxjh + ph,jh+1xjh+1 + · · ·+ ph,nxn = qh .

Poiche ph,jh �= 0, si fissano degli scalari ξjh+1, . . . ξn in modo arbitrario, sisostituiscono alle incognite xjh+1, . . . , xn e si ottiene l’equazione

ph,jhxjh = qh − ph,jh+1ξjh+1 − · · · − ph,nξn

da cui si ricava un unico valore ξjh da sostituire a xjh . Sostituendo nellapenultima equazione si ottiene

ph−1,jh−1xjh−1

+ · · ·+ ph−1,jh−1xjh−1

= qh−1 − ph−1,jhξjh − ph−1,jh+1ξjh+1 − · · · − ph−1,nξn .

86 Geometria e algebra

Page 87: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

86 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

Pertanto Y e anche soluzione del secondo sistema. Il viceversa e analogo.

Il lemma precedente puo essere usato per la risoluzione del sistema lineare(4.1). Infatti gia sappiamo che esiste una matrice P � del tipo richiesto nellemma. Pertanto possiamo studiare il sistema (4.14). La matrice P e anch’essaa scala. Abbiamo gia osservato che ρ(P ) e il numero di righe non nulle di Pe ρ(P �) e il numero di righe non nulle di P �. Pertanto il sistema lineare (4.14)sara compatibile se e solo se l’ultima riga non banale di P e anche l’ultima riganon banale di P �. Il sistema lineare (4.14) sara invece incompatibile se cio nonaccade, ovvero se esiste un indice di riga h tale che

ph,1 = · · · = ph,n = 0 ; qh �= 0 .

In tal caso infatti, la h-ma equazione sara

0x1 + · · ·+ 0xn = qh �= 0

e quindi e ovvio che (4.14) non ha soluzioni.Se entrambe le matrici di un sistema lineare sono a scala, il sistema stesso si

dira a scala. Consideriamo ora un sistema a scala compatibile del tipo (4.14),trascurando le eventuali equazioni banali. Il sistema lineare (4.14) e del tipo

⎧⎪⎪⎨⎪⎪⎩

p1,j1xj1 + · · ·+p1,j2xj2+· · ·+p1,jhxjh + · · · = q1p2,j2xj2+· · ·+p2,jhxjh + · · · = q2

......

ph,jhxjh + · · · = qh

dove p1,j1 , . . . , ph,jh sono i pivot. Poiche p1,j1 , . . . , ph,jh �= 0, la sottomatrice

P j1,...,jh1,...,h e triangolare alta ed e non degenere, in quanto

detP j1,...,jh1,...,h = p1,j1 · · · · · ph,jh �= 0 .

Pertanto, usando il metodo dei determinanti, si ottengono le soluzioni di (4.14)scegliendo dei valori arbitrari per le incognite di posto diverso da j1, . . . , jh erisolvendo poi il sistema di Cramer nelle incognite xj1 , . . . , xjh cosı ottenuto. Siopera, in pratica, come segue. L’ultima equazione e

ph,jhxjh + ph,jh+1xjh+1 + · · ·+ ph,nxn = qh .

Poiche ph,jh �= 0, si fissano degli scalari ξjh+1, . . . ξn in modo arbitrario, sisostituiscono alle incognite xjh+1, . . . , xn e si ottiene l’equazione

ph,jhxjh = qh − ph,jh+1ξjh+1 − · · · − ph,nξn

da cui si ricava un unico valore ξjh da sostituire a xjh . Sostituendo nellapenultima equazione si ottiene

ph−1,jh−1xjh−1

+ · · ·+ ph−1,jh−1xjh−1

= qh−1 − ph−1,jhξjh − ph−1,jh+1ξjh+1 − · · · − ph−1,nξn .

4.3. ALCUNI ESEMPI 87

Si scelgono arbitrariamente degli scalari ξjh−1+1, . . . , ξjh−1 da sostituire alleincognite xjh−1+1, . . . , xjh−1 e si ricava un unico valore ξjh−1

da sostiture all’in-cognita xjh−1

. Si continua in modo analogo ad agire usando successivamente leequazioni di posto h− 2, h− 3, . . . , 1.

4.3 Alcuni esempi

4.18 Esempio. Consideriamo il sistema lineare�x+ y = 1

x− y = 0(4.15)

di due equazioni nelle due incognite x, y. Le due matrici A,A′ di tale sistema e il vettorecolonna B dei termini noti sono

A =

�1 11 −1

�; B =

�10

�; A′ = (A|B) =

�1 1 11 −1 0

�.

Poiche detA = −2 �= 0, si ha che ρ(A) = ρ(A′) = 2. Pertanto il sistema (4.15) e di Cramered ammette un’unica soluzione ξ = (x, y), dove

x =

����1 10 −1

����−2

=1

2; y =

����1 11 0

����−2

=1

2. (4.16)

Risolviamo ora il sistema (4.15) con il metodo di Gauss-Jordan. La matrice a scala P ′ che siottiene da A′ con l’algoritmo di Gauss e

P ′ =�1 1 10 2 1

�.

Pertanto il sistema (4.15) e equivalente al seguente sistema a scala�x+ y = 1

2y = 1(4.17)

Dalla seconda delle (4.17) si ricava y = 1/2. Sostituendo nella prima delle (4.17) si ottieneanche x = 1/2.

4.19 Esempio. Consideriamo il sistema lineare⎧⎪⎨⎪⎩

x+ y = 1

x− y = 0

x+ 3y = 2

(4.18)

di tre equazioni nelle due incognite x, y. Con le solite notazioni relative alle matrici del sistema,abbiamo che

A′ = (A|B) =

⎛⎝1 1 11 −1 01 3 2

⎞⎠ .

Poiche detA1,21,2 = −2 �= 0 e detA′ = 0, si ha che ρ(A) = ρ(A′) = 2. Pertanto il sistema (4.18)

e compatibile (per il Teorema di Rouche-Capelli), ed e equivalente ad un suo sottosistema

costituito da due equazioni. Poiche detA1,21,2 �= 0, possiamo selezionare le prime due equazioni

e il sistema (4.18) e equivalente al sistema (4.15). Risolviamo ora il sistema (4.18) con ilmetodo di Gauss-Jordan. La matrice a scala P ′ che si ottiene da A′ con l’algoritmo di Gausse

P ′ =

⎛⎝1 1 10 2 10 0 0

⎞⎠ .

Pertanto il sistema (4.18) e equivalente al sistema a scala (4.17).

87Sistemi di equazioni lineari

Page 88: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

88 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

4.20 Esempio. Consideriamo il sistema lineare⎧⎨⎩

x + y + z = 1x − y = 02x + z = 2

(4.19)

di tre equazioni nelle tre incognite x, y, z. Con le solite notazioni relative alle matrici delsistema, abbiamo che

A′ = (A|B) =

⎛⎝1 1 1 11 −1 0 02 0 1 1

⎞⎠ .

Poiche detA1,31,2 = −1 �= 0 e non ci sono in A e in A′ minori non nulli di ordine 3, si ha che

ρ(A) = ρ(A′) = 2. Pertanto il sistema (4.19) e compatibile (per il Teorema di Rouche-Capelli),

ed e equivalente ad un suo sottosistema costituito da due equazioni. Poiche detA1,31,2 �= 0,

possiamo selezionare le prime due equazioni e il sistema (4.19) e equivalente al seguentesistema �

x + y + z = 1x − y = 0

(4.20)

Inoltre, avendo selezionato A1,31,2 come sottomatrice fondamentale, seguendo il procedimento

indicato dal 2o Teorema di unicita possiamo riscrivere il sistema (4.20) portando al secondomembro i termini in y. Otteniamo

�x+ z = 1− y

x = y(4.21)

Assegnamo valori arbitrari ξ ∈ R ad y e risolviamo in x, z con la regola di Cramer, ovverorisolviamo, per ogni ξ ∈ R il sistema di Cramer

�x+ z = 1− ξ

x = ξ

Otteniamo

x =

����1− ξ 1ξ 0

��������1 11 0

����= ξ ; y =

����1 1− ξ1 ξ

��������1 11 0

����= 1− 2ξ .

Pertanto l’insieme S delle soluzioni del sistema (4.19) e

Sol (4.19) =�(ξ, ξ, 1− 2ξ) | ξ ∈ R

� ⊆ R3 .

Si dice che Sol (4.19) e descritto al variare del parametro reale ξ. Vediamo cosa succede

se scegliamo come sottomatrice fondamentale di A (e anche di A′) la sottomatrice A1,21,2.

Si selezionano ancora le prime due equazioni del sistema (4.19), ma l’incognita usata comeparametro e questa volta z. Pertanto per ogni λ ∈ R si pone z = λ e si risolve, con la regoladi Cramer, il sistema �

x+ y = 1− λ

x− y = 0(4.22)

Si ottiene

x =

����1− λ 10 −1

��������1 11 −1

����=

1− λ

2; y =

����1 1− λ1 0

��������1 11 −1

����=

1− λ

2.

Naturalmente si puo anche dedurre direttamente dalla seconda delle (4.22) che x = y, sosti-tuire nella prima delle (4.22) e trovare che x = y = (1 − λ)/2. L’insieme delle soluzioni S′ epertanto

S′ =�((1− λ)/2, (1− λ)/2, λ) | λ ∈ R

� ⊆ R3 .

88 Geometria e algebra

Page 89: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

88 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

4.20 Esempio. Consideriamo il sistema lineare⎧⎨⎩

x + y + z = 1x − y = 02x + z = 2

(4.19)

di tre equazioni nelle tre incognite x, y, z. Con le solite notazioni relative alle matrici delsistema, abbiamo che

A′ = (A|B) =

⎛⎝1 1 1 11 −1 0 02 0 1 1

⎞⎠ .

Poiche detA1,31,2 = −1 �= 0 e non ci sono in A e in A′ minori non nulli di ordine 3, si ha che

ρ(A) = ρ(A′) = 2. Pertanto il sistema (4.19) e compatibile (per il Teorema di Rouche-Capelli),

ed e equivalente ad un suo sottosistema costituito da due equazioni. Poiche detA1,31,2 �= 0,

possiamo selezionare le prime due equazioni e il sistema (4.19) e equivalente al seguentesistema �

x + y + z = 1x − y = 0

(4.20)

Inoltre, avendo selezionato A1,31,2 come sottomatrice fondamentale, seguendo il procedimento

indicato dal 2o Teorema di unicita possiamo riscrivere il sistema (4.20) portando al secondomembro i termini in y. Otteniamo

�x+ z = 1− y

x = y(4.21)

Assegnamo valori arbitrari ξ ∈ R ad y e risolviamo in x, z con la regola di Cramer, ovverorisolviamo, per ogni ξ ∈ R il sistema di Cramer

�x+ z = 1− ξ

x = ξ

Otteniamo

x =

����1− ξ 1ξ 0

��������1 11 0

����= ξ ; y =

����1 1− ξ1 ξ

��������1 11 0

����= 1− 2ξ .

Pertanto l’insieme S delle soluzioni del sistema (4.19) e

Sol (4.19) =�(ξ, ξ, 1− 2ξ) | ξ ∈ R

� ⊆ R3 .

Si dice che Sol (4.19) e descritto al variare del parametro reale ξ. Vediamo cosa succede

se scegliamo come sottomatrice fondamentale di A (e anche di A′) la sottomatrice A1,21,2.

Si selezionano ancora le prime due equazioni del sistema (4.19), ma l’incognita usata comeparametro e questa volta z. Pertanto per ogni λ ∈ R si pone z = λ e si risolve, con la regoladi Cramer, il sistema �

x+ y = 1− λ

x− y = 0(4.22)

Si ottiene

x =

����1− λ 10 −1

��������1 11 −1

����=

1− λ

2; y =

����1 1− λ1 0

��������1 11 −1

����=

1− λ

2.

Naturalmente si puo anche dedurre direttamente dalla seconda delle (4.22) che x = y, sosti-tuire nella prima delle (4.22) e trovare che x = y = (1 − λ)/2. L’insieme delle soluzioni S′ epertanto

S′ =�((1− λ)/2, (1− λ)/2, λ) | λ ∈ R

� ⊆ R3 .

4.3. ALCUNI ESEMPI 89

Verifichiamo che S = S′. Fissato un elemento (ξ, ξ, 1 − 2ξ) ∈ S (relativo al valore ξ delparametro ξ, osserviamo che tale terna e anche un elemento di S′ (relativo al valore λ = 1−2ξdel parametro λ), e quindi S ⊆ S′. Analogamente si vede che S′ ⊆ S. Risolviamo ora ilsistema (4.19) con il metodo di Gauss-Jordan. La matrice a scala P ′ che si ottiene da A′ conl’algoritmo di Gauss e

P ′ =

⎛⎝1 1 1 10 2 1 10 0 0 0

⎞⎠ .

Pertanto il sistema (4.19) e equivalente al seguente sistema a scala.�x+ y + z = 1

2y + z = 1

Posto y = ξ, dalla seconda delle (4.20) si ricava che z = 1− 2ξ, e poi sostituendo nella primasi trova che x = ξ.

4.21 Esempio. Consideriamo il sistema lineare⎧⎪⎪⎨⎪⎪⎩

x1 + x2 + x3 + x4 = 12x1 + x4 = 1x1 − x2 − x3 = 03x1 + 2x2 + 2x3 + 2x4 = 2

(4.23)

di quattro equazioni nelle quattro incognite x1, x2, x3, x4. Con le solite notazioni relative allematrici del sistema, abbiamo che

A′ = (A|B) =

⎛⎜⎜⎝1 1 1 1 12 0 0 1 11 −1 −1 0 03 2 2 2 2

⎞⎟⎟⎠ .

Si ha che detA1,3,41,2,4 = 1 �= 0 e A1,3,4

1,2,4 e una sottomatrice fondamentale di A e di A′. Pertanto

ρ(A) = ρ(A′) = 3 e il sistema (4.23) risulta compatibile (per il Teorema di Rouche-Capelli) edequivalente al suo sottosistema costituito dalla prima, seconda e quarta equazioni. Seguendoil metodo del 2o Teorema di unicita possiamo usare l’incognita x2 come parametro, ponendoad esempio x2 = ξ, e risolvere, per ogni ξ ∈ R, il sistema di Cramer⎧⎨

⎩x1 + x3 + x4 = 1− ξ2x1 + x4 = 13x1 + 2x3 + 2x4 = 2− 2ξ

Con la regola di Cramer otteniamo

x1 =

������1− ξ 1 11 0 1

2− 2ξ 2 2

������detA1,3,4

1,2,4

= 0 ; x3 =

������1 1− ξ 12 1 13 2− 2ξ 2

������detA1,3,4

1,2,4

= −ξ

x4 =

������1 1 1− ξ2 0 13 2 2− 2ξ

������detA1,3,4

1,2,4

= 1 .

L’insieme delle soluzioni S del sistema (31), descritto parametricamente, e

S =�(0, ξ,−ξ, 1) | ξ ∈ R

�.

Risolviamo ora il sistema (4.23) con il metodo di Gauss-Jordan. La matrice a scala P ′ che siottiene da A′ con l’algoritmo di Gauss e

P ′ =

⎛⎜⎜⎝1 1 1 1 10 2 2 1 10 0 0 1 10 0 0 0 0

⎞⎟⎟⎠ .

89Sistemi di equazioni lineari

Page 90: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

90 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

Pertanto il sistema (4.23) e equivalente al seguente sistema a scala.⎧⎪⎨⎪⎩

x1 + x2 + x3 + x4 = 1

2x2 + 2x3 + x4 = 1

x4 = 1

(4.24)

Dalla terza delle (4.24) si ricava che x4 = 1. Sostituendo nella seconda delle (4.24) tale valore,ponendo x3 = ξ si ottiene x2 = −ξ. Sostituendo nella prima delle (4.24) si trova che x1 = 0.

4.22 Esempio. Sia k un arbitrario numero reale e consideriamo il sistema�kx+ y = 1

x− y = 0(4.25)

Se si studia il sistema al variare di k ∈ R, si dice che tale sistema e parametrico e k si diceparametro (reale). Con le solite notazioni relative alle matrici associate al sistema, abbiamoche

A′ = (A|B) =

�k 1 11 −1 0

�.

Si ha che ρ(A′) = 2 per ogni k ∈ R e una sua sottomatrice fondamentale e data da A′2,31,2,

poiche detA′2,31,2 = 1 �= 0. Il rango di A dipende invece dalla scelta di k. Infatti detA = −k−1

e quindi ρ(A) = 1 se k = −1 e ρ(A) = 2 se k �= −1. Pertanto, in base al Teorema di Rouche-Capelli, il sistema (4.25) e incompatibile se k = −1. Se invece k �= −1, il sistema e compatibile(ed e di Cramer) e la sua unica soluzione e data da

x = −

����1 10 −1

����k + 1

=1

k + 1; y = −

����k 11 0

����k + 1

=1

k + 1.

Risolviamo ora il sistema (4.25) usando il procedimento di Gauss-Jordan. Applicando l’ope-razione elementare R2 � R2 − 1

kR1 alla matrice A′ si ottiene la matrice

P ′ =�k 1 1

0 − 1+kk

− 1k

�.

Tale operazione ha senso solo se k �= 0, quindi il caso k = 0 va trattato a parte. Per k �= 0 ilsistema (4.25) e equivalente al seguente sistema a scala

⎧⎨⎩

kx+ y = 1

k + 1

ky =

1

k

(4.26)

Moltiplicando la seconda equazione del sistema (4.25) per k si ottiene il sistema (ancoraequivalente) a scala �

kx+ y = 1

(k + 1)y = 1(4.27)

il quale e compatibile se e solo se k �= −1. In tal caso dalla seconda delle (4.27) si ricavache y = 1

k+1. Sostituendo tale valore della y nella prima delle (4.27) si ricava che x = 1

k+1.

Rimane da esaminare il caso k = 0, che e peraltro banale.

4.23 Esempio. Consideriamo il seguente sistema�hx+ ky = −1

x− ky = h(4.28)

Il sistema (4.28) e un sistema di 2 equazioni nelle 2 incognite x, y, con due parametri realih, k. Con le solite notazioni relative alle matrici del sistema, abbiamo che

A′ = (A|B) =

�h k −11 −k h

�.

90 Geometria e algebra

Page 91: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

90 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

Pertanto il sistema (4.23) e equivalente al seguente sistema a scala.⎧⎪⎨⎪⎩

x1 + x2 + x3 + x4 = 1

2x2 + 2x3 + x4 = 1

x4 = 1

(4.24)

Dalla terza delle (4.24) si ricava che x4 = 1. Sostituendo nella seconda delle (4.24) tale valore,ponendo x3 = ξ si ottiene x2 = −ξ. Sostituendo nella prima delle (4.24) si trova che x1 = 0.

4.22 Esempio. Sia k un arbitrario numero reale e consideriamo il sistema�kx+ y = 1

x− y = 0(4.25)

Se si studia il sistema al variare di k ∈ R, si dice che tale sistema e parametrico e k si diceparametro (reale). Con le solite notazioni relative alle matrici associate al sistema, abbiamoche

A′ = (A|B) =

�k 1 11 −1 0

�.

Si ha che ρ(A′) = 2 per ogni k ∈ R e una sua sottomatrice fondamentale e data da A′2,31,2,

poiche detA′2,31,2 = 1 �= 0. Il rango di A dipende invece dalla scelta di k. Infatti detA = −k−1

e quindi ρ(A) = 1 se k = −1 e ρ(A) = 2 se k �= −1. Pertanto, in base al Teorema di Rouche-Capelli, il sistema (4.25) e incompatibile se k = −1. Se invece k �= −1, il sistema e compatibile(ed e di Cramer) e la sua unica soluzione e data da

x = −

����1 10 −1

����k + 1

=1

k + 1; y = −

����k 11 0

����k + 1

=1

k + 1.

Risolviamo ora il sistema (4.25) usando il procedimento di Gauss-Jordan. Applicando l’ope-razione elementare R2 � R2 − 1

kR1 alla matrice A′ si ottiene la matrice

P ′ =�k 1 1

0 − 1+kk

− 1k

�.

Tale operazione ha senso solo se k �= 0, quindi il caso k = 0 va trattato a parte. Per k �= 0 ilsistema (4.25) e equivalente al seguente sistema a scala

⎧⎨⎩

kx+ y = 1

k + 1

ky =

1

k

(4.26)

Moltiplicando la seconda equazione del sistema (4.25) per k si ottiene il sistema (ancoraequivalente) a scala �

kx+ y = 1

(k + 1)y = 1(4.27)

il quale e compatibile se e solo se k �= −1. In tal caso dalla seconda delle (4.27) si ricavache y = 1

k+1. Sostituendo tale valore della y nella prima delle (4.27) si ricava che x = 1

k+1.

Rimane da esaminare il caso k = 0, che e peraltro banale.

4.23 Esempio. Consideriamo il seguente sistema�hx+ ky = −1

x− ky = h(4.28)

Il sistema (4.28) e un sistema di 2 equazioni nelle 2 incognite x, y, con due parametri realih, k. Con le solite notazioni relative alle matrici del sistema, abbiamo che

A′ = (A|B) =

�h k −11 −k h

�.

4.3. ALCUNI ESEMPI 91

Studiamo i ranghi di A,A� al variare di h, k. Abbiamo che detA = −k(h + 1). Pertantoρ(A) = 1 se k = 0 oppure h = −1, ρ(A) = 2 se k �= 0 e h �= −1. Osserviamo che per ogni h, k

la sottomatrice A�1,31,2 e fondamentale, in quanto detA�1,3

1,2 = h2 + 1 �= 0. Pertanto ρ(A�) = 2

per ogni valore dei parametri e, in base al Teorema di Rouche-Capelli, il sistema (4.28) risultacompatibile (e di Cramer) se e solo se k �= 0 e h �= −1. In tal caso la soluzione, fornita dallaregola di Cramer, e

x =

����−1 kh −k

��������h k1 −k

����=

h− 1

h+ 1; y =

����h −11 h

��������h k1 −k

����= − h2 + 1

k(h+ 1).

Risolviamo ora il sistema (4.28) con il metodo di Gauss-Jordan. Applicando l’operazioneelementare R2 � R2 − 1

hR1 alla matrice A� si ottiene la matrice a scala

P � =

�h k −1

0 −kh+1h

h2+1h

�.

Affinche tale operazione abbia senso, si deve supporre h �= 0. Pertanto il caso h = 0 vatrattato a parte (ed e peraltro banale). Quindi, per h �= 0 il sistema (4.28) e equivalente alseguente sistema a scala ⎧⎨

⎩hx+ ky = −1

−k(h+ 1)

hy =

h2 + 1

h

(4.29)

o anche, moltiplicando la seconda delle (4.29) per h, al sistema�

hx+ ky = −1

−k(h+ 1)y = h2 + 1(4.30)

Osserviamo che h2+1 �= 0 per ogni valore dei parametri, e quindi il sistema (4.30) e compatibilese e solo se −k(h + 1) �= 0, ovvero k �= 0 e h �= −1. In tal caso dalla seconda delle (4.30) si

ricava che y = − h2+1k(h+1)

. Sostituendo poi tale valore nella prima delle (4.30) si trova anche

che x = h−1h+1

.

4.24 Esempio. Consideriamo il seguente sistema sul campo C.�

x− ky = 1

kx+ y = 0(4.31)

Con le solite notazioni si ha che

A� = (A|B) =

�1 −k 1k 1 0

�.

Quindi detA = 1 + k2 = 0 se e solo se k = ±i; d’altra parte

detA�2,31,2 =

����−k 11 0

���� = −1 �= 0 ∀ k ∈ C .

Pertanto ρ(A) = 2 se k �= ±i e ρ(A) = 1 se k = ±i, mentre ρ(A�) = 2 per ogni k ∈ C. Ilsistema (4.31) e dunque incompatibile per k = ±i. Negli altri casi e compatibile, di Cramer,e la soluzione e

x =

����1 −k0 1

����k2 + 1

=1

k2 + 1; y =

����1 1k 0

����k2 + 1

= − k

k2 + 1. (4.32)

Naturalmente lo stesso sistema studiato sul campo R risulta sempre compatibile e la soluzionee ancora data dalle (4.32).

91Sistemi di equazioni lineari

Page 92: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

92 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

4.25 Esempio. Consideriamo il seguente sistema sul campo Q.{

2x+ ky = |k|kx+ y = 1

(4.33)

Con le solite notazioni si ha che

A′ = (A|B) =

(2 k |k|k 1 1

).

Quindi detA = 2 − k2 �= 0 per ogni k ∈ Q e si ha che ρ(A) = ρ(A′) = 2 e il sistema (4.33) ecompatibile, di Cramer, per ogni k ∈ Q. La soluzione e quindi

x =

∣∣∣∣|k| k1 1

∣∣∣∣2− k2

; y =

∣∣∣∣2 |k|k 1

∣∣∣∣2− k2

.

Lo stesso sistema, studiato sul campo R richiede una discussione piu articolata. Infatti

detA = 2− k2 = 0 ⇐⇒ k = ±√2

e quindi ρ(A) = 1 se k = ±√2, ρ(A) = 2 se k �= ±√

2. Pertanto per k �= ±√2 si ha che che

ρ(A′) = 2 e il sistema (4.33) e compatibile, di Cramer, e la sua soluzione e come sopra. Perk = ±√

2 bisogna studiare il rango di A′. Nel caso k = −√2 si ha che ρ(A′) = 2 e il sistema

(4.33) e incompatibile. Nel caso k =√2 si ha che ρ(A′) = 1 e il sistema (4.33) e compatibile

ed equivalente ad un suo sottosistema costituito da una sola equazione, ad esempio la seconda,e si risolve con il metodo del 2o Teorema di unicita ponendo x = ξ e ricavando quindi chey = 1 − √

2ξ. L’insieme delle soluzioni S e quindi descritto, al variare del parametro ξ comesegue

S ={(ξ, 1−

√2ξ) | ξ ∈ R

}.

4.4 Rappresentazione di sottospazi vettoriali

Sia V uno spazio vettoriale di dimensione n sul campo K, B = (e1, . . . , en) unasua base ordinata, e W ≤ V un sottospazio vettoriale di dimensione h. Consi-deriamo inoltre un sistema lineare omogeneo del tipo (4.2), espresso quindi informa matriciale da AX = 0, dove A e una matrice di tipo m× n, e supponia-mo che sia ρ(A) = n − h. Indichiamo con Sol(∗) il corrispondente insieme disoluzioni. Come e noto, esso e un sottospazio vettoriale di Kn, ha dimensioneh ed i suoi elementi (cioe le soluzioni) sono descritti al variare di h parametri.Diremo che il sistema (4.2) e una rappresentazione (cartesiana) di W se accadeche

u ∈ W ⇐⇒ φB(u) ∈ Sol(∗) ,ovvero, u ∈ W se e solo se il vettore numerico delle sue componenti e unasoluzione di (∗). In altri termini, l’isomorfismo coordinato

φB : V −→ Kn

si restringe ad un isomorfismo

φB : W −→ Sol(∗) .

4.26 Proposizione. Ogni sistema omogeneo del tipo (4.2), con ρ(A) = n− h,rappresenta un sottospazio W ≤ V di dimensione h.

92 Geometria e algebra

Page 93: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

92 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

4.25 Esempio. Consideriamo il seguente sistema sul campo Q.{

2x+ ky = |k|kx+ y = 1

(4.33)

Con le solite notazioni si ha che

A′ = (A|B) =

(2 k |k|k 1 1

).

Quindi detA = 2 − k2 �= 0 per ogni k ∈ Q e si ha che ρ(A) = ρ(A′) = 2 e il sistema (4.33) ecompatibile, di Cramer, per ogni k ∈ Q. La soluzione e quindi

x =

∣∣∣∣|k| k1 1

∣∣∣∣2− k2

; y =

∣∣∣∣2 |k|k 1

∣∣∣∣2− k2

.

Lo stesso sistema, studiato sul campo R richiede una discussione piu articolata. Infatti

detA = 2− k2 = 0 ⇐⇒ k = ±√2

e quindi ρ(A) = 1 se k = ±√2, ρ(A) = 2 se k �= ±√

2. Pertanto per k �= ±√2 si ha che che

ρ(A′) = 2 e il sistema (4.33) e compatibile, di Cramer, e la sua soluzione e come sopra. Perk = ±√

2 bisogna studiare il rango di A′. Nel caso k = −√2 si ha che ρ(A′) = 2 e il sistema

(4.33) e incompatibile. Nel caso k =√2 si ha che ρ(A′) = 1 e il sistema (4.33) e compatibile

ed equivalente ad un suo sottosistema costituito da una sola equazione, ad esempio la seconda,e si risolve con il metodo del 2o Teorema di unicita ponendo x = ξ e ricavando quindi chey = 1 − √

2ξ. L’insieme delle soluzioni S e quindi descritto, al variare del parametro ξ comesegue

S ={(ξ, 1−

√2ξ) | ξ ∈ R

}.

4.4 Rappresentazione di sottospazi vettoriali

Sia V uno spazio vettoriale di dimensione n sul campo K, B = (e1, . . . , en) unasua base ordinata, e W ≤ V un sottospazio vettoriale di dimensione h. Consi-deriamo inoltre un sistema lineare omogeneo del tipo (4.2), espresso quindi informa matriciale da AX = 0, dove A e una matrice di tipo m× n, e supponia-mo che sia ρ(A) = n − h. Indichiamo con Sol(∗) il corrispondente insieme disoluzioni. Come e noto, esso e un sottospazio vettoriale di Kn, ha dimensioneh ed i suoi elementi (cioe le soluzioni) sono descritti al variare di h parametri.Diremo che il sistema (4.2) e una rappresentazione (cartesiana) di W se accadeche

u ∈ W ⇐⇒ φB(u) ∈ Sol(∗) ,ovvero, u ∈ W se e solo se il vettore numerico delle sue componenti e unasoluzione di (∗). In altri termini, l’isomorfismo coordinato

φB : V −→ Kn

si restringe ad un isomorfismo

φB : W −→ Sol(∗) .

4.26 Proposizione. Ogni sistema omogeneo del tipo (4.2), con ρ(A) = n− h,rappresenta un sottospazio W ≤ V di dimensione h.

4.4. RAPPRESENTAZIONE DI SOTTOSPAZI VETTORIALI 93

Dimostrazione. Basta porre W =�φB

�−1�Sol(∗)

�.

Vale anche, in un certo senso, il viceversa: ogni sottospazio possiede (infi-nite) rappresentazioni cartesiane. Mostreremo ora come si costruisce una rap-presentazione cartesiana. Supponiamo che il sottospazio W abbia una baseB� = (u1, . . . ,uh). Un vettore v ∈ V appartiene a W se e solo se esso dipendeda B�, ovvero

v ∈ W ⇐⇒ ∃ t1, . . . , th ∈ K�� v = t1u1 + · · ·+ thuh .

Passando alle componenti, posto

φB(u1) =

⎛⎜⎝u1,1

...un,1

⎞⎟⎠ ; . . . ; φB(uh) =

⎛⎜⎝u1,h

...un,h

⎞⎟⎠ ; φB(v) = X =

⎛⎜⎝x1

...xn

⎞⎟⎠ ,

cio equivale a dire che

v ∈ W ⇐⇒ ∃ t1, . . . , th ∈ K�� X =

⎛⎜⎝x1

...xn

⎞⎟⎠ = t1

⎛⎜⎝u1,h

...un,h

⎞⎟⎠+ · · ·+ th

⎛⎜⎝u1,h

...un,h

⎞⎟⎠ ,

o anche ⎧⎪⎨⎪⎩

x1 = t1u1,1 + · · ·+ thu1,h

...xn = t1un,1 + · · ·+ thun,h

L’espressione

W :

⎧⎪⎨⎪⎩

x1 = t1u1,1 + · · ·+ thu1,h

...xn = t1un,1 + · · ·+ thun,h

si dice rappresentazione parametrica di W , con parametri t1, . . . , th.Torniamo ora al punto in cui si richiede che v dipenda da B�. Poiche B� e

indipendente, cio equivale a dire che il sistema S = [u1, . . . ,uh,v] di vettori diV risulti dipendente, ovvero che sia dipendente il corrispondente sistema S deivettori numerici delle componenti dei vettori di S:

S = φB(S) =

⎡⎢⎣

⎛⎜⎝u1,1

...un,1

⎞⎟⎠ , . . . ,

⎛⎜⎝u1,h

...un,h

⎞⎟⎠ ,

⎛⎜⎝x1

...xn

⎞⎟⎠

⎤⎥⎦ .

In altri termini, posto

A =

⎛⎜⎝u1,1 . . . u1,h x1

......

...un,1 . . . un,h xn

⎞⎟⎠ ,

93Sistemi di equazioni lineari

Page 94: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

94 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

abbiamo che v ∈ W se e solo se ρ(A) = h. Poiche le prime h colonne di Asono indipendenti, possiamo determinare una sottomatrice individuata da talicolonne e da h opportune righe, con determinante non nullo. Supponiamo, persemplicita, che siano indipendenti proprio le prime h righe, ovvero che si abbia

det�A1,...,h

1,...,h

��= 0 .

Allora la condizione ρ(A) = h equivale, in base al Teorema degli Orlati, a

richiedere che la sottomatrice A1,...,h1,...,h sia fondamentale, ovvero che i suoi n− h

orlati siano degeneri. Tali orlati si ottengono da A1,...,h1,...,h considerando in aggiunta

una delle n − h righe trascurate in A1,...,h1,...,h e l’ultima colonna. L’annullarsi

dei determinanti di tali orlati descrive il seguente sistema omogeneo di n − hequazioni in n incognite x1, . . . , xn, che e la rappresentazione cercata:

W :

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩

det�A1,...,h,h+1

1,...,h,h+1

�= 0

det�A1,...,h,h+1

1,...,h,h+2

�= 0

...

det�A1,...,h,h+1

1,...,h,n

�= 0

Osserviamo che questa e una rappresentazione cartesiana minimale di W , nelsenso che n − h e il numero minimo di equazioni necessarie per rappresentareun sottospazio di dimensione h di uno spazio di dimensione n. Illustriamo talecostruzione un po’ astratta con alcuni esempi.

4.27 Esempio. (Sottospazio di uno spazio vettoriale astratto). Nello spazio tridimensionaledei vettori liberi ordinari V , si consideri il sottospazio W generato dai vettori u1,u2 che, inuna fissata base B = (e1, e2, e3), hanno componenti

u1 =B (1, 0, 1) ; u2 =B (1,−1, 2) .

Poiche il sistema S = [u1,u2] e indipendente, W ha dimensione 2 ed S e una base di W . Se

X =

⎛⎝x1

x2

x3

⎞⎠

e il vettore numerico delle componenti del generico vettore v ∈ V , abbiamo che

v ∈ W ⇐⇒ v dipende da S ⇐⇒ [u1,u2,v] e dipendente ⇐⇒ ρ

⎛⎝1 1 x1

0 −1 x2

1 2 x3

⎞⎠ = 2 .

Scelta la sottomatrice evidenziata in rosso, l’unico orlato possibile e dato dall’intera matrice,e quindi una rappresentazione di W e

W : det

⎛⎝1 1 x1

0 −1 x2

1 2 x3

⎞⎠ = 0 .

Sviluppando tale determinante con al regola di Laplace rispetto all’ultima colonna, otteniamo

W : det

�0 −11 2

�x1 − det

�1 11 2

�x2 + det

�1 10 −1

�x3 = 0 ,

94 Geometria e algebra

Page 95: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

94 CAPITOLO 4. SISTEMI DI EQUAZIONI LINEARI

abbiamo che v ∈ W se e solo se ρ(A) = h. Poiche le prime h colonne di Asono indipendenti, possiamo determinare una sottomatrice individuata da talicolonne e da h opportune righe, con determinante non nullo. Supponiamo, persemplicita, che siano indipendenti proprio le prime h righe, ovvero che si abbia

det�A1,...,h

1,...,h

��= 0 .

Allora la condizione ρ(A) = h equivale, in base al Teorema degli Orlati, a

richiedere che la sottomatrice A1,...,h1,...,h sia fondamentale, ovvero che i suoi n− h

orlati siano degeneri. Tali orlati si ottengono da A1,...,h1,...,h considerando in aggiunta

una delle n − h righe trascurate in A1,...,h1,...,h e l’ultima colonna. L’annullarsi

dei determinanti di tali orlati descrive il seguente sistema omogeneo di n − hequazioni in n incognite x1, . . . , xn, che e la rappresentazione cercata:

W :

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩

det�A1,...,h,h+1

1,...,h,h+1

�= 0

det�A1,...,h,h+1

1,...,h,h+2

�= 0

...

det�A1,...,h,h+1

1,...,h,n

�= 0

Osserviamo che questa e una rappresentazione cartesiana minimale di W , nelsenso che n − h e il numero minimo di equazioni necessarie per rappresentareun sottospazio di dimensione h di uno spazio di dimensione n. Illustriamo talecostruzione un po’ astratta con alcuni esempi.

4.27 Esempio. (Sottospazio di uno spazio vettoriale astratto). Nello spazio tridimensionaledei vettori liberi ordinari V , si consideri il sottospazio W generato dai vettori u1,u2 che, inuna fissata base B = (e1, e2, e3), hanno componenti

u1 =B (1, 0, 1) ; u2 =B (1,−1, 2) .

Poiche il sistema S = [u1,u2] e indipendente, W ha dimensione 2 ed S e una base di W . Se

X =

⎛⎝x1

x2

x3

⎞⎠

e il vettore numerico delle componenti del generico vettore v ∈ V , abbiamo che

v ∈ W ⇐⇒ v dipende da S ⇐⇒ [u1,u2,v] e dipendente ⇐⇒ ρ

⎛⎝1 1 x1

0 −1 x2

1 2 x3

⎞⎠ = 2 .

Scelta la sottomatrice evidenziata in rosso, l’unico orlato possibile e dato dall’intera matrice,e quindi una rappresentazione di W e

W : det

⎛⎝1 1 x1

0 −1 x2

1 2 x3

⎞⎠ = 0 .

Sviluppando tale determinante con al regola di Laplace rispetto all’ultima colonna, otteniamo

W : det

�0 −11 2

�x1 − det

�1 11 2

�x2 + det

�1 10 −1

�x3 = 0 ,

4.4. RAPPRESENTAZIONE DI SOTTOSPAZI VETTORIALI 95

ovveroW : x1 − x2 − x3 = 0

una rappresentazione di W mediante un’unica equazione omogenea in x1, x2, x3. Ricordiamoche W e isomorfo al sottospazio Sol(∗) delle soluzioni del sistema omogeneo (in questo casocostituito da un’unica equazione) che rappresenta W .

4.28 Esempio. (Sottospazio di uno spazio vettoriale numerico). Consideriamo lo spaziovettoriale numerico di dimensione 4 V = R4. Sia W il sottospazio generato dai vettori

u1 = (1, 2, 0, 1) ; u2 = (2, 1, 1,−1) .

Indicato con v = (x1, x2, x3, x4) il vettore generico, abbiamo che v ∈ W se e solo se

ρ

⎛⎜⎜⎝1 2 x1

2 1 x2

0 1 x3

1 −1 x4

⎞⎟⎟⎠ = 2 .

Utilizzando, ad esempio, la sottomatrice non degenere evidenziata in rosso, tale condizionesul rango equivale a dire che i suoi orlati

⎛⎝1 2 x1

2 1 x2

0 1 x3

⎞⎠ ;

⎛⎝2 1 x2

0 1 x3

1 −1 x4

⎞⎠

sono degeneri, ovvero, sviluppando rispetto alla terza colonna,⎧⎪⎪⎨⎪⎪⎩

det

�2 10 1

�x1 − det

�1 20 1

�x2 + det

�1 22 1

�x3 = 0

det

�0 11 −1

�x2 − det

�2 11 −1

�x3 + det

�2 10 1

�x4 = 0

Effettuando i calcoli abbiamo quindi la rappresentazione richiesta:

W :

�2x1 − x2 − 3x3 = 0−x2 + x3 + 2x4 = 0

Ricordiamo che W , in generale, e isomorfo al sottospazio Sol(∗) delle soluzioni del sistemaomogeneo che rappresenta W . Ma in questo caso (V = R4, uno spazio vettoriale numerico) siha che W = Sol(∗).

4.29 Esempio. (Sottospazio corrispondente ad un sistema dato). Consideriamo il sistema⎧⎨⎩x1 − x2 − x3 + x4 = 02x1 − 4x3 − 2x4 = 02x1 − x2 − 3x3 = 0

Si tratta di un sistema omogeneo di 3 equazioni in 4 incognite. Ma il rango della matriceassociata e 2, e quindi il sistema si riduce ad un sistema di 2 equazioni in 4 incognite, erappresenta un sottospazio isomorfo a quello dell’esempio precedente.

95Sistemi di equazioni lineari

Page 96: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno
Page 97: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

97

Capitolo 5

Endomorfismi

5.1 Matrici e applicazioni lineari

Consideriamo due spazi vettoriali V, V ′ di dimensione n,m rispettivamente, esia f : V → V ′ un’applicazione lineare. Fissiamo inoltre delle basi ordinate

B = (u1, . . . ,un) ; B′ = (u′1, . . . ,u

′m)

degli spazi vettoriali V, V ′ rispettivamente. E possibile associare ad f una ma-trice A ∈ Mm,n rispetto alle basi B,B′ al modo seguente. La colonna j-ma dellamatrice A sara il vettore numerico colonna (di ordine m)

Aj =

⎛⎜⎝

a1,j...

am,j

⎞⎟⎠

delle componenti del vettore f(uj) nella base B′. In altre parole, essendo B′ unabase di V ′, per ogni j sono univocamente determinati degli scalari a1,j , . . . , am,j

tali chef(uj) = a1,ju

′1 + · · ·+ am,ju

′m .

Tali scalari formano la colonna j-ma della matrice A. Sia ora v ∈ V e siano

X =

⎛⎜⎝x1

...xn

⎞⎟⎠ ; Y =

⎛⎜⎝

y1...ym

⎞⎟⎠

i vettori numerici colonna delle componenti di v e di f(v) rispetto alle basiB,B′. Si ha che

Y = AX .

Infatti, poiche

v =

n�j=1

xjuj

97

Page 98: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

98 CAPITOLO 5. ENDOMORFISMI

si ha che

f(v) = f� n�

j=1

xjuj

=n�

j=1

xjf(uj)

=n�

j=1

xj

� m�i=1

ai,ju′i

=m�i=1

� n�j=1

ai,jxj

�u′i .

D’altra parte abbiamo anche che

f(v) =m�i=1

yiu′i

e quindi, poiche ogni vettore si esprime in modo unico come combinazione linearedei vettori di una base, deduciamo che

yi =

n�j=1

ai,jxj

e cioe Y = AX. Viceversa, se A e una matrice tale che per ogni vettore v ∈ V ,detti X,Y i vettori numerici colonna delle componenti di v e di f(v) in B,B′,si ha che Y = AX, allora A e la matrice associata ad f rispetto alle basi B,B′.Infatti, per ogni j = 1, . . . , n il vettore uj ha come vettore numerico colonnadelle componenti in B il vettore ⎛

⎜⎜⎜⎜⎜⎜⎝

0...1...0

⎞⎟⎟⎟⎟⎟⎟⎠

dove lo scalare 1 compare nella j-ma posizione. Pertanto il vettore numericocolonna delle componenti di f(uj) sara

A

⎛⎜⎜⎜⎜⎜⎜⎝

0...1...0

⎞⎟⎟⎟⎟⎟⎟⎠

= Aj .

Se indichiamo con Φ,Ψ gli isomorfismi coordinati di V, V ′ rispetto alle basiB,B′, quanto detto finora si riassume dicendo che A e la matrice associata ad f

98 Geometria e algebra

Page 99: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

98 CAPITOLO 5. ENDOMORFISMI

si ha che

f(v) = f� n�

j=1

xjuj

=n�

j=1

xjf(uj)

=n�

j=1

xj

� m�i=1

ai,ju′i

=m�i=1

� n�j=1

ai,jxj

�u′i .

D’altra parte abbiamo anche che

f(v) =m�i=1

yiu′i

e quindi, poiche ogni vettore si esprime in modo unico come combinazione linearedei vettori di una base, deduciamo che

yi =

n�j=1

ai,jxj

e cioe Y = AX. Viceversa, se A e una matrice tale che per ogni vettore v ∈ V ,detti X,Y i vettori numerici colonna delle componenti di v e di f(v) in B,B′,si ha che Y = AX, allora A e la matrice associata ad f rispetto alle basi B,B′.Infatti, per ogni j = 1, . . . , n il vettore uj ha come vettore numerico colonnadelle componenti in B il vettore ⎛

⎜⎜⎜⎜⎜⎜⎝

0...1...0

⎞⎟⎟⎟⎟⎟⎟⎠

dove lo scalare 1 compare nella j-ma posizione. Pertanto il vettore numericocolonna delle componenti di f(uj) sara

A

⎛⎜⎜⎜⎜⎜⎜⎝

0...1...0

⎞⎟⎟⎟⎟⎟⎟⎠

= Aj .

Se indichiamo con Φ,Ψ gli isomorfismi coordinati di V, V ′ rispetto alle basiB,B′, quanto detto finora si riassume dicendo che A e la matrice associata ad f

5.1. MATRICI E APPLICAZIONI LINEARI 99

rispetto alle basi B,B′ se e solo se

Ψ�f(v)

�= A

�Φ(v)

�∀ v ∈ V .

Talvolta l’espressione Y = AX e detta rappresentazione di f , e puo anchescriversi come segue:

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩

y1 = a1,1x1 + · · ·+ a1,nxn

y2 = a2,1x1 + · · ·+ a2,nxn

......

...

ym = am,1x1 + · · ·+ am,nxn

5.1 Esempio. Sia f : V → V ′ l’applicazione nulla, definita ponendo f(u) = 0 per ogni u ∈ V .Fissati comunque dei riferimenti in V e V ′, si verifica immediatamente che la matrice associataad f rispetto a tali riferimenti e quella nulla.

5.2 Esempio. Sia V = V ′, fissiamo una base B in V e consideriamo l’applicazione identicaidV (che e lineare). La matrice associata ad idV rispetto alla base B e la matrice identica.

5.3 Esempio. Definiamo un’applicazione f : R2 → R3 ponendo f(x, y) = (x − y, x + y, 2x).L’applicazione f e lineare, poiche tali sono le sue componenti. La matrice A associata ad frispetto alle basi canoniche e

A =

⎛⎝1 −11 12 0

⎞⎠

come e agevole verificare calcolando f(1, 0) e f(0, 1).

5.4 Esempio. Siano f, g : V → V ′ due applicazioni lineari, e siano A,B le matrici ad esseassociate rispetto a dei fissati riferimenti. Si verifica agevolmente che f = g se e solo se A = B.

Consideriamo ora un’applicazione lineare ω : Kn → Km tra spazi vettorialinumerici. Siano ω1, . . . , ωm le componenti di ω. In altri termini, se indichiamo,come gia fatto nel Capitolo 2, con πi : Km → K, i = 1, . . . ,m la proiezionedi Km sull’i-mo fattore, le componenti di ω saranno le composte ωi = πi ◦ ω,(i = 1, . . . ,m). Fissiamo in Kn,Km le rispettive basi canoniche (ordinate) B =(e1, . . . , en) ed B′ = (‘E1, . . . ,‘Em) e consideriamo la matrice A associata ad ω rispetto a tali basi. Si ha, inparticolare, che ω(ej) = Aj , j = 1, . . . , n.

5.5 Lemma. Nella situazione ora descritta dim imω = ρ(A).

Dimostrazione. Poiche B genera Kn, il sistema [A1, . . . , An] genera imω ≤ Km

e quindi una base di imω e fornita da un sistema massimale di colonne indi-

99Endomorfismi

Page 100: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

100 CAPITOLO 5. ENDOMORFISMI

pendenti si A. La cardinalita di tale base e quindi, per definizione, proprioρ(A).

5.6 Proposizione. Sia f : V → V � un’applicazione lineare e sia A ∈ Mm,n lamatrice associata ad f rispetto a delle basi ordinate fissate B = (u1, . . . ,un),B� = (u�

1, . . . ,u�m) di V, V �. Si ha che dim im f = ρ(A).

Dimostrazione. Consideriamo gli isomorfismi coordinati

Φ : V −→ Kn ; Ψ : V � −→ Km

rispetto alle basi B,B�. Si verifica agevolmente che A e anche la matrice associataall’applicazione lineare

ω = Ψ ◦ f ◦ Φ−1 : Kn −→ Km

rispetto alle basi canoniche. Osserviamo che Φ−1(Kn) = V e quindi

im(f ◦ Φ−1) = f ◦ Φ−1(Kn) = f(V ) = im f .

Inoltre

imω = im(Ψ ◦ f ◦ Φ−1) = Ψ(f ◦ Φ−1(Kn)

)= Ψ(im f ◦ Φ−1) = Ψ(im f)

e poiche Ψ e un isomorfismo, la sua restrizione

Ψ| im f : im f −→ imω

e ancora un isomorfismo. Pertanto, in base al lemma precedente, possiamoconcludere che dim im f = dim imω = ρ(A).

Consideriamo ora, oltre agli spazi vettoriali V, V � e alle loro basi ordina-te B,B�, anche un terzo spazio vettoriale V �� e una sua base ordinata B�� =(u��

1 , . . . ,u��s ). Siano poi f : V → V �, g : V � → V �� due applicazioni lineari e A,B

le matrici ad esse associate rispetto alle basi fissate. Abbiamo che A ∈ Mm,n,B ∈ Ms,m, ed ha pertanto senso considerare la matrice C = BA ∈ Ms,n.

5.7 Proposizione. Nella situazione sopra descritta, la matrice associata al-l’applicazione lineare composta g ◦ f , rispetto alle basi B,B��, e C.

Dimostrazione. Per ogni v ∈ V , detti X,Y, Z i vettori numerici colonna dellecomponenti di v, f(v), gf(v) rispetto alle basi B,B�,B��, abbiamo che Y = AXe Z = BY . Pertanto

Z = B(AX) = (BA)X

e quindi, posto C = BA, C e la matrice associata a g ◦ f rispetto alle basiB,B��.

100 Geometria e algebra

Page 101: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

100 CAPITOLO 5. ENDOMORFISMI

pendenti si A. La cardinalita di tale base e quindi, per definizione, proprioρ(A).

5.6 Proposizione. Sia f : V → V � un’applicazione lineare e sia A ∈ Mm,n lamatrice associata ad f rispetto a delle basi ordinate fissate B = (u1, . . . ,un),B� = (u�

1, . . . ,u�m) di V, V �. Si ha che dim im f = ρ(A).

Dimostrazione. Consideriamo gli isomorfismi coordinati

Φ : V −→ Kn ; Ψ : V � −→ Km

rispetto alle basi B,B�. Si verifica agevolmente che A e anche la matrice associataall’applicazione lineare

ω = Ψ ◦ f ◦ Φ−1 : Kn −→ Km

rispetto alle basi canoniche. Osserviamo che Φ−1(Kn) = V e quindi

im(f ◦ Φ−1) = f ◦ Φ−1(Kn) = f(V ) = im f .

Inoltre

imω = im(Ψ ◦ f ◦ Φ−1) = Ψ(f ◦ Φ−1(Kn)

)= Ψ(im f ◦ Φ−1) = Ψ(im f)

e poiche Ψ e un isomorfismo, la sua restrizione

Ψ| im f : im f −→ imω

e ancora un isomorfismo. Pertanto, in base al lemma precedente, possiamoconcludere che dim im f = dim imω = ρ(A).

Consideriamo ora, oltre agli spazi vettoriali V, V � e alle loro basi ordina-te B,B�, anche un terzo spazio vettoriale V �� e una sua base ordinata B�� =(u��

1 , . . . ,u��s ). Siano poi f : V → V �, g : V � → V �� due applicazioni lineari e A,B

le matrici ad esse associate rispetto alle basi fissate. Abbiamo che A ∈ Mm,n,B ∈ Ms,m, ed ha pertanto senso considerare la matrice C = BA ∈ Ms,n.

5.7 Proposizione. Nella situazione sopra descritta, la matrice associata al-l’applicazione lineare composta g ◦ f , rispetto alle basi B,B��, e C.

Dimostrazione. Per ogni v ∈ V , detti X,Y, Z i vettori numerici colonna dellecomponenti di v, f(v), gf(v) rispetto alle basi B,B�,B��, abbiamo che Y = AXe Z = BY . Pertanto

Z = B(AX) = (BA)X

e quindi, posto C = BA, C e la matrice associata a g ◦ f rispetto alle basiB,B��.

5.1. MATRICI E APPLICAZIONI LINEARI 101

5.8 Corollario. Sia f : V → V � un isomorfismo. Fissate delle basi B,B� inV, V � e dette A,B le matrici associate ad f, f−1 rispetto a tali basi si ha che Ae una matrice invertibile e che B = A−1.

Dimostrazione. Osserviamo che se V ∼= V � allora V e V � hanno la stessa dimen-sione, diciamo n, e quindi A,B sono entrambe quadrate di ordine n. Poichef−1 ◦ f = idV , in base ai risultati ed esempi precedenti si ha che la matriceassociata ad idV rispetto alla base B, e cioe In, e proprio il prodotto righe percolonne di B ed A, ovvero In = BA. Ripetendo lo stesso ragionamento usandoil fatto che f ◦ f−1 = idV ′ si trova che AB = In, da cui l’asserto.

Osserviamo che si puo procedere anche in modo opposto a quanto fattofinora: a partire da una matrice costruiremo delle applicazioni lineari (tra spazivettoriali numerici o anche di tipo generale) che ammettono tale matrice comematrice ad esse associata rispetto a basi fissate. Sia dunque A ∈ Mm,n unamatrice e definiamo un’applicazione

ωA : Kn → Km (5.1)

al modo seguente. Per ogni vettore numerico di ordine n scritto in forma di

colonna β =

⎛⎜⎝β1

...βn

⎞⎟⎠, poniamo

ωA(β) = A

⎛⎜⎝β1

...βn

⎞⎟⎠ ∈ Km .

Si verifica che ωA e lineare (esercizio: usare la distributivita del prodotto righeper colonne rispetto alla somma di matrici) e che la matrice associata ad ωA

rispetto alle basi canoniche e proprio A.Siano ora V, V � due spazi vettoriali di dimensione n,m e B,B� due basi or-

dinate di V, V � rispettivamente. Fissata una matrice A ∈ Mm,n esiste un’unicaapplicazione lineare f : V → V � che ammette A come matrice associata rispet-to a B,B�. f si costruisce come segue. Indichiamo con Φ,Ψ gli isomorfismicoordinati di V, V � rispetto a B,B�, consideriamo l’applicazione lineare ωA eponiamo

f = Ψ ◦ ωA ◦ Φ−1 .

Tale applicazione e lineare, in quanto composta di applicazioni lineari. E poiagevole verificare che la matrice associata ad f rispetto alle basi fissate e proprioA. Il Corollario 5.8 si inverte, nel seguente senso.

5.9 Corollario. Sia A ∈ Mn,n una matrice invertibile. Siano V, V � duespazi vettoriali, di dimensione n e B,B� delle basi ordinate fissate in tali spazi

101Endomorfismi

Page 102: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

102 CAPITOLO 5. ENDOMORFISMI

vettoriali. Sia inoltre f : V → V � l’applicazione lineare tale che A sia la matriceassociata ad f rispetto alle basi B,B�. Allora f e un isomorfismo e A−1 e lamatrice associata all’isomorfismo inverso f−1 rispetto a B�,B.

Dimostrazione. Sia g : V � → V tale che A−1 sia la matrice associata a g rispettoa B�,B. Allora la matrice associata a gf : V → V e A−1A = In e quindigf = idV . Analogamente si vede che fg = idV ′ . Quindi f e un isomorfismo,g = f−1 e A−1 e la matrice associata a f−1 rispetto a B�,B.

Il lettore potra verificare, per esercizio, utilizzando le tecniche sopra de-scritte, che se A ∈ Mm,n e B ∈ Mn,s si ha che ρ(A · B) ≤ ρ(A) e cheρ(A ·B) ≤ ρ(B).

Concludiamo questa sezione con una osservazione sul prodotto tra matrici.Come gia sottolineato precedentemente, tale prodotto non e integro, nel sensoche puo accadere che A �= O, B �= O e AB = O. Pero se A ∈ Mm,n esupponiamo che per ogni vettore colonna Y ∈ Kn il prodotto righe per colonneAY sia nullo, vuol dire che ωA e l’applicazione lineare nulla e quindi A e lamatrice nulla.

5.2 Cambiamenti di riferimento

Ci chiediamo ora che relazione esiste tra le componenti di un vettore in due di-verse basi. Consideriamo quindi la seguente situazione. Sia V un K-spazio vet-toriale e consideriamo due sue basi ordinate B = (u1, . . . ,un), B = (u1, . . . , un).Siano inoltre Φ, Φ : V → Kn gli isomorfismi coordinati di V rispetto a B, B.Per ogni vettore v ∈ V sono univocamente determinati gli scalari β1, . . . , βn egli scalari β1, . . . , βn tali che

v =n�

j=1

βjuj =

n�j=1

βjuj (5.2)

ovvero

Φ(v) =

⎛⎜⎝β1

...βn

⎞⎟⎠ ; Φ(v) =

⎛⎜⎝β1

...

βn

⎞⎟⎠ .

Costruiamo una matrice B = (bi,j) ∈ Mn,n ponendo Bj = Φ(uj). In altritermini, la colonna j-ma di B e costituita dalle componenti b1,j , . . . , bn,j del

vettore uj in B:uj = b1,ju1 + · · ·+ bn,jun . (5.3)

102 Geometria e algebra

Page 103: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

102 CAPITOLO 5. ENDOMORFISMI

vettoriali. Sia inoltre f : V → V � l’applicazione lineare tale che A sia la matriceassociata ad f rispetto alle basi B,B�. Allora f e un isomorfismo e A−1 e lamatrice associata all’isomorfismo inverso f−1 rispetto a B�,B.

Dimostrazione. Sia g : V � → V tale che A−1 sia la matrice associata a g rispettoa B�,B. Allora la matrice associata a gf : V → V e A−1A = In e quindigf = idV . Analogamente si vede che fg = idV ′ . Quindi f e un isomorfismo,g = f−1 e A−1 e la matrice associata a f−1 rispetto a B�,B.

Il lettore potra verificare, per esercizio, utilizzando le tecniche sopra de-scritte, che se A ∈ Mm,n e B ∈ Mn,s si ha che ρ(A · B) ≤ ρ(A) e cheρ(A ·B) ≤ ρ(B).

Concludiamo questa sezione con una osservazione sul prodotto tra matrici.Come gia sottolineato precedentemente, tale prodotto non e integro, nel sensoche puo accadere che A �= O, B �= O e AB = O. Pero se A ∈ Mm,n esupponiamo che per ogni vettore colonna Y ∈ Kn il prodotto righe per colonneAY sia nullo, vuol dire che ωA e l’applicazione lineare nulla e quindi A e lamatrice nulla.

5.2 Cambiamenti di riferimento

Ci chiediamo ora che relazione esiste tra le componenti di un vettore in due di-verse basi. Consideriamo quindi la seguente situazione. Sia V un K-spazio vet-toriale e consideriamo due sue basi ordinate B = (u1, . . . ,un), B = (u1, . . . , un).Siano inoltre Φ, Φ : V → Kn gli isomorfismi coordinati di V rispetto a B, B.Per ogni vettore v ∈ V sono univocamente determinati gli scalari β1, . . . , βn egli scalari β1, . . . , βn tali che

v =n�

j=1

βjuj =

n�j=1

βjuj (5.2)

ovvero

Φ(v) =

⎛⎜⎝β1

...βn

⎞⎟⎠ ; Φ(v) =

⎛⎜⎝β1

...

βn

⎞⎟⎠ .

Costruiamo una matrice B = (bi,j) ∈ Mn,n ponendo Bj = Φ(uj). In altritermini, la colonna j-ma di B e costituita dalle componenti b1,j , . . . , bn,j del

vettore uj in B:uj = b1,ju1 + · · ·+ bn,jun . (5.3)

5.2. CAMBIAMENTI DI RIFERIMENTO 103

Dalle (5.2),(5.3) deduciamo che

n�i=1

βiui =

n�j=1

βjuj

=

n�j=1

βj

� n�i=1

bi,jui

=n�

i=1

� n�j=1

bi,jβj

�ui

e quindi

βi =

n�j=1

bi,jβj ∀ i . (5.4)

Le relazioni scalari (5.4) corrispondono alla relazione vettoriale

⎛⎜⎝β1

...

βn

⎞⎟⎠ = B

⎛⎜⎝β1

...βn

⎞⎟⎠ . (5.5)

La (5.5) si dice formula di cambiamento delle componenti relativa al passaggioda B a B e B prende il nome di matrice di passaggio da B a B.

Il lettore potra provare, per esercizio, che la matrice associata all’applicazionelineare idV : V → V rispetto alle basi B, B e proprio B.

Dall’esercizio ora proposto si puo dedurre che B e invertibile. Sia infatti B� lamatrice associata a idV rispetto alle basi B, B. Schematizziamo tale situazioneindicando di fianco allo spazio vettoriale in questione anche la base fissata esotto la freccia la matrice associata. Si ha che

V,B idV−−→B

V, B idV−−→B′

V,B .

In base ad un risultato gia acquisito, la matrice associata alla composta

idV = idV ◦ idV : V,B −→ V,B

e B� · B, ma sappiamo anche che essa coincide con In e quindi B� · B = In.Analogamente si verifica che B · B� = In. Pertanto B e invertibile e B� ela sua inversa. In modo analogo si prova che se B e un’altra base e B�� e lamatrice associata ad idV rispetto alle basi B e B allora la matrice associataad idV rispetto a B e B e B�� · B. Tutte le osservazioni fatte finora possono

essere sintetizzate come segue. Indichiamo con M BB la matrice associata ad idV

rispetto a B, B (ovvero, per quanto detto la matrice di passaggio da B a B).Valgono le seguenti relazioni

MBB = In ; M B

B ·M BB = M B

B .

103Endomorfismi

Page 104: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

104 CAPITOLO 5. ENDOMORFISMI

In particolare

MBB ·M B

B = MBB = In = M B

B = M BB ·MB

Be quindi

MBB =

(M B

B)−1

.

5.3 Alcune applicazioni dei determinanti

Usiamo ora la teoria dei determinanti per affrontare la seguente questione. Siaf : V → V un endomorfismo e siano B, B delle basi ordinate di V . Siano inoltre

A = MBB (f) ; A = M B

B (f) .

In altri termini, A e la matrice associata ad f quando in V sia stata fissata labase B (sia quando ci riferiamo a V come il dominio di f che quando ci riferiamoa V come codominio), e A e la matrice associata ad f quando in V sia stata

fissata la base B. Studiamo la relazione tra A e A. Posto B = M BB abbiamo,

graficamente, la seguente situazione

V, B idV−−−→B−1

V,B f−→A

V, B idV−−→B

V, B .

D’altra parte abbiamo anche che

V, B f=idV ◦f◦idV−−−−−−−−−→A

V, B .

Poiche la matrice associata alla composta f = idV ◦ f ◦ idV coincide con ilprodotto delle matrici associate alle singole applicazioni idV , f, idV , si ha che

A = B ·A ·B−1 .

Pertanto, abbiamo che

M BB (f) = M B

B ·MBB (f) ·MB

B .

Questo procedimento suggerisce la seguente

5.10 Definizione. Siano A, A ∈ Mn,n. Diremo che A e A sono coniugate (e

scriveremo A ∼ A) se esiste una matrice B ∈ GLn(K) tale che

A = BAB−1 .

Il lettore potra verificare agevolmente, per esercizio, che ∼ e una relazionedi equivalenza in Mn,n e che A ∼ A ⇒ ρ(A) = ρ(A).

Il ragionamento esposto all’inizio di questo paragrafo si inverte, nel sensoche ora precisiamo.

104 Geometria e algebra

Page 105: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

104 CAPITOLO 5. ENDOMORFISMI

In particolare

MBB ·M B

B = MBB = In = M B

B = M BB ·MB

Be quindi

MBB =

(M B

B)−1

.

5.3 Alcune applicazioni dei determinanti

Usiamo ora la teoria dei determinanti per affrontare la seguente questione. Siaf : V → V un endomorfismo e siano B, B delle basi ordinate di V . Siano inoltre

A = MBB (f) ; A = M B

B (f) .

In altri termini, A e la matrice associata ad f quando in V sia stata fissata labase B (sia quando ci riferiamo a V come il dominio di f che quando ci riferiamoa V come codominio), e A e la matrice associata ad f quando in V sia stata

fissata la base B. Studiamo la relazione tra A e A. Posto B = M BB abbiamo,

graficamente, la seguente situazione

V, B idV−−−→B−1

V,B f−→A

V, B idV−−→B

V, B .

D’altra parte abbiamo anche che

V, B f=idV ◦f◦idV−−−−−−−−−→A

V, B .

Poiche la matrice associata alla composta f = idV ◦ f ◦ idV coincide con ilprodotto delle matrici associate alle singole applicazioni idV , f, idV , si ha che

A = B ·A ·B−1 .

Pertanto, abbiamo che

M BB (f) = M B

B ·MBB (f) ·MB

B .

Questo procedimento suggerisce la seguente

5.10 Definizione. Siano A, A ∈ Mn,n. Diremo che A e A sono coniugate (e

scriveremo A ∼ A) se esiste una matrice B ∈ GLn(K) tale che

A = BAB−1 .

Il lettore potra verificare agevolmente, per esercizio, che ∼ e una relazionedi equivalenza in Mn,n e che A ∼ A ⇒ ρ(A) = ρ(A).

Il ragionamento esposto all’inizio di questo paragrafo si inverte, nel sensoche ora precisiamo.

5.3. ALCUNE APPLICAZIONI DEI DETERMINANTI 105

5.11 Teorema. Se V e B = (u1, . . . ,un) sono come sopra e B ∈ GLn(K),

esiste un’unica base ordinata B = (u1, . . . , un) tale che B = M BB .

Dimostrazione. Sia C = (ci,j) l’inversa di B e poniamo, per ogni i = 1, . . . , n,

ui =

n∑j=1

cj,iuj .

Poniamo inoltre

B = (u1, . . . , un) .

Osserviamo che, per ogni h = 1, . . . , n,

n∑i=1

bi,hui =

n∑i=1

bi,h

( n∑j=1

cj,iuj

)

=n∑

j=1

( n∑i=1

bi,hcj,i

)uj

=

n∑j=1

δj,huj

= uh

cioe

uh =

n∑i=1

bi,hui . (5.6)

Infattin∑

i=1

bi,hcj,i =

n∑i=1

bi,h(−1)i+j detB(i,j)

detB

=1

detB

n∑i=1

(−1)i+jbi,h detB(i,j) .

(5.7)

Se nella (5.7) poniamo h = j si ha che

n∑i=1

(−1)i+jbi,h detB(i,j) =

n∑i=1

(−1)i+jbi,j detB(i,j) = detB

︸ ︷︷ ︸Laplace

.

Se invece h �= j,n∑

i=1

(−1)i+jbi,h detB(i,j) = 0

105Endomorfismi

Page 106: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

106 CAPITOLO 5. ENDOMORFISMI

in quanto tale espressione e il determinante della matrice

(B1, . . . , Bh, . . . , Bh . . . , Bn)

dove la colonna Bh compare sia all’h-mo che al j-mo posto, sviluppato secondola j-ma colonna (in pratica si applica il 2o teorema di Laplace alle colonne). Inogni caso quindi

n∑i=1

bi,hcj,i = δj,h .

La (5.6) ci assicura che i vettori di base uh dipendono da B. Quindi B generaV . Se il sistema B fosse dipendente, da esso si potrebbe estrarre una base di Vdi cardinalita minore di n. Cio non puo accadere, in quanto tutte le basi sonoequipotenti e B ha n elementi. Pertanto B e indipendente e quindi e una base di

V . Osserviamo infine che, per costruzione, C = B−1 = MBB e quindi B = M B

B .Possiamo quindi concludere che due matrici quadrate dello stesso ordine

sono coniugate se e solo se esse possono vedersi come le matrici associate aduna stessa applicazione lineare, rispetto a basi diverse (scelte opportunamente).

5.4 Autovettori e autovalori

Sia V uno spazio vettoriale su un campo K, sia dimV = n e sia f : V → V unendomorfismo.

5.12 Definizione. Un vettore non nullo v ∈ V si dice autovettore di f se esisteuno scalare λ tale che

f(v) = λv . (5.8)

5.13 Definizione. Uno scalare λ si dice autovalore di f se esiste un autovettorev tale che valga la (5.8).

Se v �= 0 e vale la (5.8), diremo che v e un autovettore associato a λ e cheλ e un autovalore associato a v.

5.14 Lemma. Sia v un autovettore. Esiste allora un unico autovalore ad essoassociato.

Dimostrazione. Siano λ, μ degli scalari tali che

f(v) = λv = μv .

Si ha allora che (λ−μ)v = 0 e quindi, essendo v �= 0, deve accadere che λ−μ =0, ovvero λ = μ, e cio prova l’unicita dell’autovalore associato all’autovettorev.

106 Geometria e algebra

Page 107: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

106 CAPITOLO 5. ENDOMORFISMI

in quanto tale espressione e il determinante della matrice

(B1, . . . , Bh, . . . , Bh . . . , Bn)

dove la colonna Bh compare sia all’h-mo che al j-mo posto, sviluppato secondola j-ma colonna (in pratica si applica il 2o teorema di Laplace alle colonne). Inogni caso quindi

n∑i=1

bi,hcj,i = δj,h .

La (5.6) ci assicura che i vettori di base uh dipendono da B. Quindi B generaV . Se il sistema B fosse dipendente, da esso si potrebbe estrarre una base di Vdi cardinalita minore di n. Cio non puo accadere, in quanto tutte le basi sonoequipotenti e B ha n elementi. Pertanto B e indipendente e quindi e una base di

V . Osserviamo infine che, per costruzione, C = B−1 = MBB e quindi B = M B

B .Possiamo quindi concludere che due matrici quadrate dello stesso ordine

sono coniugate se e solo se esse possono vedersi come le matrici associate aduna stessa applicazione lineare, rispetto a basi diverse (scelte opportunamente).

5.4 Autovettori e autovalori

Sia V uno spazio vettoriale su un campo K, sia dimV = n e sia f : V → V unendomorfismo.

5.12 Definizione. Un vettore non nullo v ∈ V si dice autovettore di f se esisteuno scalare λ tale che

f(v) = λv . (5.8)

5.13 Definizione. Uno scalare λ si dice autovalore di f se esiste un autovettorev tale che valga la (5.8).

Se v �= 0 e vale la (5.8), diremo che v e un autovettore associato a λ e cheλ e un autovalore associato a v.

5.14 Lemma. Sia v un autovettore. Esiste allora un unico autovalore ad essoassociato.

Dimostrazione. Siano λ, μ degli scalari tali che

f(v) = λv = μv .

Si ha allora che (λ−μ)v = 0 e quindi, essendo v �= 0, deve accadere che λ−μ =0, ovvero λ = μ, e cio prova l’unicita dell’autovalore associato all’autovettorev.

5.4. AUTOVETTORI E AUTOVALORI 107

Sia ora λ ∈ K e definiamo il sottoinsieme Vλ(f), o piu semplicemente Vλ,ponendo

Vλ =�v ∈ V

�� f(v) = λv�⊆ V .

5.15 Proposizione. Per ogni scalare λ, il sottoinsieme Vλ di V e un sottospaziovettoriale.

Dimostrazione. E chiaro che 0 ∈ Vλ, in quanto

f(0) = 0 = λ0 ∀ λ ∈ K .

Siano ora α, β ∈ K, u,v ∈ Vλ. Allora f(u) = λu e f(v) = λv. Pertanto

f(αu+ βv) = αf(u) + βf(v) = αλu+ βλv = λ(αu+ βv)

e quindi αu+ βv ∈ Vλ.

Osserviamo che Vλ �= {0} se e solo se esiste un vettore non nullo v tale chef(v) = λv, e cioe se e solo se λ e un autovalore di f .

5.16 Definizione. Se λ e un autovalore di f , il sottospazio vettoriale Vλ (ne-cessariamente non banale) di V si dice autospazio di f associato all’autovaloreλ.

Pertanto l’autospazio Vλ associato ad un autovalore λ e costituito dal vettorenullo 0 e dagli autovettori associati a λ.

5.17 Definizione. L’endomorfismo f si dice diagonalizzabile se esiste una baseordinata D = (v1, . . . ,vn) costituita da autovettori. Una base siffatta si diceanche base spettrale.

Osserviamo che se D = (v1, . . . ,vn) e una base ordinata di autovettori eλ1, . . . , λn sono gli autovalori associati agli autovettori v1, . . . ,vn, la matrice Dassociata ad f rispetto a tale base e la matrice diagonale

D =

⎛⎜⎜⎜⎝

λ1 0 . . . 00 λ2 . . . 0...

.... . .

...0 0 . . . λn

⎞⎟⎟⎟⎠ . (5.9)

Viceversa, se D e una base ordinata e la matrice D associata ad f rispetto aD e diagonale ed e data dalla (5.9), allora D e una base di autovettori e glielementi della diagonale di D sono gli autovalori associati a tali autovettori.

107Endomorfismi

Page 108: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

108 CAPITOLO 5. ENDOMORFISMI

Le osservazioni precedenti giustificano in qualche modo la terminologia usata epossono essere formalizzate nel seguente enunciato.

5.18 Teorema. L’endomorfismo f e diagonalizzabile se e solo se esiste una baseordinata D tale che la matrice D associata ad f rispetto a D risulti diagonale.

Tenendo presente il Teorema 5.11 e quanto detto a proposito delle matriciconiugate, gli endomorfismi diagonalizzabili possono anche essere caratterizzaticome segue.

5.19 Teorema. Sia f : V → V un endomorfismo e sia B una base ordinata diV . Allora f e diagonalizzabile se e solo se la matrice A = MB

B (f) e simile aduna matrice diagonale.

Sia ora B = (e1, . . . , en) una base ordinata, A = (ai,j) ∈ Mn,n la matriceassociata ad f rispetto a B e Φ : V → Kn l’isomorfismo coordinato associato aB.

5.20 Teorema di caratterizzazione degli autovalori. Uno scalare λ eun autovalore di f se e solo se det(A− λIn) = 0.

Dimostrazione. Ricordiamo che lo scalare λ e un autovalore se e solo se esisteun vettore non nullo w tale che f(w) = λw. Sia dunque w un vettore non nulloe sia

W =

⎛⎜⎝w1

...wn

⎞⎟⎠ = Φ(w)

il suo vettore coordinato rispetto a B. Se f(w) = w� e

W � =

⎛⎜⎝w�

1...w�

n

⎞⎟⎠ = Φ(w�)

abbiamo che w� = f(w) = λw ⇐⇒ W � = λW , come si deduce facilmentedal confronto delle componenti. D’altra parte, si e gia osservato che la matriceA e tale che risulti W � = AW . Quindi f(w) = λw se e solo se AW = λW .Ma λW puo anche scriversi come (λIn)W e quindi λ e un autovalore, e w e unautovettore ad esso associato, se e solo se

AW − (λIn)W = 0

108 Geometria e algebra

Page 109: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

108 CAPITOLO 5. ENDOMORFISMI

Le osservazioni precedenti giustificano in qualche modo la terminologia usata epossono essere formalizzate nel seguente enunciato.

5.18 Teorema. L’endomorfismo f e diagonalizzabile se e solo se esiste una baseordinata D tale che la matrice D associata ad f rispetto a D risulti diagonale.

Tenendo presente il Teorema 5.11 e quanto detto a proposito delle matriciconiugate, gli endomorfismi diagonalizzabili possono anche essere caratterizzaticome segue.

5.19 Teorema. Sia f : V → V un endomorfismo e sia B una base ordinata diV . Allora f e diagonalizzabile se e solo se la matrice A = MB

B (f) e simile aduna matrice diagonale.

Sia ora B = (e1, . . . , en) una base ordinata, A = (ai,j) ∈ Mn,n la matriceassociata ad f rispetto a B e Φ : V → Kn l’isomorfismo coordinato associato aB.

5.20 Teorema di caratterizzazione degli autovalori. Uno scalare λ eun autovalore di f se e solo se det(A− λIn) = 0.

Dimostrazione. Ricordiamo che lo scalare λ e un autovalore se e solo se esisteun vettore non nullo w tale che f(w) = λw. Sia dunque w un vettore non nulloe sia

W =

⎛⎜⎝w1

...wn

⎞⎟⎠ = Φ(w)

il suo vettore coordinato rispetto a B. Se f(w) = w� e

W � =

⎛⎜⎝w�

1...w�

n

⎞⎟⎠ = Φ(w�)

abbiamo che w� = f(w) = λw ⇐⇒ W � = λW , come si deduce facilmentedal confronto delle componenti. D’altra parte, si e gia osservato che la matriceA e tale che risulti W � = AW . Quindi f(w) = λw se e solo se AW = λW .Ma λW puo anche scriversi come (λIn)W e quindi λ e un autovalore, e w e unautovettore ad esso associato, se e solo se

AW − (λIn)W = 0

5.4. AUTOVETTORI E AUTOVALORI 109

ovvero se e solo se(A− λIn)W = 0

ovvero ancora se e solo se la n-pla W =

⎛⎜⎝w1

...wn

⎞⎟⎠ e una soluzione non banale del

sistema lineare omogeneo (scritto in forma matriciale)

(A− λIn)X = 0 . (5.10)

In definitiva λ e un autovalore se e solo se esiste una soluzione non banale Wdel sistema lineare omogeneo (5.10), e cio avviene se e solo se

det(A− λIn) = 0 .

Osserviamo che

A− λIn =

⎛⎜⎜⎜⎝

a1,1 a1,2 . . . a1,na2,1 a2,2 . . . a2,n...

.... . .

...an,1 an,2 . . . an,n

⎞⎟⎟⎟⎠−

⎛⎜⎜⎜⎝

λ 0 . . . 00 λ . . . 0...

.... . .

...0 0 . . . λ

⎞⎟⎟⎟⎠

=

⎛⎜⎜⎜⎝

a1,1 − λ a1,2 . . . a1,na2,1 a2,2 − λ . . . a2,n...

.... . .

...an,1 an,2 . . . an,n − λ

⎞⎟⎟⎟⎠

e quindi det(A− λIn) e una espressione polinomiale in λ. Infatti si ha

det(A− λIn) = (−1)nλn + αn−1λn−1 + · · ·+ α0

dove α0, . . . , αn−1 sono scalari opportuni. Se poniamo allora

pA = α0 + α1x+ · · ·+ αn−1xn−1 + (−1)nxn

la discussione precedente ci assicura che λ e un autovalore di f se e solo se euna radice del polinomio pA.

5.21 Esempio. Sia V uno spazio vettoriale su R di dimensione 3 e sia B = (u,v,w) unasua base. Definiamo un endomorfismo f : V → V ponendo f(u) = u + v, f(v) = u + w,f(w) = −3u− v. La matrice A associata ad f rispetto a B e

A =

⎛⎝

1 1 −31 0 −10 1 0

⎞⎠ .

Pertanto

det(A− λI3) =

������1− λ 1 −31 −λ −10 1 −λ

������= −λ3 + λ2 − 2

109Endomorfismi

Page 110: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

110 CAPITOLO 5. ENDOMORFISMI

(cioe α0 = −2, α1 = 0, α2 = 1), e si ha che

pA(x) = −x3 + x2 − 2 = −(x+ 1)(x2 − 2x+ 2) .

Da cio si deduce che λ = −1 e un autovalore (l’unico peraltro) di f .

Poiche gli autovalori di un endomorfismo f dipendono unicamente da fstesso, non certo da eventuali basi fissate in V , si deduce che la costruzione delpolinomio pA potrebbe dipendere dalla base B fissata e dalla matrice A associataad f rispetto a B, ma le radici di pA, che sono appunto gli autovalori di f , nonpossono dipendere dalla scelta di B. Si puo dire in effetti qualcosa di piu: ilpolinomio pA non dipende dalla base B scelta.

5.22 Teorema di invarianza del polinomio caratteristico. Siano B, B�

due basi di V e siano A,A� le matrici associate all’endomorfismo f rispetto atali basi. Abbiamo che pA = pA′ .

Dimostrazione. Se C e la matrice di passaggio da B a B� si ha che

A� = C−1AC

e quindidet(A� − xIn) = det(C−1AC − xIn)

= det(C−1AC − C−1xInC)

= det(C−1(A− xIn)C)

= det(C−1) det(A− xIn) det(C)

= det(A− xIn)

e cioe i polinomi pA, pA′ coincidono.

Pertanto il polinomio pA non dipende dalla base scelta, ma solo da f .

5.23 Definizione. Il polinomio p ottenuto fissando una qualunque base B di Ve ponendo p = pA prende il nome di polinomio caratteristico dell’endomorfismof .

In base a tale definizione ed al teorema precedente, si ha che λ e un au-tovalore di f se e solo se e una radice del polinomio caratteristico p di f . Indefinitiva, in base alla discussione precedente, il polinomio caratteristico p di unendomorfismo f si puo definire ponendo

p = det(A− xIn)

dove A e la matrice associata ad f rispetto ad una qualunque base fissata.

110 Geometria e algebra

Page 111: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

110 CAPITOLO 5. ENDOMORFISMI

(cioe α0 = −2, α1 = 0, α2 = 1), e si ha che

pA(x) = −x3 + x2 − 2 = −(x+ 1)(x2 − 2x+ 2) .

Da cio si deduce che λ = −1 e un autovalore (l’unico peraltro) di f .

Poiche gli autovalori di un endomorfismo f dipendono unicamente da fstesso, non certo da eventuali basi fissate in V , si deduce che la costruzione delpolinomio pA potrebbe dipendere dalla base B fissata e dalla matrice A associataad f rispetto a B, ma le radici di pA, che sono appunto gli autovalori di f , nonpossono dipendere dalla scelta di B. Si puo dire in effetti qualcosa di piu: ilpolinomio pA non dipende dalla base B scelta.

5.22 Teorema di invarianza del polinomio caratteristico. Siano B, B�

due basi di V e siano A,A� le matrici associate all’endomorfismo f rispetto atali basi. Abbiamo che pA = pA′ .

Dimostrazione. Se C e la matrice di passaggio da B a B� si ha che

A� = C−1AC

e quindidet(A� − xIn) = det(C−1AC − xIn)

= det(C−1AC − C−1xInC)

= det(C−1(A− xIn)C)

= det(C−1) det(A− xIn) det(C)

= det(A− xIn)

e cioe i polinomi pA, pA′ coincidono.

Pertanto il polinomio pA non dipende dalla base scelta, ma solo da f .

5.23 Definizione. Il polinomio p ottenuto fissando una qualunque base B di Ve ponendo p = pA prende il nome di polinomio caratteristico dell’endomorfismof .

In base a tale definizione ed al teorema precedente, si ha che λ e un au-tovalore di f se e solo se e una radice del polinomio caratteristico p di f . Indefinitiva, in base alla discussione precedente, il polinomio caratteristico p di unendomorfismo f si puo definire ponendo

p = det(A− xIn)

dove A e la matrice associata ad f rispetto ad una qualunque base fissata.

5.5. DIAGONALIZZAZIONE 111

5.5 Diagonalizzazione

Sia λ un autovalore di f .

5.24 Definizione. La molteplicita algebrica m(λ) dell’autovalore λ e la mol-teplicita di λ come radice del polinomio caratteristico p.

Pertanto m(λ) = h se (x − λ)h divide p(x) ma (x − λ)h+1 non divide p(x).L’autovalore λ si dira semplice se m(λ) = 1, multiplo se m(λ) > 1, in particolaresi dira doppio se m(λ) = 2, triplo se m(λ) = 3, e cosı via.

5.25 Definizione. La molteplicita geometrica dell’autovalore λ e la dimensionedimVλ dell’autospazio Vλ.

Osserviamo esplicitamente che la molteplicita geometrica di un autovalore λe sempre strettamente positiva. Infatti poiche λ e un autovalore, il sottospazioVλ e certamente non banale, e cioe dimVλ ≥ 1.

5.26 Teorema sulle Molteplicita. Se λ e un autovalore dell’endomorfismof , si ha che

dimVλ ≤ m(λ) .

Dimostrazione. Sia t = dimVλ. E chiaro che t ≤ n e m(λ) ≤ n. Sia Bλ =(v1, . . . ,vt) una base ordinata di Vλ. Si ha quindi che

f(vi) = λvi , ∀ i = 1, . . . , t . (5.11)

Sia B = (v1, . . . ,vt,vt+1, . . . ,vn) una base ordinata di V ottenuta completandola base Bλ di Vλ e A la matrice associata ad f rispetto a B. Abbiamo che

A =

t� �� � n−t����⎛⎜⎜⎜⎜⎜⎜⎝

λ 0 . . . 00 λ . . . 0...

.... . .

...0 0 . . . λ

H

O K

⎞⎟⎟⎟⎟⎟⎟⎠

⎫⎪⎪⎪⎬⎪⎪⎪⎭

t

�n−t

dove H ∈ Mt,n−t, K ∈ Mn−t,n−t sono opportune matrici e O ∈ Mn−t,t e lamatrice nulla. Infatti la (5.11) ci assicura che i vettori coordinati dei vettoriimmagine f(v1), . . . , f(vt) sono rispettivamente i vettori numerici colonna di

111Endomorfismi

Page 112: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

112 CAPITOLO 5. ENDOMORFISMI

ordine n ⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

λ0...00...0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

;

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0λ...00...0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

; . . . ;

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0...0λ0...0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

⎫⎪⎪⎬⎪⎪⎭

t

⎫⎬⎭ n−t

che sono proprio le prime t colonne di A. Ma allora

p = det(A− xIn)

= det

⎛⎜⎜⎜⎜⎜⎜⎝

λ− x 0 . . . 00 λ− x . . . 0...

.... . .

...0 0 . . . λ− x

H

O K − xIn−t

⎞⎟⎟⎟⎟⎟⎟⎠

= (λ− x)t · det(K − xIn−t)

e quindi λ e una radice di p di molteplicita almeno t.

Sia ora λ un autovalore di f , B una base ordinata di V e A = MBB (f).

L’autospazio Vλ e l’insieme dei vettori w tali che il vettore delle componenti Wdi w in B sia una soluzione del sistema lineare omogeneo

(A− λIn)X = 0 .

Detto Sol(λ) l’insieme delle soluzioni di tale sistema, abbiamo che Sol(λ) ≤ Kn

e dimSol(λ) = n − ρ(A − λIn). Inoltre l’isomorfismo coordinato ΦB : V → Kn

induce, per restrizione, un isomorfismo φλ : Vλ −→ Sol(λ). Pertanto dimVλ =n− ρ(A− λIn).

Al fine di fornire alcune caratterizzazioni della diagonalizzabilita di un en-domorfismo, premettiamo il seguente risultato.

5.27 Lemma. Sia f un endomorfismo e siano λ1, . . . , λt degli autovalori di f , adue a due distinti. Inoltre, per ogni i = 1, . . . , t, sia vi un autovettore associatoall’autovalore λi. Allora il sistema [v1, . . . ,vt] e indipendente.

Dimostrazione. Se t = 1, l’enunciato e ovvio. Procediamo allora per induzione.Supponiamo che m ≥ 1 e che l’enunciato sia vero per ogni t ≤ m, e proviamoche l’enunciato e vero anche per t = m+1. Siano dunque λ1, . . . , λm, λm+1 degliautovalori di f a due a due distinti e per ogni i = 1, . . . ,m + 1 scegliamo unautovettore vi associato a λi. Vogliamo provare che il sistema [v1, . . . ,vm+1] e

112 Geometria e algebra

Page 113: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

112 CAPITOLO 5. ENDOMORFISMI

ordine n ⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

λ0...00...0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

;

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0λ...00...0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

; . . . ;

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0...0λ0...0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

⎫⎪⎪⎬⎪⎪⎭

t

⎫⎬⎭ n−t

che sono proprio le prime t colonne di A. Ma allora

p = det(A− xIn)

= det

⎛⎜⎜⎜⎜⎜⎜⎝

λ− x 0 . . . 00 λ− x . . . 0...

.... . .

...0 0 . . . λ− x

H

O K − xIn−t

⎞⎟⎟⎟⎟⎟⎟⎠

= (λ− x)t · det(K − xIn−t)

e quindi λ e una radice di p di molteplicita almeno t.

Sia ora λ un autovalore di f , B una base ordinata di V e A = MBB (f).

L’autospazio Vλ e l’insieme dei vettori w tali che il vettore delle componenti Wdi w in B sia una soluzione del sistema lineare omogeneo

(A− λIn)X = 0 .

Detto Sol(λ) l’insieme delle soluzioni di tale sistema, abbiamo che Sol(λ) ≤ Kn

e dimSol(λ) = n − ρ(A − λIn). Inoltre l’isomorfismo coordinato ΦB : V → Kn

induce, per restrizione, un isomorfismo φλ : Vλ −→ Sol(λ). Pertanto dimVλ =n− ρ(A− λIn).

Al fine di fornire alcune caratterizzazioni della diagonalizzabilita di un en-domorfismo, premettiamo il seguente risultato.

5.27 Lemma. Sia f un endomorfismo e siano λ1, . . . , λt degli autovalori di f , adue a due distinti. Inoltre, per ogni i = 1, . . . , t, sia vi un autovettore associatoall’autovalore λi. Allora il sistema [v1, . . . ,vt] e indipendente.

Dimostrazione. Se t = 1, l’enunciato e ovvio. Procediamo allora per induzione.Supponiamo che m ≥ 1 e che l’enunciato sia vero per ogni t ≤ m, e proviamoche l’enunciato e vero anche per t = m+1. Siano dunque λ1, . . . , λm, λm+1 degliautovalori di f a due a due distinti e per ogni i = 1, . . . ,m + 1 scegliamo unautovettore vi associato a λi. Vogliamo provare che il sistema [v1, . . . ,vm+1] e

5.5. DIAGONALIZZAZIONE 113

indipendente. Supponiamo allora che α1, . . . , αm, β siano degli scalari tali che

α1v1 + · · ·+ αmvm + βvm+1 = 0 . (5.12)

Bisogna verificare che tali scalari sono tutti nulli. Moltiplichiamo entrambi imembri della (5.12) per λm+1 ed otteniamo

α1λm+1v1 + · · ·+ αmλm+1vm + βλm+1vm+1 = 0 .

Applichiamo ora f ad entrambi i membri della (5.12). Otteniamo

α1λ1v1 + · · ·+ αmλmvm + βλm+1vm+1 = 0 .

Sottraendo membro a membro otteniamo

α1(λm+1 − λ1)v1 + · · ·+ αm(λm+1 − λm)vm = 0 .

Pertanto, poiche per ipotesi induttiva i vettori v1, . . . ,vm sono indipendenti, siavra che α1 = · · · = αm = 0. La (5.12) si riduce quindi a

βvm+1 = 0

e poiche vm+1 �= 0 avremo anche che β = 0.

5.28 Corollario. Siano λ1, . . . , λt degli autovalori a due a due distinti del-l’endomorfismo f . Allora il sottospazio congiungente W = Vλ1

+ · · ·+ Vλt≤ V

e una somma diretta.

Dimostrazione. Sia w ∈ W . Esistono allora dei vettori

v1 ∈ Vλ1, . . . ,vt ∈ Vλt

tali chew = v1 + · · ·+ vt .

Supponiamo che esistano anche dei vettori u1 ∈ Vλ1, . . . ,ut ∈ Vλt

tali che

w = u1 + · · ·+ ut .

Sottraendo membro a membro abbiamo che

0 = (v1 − u1) + · · ·+ (vt − ut) .

Applicando allora il lemma precedente deduciamo che

v1 − u1 = 0 , . . . , vt − ut = 0 ,

e cioe w si esprime in unico modo come somma di vettori degli autospaziVλ1

, . . . , Vλt.

113Endomorfismi

Page 114: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

114 CAPITOLO 5. ENDOMORFISMI

Il seguente enunciato esprime delle condizioni equivalenti per la diagonaliz-zabilita di un endomorfismo, ed e noto come il Teorema Spettrale.

5.29 Teorema Spettrale. Sia V uno spazio vettoriale di dimensione n su uncampo K, sia f : V → V un endomorfismo e siano λ1, . . . , λm gli autovalori (adue a due distinti) di f . Le seguenti affermazioni sono equivalenti.

(a) f e diagonalizzabile;

(b) V = Vλ1 ⊕ · · · ⊕ Vλm ;

(c)∑m

i=1 dimVλi= n;

(d)∑m

i=1 m(λi) = n ed inoltre dimVλj = m(λj) per ogni j.

Dimostrazione. Omessa.

Poiche, come gia osservato, fissata una base ordinata B e posto A = MBB (f),

si ha che dimVλi= n − ρ(A − λiIn), la (c) del teorema precedente si puo

anche scrivere n =∑m

i=1

(n− ρ(A− λiIn)

)e la (d)

∑mi=1 m(λi) = n ed inoltre

m(λj) = n−ρ(A−λjIn) (∀ j). Osserviamo che la condizione∑m

i=1 m(λi) = nequivale a dire che il polinomio caratteristico p e completamente riducibile,ovvero che p puo esprimersi come prodotto di fattori lineari, o anche

p = (−1)n(x− λ1)m(λ1) · · · · · (x− λm)m(λm) .

5.30 Corollario del Teorema Spettrale. Se dimV = n e l’endomorfismof : V → V ammette n autovalori distinti, allora f e diagonalizzabile.

Dimostrazione. Siano λ1, . . . , λn gli autovalori di f . Poiche la dimensione diogni autospazio e almeno 1, la somma delle dimensioni degli autospazi saraalmeno n. D’altra parte tale somma non puo superare n, e quindi, per la (iii)del teorema precedente, f e diagonalizzabile.

Il concetto di diagonalizzabilita puo anche essere studiato considerando lematrici quadrate invece degli endomorfismi. Ricordiamo che se A e una matricequadrata n × n, e definito un endomorfismo ωA : Kn −→ Kn che ammette Acome matrice associata rispetto alla base canonica B di Kn.

5.31 Definizione. Uno scalare λ (rispettivamente un vettore numerico W diKn) si dice autovalore (autovettore rispettivamente) di A se e un autovalore(autovettore rispettivamente) di ωA.

114 Geometria e algebra

Page 115: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

114 CAPITOLO 5. ENDOMORFISMI

Il seguente enunciato esprime delle condizioni equivalenti per la diagonaliz-zabilita di un endomorfismo, ed e noto come il Teorema Spettrale.

5.29 Teorema Spettrale. Sia V uno spazio vettoriale di dimensione n su uncampo K, sia f : V → V un endomorfismo e siano λ1, . . . , λm gli autovalori (adue a due distinti) di f . Le seguenti affermazioni sono equivalenti.

(a) f e diagonalizzabile;

(b) V = Vλ1 ⊕ · · · ⊕ Vλm ;

(c)∑m

i=1 dimVλi= n;

(d)∑m

i=1 m(λi) = n ed inoltre dimVλj = m(λj) per ogni j.

Dimostrazione. Omessa.

Poiche, come gia osservato, fissata una base ordinata B e posto A = MBB (f),

si ha che dimVλi= n − ρ(A − λiIn), la (c) del teorema precedente si puo

anche scrivere n =∑m

i=1

(n− ρ(A− λiIn)

)e la (d)

∑mi=1 m(λi) = n ed inoltre

m(λj) = n−ρ(A−λjIn) (∀ j). Osserviamo che la condizione∑m

i=1 m(λi) = nequivale a dire che il polinomio caratteristico p e completamente riducibile,ovvero che p puo esprimersi come prodotto di fattori lineari, o anche

p = (−1)n(x− λ1)m(λ1) · · · · · (x− λm)m(λm) .

5.30 Corollario del Teorema Spettrale. Se dimV = n e l’endomorfismof : V → V ammette n autovalori distinti, allora f e diagonalizzabile.

Dimostrazione. Siano λ1, . . . , λn gli autovalori di f . Poiche la dimensione diogni autospazio e almeno 1, la somma delle dimensioni degli autospazi saraalmeno n. D’altra parte tale somma non puo superare n, e quindi, per la (iii)del teorema precedente, f e diagonalizzabile.

Il concetto di diagonalizzabilita puo anche essere studiato considerando lematrici quadrate invece degli endomorfismi. Ricordiamo che se A e una matricequadrata n × n, e definito un endomorfismo ωA : Kn −→ Kn che ammette Acome matrice associata rispetto alla base canonica B di Kn.

5.31 Definizione. Uno scalare λ (rispettivamente un vettore numerico W diKn) si dice autovalore (autovettore rispettivamente) di A se e un autovalore(autovettore rispettivamente) di ωA.

5.5. DIAGONALIZZAZIONE 115

5.32 Definizione. La matrice A si dice diagonalizzabile se tale e ωA.

Abbiamo gia osservato che l’endomorfismo ωA e diagonalizzabile se e solo seesiste una base ordinata D tale che la matrice D associata ad ωA rispetto a Dsia diagonale. In tal caso, detta C la matrice di passaggio da D a B, si avra cheC e invertibile e

D = C−1AC . (5.13)

Viceversa, se esistono una matrice invertibile C ed una matrice diagonale D taliche valga la (5.13), allora detta D la base di Kn tale che C sia la matrice dipassaggio da D a B, si ha che D e la matrice associata ad ωA rispetto a D e ωA

risulta diagonalizzabile. Pertanto A e diagonalizzabile se e solo se esistono unamatrice diagonale D e una martice invertibile C tali che valga la (5.13), ovverose e solo se A e coniugata ad una matrice diagonale. In una tale situazione,si dice che C diagonalizza A. Osserviamo che le colonne di C (viste comevettori numerici colonna) costituiscono una base di autovettori di ωA. Infatti,detti λ1, . . . , λn gli elementi (non necessariamente distinti) della diagonale di D,dalla (5.13) si deduce che ACj = λjC

j , ovvero ωA(Cj) = λjCj , per ogni j.

Concludiamo il capitolo con uno schema che riassume il modo di procedereper studiare la diagonalizzabilita di un endomorfismo f : V → V . Sia B unabase fissata e sia A = MB

B (f).

(i) Trovare gli autovalori di f , ovvero le radici λ1, . . . , λm del polinomio carat-teristico p = det(A− xIn). In altri termini, studiare l’equazione algebricadet(A− xIn) = 0;

(ii) Determinare le molteplicita algebriche m(λ1), . . . ,m(λm) degli autovaloridi f ;

(iii) Sia∑m

i=1 m(λi) = t. Se t < n allora f non e diagonalizzabile. Set = n, determinare la molteplicita geometrica dimVλi = n − ρ(A − λiIn)dell’autovalore λi. Se, per ogni i, essa coincide con m(λi), allora f ediagonalizzabile.

Nel punto (iii), se t = n, basta verificare che dimVλi= m(λi) solo per gli

autovalori multipli di f . Infatti, se un autovalore λ e semplice, deve necessa-riamente accadere che dim Vλ = m(λ) = 1. Nel caso f sia diagonalizzabile, se

occorre determinare una base B di autovettori di f , si deve determinare unabase Bλi

di Vλiper ogni i e porre

B = Bλ1∪ · · · ∪ Bλm

.

In generale, fissata una qualunque base B, e posto A = MBB (f), se λ e un

autovalore e w ∈ V , detto W il vettore delle componenti di w in B, avremo chew ∈ Vλ se e solo se W e soluzione del sistema lineare omogeneo

(A− λIn)X = 0 . (5.14)

115Endomorfismi

Page 116: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

116 CAPITOLO 5. ENDOMORFISMI

Pertanto il sistema (5.14) e una rappresentazione cartesiana del sottospazio Vλ

in B.

116 Geometria e algebra

Page 117: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

117

116 CAPITOLO 5. ENDOMORFISMI

Pertanto il sistema (5.14) e una rappresentazione cartesiana del sottospazio Vλ

in B.

Capitolo 6

Spazi vettoriali euclidei

In questo capitolo le dimostrazioni sono omesse.

6.1 Forme bilineari e prodotti scalari

Siano V, V ′,W degli spazi vettoriali su reali.

6.1 Definizione. Un’applicazione f : V ×V ′ → W si dice bilineare se per ogniα, β ∈ R, u,v ∈ V , u′,v′ ∈ V ′ si ha che

(i) f(αu+ βv,v′) = αf(u,v′) + βf(v,v′);

(ii) f(v, αu′ + βv′) = αf(v,u′) + βf(v,v′).

Le (i) e (ii) si dicono proprieta di linearita sulla prima e sulla seconda com-ponente rispettivamente. Osserviamo che se f e un’applicazione bilineare alloraf(0,v′) = 0 = f(v,0), per ogni v ∈ V , v′ ∈ V ′, come il lettore potra facilmenteverificare. Noi siamo interessati al caso particolare in cui V = V ′ e W = R.

6.2 Definizione. Si dice forma bilineare su V un’applicazione bilineare

s : V × V −→ R . (6.1)

6.3 Definizione. La forma bilineare (6.1) si dice

• simmetrica se s(u,v) = s(v,u) ∀ u,v ∈ V ,

• antisimmetrica, o anche alternante, se s(u,v) = −s(v,u) ∀ u,v ∈ V .

Una forma bilineare simmetrica si dice anche prodotto scalare su V . Forni-remo ora alcuni esempi.

117

Page 118: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

118 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

6.4 Esempio. Sia dimV = 2 e sia B = (e1, e2) una base ordinata di V . Per ogni w, z ∈ V ,detti (w1, w2), (z1, z2) i vettori delle componenti di w, z in B, poniamo

s(w, z) = w2z2 .

6.5 Esempio. Sia dimV = 2 e sia B = (e1, e2) una base ordinata di V . Per ogni w, z ∈ V ,detti (w1, w2), (z1, z2) i vettori delle componenti di w, z in B, poniamo

s(w, z) = w2z1 + w1z2 + w2z2 .

6.6 Esempio. Sia dimV = 2 e sia B = (e1, e2) una base ordinata di V . Per ogni w, z ∈ V ,detti (w1, w2), (z1, z2) i vettori delle componenti di w, z in B, poniamo

s(w, z) = w2z1 + w2z2 .

6.7 Esempio. Sia V = Rn. Se X,Y ∈ Rn e si ha che

X =

⎛⎜⎝x1

...xn

⎞⎟⎠ ; Y =

⎛⎜⎝y1...yn

⎞⎟⎠

poniamo

s(X,Y ) =n�

i=1

xiyi .

6.8 Esempio. Sia V = R3 e consideriamo la matrice

A =

⎛⎝1 0 10 1 01 0 0

⎞⎠ .

Se X,Y sono vettori numerici colonna di ordine tre, ovvero del tipo

X =

⎛⎝x1

x2

x3

⎞⎠ ; Y =

⎛⎝y1y2y3

⎞⎠

poniamos(X,Y ) = (tX)AY = x1y1 + x3y1 + x2y2 + x1y3 .

6.9 Esempio. Sia V = R3 e consideriamo la matrice

B =

⎛⎝1 0 10 1 01 0 1

⎞⎠ .

Se X,Y sono vettori numerici colonna di ordine tre, ovvero del tipo

X =

⎛⎝x1

x2

x3

⎞⎠ ; Y =

⎛⎝y1y2y3

⎞⎠

poniamos(X,Y ) = (tX)BY = x1y1 + x3y1 + x2y2 + x1y3 + x3y3 .

6.10 Esempio. Sia V = R2 e definiamo s ponendo

s�(x1, x2), (y1, y2)

�= x1y1 − x2y2 .

118 Geometria e algebra

Page 119: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

118 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

6.4 Esempio. Sia dimV = 2 e sia B = (e1, e2) una base ordinata di V . Per ogni w, z ∈ V ,detti (w1, w2), (z1, z2) i vettori delle componenti di w, z in B, poniamo

s(w, z) = w2z2 .

6.5 Esempio. Sia dimV = 2 e sia B = (e1, e2) una base ordinata di V . Per ogni w, z ∈ V ,detti (w1, w2), (z1, z2) i vettori delle componenti di w, z in B, poniamo

s(w, z) = w2z1 + w1z2 + w2z2 .

6.6 Esempio. Sia dimV = 2 e sia B = (e1, e2) una base ordinata di V . Per ogni w, z ∈ V ,detti (w1, w2), (z1, z2) i vettori delle componenti di w, z in B, poniamo

s(w, z) = w2z1 + w2z2 .

6.7 Esempio. Sia V = Rn. Se X,Y ∈ Rn e si ha che

X =

⎛⎜⎝x1

...xn

⎞⎟⎠ ; Y =

⎛⎜⎝y1...yn

⎞⎟⎠

poniamo

s(X,Y ) =n�

i=1

xiyi .

6.8 Esempio. Sia V = R3 e consideriamo la matrice

A =

⎛⎝1 0 10 1 01 0 0

⎞⎠ .

Se X,Y sono vettori numerici colonna di ordine tre, ovvero del tipo

X =

⎛⎝x1

x2

x3

⎞⎠ ; Y =

⎛⎝y1y2y3

⎞⎠

poniamos(X,Y ) = (tX)AY = x1y1 + x3y1 + x2y2 + x1y3 .

6.9 Esempio. Sia V = R3 e consideriamo la matrice

B =

⎛⎝1 0 10 1 01 0 1

⎞⎠ .

Se X,Y sono vettori numerici colonna di ordine tre, ovvero del tipo

X =

⎛⎝x1

x2

x3

⎞⎠ ; Y =

⎛⎝y1y2y3

⎞⎠

poniamos(X,Y ) = (tX)BY = x1y1 + x3y1 + x2y2 + x1y3 + x3y3 .

6.10 Esempio. Sia V = R2 e definiamo s ponendo

s�(x1, x2), (y1, y2)

�= x1y1 − x2y2 .

6.1. FORME BILINEARI E PRODOTTI SCALARI 119

Il lettore potra verificare per esercizio che s e bilineare in tutti gli esempiprecedenti. Inoltre s e simmetrica in tutti gli esempi tranne il 6.6. Il prodottoscalare dell’Esempio 6.7 e noto come prodotto scalare standard in Rn.

6.11 Definizione. Un prodotto scalare s : V × V → R si dice non degenere se

s(u,v) = 0 ∀ u ∈ V ⇒ v = 0 (6.2)

o equivalentemente

∀ v �= 0 ∃ u ∈ V�� s(u,v) �= 0 . (6.3)

Diremo che s e un prodotto scalare degenere quando cio non accade, ovvero

∃ v �= 0�� s(u,v) = 0 ∀ u ∈ V . (6.4)

I prodotti scalari degli Esempi 6.5, 6.7, 6.8, 6.10 sono non degeneri. Sonoinvece degeneri quelli degli Esempi 6.4, 6.9. Vedremo in seguito come verificarese un prodotto scalare e non degenere. Comunque osserviamo che nell’Esempio6.4 per ogni z ∈ V si ha che

s(z, e1) = 0

ma e1 �= 0 (e quindi s e degenere). Analogamente, se nell’Esempio 6.9 con-

sideriamo il vettore Y =�

10

−1

�, abbiamo che s(X,Y ) = 0 per ogni X ∈

R3.

6.12 Definizione. Sia s un prodotto scalare in V . Un vettore non nullo u ∈ Vsi dice isotropo se s(u,u) = 0.

Osserviamo che se non ci sono vettori isotropi allora s e non degenere. Al-trimenti esisterebbe infatti un vettore non nullo v tale che s(u,v) = 0 per ogniu ∈ V . In particolare si avrebbe quindi che s(v,v) = 0, e cioe v sarebbe unvettore isotropo. Viceversa, se s e non degenere possono esistere vettori isotropi.Ad esempio, se si considera il vettore (1,−1) ∈ R2 nell’Esempio 6.10, si ha ches�(1,−1), (1,−1)

�= 0.

Se in V e stata fissata una base, e possibile costruire una matrice a partireda una forma bilineare al modo seguente. Consideriamo la forma bilineare(6.1) e sia B = (e1, . . . , en) una base ordinata di V . Definiamo una matriceA = (ai,j) ∈ Mn,n(R) ponendo ai,j = s(ei, ej). Si dice che A e la matriceassociata ad s rispetto a B. Se u,v ∈ V e

X =

⎛⎜⎝x1

...xn

⎞⎟⎠ ; Y =

⎛⎜⎝y1...yn

⎞⎟⎠

119Spazi vettoriali euclidei

Page 120: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

120 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

sono i vettori delle componenti di u,v in B, abbiamo che

s(u,v) = s� n�

i=1

xiei,

n�j=1

yjej

=n�

i,j=1

xiyjs(ei, ej)

=n�

i,j=1

xiyjai,j

= (tX)AY

Viceversa, fissati V e B come sopra, e considerata una matrice A ∈ Mn,n(R),se per ogni coppia di vettori (u,v) ∈ V × V si pone s(u,v) = (tX)AY doveX,Y sono i vettori numerici colonna delle componenti di u,v in B, si verificache l’applicazione s cosı definita e bilineare (usando la distributivita e le altreproprieta del prodotto righe per colonne tra matrici). Ad esempio, le matriciassociate alle forme bilineari degli Esempi 6.4, 6.5, 6.6 rispetto alla base B =(e1, e2), e alle forme bilineari degli Esempi 6.7, 6.8, 6.9, 6.10 rispetto alle basicanoniche, sono rispettivamente

�0 00 1

�;

�0 11 1

�;

�0 01 1

�; In

⎛⎝1 0 10 1 01 0 0

⎞⎠ ;

⎛⎝1 0 10 1 01 0 1

⎞⎠ ;

�1 00 −1

�.

6.13 Esempio. Decomposizione di una forma bilineare. Sia V uno spazio vettoriale realee indichiamo con Bil(V ), Sym(V ) e Alt(V ) rispettivamente l’insieme delle forme bilineari,simmetriche e alternanti su V . Possiamo dare a Bil(V ) una struttura di spazio vettorialeintroducendo una operazione interna (addizione) ed una esterna con operatori in R (moltipli-cazione esterna) al modo seguente. Siano f, g ∈ Bil(V ), λ ∈ R e definiamo due applicazionih, k : V × V → R ponendo

h(u,v) = f(u,v) + g(u,v) ; k(u,v) = λf(u,v) .

Si verifica agevolmente che h, k ∈ Bil(V ) e si pone

f + g = h ; λ · f = k .

Il lettore potra verificare che la struttura (Bil(V );+, ·) e uno spazio vettoriale, che i sottoinsie-mi Sym(V ) e Alt(V ) sono sottospazi di Bil(V ) e che Sym(V )∩Alt(V ) e il sottospazio banale.Se f ∈ Bil(V ) definiamo f1, f2 ∈ Bil(V ) ponendo

f1(u,v) =1

2

(f(u,v) + f(v,u)

); f2(u,v) =

1

2

(f(u,v)− f(v,u)

).

Si verifica che f1 ∈ Sym(V ), e f2 ∈ Alt(V ). E poi evidente che f = f1 + f2. Pertanto

Bil(V ) = Sym(V )⊕Alt(V ) .

Definiamo due applicazioni ω1 : Bil(V ) → Sym(V ), ω2 : Bil(V ) → Alt(V ) ponendo ωi(f) =fi (i = 1, 2). Tali applicazioni sono epimorfismi e si dicono rispettivamente operatore disimmetrizzazione e di antisimmetrizzazione. Osserviamo che kerω1 = Alt(V ) = imω2 ekerω2 = Sym(V ) = imω1.

120 Geometria e algebra

Page 121: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

120 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

sono i vettori delle componenti di u,v in B, abbiamo che

s(u,v) = s� n�

i=1

xiei,

n�j=1

yjej

=n�

i,j=1

xiyjs(ei, ej)

=n�

i,j=1

xiyjai,j

= (tX)AY

Viceversa, fissati V e B come sopra, e considerata una matrice A ∈ Mn,n(R),se per ogni coppia di vettori (u,v) ∈ V × V si pone s(u,v) = (tX)AY doveX,Y sono i vettori numerici colonna delle componenti di u,v in B, si verificache l’applicazione s cosı definita e bilineare (usando la distributivita e le altreproprieta del prodotto righe per colonne tra matrici). Ad esempio, le matriciassociate alle forme bilineari degli Esempi 6.4, 6.5, 6.6 rispetto alla base B =(e1, e2), e alle forme bilineari degli Esempi 6.7, 6.8, 6.9, 6.10 rispetto alle basicanoniche, sono rispettivamente

�0 00 1

�;

�0 11 1

�;

�0 01 1

�; In

⎛⎝1 0 10 1 01 0 0

⎞⎠ ;

⎛⎝1 0 10 1 01 0 1

⎞⎠ ;

�1 00 −1

�.

6.13 Esempio. Decomposizione di una forma bilineare. Sia V uno spazio vettoriale realee indichiamo con Bil(V ), Sym(V ) e Alt(V ) rispettivamente l’insieme delle forme bilineari,simmetriche e alternanti su V . Possiamo dare a Bil(V ) una struttura di spazio vettorialeintroducendo una operazione interna (addizione) ed una esterna con operatori in R (moltipli-cazione esterna) al modo seguente. Siano f, g ∈ Bil(V ), λ ∈ R e definiamo due applicazionih, k : V × V → R ponendo

h(u,v) = f(u,v) + g(u,v) ; k(u,v) = λf(u,v) .

Si verifica agevolmente che h, k ∈ Bil(V ) e si pone

f + g = h ; λ · f = k .

Il lettore potra verificare che la struttura (Bil(V );+, ·) e uno spazio vettoriale, che i sottoinsie-mi Sym(V ) e Alt(V ) sono sottospazi di Bil(V ) e che Sym(V )∩Alt(V ) e il sottospazio banale.Se f ∈ Bil(V ) definiamo f1, f2 ∈ Bil(V ) ponendo

f1(u,v) =1

2

(f(u,v) + f(v,u)

); f2(u,v) =

1

2

(f(u,v)− f(v,u)

).

Si verifica che f1 ∈ Sym(V ), e f2 ∈ Alt(V ). E poi evidente che f = f1 + f2. Pertanto

Bil(V ) = Sym(V )⊕Alt(V ) .

Definiamo due applicazioni ω1 : Bil(V ) → Sym(V ), ω2 : Bil(V ) → Alt(V ) ponendo ωi(f) =fi (i = 1, 2). Tali applicazioni sono epimorfismi e si dicono rispettivamente operatore disimmetrizzazione e di antisimmetrizzazione. Osserviamo che kerω1 = Alt(V ) = imω2 ekerω2 = Sym(V ) = imω1.

6.1. FORME BILINEARI E PRODOTTI SCALARI 121

6.14 Proposizione. Sia V uno spazio vettoriale reale e sia B = (e1, . . . , en)una sua base ordinata, s una forma bilineare su V e A la matrice associata ads rispetto a B. Allora s e un prodotto scalare se e solo se A e simmetrica.

La seguente proposizione ci consente di riconoscere se un prodotto scalare edegenere.

6.15 Proposizione. Sia V uno spazio vettoriale reale e sia B = (e1, . . . , en)una sua base ordinata, s un prodotto scalare su V e A la matrice associata ads rispetto a B. Allora s e non degenere se e solo se A e non degenere.

Studiamo ora la relazione che intercorre tra due matrici associate ad unostesso prodotto scalare rispetto a basi distinte. Sia dunque V uno spazio vetto-riale dotato di un prodotto scalare s e siano B = (e1, . . . , en), B = (e1, . . . , en)due basi ordinate di V . Siano inoltre A, A le matrici associate ad s rispettoa tali basi, e poniamo B = MB

B , la matrice di passaggio da B a B. Per ogniu,v ∈ V , indicati con X,Y i vettori numerici colonna delle componenti di u,vin B e con X, Y i vettori numerici colonna delle componenti di u,v in B, si hache

s(u,v) = (tX)AY

= (tX)AY

=(t(BX)

)A(BY )

= (tX)(tB)ABY .

Tale relazione sussiste per ogni u,v ∈ V , cioe

(tX)AY = (tX)(tB)ABY ∀ X, Y ∈ Rn

e da cio si deduce che

A = (tB)AB .

Quando in V e definito un prodotto scalare s, si puo introdurre la nozionedi ortogonalita in V (rispetto ad s).

6.16 Definizione. Siano u,v ∈ V . Diremo che u e v sono ortogonali, escriveremo u ⊥ v, se s(u,v) = 0. Se poi S ⊆ V diremo che u e ortogonale adS, o anche che u e normale ad S, e scriveremo u ⊥ S se u ⊥ v per ogni v ∈ S.

Se invece due vettori u,v sono proporzionali, ovvero esiste uno scalare λ taleche v = λu oppure u = λv (in simboli u ∝ v), si dice talvolta che u e v sonoparalleli, e si scrive u � v.

121Spazi vettoriali euclidei

Page 122: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

122 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

6.17 Definizione. Sia S ⊆ V una parte non vuota di V . Definiamo un altrosottoinsieme S⊥ di V ponendo

S⊥ ={u ∈ V | u ⊥ S

}.

poniamo poi, per convenzione, ∅⊥ = V .

6.18 Proposizione. Per ogni parte S di V si ha che S⊥ e un sottospazio di V .

6.19 Definizione. Sia W ≤ V . Il sottospazio W⊥ ≤ V si dice complementoortogonale di W in V (rispetto ad s).

Osserviamo che se z ∈ W ∩ W⊥, z �= 0, allora, in particolare, z ⊥ z, cioes(z, z) = 0 e z e isotropo. Pertanto, se non esistono vettori isotropi si ha cheW ∩W⊥ = {0} e il sottospazio congiungente W +W⊥ e una somma diretta.

6.20 Proposizione. Sia W ≤ V e sia B = [w1, . . . ,wr] una base di W . Alloraun vettore u e ortogonale a W se e solo se u ⊥ wi per ogni i = 1, . . . , r.

6.2 Spazi vettoriali euclidei

Restringiamo ora ulteriormente la nostra attenzione a particolari prodotti scalarinon degeneri.

6.21 Definizione. Sia V uno spazio vettoriale su R e sia s un prodotto scalarein V . Si dice che s e definito positivo se s(u,u) > 0, per ogni u �= 0.

Il lettore potra agevolmente verificare che se s e definito positivo allora se anche non degenere, e non esistono vettori isotropi in V rispetto ad s. Inparticolare quindi, per ogni sottospazio W di V si ha che W ∩W⊥ = {0}.

6.22 Definizione. Uno spazio vettoriale euclideo e una coppia (V, s), dove Ve uno spazio vettoriale su R ed s e un prodotto scalare definito positivo su V .

D’ora in avanti considereremo solo spazi vettoriali euclidei finitamente ge-nerati, e scriveremo semplicemente V in luogo di (V, s). Il prodotto scalare tradue vettori u,v in uno spazio vettoriale euclideo viene indicato, oltre che con ilsimbolo s(u,v), anche con i simboli �u,v� o u · v.

122 Geometria e algebra

Page 123: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

122 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

6.17 Definizione. Sia S ⊆ V una parte non vuota di V . Definiamo un altrosottoinsieme S⊥ di V ponendo

S⊥ ={u ∈ V | u ⊥ S

}.

poniamo poi, per convenzione, ∅⊥ = V .

6.18 Proposizione. Per ogni parte S di V si ha che S⊥ e un sottospazio di V .

6.19 Definizione. Sia W ≤ V . Il sottospazio W⊥ ≤ V si dice complementoortogonale di W in V (rispetto ad s).

Osserviamo che se z ∈ W ∩ W⊥, z �= 0, allora, in particolare, z ⊥ z, cioes(z, z) = 0 e z e isotropo. Pertanto, se non esistono vettori isotropi si ha cheW ∩W⊥ = {0} e il sottospazio congiungente W +W⊥ e una somma diretta.

6.20 Proposizione. Sia W ≤ V e sia B = [w1, . . . ,wr] una base di W . Alloraun vettore u e ortogonale a W se e solo se u ⊥ wi per ogni i = 1, . . . , r.

6.2 Spazi vettoriali euclidei

Restringiamo ora ulteriormente la nostra attenzione a particolari prodotti scalarinon degeneri.

6.21 Definizione. Sia V uno spazio vettoriale su R e sia s un prodotto scalarein V . Si dice che s e definito positivo se s(u,u) > 0, per ogni u �= 0.

Il lettore potra agevolmente verificare che se s e definito positivo allora se anche non degenere, e non esistono vettori isotropi in V rispetto ad s. Inparticolare quindi, per ogni sottospazio W di V si ha che W ∩W⊥ = {0}.

6.22 Definizione. Uno spazio vettoriale euclideo e una coppia (V, s), dove Ve uno spazio vettoriale su R ed s e un prodotto scalare definito positivo su V .

D’ora in avanti considereremo solo spazi vettoriali euclidei finitamente ge-nerati, e scriveremo semplicemente V in luogo di (V, s). Il prodotto scalare tradue vettori u,v in uno spazio vettoriale euclideo viene indicato, oltre che con ilsimbolo s(u,v), anche con i simboli �u,v� o u · v.

6.2. SPAZI VETTORIALI EUCLIDEI 123

6.23 Teorema (disuguaglianza di Schwarz). Per ogni u,v ∈ V si ha che

(u · v)2 ≤ (u · u)(v · v) . (6.5)

Se poi i vettori u,v sono indipendenti, allora

(u · v)2 < (u · u)(v · v) . (6.6)

6.24 Definizione. Per ogni u ∈ V poniamo �u� = u · u, |u| =√u · u. Gli

scalari �u�, |u| si dicono rispettivamente norma e lunghezza (o anche modulo)di u.

La (6.5) puo quindi anche scriversi come (u · v)2 ≤ �u� · �v� o anche

|u · v| ≤ |u| · |v| . (6.7)

In questa ultima formulazione della disuguaglianza di Schwarz si e usato il sim-bolo | | sia per indicare la lunghezza di un vettore che per indicare il valoreassoluto di un numero reale.

6.25 Teorema. Per ogni u,v ∈ V e per ogni λ ∈ R si ha che

(a) |u| ≥ 0;

(b) |u| = 0 ⇐⇒ u = 0;

(c) |λu| = |λ| |u|;

(d) |u+ v| ≤ |u|+ |v|.

Siano ora dati due vettori u,v. Vogliamo introdurre la nozione di angolo(non orientato) θ = uv tra u e v. Se u = 0 oppure v = 0 poniamo θ = 0.Se invece u,v sono entrambi vettori non nulli, θ e l’unico scalare, nell’intervallo[0, π], tale che

cos θ =u · v|u| |v| ∈ [−1, 1] . (6.8)

La (6.8) ha senso, come si deduce dalla disuguaglianza di Schwarz nella formu-lazione (6.7). Osserviamo che u · v = |u| |v| cos θ.

Consideriamo ora un sistema S = [v1, . . . ,vm] di vettori di uno spazioeuclideo V .

6.26 Definizione. Il sistema S si dice ortogonale se vi ·vj = 0, per ogni coppia(i, j) di indici distinti. Diremo invece che S e ortonormale se vi · vj = δi,j , perogni coppia (i, j) di indici.

123Spazi vettoriali euclidei

Page 124: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

124 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

6.27 Esempio. In R2 con il prodotto scalare standard, il sistema S = [(1, 1), (1,−1)] e or-

togonale, ma non ortonormale. Il sistema S′ =[ (

1/√2, 1/

√2),(1/

√2,−1/

√2) ]

e inve-

ce ortonormale. In R3 con il prodotto scalare standard, per ogni t ∈ R il sistema S =[(−1, sen t, cos t), (1, sen t, cos t)] e ortogonale, ma non ortonormale. Il sistema

S′ =[ (

− 1√2,sen t√

2,cos t√

2

),( 1√

2,sen t√

2,cos t√

2

) ]

e invece ortonormale.

6.28 Proposizione. Sia S = [v1, . . . ,vm] un sistema ortogonale di vettori nonnulli di uno spazio vettoriale euclideo V . Allora S e indipendente.

6.29 Proposizione. Sia S = [v1, . . . ,vm] un sistema ortonormale di vettori diuno spazio vettoriale euclideo V , e supponiamo che il vettore u ∈ V dipenda daS. Allora

u =m∑i=1

(u · vi)vi .

6.30 Corollario. Sia B = (v1, . . . ,vn) una base ordinata ortonormale dellospazio vettoriale euclideo V . Allora per ogni u ∈ V si ha che

u =

n∑i=1

(u · vi)vi .

In generale, dati due vettori u,w ∈ V , con w �= 0, il vettore u·w�w�w si dice

proiezione ortogonale di u su w e lo scalare u·w�w� prende il nome di coefficiente

di Fourier di u rispetto a w. Il corollario precedente ci dice quindi che lecomponenti di un vettore u in una base ortonormale sono proprio i coefficientidi Fourier di u rispetto ai vettori di tale base. Osserviamo che u puo scriversicome

u =u ·w�w� w +

(u− u ·w

�w� w

). (6.9)

Il primo addendo della (6.9) e proporzionale a w. Il secondo addendo invece eortogonale a w. Infatti

u ·w�w� w ·

(u− u ·w

�w� w

)=

u ·w�w� (w · u)− u ·w

�w�u ·w�w� (w ·w) = 0 .

Pertanto la (6.9) si dice decomposizione ortogonale di u rispetto a w. Si vedefacilmente che una decomposizione siffatta e unica. Infatti, se

u = w� + z� = w�� + z��

con w�,w�� proporzionali a w e z�, z�� ortogonali a w, allora

w� −w�� + z� − z�� = 0 .

124 Geometria e algebra

Page 125: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

124 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

6.27 Esempio. In R2 con il prodotto scalare standard, il sistema S = [(1, 1), (1,−1)] e or-

togonale, ma non ortonormale. Il sistema S′ =[ (

1/√2, 1/

√2),(1/

√2,−1/

√2) ]

e inve-

ce ortonormale. In R3 con il prodotto scalare standard, per ogni t ∈ R il sistema S =[(−1, sen t, cos t), (1, sen t, cos t)] e ortogonale, ma non ortonormale. Il sistema

S′ =[ (

− 1√2,sen t√

2,cos t√

2

),( 1√

2,sen t√

2,cos t√

2

) ]

e invece ortonormale.

6.28 Proposizione. Sia S = [v1, . . . ,vm] un sistema ortogonale di vettori nonnulli di uno spazio vettoriale euclideo V . Allora S e indipendente.

6.29 Proposizione. Sia S = [v1, . . . ,vm] un sistema ortonormale di vettori diuno spazio vettoriale euclideo V , e supponiamo che il vettore u ∈ V dipenda daS. Allora

u =m∑i=1

(u · vi)vi .

6.30 Corollario. Sia B = (v1, . . . ,vn) una base ordinata ortonormale dellospazio vettoriale euclideo V . Allora per ogni u ∈ V si ha che

u =

n∑i=1

(u · vi)vi .

In generale, dati due vettori u,w ∈ V , con w �= 0, il vettore u·w�w�w si dice

proiezione ortogonale di u su w e lo scalare u·w�w� prende il nome di coefficiente

di Fourier di u rispetto a w. Il corollario precedente ci dice quindi che lecomponenti di un vettore u in una base ortonormale sono proprio i coefficientidi Fourier di u rispetto ai vettori di tale base. Osserviamo che u puo scriversicome

u =u ·w�w� w +

(u− u ·w

�w� w

). (6.9)

Il primo addendo della (6.9) e proporzionale a w. Il secondo addendo invece eortogonale a w. Infatti

u ·w�w� w ·

(u− u ·w

�w� w

)=

u ·w�w� (w · u)− u ·w

�w�u ·w�w� (w ·w) = 0 .

Pertanto la (6.9) si dice decomposizione ortogonale di u rispetto a w. Si vedefacilmente che una decomposizione siffatta e unica. Infatti, se

u = w� + z� = w�� + z��

con w�,w�� proporzionali a w e z�, z�� ortogonali a w, allora

w� −w�� + z� − z�� = 0 .

6.3. IL PROCEDIMENTO DI GRAM-SCHMIDT 125

Poiche w′ −w′′ ⊥ z′ − z′′, se fosse w′ �= w′′ (e quindi anche z′ �= z′′), avremmoche la somma di due vettori non nulli ortogonali (e quindi indipendenti) sarebbebanale, e cio e assurdo.

6.31 Esempio. Sia A ∈ GLn(R). Consideriamo la spazio vettoriale euclideo Rn (con il pro-dotto scalare standard). Ricordiamo che A ∈ On(R) (ovvero A e una matrice ortogonale)quando A−1 = At. Abbiamo che A ∈ On(R) se e solo se le sue righe costituiscono una baseortonormale di Rn. Infatti, se A ∈ On(R) si ha che

A ·At = A ·A−1 = In = (δi,j) .

Quindi Ai · (At)j = δi,j . Ma (At)j = Aj e dunque il sistema delle righe di A e ortonormale,e quindi e anche indipendente ed e una base, poiche ha ordine n. Il viceversa e analogo. Unsimile ragionamento puo essere fatto anche con le colonne di A.

6.3 Il procedimento di Gram-Schmidt

Vogliamo ora studiare un metodo per costruire una base ortonormale a partireda una base ordinata arbitraria. Tale metodo prende il nome di procedimento diortonormalizzazione di Gram–Schmidt. Sia dunque B = (u1, . . . ,un) una baseordinata dello spazio vettoriale euclideo V . Costruiamo una base ortogonaleB′ = (v1, . . . ,vn) al modo seguente. Poniamo v1 = u1. Se n = 1, abbiamo giacostruito una base ortogonale di V . Se invece n > 1, supponiamo induttivamentedi aver gia costruito un sistema ortogonale v1, . . . ,vm (m ≥ 1, m < n) in modotale che

L(u1, . . . ,um) = L(v1, . . . ,vm) .

Poniamo

vm+1 = um+1 −m∑i=1

um+1 · vi

�vi�vi .

Il sistema S = [v1, . . . ,vm,vm+1] e ancora ortogonale. Infatti, per ogni j =1, . . . ,m

vm+1 · vj =

(um+1 −

m∑i=1

um+1 · vi

�vi�vi

)· vj

= um+1 · vj −m∑i=1

um+1 · vi

�vi�(vi · vj)

= um+1 · vj −um+1 · vj

�vj�(vj · vj)

= 0

D’altra parte e chiaro che vm+1 ∈ L(u1, . . . ,um+1) e quindi

L(v1, . . . ,vm+1) ≤ L(u1, . . . ,um+1) .

Inoltre S e indipendente e quindi e una base di L(v1, . . . ,vm+1). Pertanto

dim(L(v1, . . . ,vm+1)

)= m+ 1 = dim

(L(u1, . . . ,um+1)

)

125Spazi vettoriali euclidei

Page 126: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

126 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

e dunque

L(v1, . . . ,vm+1) = L(u1, . . . ,um+1) .

Cio conclude il procedimento induttivo. Possiamo concludere che e determinatoin tal modo un sistema ortogonale B� = (v1, . . . ,vn) che, essendo indipendente,e una base (ortogonale) di V . Osserviamo che la costruzione effettuata e taleche

L(v1, . . . ,vi) = L(u1, . . . ,ui) ∀ i .

In termini piu espliciti, la base B�si ottiene ponendo

v1 = u1 ;

v2 = u2 −u2 · v1

�v1�v1 ;

v3 = u3 −u3 · v1

�v1�v1 −

u3 · v2

�v2�v2 ;

...

vn = un − un · v1

�v1�v1 − · · · − un · vn−1

�vn−1�vn−1 .

Poniamo infine

wi =vi

|vi|∀ i .

E chiaro che B�� = (w1, . . . ,wn) e una base ortonormale di V , come il lettorepotra facilmente verificare.

6.32 Esempio. Consideriamo la base ordinata B = (u1,u2) di R2, con u1 = (1, 1), u2 = (1, 2).Poniamo

v1 = u1 = (1, 1) ;

v2 = u2 − u2 · v1

�v1�v1 = (1, 2)− (1, 2) · (1, 1)

�(1, 1)� (1, 1) =

(− 1

2,1

2

).

Abbiamo che B′ = (v1,v2) e una base ortogonale (ma non ortonormale) di R2. Poniamodunque

w1 =v1

|v1|=

1√2(1, 1) =

(1√2,

1√2

);

w2 =v2

|v2|=

√2

(− 1

2,1

2

)=

(− 1√

2,

1√2

)

e otteniamo la base ortonormale B′′ = (w1,w2).

6.33 Esempio. Consideriamo la base ordinata B = (u1,u2,u3) di R3, con

u1 = (1, 0, 1) ; u2 = (1, 1, 0) ; u3 = (0, 0, 1) .

126 Geometria e algebra

Page 127: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

126 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

e dunque

L(v1, . . . ,vm+1) = L(u1, . . . ,um+1) .

Cio conclude il procedimento induttivo. Possiamo concludere che e determinatoin tal modo un sistema ortogonale B� = (v1, . . . ,vn) che, essendo indipendente,e una base (ortogonale) di V . Osserviamo che la costruzione effettuata e taleche

L(v1, . . . ,vi) = L(u1, . . . ,ui) ∀ i .

In termini piu espliciti, la base B�si ottiene ponendo

v1 = u1 ;

v2 = u2 −u2 · v1

�v1�v1 ;

v3 = u3 −u3 · v1

�v1�v1 −

u3 · v2

�v2�v2 ;

...

vn = un − un · v1

�v1�v1 − · · · − un · vn−1

�vn−1�vn−1 .

Poniamo infine

wi =vi

|vi|∀ i .

E chiaro che B�� = (w1, . . . ,wn) e una base ortonormale di V , come il lettorepotra facilmente verificare.

6.32 Esempio. Consideriamo la base ordinata B = (u1,u2) di R2, con u1 = (1, 1), u2 = (1, 2).Poniamo

v1 = u1 = (1, 1) ;

v2 = u2 − u2 · v1

�v1�v1 = (1, 2)− (1, 2) · (1, 1)

�(1, 1)� (1, 1) =

(− 1

2,1

2

).

Abbiamo che B′ = (v1,v2) e una base ortogonale (ma non ortonormale) di R2. Poniamodunque

w1 =v1

|v1|=

1√2(1, 1) =

(1√2,

1√2

);

w2 =v2

|v2|=

√2

(− 1

2,1

2

)=

(− 1√

2,

1√2

)

e otteniamo la base ortonormale B′′ = (w1,w2).

6.33 Esempio. Consideriamo la base ordinata B = (u1,u2,u3) di R3, con

u1 = (1, 0, 1) ; u2 = (1, 1, 0) ; u3 = (0, 0, 1) .

6.3. IL PROCEDIMENTO DI GRAM-SCHMIDT 127

Poniamov1 = u1 = (1, 0, 1) ;

v2 = u2 − u2 · v1

�v1�v1

= (1, 1, 0)− (1, 1, 0) · (1, 0, 1)�(1, 0, 1)� (1, 0, 1)

= (1, 1, 0)− 1

2(1, 0, 1)

=

(1

2, 1,−1

2

);

v3 = u3 −(u3 · v1

�v1�v1 +

u3 · v2

�v2�v2

)

= (0, 0, 1)−((0, 0, 1) · (1, 0, 1)

�(1, 0, 1)� (1, 0, 1)

+(0, 0, 1) · (1/2, 1,−1/2)

�(1/2, 1,−1/2)� (1/2, 1,−1/2)

)

= (0, 0, 1)−(1

2(1, 0, 1) +

−1/2

3/2

(1

2, 1,−1

2

))

=

(− 1

3,1

3,1

3

).

Si verifica agevolmente che B′ e una base ortogonale, ma non ortonormale. Si pone poi

w1 =v1

|v1|=

1√2(1, 0, 1) =

(1√2, 0,

1√2

);

w2 =v2

|v2|=

√2

3

(1

2, 1,−1

2

)=

(1√6,

√2√3,− 1√

6

);

w3 =v3

|v3|=

√3

(− 1

3,1

3,1

3

)=

(− 1√

3,

1√3,

1√3

)

e si ottiene una base ortonormale B′′ = (w1,w2,w3) di R3.

Poiche gia sappiamo che ogni spazio vettoriale finitamente generato possiedebasi, dal procedimento di ortonormalizzazione di Gram–Schmidt deduciamo cheogni spazio vettoriale euclideo finitamente generato possiede basi ortonormali.

6.34 Teorema. Sia W un sottospazio dello spazio vettoriale euclideo V e siau ∈ V . Esistono allora, e sono unici, dei vettori w ∈ W e z ∈ W⊥ tali cheu = w + z.

6.35 Corollario. Sia W un sottospazio dello spazio vettoriale euclideo V . Siha allora che V = W ⊕W⊥ e quindi dimV = dimW + dimW⊥.

In particolare si ha che dimW⊥ = dimV − dimW .

6.36 Corollario. Sia W un sottospazio dello spazio vettoriale euclideo V . Si

ha allora che(W⊥)⊥ = W .

127Spazi vettoriali euclidei

Page 128: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

128 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

6.37 Definizione. Siano W1,W2 ≤ V due sottospazi tali che W1 �⊆ W2 eW2 �⊆ W1. Diremo che W1 e ortogonale a W2, e scriveremo W1 ⊥ W2, se W1

contiene il complemento ortogonale di W2 in W1 +W2.

Il lettore potra verificare per esercizio che tale relazione e simmetrica.

6.38 Esempio. Ortogonalita tra sottospazi. Consideriamo uno spazio euclideo V di dimensionen e due suoi sottospazi W1,W2 tali che W1 �⊆ W2 e W2 �⊆ W1.

(i) Sia n ≥ 2, dimW1 = 1, dimW2 = n− 1. Allora W1 +W2 = V e quindi W1 e ortogonalea W2 se e solo se W1 contiene W⊥

2 , ovvero, per motivi dimensionali, coincide con esso.In formule

W1 ⊥ W2 ⇐⇒ W1 = W⊥2 .

(ii) Sia n ≥ 2, dimW1 = dimW2 = 1. Allora dim(W1 + W2) = 2 e quindi il complementoortogonale di W � di W2 in W1 + W2 ha dimensione 1. Pertanto W1 ⊥ W2 se e solo seW1 = W �.

(iii) Sia dimV > 2 e sia dimW1 = dimW2 = 2. Supponiamo inoltre che dim(W1 ∩W2) = 1(e quindi dim(W1 +W2) = 3). Osserviamo che tale situazione si realizza, in particolare,nel caso in cui n = 3 (in tal caso V = W1 + W2). La dimensione del complementoortogonale di W2 in W1 + W2 e 1. Detti n1,n2 dei vettori di W1 + W2 ortogonali aW1,W2 rispettivamente, si ha che

W1 ⊥ W2 ⇐⇒ n2 ∈ W1 ⇐⇒ n1 ⊥ n2 .

Consideriamo una base ordinata ortonormale B = (e1, . . . , en) dello spaziovettoriale euclideo V , sia B� = (e�1, . . . , e

�n) un’altra base ordinata e poniamo

B = MBB′ = (bi,j).

6.39 Teorema. La base B� e ortonormale se e solo se la matrice B e ortogonale.

6.4 Diagonalizzazione ortogonale

Per concludere il capitolo, affrontiamo il problema della diagonalizzazione neglispazi vettoriali euclidei. D’ora in poi sia V uno spazio vettoriale euclideo didimensione n, s il suo prodotto scalare ed f : V → V un endomorfismo. Fissatauna base ordinata B = (e1, . . . , en) di V possiamo considerare due matrici: lamatrice M associata ad s e la matrice A = MB

B (f) associata ad f , entramberispetto a B. Si verifica agevolmente che M e diagonale se e solo se B e orto-gonale, e si ha che M = In se e solo se B e ortonormale. D’altra parte, giasappiamo che A e diagonale se e solo se B e costituita da autovettori. Ci si ponequindi il problema di cercare una base ortonormale di autovettori. Ovviamentenon sempre esiste una tale base, e se esiste essa non e, in generale, unica.

6.40 Definizione. L’endomorfismo f si dice ortogonalmente diagonalizzabilese esiste una base ortonormale di autovettori di f .

128 Geometria e algebra

Page 129: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

128 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

6.37 Definizione. Siano W1,W2 ≤ V due sottospazi tali che W1 �⊆ W2 eW2 �⊆ W1. Diremo che W1 e ortogonale a W2, e scriveremo W1 ⊥ W2, se W1

contiene il complemento ortogonale di W2 in W1 +W2.

Il lettore potra verificare per esercizio che tale relazione e simmetrica.

6.38 Esempio. Ortogonalita tra sottospazi. Consideriamo uno spazio euclideo V di dimensionen e due suoi sottospazi W1,W2 tali che W1 �⊆ W2 e W2 �⊆ W1.

(i) Sia n ≥ 2, dimW1 = 1, dimW2 = n− 1. Allora W1 +W2 = V e quindi W1 e ortogonalea W2 se e solo se W1 contiene W⊥

2 , ovvero, per motivi dimensionali, coincide con esso.In formule

W1 ⊥ W2 ⇐⇒ W1 = W⊥2 .

(ii) Sia n ≥ 2, dimW1 = dimW2 = 1. Allora dim(W1 + W2) = 2 e quindi il complementoortogonale di W � di W2 in W1 + W2 ha dimensione 1. Pertanto W1 ⊥ W2 se e solo seW1 = W �.

(iii) Sia dimV > 2 e sia dimW1 = dimW2 = 2. Supponiamo inoltre che dim(W1 ∩W2) = 1(e quindi dim(W1 +W2) = 3). Osserviamo che tale situazione si realizza, in particolare,nel caso in cui n = 3 (in tal caso V = W1 + W2). La dimensione del complementoortogonale di W2 in W1 + W2 e 1. Detti n1,n2 dei vettori di W1 + W2 ortogonali aW1,W2 rispettivamente, si ha che

W1 ⊥ W2 ⇐⇒ n2 ∈ W1 ⇐⇒ n1 ⊥ n2 .

Consideriamo una base ordinata ortonormale B = (e1, . . . , en) dello spaziovettoriale euclideo V , sia B� = (e�1, . . . , e

�n) un’altra base ordinata e poniamo

B = MBB′ = (bi,j).

6.39 Teorema. La base B� e ortonormale se e solo se la matrice B e ortogonale.

6.4 Diagonalizzazione ortogonale

Per concludere il capitolo, affrontiamo il problema della diagonalizzazione neglispazi vettoriali euclidei. D’ora in poi sia V uno spazio vettoriale euclideo didimensione n, s il suo prodotto scalare ed f : V → V un endomorfismo. Fissatauna base ordinata B = (e1, . . . , en) di V possiamo considerare due matrici: lamatrice M associata ad s e la matrice A = MB

B (f) associata ad f , entramberispetto a B. Si verifica agevolmente che M e diagonale se e solo se B e orto-gonale, e si ha che M = In se e solo se B e ortonormale. D’altra parte, giasappiamo che A e diagonale se e solo se B e costituita da autovettori. Ci si ponequindi il problema di cercare una base ortonormale di autovettori. Ovviamentenon sempre esiste una tale base, e se esiste essa non e, in generale, unica.

6.40 Definizione. L’endomorfismo f si dice ortogonalmente diagonalizzabilese esiste una base ortonormale di autovettori di f .

6.4. DIAGONALIZZAZIONE ORTOGONALE 129

6.41 Definizione. L’endomorfismo f si dice simmetrico (o anche autoaggiunto)se si ha che s

(u, f(v)

)= s

(f(u),v

), per ogni u,v ∈ V .

6.42 Proposizione. Sia f un endomorfismo simmetrico e sia B ortonormale.Allora A = MB

B (f) e simmetrica.

6.43 Proposizione. Sia f un endomorfismo e sia B ortonormale. Se A =MB

B (f) e simmetrica, allora f e simmetrico.

Pertanto f e simmetrico se e solo se e simmetrica la matrice ad esso associatarispetto ad una base ortonormale (e quindi anche rispetto ad ogni altra baseortonormale).

6.44 Teorema. Sia f un endomorfismo simmetrico e sia p ∈ R[x] il suo poli-nomio caratteristico. Allora p e completamente riducibile, ovvero esistono degliscalari α1, . . . , αt e degli interi positivi κ1, . . . , κt tali che

p = (−1)n(x− α1)κ1 · · · · · (x− αt)

κt . (6.10)

Siamo ora in grado di caratterizzare gli endomorfismi ortogonalmente dia-gonalizzabili.

6.45 Teorema. Sia f : V → V un endomorfismo. Allora f e ortogonalmentediagonalizzabile se e solo se f e simmetrico.

Allo scopo di fornire un metodo per costruire una base ortonormale diautovettori dell’endomorfismo simmetrico f , premettiamo il seguente

6.46 Lemma. Sia f un endomorfismo simmetrico di V . Siano λ, μ due autovaloridistinti di f e u,v degli autovettori associati a tali autovalori. Allora u ⊥ v.

La costruzione di una base ortonormale B di autovettori dell’endomorfismosimmetrico f puo essere effettuata come segue. f e ortogonalmente diagona-lizzabile, e quindi anche diagonalizzabile. Se λ1, . . . , λt sono gli autovalori di favremo che

dimVλ1+ · · ·+ dimVλt

= n .

Possono dunque essere determinate delle basi B�1, . . . ,B�

t associate rispettiva-mente agli autospazi Vλ1

, . . . , Vλt. Con il procedimento di Gram–Schmidt si

129Spazi vettoriali euclidei

Page 130: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

130 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

ottengono poi delle basi ortonormali B1, . . . ,Bt di tali autospazi. Si pone poi

B = B1 ∪ · · · ∪ Bt .

Dalla costruzione, in base al lemma precedente, e agevole verificare che B e unabase ortonormale di autovettori di f .

Concludiamo questo paragrafo con alcune osservazioni sulla diagonalizzazio-ne ortogonale di matrici. Sia A ∈ Mn,n(R) e sia B la base canonica di Rn. SeA e simmetrica, l’endomorfismo

ωA : Rn −→ Rn

e simmetrico e quindi anche ortogonalmente diagonalizzabile. Esiste pertantouna base spettrale ortonormale B� di Rn ed una matrice P ∈ GLn(R) tale cheP−1 ·A·P = D risulta diagonale (e sulla diagonale di D compaiono gli autovaloridi A). Le colonne di P sono i vettori numerici delle componenti degli autovettoridi cui e costituita la base spettrale B� in B, e cioe P = MB

B′ . Quindi P ∈ On(R),essendo anche B ortonormale, e dunque si ha che P−1 = Pt e

D = Pt ·A · P .

6.5 Forme quadratiche

Sia V uno spazio vettoriale reale.

6.47 Definizione. Un’applicazione q : V → R si dice forma quadratica su Vse esiste una forma bilineare q su V tale che q(v) = q(v,v), per ogni v ∈ V .

Diremo che q e la forma quadratica associata a q. E chiaro che q puo essereassociata a varie forme bilineari, mentre ogni forma bilineare ammette un’unicaforma quadratica associata. In altri termini, indicato con Q(V ) l’insieme delleforme quadratiche su V , l’applicazione ω : Bil(V ) → Q(V ) che associa ad ogniforma bilineare la sua forma quadratica associata risulta suriettiva. Se q ∈ Q(V ),definiamo un’applicazione q : V × V → R ponendo

q(u,v) =1

2

(q(u+ v)− q(u)− q(v)

).

Il lettore potra verificare che q ∈ Sym(V ) ≤ Bil(V ) e che ω(q) = q, quindiogni forma quadratica e associata ad (almeno) una forma bilineare simmetrica.Definiamo ora un’applicazione ω : Q(V ) → Bil(V ) ponendo ω(q) = q. Si hache im ω ⊆ Sym(V ). Inoltre ω ◦ ω = idQ(V ). Il lettore potra verificare cheω ◦ω(f) = ω1(f) per ogni f ∈ Bil(V ), dove ω1 e l’operatore di simmetrizzazionedell’Esempio 6.13. La restrizione

(ω ◦ ω)| : Sym(V ) −→ Sym(V )

130 Geometria e algebra

Page 131: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

130 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

ottengono poi delle basi ortonormali B1, . . . ,Bt di tali autospazi. Si pone poi

B = B1 ∪ · · · ∪ Bt .

Dalla costruzione, in base al lemma precedente, e agevole verificare che B e unabase ortonormale di autovettori di f .

Concludiamo questo paragrafo con alcune osservazioni sulla diagonalizzazio-ne ortogonale di matrici. Sia A ∈ Mn,n(R) e sia B la base canonica di Rn. SeA e simmetrica, l’endomorfismo

ωA : Rn −→ Rn

e simmetrico e quindi anche ortogonalmente diagonalizzabile. Esiste pertantouna base spettrale ortonormale B� di Rn ed una matrice P ∈ GLn(R) tale cheP−1 ·A·P = D risulta diagonale (e sulla diagonale di D compaiono gli autovaloridi A). Le colonne di P sono i vettori numerici delle componenti degli autovettoridi cui e costituita la base spettrale B� in B, e cioe P = MB

B′ . Quindi P ∈ On(R),essendo anche B ortonormale, e dunque si ha che P−1 = Pt e

D = Pt ·A · P .

6.5 Forme quadratiche

Sia V uno spazio vettoriale reale.

6.47 Definizione. Un’applicazione q : V → R si dice forma quadratica su Vse esiste una forma bilineare q su V tale che q(v) = q(v,v), per ogni v ∈ V .

Diremo che q e la forma quadratica associata a q. E chiaro che q puo essereassociata a varie forme bilineari, mentre ogni forma bilineare ammette un’unicaforma quadratica associata. In altri termini, indicato con Q(V ) l’insieme delleforme quadratiche su V , l’applicazione ω : Bil(V ) → Q(V ) che associa ad ogniforma bilineare la sua forma quadratica associata risulta suriettiva. Se q ∈ Q(V ),definiamo un’applicazione q : V × V → R ponendo

q(u,v) =1

2

(q(u+ v)− q(u)− q(v)

).

Il lettore potra verificare che q ∈ Sym(V ) ≤ Bil(V ) e che ω(q) = q, quindiogni forma quadratica e associata ad (almeno) una forma bilineare simmetrica.Definiamo ora un’applicazione ω : Q(V ) → Bil(V ) ponendo ω(q) = q. Si hache im ω ⊆ Sym(V ). Inoltre ω ◦ ω = idQ(V ). Il lettore potra verificare cheω ◦ω(f) = ω1(f) per ogni f ∈ Bil(V ), dove ω1 e l’operatore di simmetrizzazionedell’Esempio 6.13. La restrizione

(ω ◦ ω)| : Sym(V ) −→ Sym(V )

6.5. FORME QUADRATICHE 131

e un isomorfismo (l’isomorfismo identico) e quindi le restrizioni

ω| : Sym(V ) −→ Q(V ) ; ω| : Q(V ) −→ Sym(V )

sono l’una l’inversa dell’altra. L’insieme Q(V ) ha una struttura vettoriale, eω| e un isomorfismo. Pertanto ogni forma quadratica e associata ad un’unicaforma bilineare simmetrica.

Supponiamo ora che dimV = n e sia B�� una base ordinata di V . Consideria-mo una forma bilineare simmetrica f e la forma quadratica q ad essa associata.La matrice A associata ad f in B�� si dice anche associata a q in B�� (ed e sim-

metrica). Per ogni u ∈ V , indicato con X �� =

⎛⎜⎝x��1...x��n

⎞⎟⎠ il vettore coordinato di u

rispetto a B��, abbiamo che

q(u) = f(u,u) = X ��t ·A ·X �� =

�i,j

ai,jx��i x

��j .

Poiche A e simmetrica, esiste una matrice ortogonale P ∈ On(R) tale che

D = P−1 ·A · P = Pt ·A · P =

⎛⎜⎜⎜⎝

λ1 0 . . . 00 λ2 . . . 0...

.... . .

...0 0 . . . λn

⎞⎟⎟⎟⎠

dove λ1, . . . , λn sono gli autovalori di A. La matrice P puo essere scelta in modotale che nella n-pla (λ1, . . . , λn) compaiano prima gli (eventuali) scalari positivi,diciamo λ1, . . . , λs, poi gli (eventuali) scalari negativi, diciamo λs+1, . . . , λs+t,ed infine, eventualmente, degli zeri. Osserviamo che s + t = ρ(A) = ρ(D)(essendo P invertibile). Sappiamo che esiste un’unica base ordinata B� tale che

P sia la matrice di passaggio da B� a B��. Indicato con X � =

⎛⎜⎝x�1...x�n

⎞⎟⎠ il vettore

coordinato di u in B�, si ha che X �� = PX � e quindi

q(u) = (P ·X �)t ·A · P ·X � = X �t · Pt ·A · P ·X �

= X �t · (Pt ·A · P ) ·X � = X �

t ·D ·X � =n�

h=1

λh(x�h)

2 .

Consideriamo ora la matrice diagonale B definita come segue

bh,h =

⎧⎪⎨⎪⎩

λ− 1

2

h se 1 ≤ h ≤ s

(−λh)− 1

2 se s < h ≤ s+ t

1 se s+ t < h

131Spazi vettoriali euclidei

Page 132: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

132 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

Posto C = BtDB si vede facilmente che

C =

⎛⎝

Is O O

O −It O

O O O

⎞⎠

Sia B la base ordinata tale che la matrice invertibile B sia la matrice di passaggio

da B a B′. Indicato con X =

⎛⎜⎝x1

...xn

⎞⎟⎠ il vettore coordinato di u in B si ha che

X ′ = B ·X e quindi

q(u) = X ′t ·D ·X ′ = (B ·X)t ·D ·B ·X = Xt ·Bt ·D ·B ·X = Xt · C ·X

= x21 + · · ·+ x2

s −�x2s+1 + · · ·+ x2

s+t

�.

Abbiamo quindi determinato una base ordinata B tale che, con le solite notazioni

q(u) = x21 + · · ·+ x2

s −�x2s+1 + · · ·+ x2

s+t

�. (6.11)

Supponiamo che B sia una base ordinata e che, per ogni u ∈ V , detto

Y =

⎛⎜⎝y1...yn

⎞⎟⎠

il vettore coordinato di u in B, si abbia

q(u) = y21 + · · ·+ y2p −�y2p+1 + · · ·+ y2p+r

�. (6.12)

Se A e la matrice di q in B sappiamo che ρ(A) = ρ(A) e quindi s + t = p + r.Vogliamo provare che s = p (e quindi anche t = r). Sia, per assurdo p < s. SiaW il sottospazio di V rappresentato in B (in forma cartesiana) dal sistema

⎧⎪⎪⎨⎪⎪⎩

xs+1 = 0

...

xn = 0

e W ′ il sottospazio di V rappresentato in B (in forma cartesiana) dal sistema⎧⎪⎪⎨⎪⎪⎩

x1 = 0

...

xp = 0

Abbiamo che dimW = s, dimW ′ = n − p e V = W + W ′. Quindi, per laformula di Grassmann,

dim(W ∩W ′) = dimW + dimW ′ − dimV = s− p > 0 .

132 Geometria e algebra

Page 133: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

132 CAPITOLO 6. SPAZI VETTORIALI EUCLIDEI

Posto C = BtDB si vede facilmente che

C =

⎛⎝

Is O O

O −It O

O O O

⎞⎠

Sia B la base ordinata tale che la matrice invertibile B sia la matrice di passaggio

da B a B′. Indicato con X =

⎛⎜⎝x1

...xn

⎞⎟⎠ il vettore coordinato di u in B si ha che

X ′ = B ·X e quindi

q(u) = X ′t ·D ·X ′ = (B ·X)t ·D ·B ·X = Xt ·Bt ·D ·B ·X = Xt · C ·X

= x21 + · · ·+ x2

s −�x2s+1 + · · ·+ x2

s+t

�.

Abbiamo quindi determinato una base ordinata B tale che, con le solite notazioni

q(u) = x21 + · · ·+ x2

s −�x2s+1 + · · ·+ x2

s+t

�. (6.11)

Supponiamo che B sia una base ordinata e che, per ogni u ∈ V , detto

Y =

⎛⎜⎝y1...yn

⎞⎟⎠

il vettore coordinato di u in B, si abbia

q(u) = y21 + · · ·+ y2p −�y2p+1 + · · ·+ y2p+r

�. (6.12)

Se A e la matrice di q in B sappiamo che ρ(A) = ρ(A) e quindi s + t = p + r.Vogliamo provare che s = p (e quindi anche t = r). Sia, per assurdo p < s. SiaW il sottospazio di V rappresentato in B (in forma cartesiana) dal sistema

⎧⎪⎪⎨⎪⎪⎩

xs+1 = 0

...

xn = 0

e W ′ il sottospazio di V rappresentato in B (in forma cartesiana) dal sistema⎧⎪⎪⎨⎪⎪⎩

x1 = 0

...

xp = 0

Abbiamo che dimW = s, dimW ′ = n − p e V = W + W ′. Quindi, per laformula di Grassmann,

dim(W ∩W ′) = dimW + dimW ′ − dimV = s− p > 0 .

6.5. FORME QUADRATICHE 133

Esiste pertanto un vettore non nullo w ∈ W ∩ W ′. Poiche w ∈ W , le suecomponenti non banali in B sono tra le prime s e quindi, in base alla (6.11),q(w) > 0. D’altra parte, essendo w ∈ W ′, le sue componenti non banali in Bsono tra le ultime n − p e quindi, per la (6.12), q(w) ≤ 0, e questo e assurdo.In definitiva, gli interi non negativi s, t sono caratteristici di q; si dice allora cheq e in forma canonica in B e la (6.11) si dice forma canonica di q. La coppia(s, t) si dice segnatura di q. A posteriori vediamo quindi che la segnatura di q siricava, fissato un qualunque riferimento, considerando la matrice A di q in taleriferimento e contando gli autovalori positivi e quelli negativi di A.

133Spazi vettoriali euclidei

Page 134: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno
Page 135: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

135

Capitolo 7

Spazi affini

7.1 Generalita su spazi e sottospazi affini

Sia K un campo, V un K-spazio vettoriale e A un insieme non vuoto. Sia inoltreπ : A× A −→ V un’applicazione.

7.1 Definizione. La terna (A, V, π) si dice spazio affine sul campo K, se

(i) Per ogni P ∈ A, u ∈ V esiste un unico Q ∈ A tale che π(P,Q) = u;

(ii) Per ogni P,Q,R ∈ A, si ha che π(P,Q) + π(Q,R) = π(P,R).

L’insieme A e il sostegno di tale struttura e, con abuso di notazione, siscrivera spesso A in luogo di (A, V, π). L’assioma (ii) e noto come relazione

di Chasles. E d’uso comune indicare con il simbolo−−→PQ il vettore π(P,Q). Gli

elementi di A si dicono punti, quelli di V vettori liberi. L’assioma (i) implica chel’applicazione π e suriettiva, ed in generale, per ogni u ∈ V la controimmagineπ−1(u), che e un sottoinsieme di coppie in A×A si dice anch’esso vettore libero.Una coppia (P,Q) ∈ A×A, si dice talvolta segmento orientato di estremi P,Q, oanche vettore applicato, con punto di applicazione P e punto finale Q. Per ogni

punto P ∈ A, l’applicazione indotta πP : A → V definita ponendo πP (Q) =−−→PQ

e una biezione ed induce su A una struttura vettoriale isomorfa a quella diV , che prende il nome di spazio vettoriale dei vettori applicati in P . Se lospazio V e finitamente generato, come sara implicitamente assunto nel seguito,si pone dimA = dimV . Dati tre punti B,C,M ∈ A, diremo che M e il punto

medio di B,C (o anche del segmento di estremi B,C), se−−→BM =

−−→MC. Si verifica

agevolmente, nel caso in cui il campo K sia ad esempio R, Q 0 C, che, comunquescelti B,C, esiste un unico punto M con tale proprieta.

135

Page 136: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

136 CAPITOLO 7. SPAZI AFFINI

B

C

M

u

u = π(B,M) = π(M,C)

7.2 Esempio. Piano e spazio ordinari. Sia A il piano (o anche lo spazio) della geometriaelementare e sia V lo spazio vettoriale dei vettori liberi del piano (dello spazio rispettivamente).

Definiamo π : A×A → V ponendo π(P,Q) =−−→PQ (il vettore libero rappresentato dal segmento

orientato (P,Q)). E facile verificare che sono soddisfatte le proprieta assiomatiche (i), (ii).

7.3 Esempio. Struttura affine naturale di uno spazio vettoriale. Sia V uno spazio vettoriale.Definiamo π : V × V → V ponendo π(u,v) = v − u, per ogni u,v ∈ V .

uv

w

w-v

v-u

w-uw − u = (v − u) + (w − v)

ovvero

π(u,w) = π(u,v) + π(v,w)

136 Geometria e algebra

Page 137: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

136 CAPITOLO 7. SPAZI AFFINI

B

C

M

u

u = π(B,M) = π(M,C)

7.2 Esempio. Piano e spazio ordinari. Sia A il piano (o anche lo spazio) della geometriaelementare e sia V lo spazio vettoriale dei vettori liberi del piano (dello spazio rispettivamente).

Definiamo π : A×A → V ponendo π(P,Q) =−−→PQ (il vettore libero rappresentato dal segmento

orientato (P,Q)). E facile verificare che sono soddisfatte le proprieta assiomatiche (i), (ii).

7.3 Esempio. Struttura affine naturale di uno spazio vettoriale. Sia V uno spazio vettoriale.Definiamo π : V × V → V ponendo π(u,v) = v − u, per ogni u,v ∈ V .

uv

w

w-v

v-u

w-uw − u = (v − u) + (w − v)

ovvero

π(u,w) = π(u,v) + π(v,w)

7.1. GENERALITA SU SPAZI E SOTTOSPAZI AFFINI 137

Anche in questo caso e immediata la verifica delle proprieta assiomatiche (i), (ii).

Sia ora B ⊆ A e sia U = π(B× B). In altri termini, poniamo

U ={u ∈ V

∣∣ ∃ P,Q ∈ B∣∣ π(P,Q) = u

}.

Consideriamo la restrizione π : B× B → U dell’applicazione π.

7.4 Definizione. Se U ≤ V e la terna (B, U, π) e uno spazio affine, si dice cheB e un sottospazio affine di A; il sottospazio vettoriale U di V si dice sottospazio

direttore di B e si indica anche con il simbolo−→B .

7.5 Osservazione. Sia B un sottospazio affine dello spazio affine A.

(i) Fissato un qualunque punto P ∈ B, l’applicazione indotta πP e una biezione tra B e−→B .

In altri terminiB =

{Q ∈ A

∣∣ −−→PQ ∈ −→B}.

Se−−→PQ = u, si scrive anche Q = P + u. Si tratta di un simbolo formale di addizione,

giustificato in seguito da questioni di coordinate e componenti. In modo analogo, si

scrive talvolta B = P +−→B , ovvero B = P + U .

(ii) Per ogni punto P ∈ A e per ogni sottospazio vettoriale U ≤ V , l’insieme

P + U ={Q ∈ A

∣∣ ∃ u ∈ U∣∣ Q = P + u

}

e un sottospazio affine di A, ed U e il suo sottospazio direttore, ovvero−−−−→P + U = U .

(iii) Se dimB = 0, B si riduce ad un unico punto ed il suo sottospazio direttore e lo spaziovettoriale banale.

(iv) Se dimB = 1, B si dice retta (affine) e U ed il suo sottospazio direttore U si dice direttricedella retta. Essendo U uno spazio vettoriale di dimensione 1, ogni suo elemento non nulloe un generatore e si dice vettore direzionale della retta.

(v) Se dimB = 2, B si dice piano (affine) ed il suo sottospazio direttore U si dice giacituradel piano.

(vi) Se dimB = n− 1, B si dice iperpiano (affine).

7.6 Definizione. Siano B = P + U , B′ = P ′ + U ′ due sottospazi affini di A.Diremo che B e B′ sono paralleli, e scriveremo BB � B′, se U ≤ U ′ oppureU ′ ≤ U . Se, in particolare, si ha che dimB = dimB′, allora B � B′ se e solo seU = U ′.

7.7 Osservazione. (i) La relazione di parallelismo tra sottospazi e simmetrica e riflessiva,ma non transitiva.

(ii) La relazione di parallelismo tra sottospazi di dimensione fissata e anche transitiva, equindi e una equivalenza.

Consideriamo ora un vettore u ∈ V ed un sottospazio affine B = P +U di A.Sottolineiamo il fatto che e d’uso comune dire che u e parallelo al sottospazio B

137Spazi affini

Page 138: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

138 CAPITOLO 7. SPAZI AFFINI

quando u ∈ U . Scriveremo allora u � B. Siano ora (A, A, π) e (A�, V �, π�) duespazi affini sul campo K, e sia f : A → A� una applicazione. Per ogni punto

P ∈ A, posto P � = f(P ) ∈ A�, f induce un’altra applicazione−→fP : V → V �

definita come segue. Per ogni u ∈ V esiste un unico punto Q ∈ A tale che−−→PQ = u. Si considera allora il punto Q� = f(Q) ∈ A� ed il vettore libero

u� =−−−→P �Q� ∈ V � e si pone

−→fP (u) = u�.

7.8 Definizione. Se−→fP e lineare e non dipende dalla scelta del punto P , si dice

che f e una applicazione, o trasformazione, affine. Se poi−→fP e un isomorfismo,

f e una affinita.

7.9 Teorema. Per ogni punto P ∈ A, per ogni punto P � ∈ A� e per ogniapplicazione lineare α : V → V � esiste un’unica applicazione affine f : A → A�

tale che f(P ) = P � e−→fP = α.

Dimostrazione. Omessa.

7.10 Proposizione. Sia f : A → A� una applicazione affine e sia B un sotto-spazio affine di A. Allora f(B) e anch’esso un sottospazio di A� e dim f(B) ≤dim B.

Dimostrazione. Omessa.

7.2 Riferimenti e coordinate

Sia A uno spazio affine di dimensione n, O ∈ A, B = (e1, . . . , en) una baseordinata di V .

7.11 Definizione. La coppia R = (O;B), ovvero la (n+1)-pla (O; e1, . . . , en),si dice riferimento (affine) di A, di origine O, associato a B.

Ricordiamo che in relazione alla base B di V possiamo considerare l’isomor-fismo coordinato ΦB : V → Kn definito ponendo, per ogni u ∈ V ,

ΦB(u) = X =

⎛⎜⎝x1

...xn

⎞⎟⎠

dove x1, . . . , xn sono le componenti del vettore u nella base B. In altri termini,si ha che u =

�ni=1 xiei.

138 Geometria e algebra

Page 139: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

138 CAPITOLO 7. SPAZI AFFINI

quando u ∈ U . Scriveremo allora u � B. Siano ora (A, A, π) e (A�, V �, π�) duespazi affini sul campo K, e sia f : A → A� una applicazione. Per ogni punto

P ∈ A, posto P � = f(P ) ∈ A�, f induce un’altra applicazione−→fP : V → V �

definita come segue. Per ogni u ∈ V esiste un unico punto Q ∈ A tale che−−→PQ = u. Si considera allora il punto Q� = f(Q) ∈ A� ed il vettore libero

u� =−−−→P �Q� ∈ V � e si pone

−→fP (u) = u�.

7.8 Definizione. Se−→fP e lineare e non dipende dalla scelta del punto P , si dice

che f e una applicazione, o trasformazione, affine. Se poi−→fP e un isomorfismo,

f e una affinita.

7.9 Teorema. Per ogni punto P ∈ A, per ogni punto P � ∈ A� e per ogniapplicazione lineare α : V → V � esiste un’unica applicazione affine f : A → A�

tale che f(P ) = P � e−→fP = α.

Dimostrazione. Omessa.

7.10 Proposizione. Sia f : A → A� una applicazione affine e sia B un sotto-spazio affine di A. Allora f(B) e anch’esso un sottospazio di A� e dim f(B) ≤dim B.

Dimostrazione. Omessa.

7.2 Riferimenti e coordinate

Sia A uno spazio affine di dimensione n, O ∈ A, B = (e1, . . . , en) una baseordinata di V .

7.11 Definizione. La coppia R = (O;B), ovvero la (n+1)-pla (O; e1, . . . , en),si dice riferimento (affine) di A, di origine O, associato a B.

Ricordiamo che in relazione alla base B di V possiamo considerare l’isomor-fismo coordinato ΦB : V → Kn definito ponendo, per ogni u ∈ V ,

ΦB(u) = X =

⎛⎜⎝x1

...xn

⎞⎟⎠

dove x1, . . . , xn sono le componenti del vettore u nella base B. In altri termini,si ha che u =

�ni=1 xiei.

7.2. RIFERIMENTI E COORDINATE 139

In modo analogo definiamo una applicazione

cR : A −→ Kn

al modo seguente: Per ogni P ∈ A poniamo

cR(P ) = ΦB(−−→OP ) .

7.12 Osservazione. 1. cR(O) = 0.

2. Se cR(P ) = X, cR(Q) = Y , allora ΦB(−−→PQ) = Y −X. Per tale motivo si scrive talvolta

Q− P invece di−−→PQ.

3. Se si considera la struttura affine standard di Kn, l’applicazione cR e una affinita.

4. Dati due punti B,C, il loro punto medio ha coordinate cR(M) = 12

(cR(B) + cR(C)

).

Se cR = X =

⎛⎜⎝x1

...xn

⎞⎟⎠, scriveremo anche

P ≡R (x1, . . . , xn)

ed ometteremo l’indicazione del riferimento se cio non dara adito ad equivoci.Il vettore X prende il nome di vettore coordinato del punto P in R. Spessosi dira semplicemente che il punto P ha coordinate x1, . . . , xn. Ad esempio,nell’osservazione precedente, il punto 4 puo anche esprimersi dicendo che se

B ≡R (b1, . . . , bn) e C ≡R (c1, . . . , cn) si ha che M ≡R�

b1+c12 , . . . , bn+cn

2

�.

Consideriamo ora h+1 punti P0, P1, . . . , Ph ordinati di A, ovvero la (h+1)-pla(P0, P1, . . . , Ph) ∈ Ah+1.

7.13 Definizione. I punti P0, P1, . . . , Ph sono indipendenti (in senso affine) se

i corrispondenti vettori−−−→P0P1, . . . ,

−−−→P0Ph risultano indipendenti (in senso vetto-

riale).

Osserviamo esplicitamente che, come e facile verificare, tale definizione nondipende dall’ordine in cui i punti compaiono. Se dim V = n, possiamo trovareal piu n vettori indipendenti in V , e quindi esisteranno al piu n + 1 puntiindipendenti in A. Una (n + 1)-pla R = (P0, P1, . . . , Pn) di punti indipendenti

di A prende il nome di riferimento baricentrico. Posto ei =−−→P0Pi per ogni

i = 1, . . . , n, i vettori e1, . . . , en costituiscono una base B di V e il riferimentoaffine R = (P0;B) si dice associato al riferimento baricentrico R.

139Spazi affini

Page 140: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

140 CAPITOLO 7. SPAZI AFFINI

O P1

P2

P

e1

e2 R =(O; e1, e2

)

R =(O,P1, P2

)

P ≡ ( 43 ,

32 )

Siano ora R = (O;B), R� = (O�;B�) due riferimenti affini di A. In relazionea tali riferimenti, possiamo considerare le affinita cR : A → Kn e cR′ : A →Kn. Pertanto, dato un punto P ∈ A, poniamo P ≡R (x1, . . . , xn), P ≡R′

(x�1, . . . , x

�n) L’applicazione composta

ψR,R′ =: cR′ ◦ (cR)−1 : Kn −→ A −→ Kn

trasforma il vettore coordinato X di P in R nel vettore coordinato X � di P inR� e per tale motivo prende il nome di cambiamento di riferimento da R ad R�.

7.14 Proposizione. Nella situazione sopra descritta, si ha che X � = AX + Bdove A = MB′

B e la matrice del cambiamento delle basi da B a B� e B = cR′(O)e il vettore coordinato dell’origine O del riferimento R nel riferimento R�.

Dimostrazione. Omessa.

7.3 Rappresentazione di sottospazi affini

Sia A uno spazio affine di dimensione n sul campo K, R = (O; e1, . . . , en) unsuo riferimento e B un sottospazio affine di A di dimensione h. Consideriamoun sistema lineare compatibile

AX = B (7.1)

dove A e una matrice di tipo m × n e supponiamo che, posto A� = (A|B), siabbia ρ(A) = ρ(A�) = n− h. Indichiamo con il simbolo Sol (7.1) il sottoinsiemedi Kn delle soluzioni del sistema. Come e noto esso dipende da h parametri.Diremo che il sistema (7.1) e una rappresentazione cartesiana del sottospazio Brispetto al riferimento affine R se accade che

P ∈ B ⇐⇒ cR(P ) ∈ Sol (7.1)

ovvero se e solo se l’applicazione cR si restringe ad una biezione

cR : B −→ Sol (7.1) .

140 Geometria e algebra

Page 141: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

140 CAPITOLO 7. SPAZI AFFINI

O P1

P2

P

e1

e2 R =(O; e1, e2

)

R =(O,P1, P2

)

P ≡ ( 43 ,

32 )

Siano ora R = (O;B), R� = (O�;B�) due riferimenti affini di A. In relazionea tali riferimenti, possiamo considerare le affinita cR : A → Kn e cR′ : A →Kn. Pertanto, dato un punto P ∈ A, poniamo P ≡R (x1, . . . , xn), P ≡R′

(x�1, . . . , x

�n) L’applicazione composta

ψR,R′ =: cR′ ◦ (cR)−1 : Kn −→ A −→ Kn

trasforma il vettore coordinato X di P in R nel vettore coordinato X � di P inR� e per tale motivo prende il nome di cambiamento di riferimento da R ad R�.

7.14 Proposizione. Nella situazione sopra descritta, si ha che X � = AX + Bdove A = MB′

B e la matrice del cambiamento delle basi da B a B� e B = cR′(O)e il vettore coordinato dell’origine O del riferimento R nel riferimento R�.

Dimostrazione. Omessa.

7.3 Rappresentazione di sottospazi affini

Sia A uno spazio affine di dimensione n sul campo K, R = (O; e1, . . . , en) unsuo riferimento e B un sottospazio affine di A di dimensione h. Consideriamoun sistema lineare compatibile

AX = B (7.1)

dove A e una matrice di tipo m × n e supponiamo che, posto A� = (A|B), siabbia ρ(A) = ρ(A�) = n− h. Indichiamo con il simbolo Sol (7.1) il sottoinsiemedi Kn delle soluzioni del sistema. Come e noto esso dipende da h parametri.Diremo che il sistema (7.1) e una rappresentazione cartesiana del sottospazio Brispetto al riferimento affine R se accade che

P ∈ B ⇐⇒ cR(P ) ∈ Sol (7.1)

ovvero se e solo se l’applicazione cR si restringe ad una biezione

cR : B −→ Sol (7.1) .

7.3. RAPPRESENTAZIONE DI SOTTOSPAZI AFFINI 141

Vale il seguente enunciato.

7.15 Proposizione. Ogni sistema compatibile del tipo (7.1) rappresenta unsottospazio affine (di dimensione h). Inoltre il sistema omogeneo associatorappresenta il sottospazio direttore di tale sottospazio affine.

Dimostrazione. Omessa.

In generale possiamo rappresentare un sottospazio affine in due modi:

(i) mediante la costruzione di un sistema del tipo (7.1) che rappresenti ilsottospazio (rappresentazione cartesiana);

(ii) mediante la descrizione dell’insieme delle soluzioni di un tale sistema,utilizzando h parametri (rappresentazione parametrica).

Vediamo come si costruiscono tali rappresentazioni. Il sottospazio B e indi-viduato, come abbiamo visto, da un suo punto P0 e dal suo sottospazio direttore

U =−→B . Sia B� = (u1, . . . ,uh) una base ordinata di U . In tale situazione la

coppia R� = (P0;B�) e un riferimento di B. Un punto P ∈ A appartiene al

sottospazio B se e solo se il vettore−−→P0P appartiene ad U , ovvero se e solo se−−→

P0P dipende da B�, e cioe esistono degli scalari t1, . . . , th tali che

−−→P0P =

h�i=1

tiei . (7.2)

Passando alle coordinate dei punti e dei vettori in questione, posto

cR(P0) =

⎛⎜⎝z1...zn

⎞⎟⎠ ; ΦB(u1) =

⎛⎜⎝u1,1

...un,1

⎞⎟⎠ ; . . . ; ΦB(uh) =

⎛⎜⎝u1,h

...un,h

⎞⎟⎠

ed indicate con x1, . . . , xn le coordinate del punto generico P , abbiamo che

ΦB(−−→P0P ) =

⎛⎜⎝x1 − z1

...xn − zn

⎞⎟⎠

e la relazione (7.2) equivale, mediante l’isomorfismo coordinato, alla relazione

⎛⎜⎝x1 − z1

...xn − zn

⎞⎟⎠ = t1

⎛⎜⎝u1,1

...un,1

⎞⎟⎠+ · · ·+ th

⎛⎜⎝u1,h

...un,h

⎞⎟⎠

141Spazi affini

Page 142: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

142 CAPITOLO 7. SPAZI AFFINI

Tale relazione tra vettori numerici equivale alle relazioni scalari

⎧⎪⎪⎨⎪⎪⎩

x1 − z1 = t1u1,1 + · · ·+ thu1,h

...

xn − zn = t1un,1 + · · ·+ thun,h

ovvero ⎧⎪⎪⎨⎪⎪⎩

x1 = z1 + t1u1,1 + · · ·+ thu1,h

...

xn = zn + t1un,1 + · · ·+ thun,h

Si scrive allora

B :

⎧⎪⎪⎨⎪⎪⎩

x1 = z1 + t1u1,1 + · · ·+ thu1,h

...

xn = zn + t1un,1 + · · ·+ thun,h

e si dice che questa e una rappresentazione parametrica del sottospazio B nelriferimento R.

Torniamo ora al punto in cui si richiede che−−→P0P dipenda da B′, ovvero che

il sistema S =�u1, . . . ,uh,

−−→P0P

�risulti dipendente. Cio equivale a dire che sia

dipendente il corrispondente sistema dei vettori numerici delle componenti deivettori di S, ovvero il sistema

S =

⎡⎢⎣

⎛⎜⎝u1,1

...un,1

⎞⎟⎠ , . . . ,

⎛⎜⎝u1,h

...un,h

⎞⎟⎠ ,

⎛⎜⎝x1 − z1

...xn − zn

⎞⎟⎠

⎤⎥⎦ .

Poiche gia sappiamo che i primi h vettori di S sono indipendenti, la dipendenzadi S equivale al fatto che la matrice

A =

⎛⎜⎝u1,1 · · · u1,h z1 − x1

......

...un,1 · · · un,h zn − xn

⎞⎟⎠

(di tipo n × (h + 1)) abbia rango esattamente h. Poiche le prime h colonnedi A sono indipendenti, in base al Teorema degli orlati possiamo trovare unasottomatrice fondamentale che coinvolge le prime h colonne, i cui orlati sianotutti nulli. Supponiamo, per semplicita, che il minore non nullo di A di ordineh sia individuato, oltre che dalle prime h colonne, anche dalle prime h righe, ecioe si abbia

det A1,...,h1,...,h �= 0 .

L’annullarsi di tutti i possibili orlati di tale minore descrive un sistema di n−hequazioni nelle incognite x1, . . . , xn, che e la rappresentazione cartesiana cercata

142 Geometria e algebra

Page 143: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

142 CAPITOLO 7. SPAZI AFFINI

Tale relazione tra vettori numerici equivale alle relazioni scalari

⎧⎪⎪⎨⎪⎪⎩

x1 − z1 = t1u1,1 + · · ·+ thu1,h

...

xn − zn = t1un,1 + · · ·+ thun,h

ovvero ⎧⎪⎪⎨⎪⎪⎩

x1 = z1 + t1u1,1 + · · ·+ thu1,h

...

xn = zn + t1un,1 + · · ·+ thun,h

Si scrive allora

B :

⎧⎪⎪⎨⎪⎪⎩

x1 = z1 + t1u1,1 + · · ·+ thu1,h

...

xn = zn + t1un,1 + · · ·+ thun,h

e si dice che questa e una rappresentazione parametrica del sottospazio B nelriferimento R.

Torniamo ora al punto in cui si richiede che−−→P0P dipenda da B′, ovvero che

il sistema S =�u1, . . . ,uh,

−−→P0P

�risulti dipendente. Cio equivale a dire che sia

dipendente il corrispondente sistema dei vettori numerici delle componenti deivettori di S, ovvero il sistema

S =

⎡⎢⎣

⎛⎜⎝u1,1

...un,1

⎞⎟⎠ , . . . ,

⎛⎜⎝u1,h

...un,h

⎞⎟⎠ ,

⎛⎜⎝x1 − z1

...xn − zn

⎞⎟⎠

⎤⎥⎦ .

Poiche gia sappiamo che i primi h vettori di S sono indipendenti, la dipendenzadi S equivale al fatto che la matrice

A =

⎛⎜⎝u1,1 · · · u1,h z1 − x1

......

...un,1 · · · un,h zn − xn

⎞⎟⎠

(di tipo n × (h + 1)) abbia rango esattamente h. Poiche le prime h colonnedi A sono indipendenti, in base al Teorema degli orlati possiamo trovare unasottomatrice fondamentale che coinvolge le prime h colonne, i cui orlati sianotutti nulli. Supponiamo, per semplicita, che il minore non nullo di A di ordineh sia individuato, oltre che dalle prime h colonne, anche dalle prime h righe, ecioe si abbia

det A1,...,h1,...,h �= 0 .

L’annullarsi di tutti i possibili orlati di tale minore descrive un sistema di n−hequazioni nelle incognite x1, . . . , xn, che e la rappresentazione cartesiana cercata

7.4. RETTE ED IPERPIANI 143

del sottospazio B:

B :

⎧⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎩

detA1,...,h,h+11,...,h,h+1 = 0

detA1,...,h,h+11,...,h,h+2 = 0

...

detA1,...,h,h+11,...,h,n = 0

La costruzione della rappresentazione parametrica o cartesiana di un sotto-spazio B di dimensione h si puo effettuare anche se il sottospazio e individuatoda h+1 suoi punti indipendenti P0, P1, . . . , Ph; basta infatti considerare i vettori

u1 =−−−→P0P1 ; . . . ;uh =

−−−→P0Ph e procedere come sopra.

7.4 Rette ed iperpiani

Sia A uno spazio affine di dimensione n sul campo K, R = (O; e1, . . . , en) unsuo riferimento e B una retta affine. Per comodita e per tradizione, indichiamotale retta con il simbolo r. Allora la sua direttrice −→r = U e un sottospazio diV di dimensione 1. Un qualunque vettore non nullo u ∈ U genera quindi U .Un tale vettore si dice vettore direzionale di r, e le sue componenti (ordinate)�1, . . . , �n si dicono numeri (o parametri) direttori di r. Essi sono definiti a menodi proporzionalita.

Ripercorriamo ora il ragionamento fatto in generale per i sottospazi affini,adattandolo al caso in esame: se P0 ∈ r e u e un vettore non nullo di −→r , unpunto P ∈ A appartiene alla retta r se e solo se il vettore

−−→P0P appartiene ad −→r ;

poiche u genera −→r , cio vuol dire che esiste uno scalare t ∈ K tale che−−→P0P = tu.

Passando alle componenti, posto

ΦB(u) =

⎛⎜⎝�1...�n

⎞⎟⎠ ; cR(P ) =

⎛⎜⎝x1

...xn

⎞⎟⎠ ; cR(P0) =

⎛⎜⎝z1...zn

⎞⎟⎠

abbiamo che

ΦB(−−→P0P ) =

⎛⎜⎝x1 − z1

...xn − zn

⎞⎟⎠

e quindi la relazione (vettoriale)−−→P0P = tu equivale alle relazioni scalari

⎧⎪⎪⎨⎪⎪⎩

x1 = z1 + t�1

...

xn = zn + t�n

(7.3)

che prendono il nome di rappresentazione paremetrica della retta affine r. Set ∈ K, indicheremo con Pt il punto di r relativo al valore t del parametro, ovvero

Pt = (z1 + t�1, . . . , znt�n) .

143Spazi affini

Page 144: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

144 CAPITOLO 7. SPAZI AFFINI

Per ottenere una rappresentazione cartesiana (in cui non compaiono parametri),si puo eliminare il parametro dalle (7.3). Altrimenti si procede come segue. Il

fatto che il vettore−−→P0P appartenga ad −→r equivale ad imporre che il sistema

S = [u,−−→P0P ] sia dipendente, ovvero, passando alle componenti, che la matrice

A =

(x1 − z1 · · · xn − zn

�1 · · · �n

)

abbia rango 1. Si sceglie allora una componente non nulla di u (certamenteesistente in quanto u �= 0), sia essa ad esempio �1, e si impone che tutti gliorlati della sottomatrice (�1) in A siano nulli, cioe

∣∣∣∣x1 − z1 x2 − z2

�1 �2

∣∣∣∣ = 0 ; . . . ;

∣∣∣∣x1 − z1 xn − zn

�1 �n

∣∣∣∣ = 0 .

Si tratta, come si vede, di n − 1 equazioni di primo grado nelle incognitex1, x2, . . . , xn.

Esaminiamo ora il caso degli iperpiani di uno spazio affine. Sia B un iperpia-no, ovvero un sottospazio di dimensione n − 1. Per comodita e per tradizione,indichiamo tale sottospazio con il simbolo π. Sia P0 un punto di π. Alloraπ = P0 +

−→π . Una base ordinata di −→π e del tipo

B� = (u1, . . . ,un−1) .

Ripercorrendo la costruzione della rappresentazione cartesiana di un sottospazioin questo caso particolare, otteniamo che gli orlati da studiare si riducono adun solo orlato e la rappresentazione cartesiana dell’iperpiano π e costituita daun’unica equazione lineare, che sara del tipo

π : a1x1 + · · ·+ anxn + a = 0

dove non tutti gli scalari a1, . . . , an sono nulli.Osserviamo esplicitamente che se n = 2 gli iperpiani coincidono con le rette,

se n = 3 essi sono proprio i piani.Siano ora π�, π�� due iperpiani di rappresentazione cartesiana

π� : a�1x1 + · · ·+ a�nxn + a� = 0 ; π�� : a��1x1 + · · ·+ a��nxn + a�� = 0 .

7.16 Proposizione. Siano π�, π�� due iperpiani distinti. Se π�, π�� non sonoparalleli, l’intersezione π� ∩ π�� e un sottospazio affine di dimensione n − 2 conrappresentazione cartesiana

π� ∩ π�� :

{a�1x1 + · · ·+ a�nxn + a� = 0

a��1x1 + · · ·+ a��nxn + a�� = 0

Dimostrazione. Omessa.

144 Geometria e algebra

Page 145: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

144 CAPITOLO 7. SPAZI AFFINI

Per ottenere una rappresentazione cartesiana (in cui non compaiono parametri),si puo eliminare il parametro dalle (7.3). Altrimenti si procede come segue. Il

fatto che il vettore−−→P0P appartenga ad −→r equivale ad imporre che il sistema

S = [u,−−→P0P ] sia dipendente, ovvero, passando alle componenti, che la matrice

A =

(x1 − z1 · · · xn − zn

�1 · · · �n

)

abbia rango 1. Si sceglie allora una componente non nulla di u (certamenteesistente in quanto u �= 0), sia essa ad esempio �1, e si impone che tutti gliorlati della sottomatrice (�1) in A siano nulli, cioe

∣∣∣∣x1 − z1 x2 − z2

�1 �2

∣∣∣∣ = 0 ; . . . ;

∣∣∣∣x1 − z1 xn − zn

�1 �n

∣∣∣∣ = 0 .

Si tratta, come si vede, di n − 1 equazioni di primo grado nelle incognitex1, x2, . . . , xn.

Esaminiamo ora il caso degli iperpiani di uno spazio affine. Sia B un iperpia-no, ovvero un sottospazio di dimensione n − 1. Per comodita e per tradizione,indichiamo tale sottospazio con il simbolo π. Sia P0 un punto di π. Alloraπ = P0 +

−→π . Una base ordinata di −→π e del tipo

B� = (u1, . . . ,un−1) .

Ripercorrendo la costruzione della rappresentazione cartesiana di un sottospazioin questo caso particolare, otteniamo che gli orlati da studiare si riducono adun solo orlato e la rappresentazione cartesiana dell’iperpiano π e costituita daun’unica equazione lineare, che sara del tipo

π : a1x1 + · · ·+ anxn + a = 0

dove non tutti gli scalari a1, . . . , an sono nulli.Osserviamo esplicitamente che se n = 2 gli iperpiani coincidono con le rette,

se n = 3 essi sono proprio i piani.Siano ora π�, π�� due iperpiani di rappresentazione cartesiana

π� : a�1x1 + · · ·+ a�nxn + a� = 0 ; π�� : a��1x1 + · · ·+ a��nxn + a�� = 0 .

7.16 Proposizione. Siano π�, π�� due iperpiani distinti. Se π�, π�� non sonoparalleli, l’intersezione π� ∩ π�� e un sottospazio affine di dimensione n − 2 conrappresentazione cartesiana

π� ∩ π�� :

{a�1x1 + · · ·+ a�nxn + a� = 0

a��1x1 + · · ·+ a��nxn + a�� = 0

Dimostrazione. Omessa.

7.5. SPAZI AFFINI EUCLIDEI 145

7.17 Definizione. Siano π′, π′′ due iperpiani distinti. Se π′, π′′ non sono paral-leli, l’insieme F ′ degli iperpiani che contengono π′∩π′′ si dice fascio (proprio) diiperpiani individuato da π′, π′′. Se invece π′||π′′, e cioe −→π ′ = −→π ′′, l’insieme F ′′

degli iperpiani paralleli a π′ (nonche a π′′), ovvero l’insieme degli iperpiani cheammettono −→π ′ come sottospazio direttore, si dice fascio improprio di iperpianidi giacitura −→π ′.

Osserviamo che gli iperpiani che appartengono al fascio (proprio o improprio)individuato da due iperpiani distinti π′, π′′ sono tutti e soli quelli del tipo

π : λ(a′1x1 + · · ·+ a′nxn + a′) + μ(a′′1x1 + · · ·+ a′′nxn + a′′) = 0

dove λ, μ ∈ K non sono entrambi nulli. Indichiamo con F , o anche Fπ′,π′′ , ilfascio (proprio o improprio) individuato da π′, π′′.

Se π′, π′′ non sono paralleli, e quindi gli iperpiani di F sono tutti e soli quelliche contengono il sottospazio π′ ∩ π′′, tale sottospazio si dice asse del fascio. Seinvece π′, π′′ sono paralleli, gli iperpiani di F sono tutti e soli quelli parallelia π′ (e anche a π′′), e inoltre il generico iperpiano π del fascio F ammette unarappresentazione cartesiana del tipo

π : a′1x1 + · · ·+ a′nxn + k = 0

dove k e uno scalare.

7.5 Spazi affini euclidei

Sia (V,A, π) uno spazio affine reale (ovvero sia K = R). Se V e uno spaziovettoriale euclideo e, dati due suoi vettori u,v, indichiamo con u · v il loroprodotto scalare, diremo che anche A e uno spazio (affine) euclideo. Le nozionidi norma, lunghezza o modulo, angolo ed ortogonalita riguardanti i vettori diV si riportano ai punti ed i sottospazi di A. Ad esempio, se P,Q,R ∈ A, sidefinisce la distanza d(P,Q) ponendo

d(P,Q) =∣∣−−→PQ

∣∣ ,

e l’angolo �PQR ponendo

�PQR =�−−→QP

−−→QR .

Se poi B e un sottospazio affine di A, si pone

d(P,B) = min{d(P,Q) | Q ∈ B

}

e, se B′, B′′ sono due sottospazi affini di A, si pone

d(B′,B′′) = min{d(P,Q) | P ∈ B′, Q ∈ B′′ } ,

145Spazi affini

Page 146: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

146 CAPITOLO 7. SPAZI AFFINI

potendosi infatti dimostrare l’esistenza di tali minimi. Sia ora u un vettore.Diremo che u e ortogonale al sottospazio affine B, e scriveremo u ⊥ B, se

u ⊥ −→B , ovvero u ⊥ w per ogni w ∈ −→

B .Consideriamo un iperpiano π : a1x1+· · ·+anxn+a = 0. Si verifica facilmente

che il vettore nπ = (a1, . . . , an) e ortogonale a π (nπ ⊥ π) e che V = L(nπ)⊕−→π .Pertanto ogni vettore ortogonale a π e proporzionale a nπ. Per tale motivo si usadire che nπ e il vettore normale di π, e che e definito a meno di proporzionalita.Osserviamo inoltre che ogni vettore libero u ∈ V puo esprimersi, in unico modo,come somma u = hnπ + w, dove w e un opportuno vettore di −→π e h e unopportuno scalare. Si dice che w e la proiezione ortogonale di u su π (o piuprecisamente su −→π ). Il fascio improprio F ′′ costituito dagli iperpiani paralleli aπ si indica talvolta anche con il simbolo F ′′

nπ, in quanto puo vedersi anche come

l’insieme dei piani che ammettono nπ come vettore normale.Ci occuperemo ora degli spazi euclidei di dimensione 2 e 3, ed il lettore potra

fare riferimento, per visualizzare intuitivamente le situazioni che descriveremo,al piano ed allo spazio della geometria elementare.

7.6 Il piano affine ed euclideo reale

Poniamo dunque n = 2. Osserviamo esplicitamente che il modello classico peril piano affine (A, V,R) con dimA = 2 e il piano euclideo della geometria ele-mentare. In tale modello, gli elementi di A sono i punti del piano e V e lospazio vettoriale dei vettori liberi ordinari del piano. Laddove occorre conside-rare questioni metriche, angolari o di ortogonalita, si assume che sia dato in Vun prodotto scalare definito positivo. Indichiamo tale spazio affine euclideo conil simbolo E2. I sottospazi di E2 sono i singleton (o impropriamente i punti) chehanno dimensione 0, le rette, di dimensione 1, ed infine E2 stesso, di dimensione2. Abbiamo gia affrontato il problema di rappresentare, in forma cartesiana oparametrica, le rette in uno spazio affine di dimensione arbitraria. Vediamo cosasuccede in dettaglio in E2. Come osservato in generale, una retta r ha direttrice−→r ≤ V e per ogni P0 ∈ r si ha che

r = P0 +−→r

ovveror =

{P ∈ E2

∣∣ −−→P0P ∈ −→r}.

Pertanto, fissato un vettore non nullo ur ∈ −→r , ovvero un vettore ur paralleload r, si ha che ur genera −→r (piu precisamente, il sistema [ur] e una base di −→r ),e quindi

r ={P ∈ E2

∣∣ ∃ t ∈ R∣∣ −−→P0P = tur

}(7.4)

o ancher =

{P ∈ E2

∣∣ [ur,−−→P0P

]e dipendente

}. (7.5)

Passando alle componenti, dalla (7.4) si deducono le equazioni parametrichedi r, dalla (7.5) l’equazione cartesiana. Consideriamo infatti un riferimento

146 Geometria e algebra

Page 147: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

146 CAPITOLO 7. SPAZI AFFINI

potendosi infatti dimostrare l’esistenza di tali minimi. Sia ora u un vettore.Diremo che u e ortogonale al sottospazio affine B, e scriveremo u ⊥ B, se

u ⊥ −→B , ovvero u ⊥ w per ogni w ∈ −→

B .Consideriamo un iperpiano π : a1x1+· · ·+anxn+a = 0. Si verifica facilmente

che il vettore nπ = (a1, . . . , an) e ortogonale a π (nπ ⊥ π) e che V = L(nπ)⊕−→π .Pertanto ogni vettore ortogonale a π e proporzionale a nπ. Per tale motivo si usadire che nπ e il vettore normale di π, e che e definito a meno di proporzionalita.Osserviamo inoltre che ogni vettore libero u ∈ V puo esprimersi, in unico modo,come somma u = hnπ + w, dove w e un opportuno vettore di −→π e h e unopportuno scalare. Si dice che w e la proiezione ortogonale di u su π (o piuprecisamente su −→π ). Il fascio improprio F ′′ costituito dagli iperpiani paralleli aπ si indica talvolta anche con il simbolo F ′′

nπ, in quanto puo vedersi anche come

l’insieme dei piani che ammettono nπ come vettore normale.Ci occuperemo ora degli spazi euclidei di dimensione 2 e 3, ed il lettore potra

fare riferimento, per visualizzare intuitivamente le situazioni che descriveremo,al piano ed allo spazio della geometria elementare.

7.6 Il piano affine ed euclideo reale

Poniamo dunque n = 2. Osserviamo esplicitamente che il modello classico peril piano affine (A, V,R) con dimA = 2 e il piano euclideo della geometria ele-mentare. In tale modello, gli elementi di A sono i punti del piano e V e lospazio vettoriale dei vettori liberi ordinari del piano. Laddove occorre conside-rare questioni metriche, angolari o di ortogonalita, si assume che sia dato in Vun prodotto scalare definito positivo. Indichiamo tale spazio affine euclideo conil simbolo E2. I sottospazi di E2 sono i singleton (o impropriamente i punti) chehanno dimensione 0, le rette, di dimensione 1, ed infine E2 stesso, di dimensione2. Abbiamo gia affrontato il problema di rappresentare, in forma cartesiana oparametrica, le rette in uno spazio affine di dimensione arbitraria. Vediamo cosasuccede in dettaglio in E2. Come osservato in generale, una retta r ha direttrice−→r ≤ V e per ogni P0 ∈ r si ha che

r = P0 +−→r

ovveror =

{P ∈ E2

∣∣ −−→P0P ∈ −→r}.

Pertanto, fissato un vettore non nullo ur ∈ −→r , ovvero un vettore ur paralleload r, si ha che ur genera −→r (piu precisamente, il sistema [ur] e una base di −→r ),e quindi

r ={P ∈ E2

∣∣ ∃ t ∈ R∣∣ −−→P0P = tur

}(7.4)

o ancher =

{P ∈ E2

∣∣ [ur,−−→P0P

]e dipendente

}. (7.5)

Passando alle componenti, dalla (7.4) si deducono le equazioni parametrichedi r, dalla (7.5) l’equazione cartesiana. Consideriamo infatti un riferimento

7.6. IL PIANO AFFINE ED EUCLIDEO REALE 147

R =(O; e1, e2), che per comodita assumiamo essere monometrico ortogonale

(ovvero e1 · e2 = 0 ed e1 · e1 = 1 = e2 · e2) anche se in molte situazioniche affronteremo tale assunzione sara superflua. Fissato un punto P0 ∈ E2 e,scelto un vettore non nullo u, vogliamo descrivere la retta r tale che P0 ∈ red −→r = L(u). Indicato con P il generico punto del piano, e posto P ≡ (x, y),

P0 ≡ (x0, y0), u = (l,m), abbiamo che−−→P0P = (x− x0, y − y0) e quindi, in base

alla (7.4),

P ∈ r ⇐⇒ ∃ t ∈ R | −−→P0P = tu ,

ovvero, passando alle componenti,

(x− x0, y − y0) = t(l,m) = (tl, tm) .

Si ottiene quindi la seguente rappresentazione parametrica di r

r :

{x− x0 = tl

y − y0 = tm

ovvero

r :

{x = x0 + tl

y = y0 + tm. (7.6)

Osserviamo esplicitamente che nella rappresentazione (7.6) i coefficienti del pa-rametro t sono le componenti di un vettore direzionale di r. Utilizzando invecela (7.5), deve risultare dipendente il sistema

[(l,m), (x− x0, y − y0)

]

e quindi

P ∈ r ⇐⇒ ρ

(l m

x− x0 y − y0

)= 1 ⇐⇒ det

(l m

x− x0 y − y0

)= 0 .

Una rappresentazione cartesiana della retta r e dunque la seguente:

r : −mx+ ly + (mx0 − ly0) = 0 .

Riassumendo, una rappresentazione cartesiana (o anche implicita) di r e del tipo

r : ax+ by + c = 0 (7.7)

dove a, b non sono entrambi nulli. In una tale rappresentazione si riconosceimmediatamente che un vettore direzionale di r e dato da ur = (−b, a). Sipotrebbe dimostrare che rappresentano r tutte e sole le equazioni di primogrado in x, y proporzionali alla (7.7).

147Spazi affini

Page 148: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

148 CAPITOLO 7. SPAZI AFFINI

O

Q0

P0

P

−→r

r urr = P0 +

−→r= Q0 +

−→r

−−→P0P = 1

2ur

−−→Q0P = 2ur

In figura, la direttrice −→r della retta r, che e il sottospazio vettoriale dellospazio vettoriale dei vettori liberi del piano paralleli ad r (come ad esempio−−→P0P ,

−−→Q0P ,

−−−→P0Q0), e stata rappresentata graficamente come la parallela ad r per

l’origine.Siamo quindi in grado di descrivere una retta nel piano a partire da un suo

punto e da un vettore non nullo ad essa parallelo. Possiamo anche partire da duepunti di una retta ed ottenere una analoga descrizione. In effetti nella geometriaeuclidea, che rappresenta il nostro modello, sappiamo che per due punti distintipassa una ed una sola retta. Nel nostro contesto possiamo procedere come segue.

Dati due punti P0, P1 distinti, possiamo porre u =−−−→P0P1 e descrivere la retta a

partire dal punto P0 e dal vettore u.Date ora due rette r′, r′′, vogliamo studiare le loro possibili posizioni reci-

proche. A tale scopo, siano esse rappresentate come segue:

r′ : a′x+ b′y + c′ = 0 ; r′′ : a′′x+ b′′y + c′′ = 0 . (7.8)

E chiaro che l’intersezione r′ ∩ r′′ e il luogo rappresentato dal sistema

r′ ∩ r′′ :

{a′x+ b′y + c′ = 0

a′′x+ b′′y + c′′ = 0(7.9)

Posto

A′ =(

a′ b′

a′′ b′′︸ ︷︷ ︸A

∣∣∣−c′

−c′′

)

il sistema (7.9), di cui A ed A′ sono rispettivamente la matrice incompleta equella completa, e di Cramer se e solo se detA �= 0. In tal caso esiste un’unicasoluzione (x, y) ed il punto H ≡ (x, y) e l’unico punto in cui le due rette si

148 Geometria e algebra

Page 149: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

148 CAPITOLO 7. SPAZI AFFINI

O

Q0

P0

P

−→r

r urr = P0 +

−→r= Q0 +

−→r

−−→P0P = 1

2ur

−−→Q0P = 2ur

In figura, la direttrice −→r della retta r, che e il sottospazio vettoriale dellospazio vettoriale dei vettori liberi del piano paralleli ad r (come ad esempio−−→P0P ,

−−→Q0P ,

−−−→P0Q0), e stata rappresentata graficamente come la parallela ad r per

l’origine.Siamo quindi in grado di descrivere una retta nel piano a partire da un suo

punto e da un vettore non nullo ad essa parallelo. Possiamo anche partire da duepunti di una retta ed ottenere una analoga descrizione. In effetti nella geometriaeuclidea, che rappresenta il nostro modello, sappiamo che per due punti distintipassa una ed una sola retta. Nel nostro contesto possiamo procedere come segue.

Dati due punti P0, P1 distinti, possiamo porre u =−−−→P0P1 e descrivere la retta a

partire dal punto P0 e dal vettore u.Date ora due rette r′, r′′, vogliamo studiare le loro possibili posizioni reci-

proche. A tale scopo, siano esse rappresentate come segue:

r′ : a′x+ b′y + c′ = 0 ; r′′ : a′′x+ b′′y + c′′ = 0 . (7.8)

E chiaro che l’intersezione r′ ∩ r′′ e il luogo rappresentato dal sistema

r′ ∩ r′′ :

{a′x+ b′y + c′ = 0

a′′x+ b′′y + c′′ = 0(7.9)

Posto

A′ =(

a′ b′

a′′ b′′︸ ︷︷ ︸A

∣∣∣−c′

−c′′

)

il sistema (7.9), di cui A ed A′ sono rispettivamente la matrice incompleta equella completa, e di Cramer se e solo se detA �= 0. In tal caso esiste un’unicasoluzione (x, y) ed il punto H ≡ (x, y) e l’unico punto in cui le due rette si

7.6. IL PIANO AFFINE ED EUCLIDEO REALE 149

intersecano. Si dice allora che r′, r′′ sono incidenti, e H e il punto d’inciden-za. Supponiamo ora che detA = 0; le due rette sono allora parallele (infattiur′ = (−b′, a′) e ur′′ = (−b′′, a′′) sono proporzionali e quindi generano la stessadirettrice). In particolare, se ρ(A′) = 2 il sistema (7.9) e incompatibile e ledue rette hanno intersezione vuota. Diremo allora che r′, r′′ sono propriamenteparallele, e scriveremo r′ � r′′. Se invece ρ(A′) = 1 il sistema (7.9) e compatibi-le (ma non di Cramer) e ammette infinite soluzioni, e le due rette coincidono.Infatti la circostanza che ρ(A′) = 1 ci dice che le equazioni cartesiane delle duerette sono tra loro proporzionali, e dunque descrivono lo stesso luogo geometrico.

Consideriamo ora due rette distinte r′, r′′, rappresentate come sopra. Si hapertanto che ρ(A′) = 2 e che

r′ � r′′ ⇐⇒ ρ(A) = 1 ⇐⇒ detA = 0 .

7.18 Definizione. Se r′, r′′ non sono parallele, l’insieme F ′ delle rette checontengono r′ ∩ r′′ si dice fascio proprio di rette individuato da r′, r′. Se invecer′||r′′, l’insieme F ′′ delle rette parallele a r′ (nonche a r′′), ovvero l’insieme

delle rette che ammettono−→r′ come direttrice, si dice fascio improprio di rette

di direttrice−→r′ .

Nella seguente figura si fornisce un esempio di fascio proprio, e si indica conH il punto di intersezione di r′ ed r′′.

r′

r′′

F ′H

149Spazi affini

Page 150: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

150 CAPITOLO 7. SPAZI AFFINI

Nella prossima figura e invece rappresentato un fascio improprio.

r′′

r′ F ′′

−→ur′ =−→ur′′

nr′

Osserviamo che le rette che appartengono al fascio (proprio o improprio) indi-viduato da r′, r′′ sono tutte e sole quelle del tipo

r : λ(a′x+ b′y + c′) + μ(a′′x+ b′′y + c′′) = 0

dove λ, μ ∈ R non sono entrambi nulli.Nel caso del fascio proprio, detto P ≡ (x, y) il punto di incidenza di r′, r′′,

la generica retta di F e del tipo

r : a(x− x) + b(y − y) = 0 ,

dove a, b sono scalari arbitrari, non entrambi nulli. Nel caso del fascio improprio,la generica retta di G e del tipo

r : a′x+ b′y + k = 0 ,

150 Geometria e algebra

Page 151: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

150 CAPITOLO 7. SPAZI AFFINI

Nella prossima figura e invece rappresentato un fascio improprio.

r′′

r′ F ′′

−→ur′ =−→ur′′

nr′

Osserviamo che le rette che appartengono al fascio (proprio o improprio) indi-viduato da r′, r′′ sono tutte e sole quelle del tipo

r : λ(a′x+ b′y + c′) + μ(a′′x+ b′′y + c′′) = 0

dove λ, μ ∈ R non sono entrambi nulli.Nel caso del fascio proprio, detto P ≡ (x, y) il punto di incidenza di r′, r′′,

la generica retta di F e del tipo

r : a(x− x) + b(y − y) = 0 ,

dove a, b sono scalari arbitrari, non entrambi nulli. Nel caso del fascio improprio,la generica retta di G e del tipo

r : a′x+ b′y + k = 0 ,

7.6. IL PIANO AFFINE ED EUCLIDEO REALE 151

dove k e un arbitrario scalare. Sia nel caso del fascio proprio che di quelloimproprio, la retta r rappresentata da

r : ax+ by + c = 0

appartiene al fascio individuato da r′, r′′ se e solo se, posto

A =

⎛⎝

a b ca′ b′ c′

a′′ b′′ c′′

⎞⎠ ,

si ha che ρ(A) = 2, ovvero detA = 0 in quanto gia sappiamo che il rango di Ae almeno 2. Siano ora r′, r′′ come in (7.8). Indicati con ur′ ,ur′′ i loro rispettivivettori direzionali, si e gia osservato che ur′ = (−b′, a′), ur′′ = (−b′′, a′′).

7.19 Definizione. Le rette r′, r′′ si dicono ortogonali, e si scrive r′ ⊥ r′′, seur′ ⊥ ur′′ , ovvero ur′ · ur′′ = 0, e cioe a′a′′ + b′b′′ = 0.

Osserviamo che se r′ ⊥ r′′, sicuramente r′, r′′ sono incidenti. Si dice ancheche r′, r′′ sono perpendicolari. Ricordiamo che se P0 ≡ (x0, y0) e P1 ≡ (x1, y1)sono due punti, la loro distanza d(P0, P1) e definita ponendo

d(P0, P1) =��−−−→P0P1

�� =�(x1 − x0)2 + (y1 − y0)2 .

Se consideriamo la retta r rappresentata come in (7.7), si verifica agevolmenteche esiste un unico punto H ∈ r tale che d(P0, r) = d(P0, H). Si osserva infattiche esiste un’unica retta r′ tale che P0 ∈ r′ e r′ ⊥ r. Basta porre ur′ = (a, b)(e cosı ur ⊥ ur′) e scrivere r′ in forma parametrica. Il punto H si trova alloracome intersezione di r ed r′. Si verifica facilmente che

d(P0, r) =

��ax0 + by0 + c��

√a2 + b2

.

151Spazi affini

Page 152: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

152 CAPITOLO 7. SPAZI AFFINI

H

P0

r :ax

+by+c =

0

r �

nr ∝

(a,b)

ur∝(−

b,a)

Sia ancora r come in (7.7) e consideriamo il vettore nr = (a, b), che si dicevettore normale di r. Osserviamo che nr ⊥ r, ovvero nr ⊥ −→r , e cioe nr ⊥ wper ogni w ∈ −→r . Infatti, poiche ur genera −→r , ogni w ∈ −→r e del tipo w = kur,dove ur = (−b, a) e il vettore direzionale di r e k e un opportuno scalare, ede chiaro che nr · ur = (a, b) · (−b, a) = −ab + ab = 0, cioe nr ⊥ ur. Pertanto,considerate ancora le rette r�, r�� come in (7.8) e i loro vettori normali nr′ =(a�, b�), nr′′ = (a��, b��), la condizione di parallelismo tra tali rette del piano puoanche esprimersi come segue:

r� � r�� ⇐⇒ ur′ � ur′′ ⇐⇒ nr′ � nr′′ ⇐⇒ (a�, b�) ∝ (a��, b��) ,

o anche

r� � r�� ⇐⇒ ρ

(a� b�

a�� b��

)= 1 ⇐⇒

∣∣∣∣a� b�

a�� b��

∣∣∣∣ = 0 .

7.7 Lo spazio affine ed euclideo reale

Sia ora n = 3. Osserviamo esplicitamente che il modello classico per lo spazioaffine (A, V,R) con dimA = 3 e lo spazio euclideo della geometria elementare. Intale modello, gli elementi di A sono i punti dello spazio e V e lo spazio vettorialedei vettori liberi ordinari dello spazio. Laddove occorre considerare questionimetriche, angolari o di ortogonalita, si assume che sia dato in V un prodottoscalare definito positivo. Indichiamo tale spazio affine euclideo con il simboloE3. I sottospazi di E3 sono i singleton (o impropriamente i punti) che hannodimensione 0, le rette, di dimensione 1, i piani, di dimensione 2, ed infine E3

stesso, di dimensione 3.

152 Geometria e algebra

Page 153: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

152 CAPITOLO 7. SPAZI AFFINI

H

P0

r :ax

+by+c =

0

r �

nr ∝

(a,b)

ur∝(−

b,a)

Sia ancora r come in (7.7) e consideriamo il vettore nr = (a, b), che si dicevettore normale di r. Osserviamo che nr ⊥ r, ovvero nr ⊥ −→r , e cioe nr ⊥ wper ogni w ∈ −→r . Infatti, poiche ur genera −→r , ogni w ∈ −→r e del tipo w = kur,dove ur = (−b, a) e il vettore direzionale di r e k e un opportuno scalare, ede chiaro che nr · ur = (a, b) · (−b, a) = −ab + ab = 0, cioe nr ⊥ ur. Pertanto,considerate ancora le rette r�, r�� come in (7.8) e i loro vettori normali nr′ =(a�, b�), nr′′ = (a��, b��), la condizione di parallelismo tra tali rette del piano puoanche esprimersi come segue:

r� � r�� ⇐⇒ ur′ � ur′′ ⇐⇒ nr′ � nr′′ ⇐⇒ (a�, b�) ∝ (a��, b��) ,

o anche

r� � r�� ⇐⇒ ρ

(a� b�

a�� b��

)= 1 ⇐⇒

∣∣∣∣a� b�

a�� b��

∣∣∣∣ = 0 .

7.7 Lo spazio affine ed euclideo reale

Sia ora n = 3. Osserviamo esplicitamente che il modello classico per lo spazioaffine (A, V,R) con dimA = 3 e lo spazio euclideo della geometria elementare. Intale modello, gli elementi di A sono i punti dello spazio e V e lo spazio vettorialedei vettori liberi ordinari dello spazio. Laddove occorre considerare questionimetriche, angolari o di ortogonalita, si assume che sia dato in V un prodottoscalare definito positivo. Indichiamo tale spazio affine euclideo con il simboloE3. I sottospazi di E3 sono i singleton (o impropriamente i punti) che hannodimensione 0, le rette, di dimensione 1, i piani, di dimensione 2, ed infine E3

stesso, di dimensione 3.

7.7. LO SPAZIO AFFINE ED EUCLIDEO REALE 153

In questa esposizione supponiamo di aver fissato un riferimento

R =(O; e1, e2, e3)

che per comodita assumiamo essere monometrico ortogonale (ovvero eh · ek =δh,k per ogni h, k = 1, 2, 3) anche se in molte situazioni che affronteremo taleassunzione risultera superflua. In particolare, dati due vettori u′ = (x′, y′, z′);u′′ = (x′′, y′′, z′′) di V , il loro prodotto scalare e dato dalla formula u′ · u′′ =x′x′′+ y′y′′+ z′z′′. Vogliamo definire una nuova operazione interna nello spaziodei vettori liberi ordinari, detto prodotto vettoriale. Dati due vettori u′ e u′′, illoro prodotto vettoriale, che sara indicato con il simbolo u′×u′′ o anche u′∧u′′,e il vettore w = (l,m, n), ovvero w = le1 +me2 + ne3, dove

l =

∣∣∣∣y′ z′

y′′ z′′

∣∣∣∣ ; m = −∣∣∣∣x′ z′

x′′ z′′

∣∣∣∣ ; n =

∣∣∣∣x′ y′

x′′ y′′

∣∣∣∣ .

Osserviamo che l,m, n sono i minori di ordine 2, presi a segni alterni, dellamatrice

(x′ y′ z′

x′′ y′′ z′′

).

7.20 Proposizione. Valgono le seguenti proprieta del prodotto vettoriale:

(i) u′ ∧ u′′ = −u′′ ∧ u′;

(ii) u′ ∧ u′′ = 0 ⇐⇒[u′,u′′ ] e un sistema dipendente;

(iii) w ⊥ u′ e w ⊥ u′′.

Poiche w = le1 +me2 + ne3, risulta anche

w = u′ ∧ u′′ =

∣∣∣∣∣∣e1 e2 e3x′ y′ z′

x′′ y′′ z′′

∣∣∣∣∣∣.

Nella figura seguente sono rappresentati due vettori non paralleli u′,u′′ su unpiano π, il parallelogramma individuato da u′,u′′, ed infine il vettorew = u′∧u′′

ed il suo opposto −w = u′′ ∧ u′ che sono entrambi ortogonali a π.

153Spazi affini

Page 154: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

154 CAPITOLO 7. SPAZI AFFINI

π

w

−w

u′

u′′

Vogliamo ora rappresentare, in forma cartesiana o parametrica, i piani in E3.Come osservato in generale, un piano π ha giacitura −→π ≤ V , un sottospaziovettoriale di dimensione 2, e per ogni P0 ∈ π si ha che π = P0 +

−→π ovvero

π ={P ∈ E3

∣∣ −−→P0P ∈ −→π}.

Pertanto, fissati due vettori indipendenti u′,u′′ ∈ −→π , si ha che u′,u′′ generano−→π (piu precisamente, il sistema [u′,u′′] e una base di −→π ) e quindi

π ={P ∈ E3

∣∣ ∃ t′, t′′ ∈ R∣∣ −−→P0P = t′u′ + t′′u′′} (7.10)

o anche

π ={P ∈ E3

∣∣ [u′,u′′,−−→P0P

]e dipendente

}. (7.11)

Passando alle componenti, dalla (7.10) si deducono le equazioni parametriche diπ, dalla (7.11) l’equazione cartesiana di π. Fissiamo dunque un punto P0 ∈ E3

e, scelti due vettori indipendenti u′,u′′, descriviamo il piano π tale che P0 ∈ πe −→π = L(u′,u′′), ovvero il piano passante per P0 e parallelo ad u′,u′′. Indicatocon P il generico punto dello spazio, e posto P ≡ (x, y, z), P0 ≡ (x0, y0, z0),

u′ = (l′,m′, n′), u′′ = (l′′,m′′, n′′), abbiamo che−−→P0P = (x − x0, y − y0, z − z0)

e quindi, in base alla (7.10),

P ∈ π ⇐⇒ ∃ t′, t′′ ∈ R | −−→P0P = t′u′ + t′′u′′ ,

ovvero, passando alle componenti,

(x− x0, y − y0, z − z0) = t′(l′,m′, n′) + t′′(l′′,m′′, n′′)= (t′l′ + t′′l′′, t′m′ + t′′m′′, t′n′ + t′′n′′) .

154 Geometria e algebra

Page 155: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

154 CAPITOLO 7. SPAZI AFFINI

π

w

−w

u′

u′′

Vogliamo ora rappresentare, in forma cartesiana o parametrica, i piani in E3.Come osservato in generale, un piano π ha giacitura −→π ≤ V , un sottospaziovettoriale di dimensione 2, e per ogni P0 ∈ π si ha che π = P0 +

−→π ovvero

π ={P ∈ E3

∣∣ −−→P0P ∈ −→π}.

Pertanto, fissati due vettori indipendenti u′,u′′ ∈ −→π , si ha che u′,u′′ generano−→π (piu precisamente, il sistema [u′,u′′] e una base di −→π ) e quindi

π ={P ∈ E3

∣∣ ∃ t′, t′′ ∈ R∣∣ −−→P0P = t′u′ + t′′u′′} (7.10)

o anche

π ={P ∈ E3

∣∣ [u′,u′′,−−→P0P

]e dipendente

}. (7.11)

Passando alle componenti, dalla (7.10) si deducono le equazioni parametriche diπ, dalla (7.11) l’equazione cartesiana di π. Fissiamo dunque un punto P0 ∈ E3

e, scelti due vettori indipendenti u′,u′′, descriviamo il piano π tale che P0 ∈ πe −→π = L(u′,u′′), ovvero il piano passante per P0 e parallelo ad u′,u′′. Indicatocon P il generico punto dello spazio, e posto P ≡ (x, y, z), P0 ≡ (x0, y0, z0),

u′ = (l′,m′, n′), u′′ = (l′′,m′′, n′′), abbiamo che−−→P0P = (x − x0, y − y0, z − z0)

e quindi, in base alla (7.10),

P ∈ π ⇐⇒ ∃ t′, t′′ ∈ R | −−→P0P = t′u′ + t′′u′′ ,

ovvero, passando alle componenti,

(x− x0, y − y0, z − z0) = t′(l′,m′, n′) + t′′(l′′,m′′, n′′)= (t′l′ + t′′l′′, t′m′ + t′′m′′, t′n′ + t′′n′′) .

7.7. LO SPAZIO AFFINE ED EUCLIDEO REALE 155

Si ottiene quindi la seguente rappresentazione parametrica di π

π :

⎧⎪⎨⎪⎩

x− x0 = t′l′ + t′′l′′

y − y0 = t′m′ + t′′m′′

z − z0 = t′n′ + t′′n′′

ovvero

π :

⎧⎪⎨⎪⎩

x = x0 + t′l′ + t′′l′′

y = y0 + t′m′ + t′′m′′

z = z0 + t′n′ + t′′n′′(7.12)

Osserviamo esplicitamente che nella rappresentazione (7.12) i coefficienti deiparametri t′, t′′ sono le componenti di due vettori che generano la giacitura diπ. Utilizzando invece la (7.11), deve risultare dipendente il sistema

�(l′,m′, n′), (l′′,m′′, n′′), (x− x0, y − y0, z − z0)

e quindi, posto

C =

⎛⎝

l′ m′ n′

l′′ m′′ n′′

x− x0 y − y0 z − z0

⎞⎠ ,

si ha che

P ∈ π ⇐⇒ ρ(C) = 2 , (7.13)

poiche gia sappiamo che le prime due righe di C sono indipendenti. Pertantol’uguaglianza al II membro della (7.13) equivale al fatto che detC = 0 e quin-di, calcolando tale determinante con la regola di Laplace sulla terza riga, unarappresentazione cartesiana del piano π e data da

π : ax+ by + cz + d = 0 (7.14)

dove

a =

����m′ n′

m′′ n′′

���� ; b = −����l′ n′

l′′ n′′

���� ; c =

����l′ m′

l′′ m′′

���� ; d = −

������l′ m′ n′

l′′ m′′ n′′

x0 y0 z0

������

(e quindi, fra l’altro, a, b, c non sono tutti nulli). Si potrebbe facilmente verificareche ogni equazione del tipo (7.14), con a, b, c non tutti nulli, rappresenta unpiano, ed e poi chiaro che equazioni proporzionali rappresentano lo stesso piano.

Siamo quindi in grado di descrivere un piano nello spazio a partire da unsuo punto e da due vettori indipendenti ad esso paralleli (o, equivalentemente,appartenenti alla sua giacitura). Possiamo anche partire da tre punti non alli-neati di un piano (ovvero non appartenenti ad una stessa retta) ed ottenere unaanaloga descrizione. In effetti nella geometria euclidea, che rappresenta il nostromodello, sappiamo che per tre punti non allineati passa uno ed un solo piano.Nel nostro contesto possiamo procedere come segue. Dati tre punti P0, P1, P2

155Spazi affini

Page 156: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

156 CAPITOLO 7. SPAZI AFFINI

non allineati, possiamo porre u′ =−−−→P0P1, u′′ =

−−−→P0P2 e descrivere il piano a

partire dal punto P0 e dai vettori u′,u′′.Sia π come in (7.14) e consideriamo il vettore nπ = (a, b, c), che si dice

vettore normale di π. Osserviamo che nπ ⊥ π, ovvero nπ ⊥ −→π , e cioe nπ ⊥ wper ogni w ∈ −→π . Si puo provare cio al modo seguente. Posto

u = (−b, a, 0) ; v = (−c, 0, a) ; w = (0,−c, b) (7.15)

non e difficile verificare che u,v,w ∈ −→π , ovvero che u,v,w � π. Tenendoconto che a, b, c non possono annullarsi simultaneamente, vediamo che due ditali vettori costituiscono una base di −→π . Ad esempio, se a �= 0, [u,v] e unabase di −→π . In particolare, il sistema [u,v,w] genera −→π . E chiaro quindi chenπ ⊥ π se e solo se nπ · u = nπ · v = nπ · w = 0, e cio e immediato. Unarappresentazione della giacitura −→π del piano π, come sottospazio vettoriale diV nella base fissata, e data da

−→π : ax+ by + cz = 0 .

E infatti chiaro che i vettori u,v,w della (7.15), che generano −→π , hanno com-ponenti che verificano tale equazione.

Consideriamo ora due piani

π′ : a′x+ b′y + c′z + d′ = 0 , π′′ : a′′x+ b′′y + c′′z + d′′ = 0 , (7.16)

ed indichiamo con nπ′ = (a′, b′, c′), nπ′′ = (a′′, b′′, c′′) i loro vettori normali.

Per definizione, sappiamo che π′ � π′′ se e solo se−→π′ =

−→π′′ e cioe se e solo se

le equazioni a′x + b′y + c′z = 0, a′′x + b′′y + c′′z = 0 rappresentano lo stessosottospazio, ovvero sono proporzionali. Quindi

π′ � π′′ ⇐⇒ (a′, b′, c′) ∝ (a′′, b′′, c′′) ⇐⇒ ρ

(a′ b′ c′

a′′ b′′ c′′

)= 1 ,

o anche

π′ � π′′ ⇐⇒ nπ′ � nπ′′ ⇐⇒[nπ′ ,nπ′′

]e dipendente .

Se cio accade, ed inoltre

ρ

(a′ b′ c′ d′

a′′ b′′ c′′ d′′

)= 1 ,

le (7.16) risultano proporzionali, e quindi π′ = π′′. Si dice allora che π′, π′′ sonoimpropriamente paralleli o coincidenti. Se invece

ρ

(a′ b′ c′

a′′ b′′ c′′

)= 1 , ρ

(a′ b′ c′ d′

a′′ b′′ c′′ d′′

)= 2 ,

il sistema {a′x+ b′y + c′z + d′ = 0

a′′x+ b′′y + c′′z + d′′ = 0(7.17)

156 Geometria e algebra

Page 157: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

156 CAPITOLO 7. SPAZI AFFINI

non allineati, possiamo porre u′ =−−−→P0P1, u′′ =

−−−→P0P2 e descrivere il piano a

partire dal punto P0 e dai vettori u′,u′′.Sia π come in (7.14) e consideriamo il vettore nπ = (a, b, c), che si dice

vettore normale di π. Osserviamo che nπ ⊥ π, ovvero nπ ⊥ −→π , e cioe nπ ⊥ wper ogni w ∈ −→π . Si puo provare cio al modo seguente. Posto

u = (−b, a, 0) ; v = (−c, 0, a) ; w = (0,−c, b) (7.15)

non e difficile verificare che u,v,w ∈ −→π , ovvero che u,v,w � π. Tenendoconto che a, b, c non possono annullarsi simultaneamente, vediamo che due ditali vettori costituiscono una base di −→π . Ad esempio, se a �= 0, [u,v] e unabase di −→π . In particolare, il sistema [u,v,w] genera −→π . E chiaro quindi chenπ ⊥ π se e solo se nπ · u = nπ · v = nπ · w = 0, e cio e immediato. Unarappresentazione della giacitura −→π del piano π, come sottospazio vettoriale diV nella base fissata, e data da

−→π : ax+ by + cz = 0 .

E infatti chiaro che i vettori u,v,w della (7.15), che generano −→π , hanno com-ponenti che verificano tale equazione.

Consideriamo ora due piani

π′ : a′x+ b′y + c′z + d′ = 0 , π′′ : a′′x+ b′′y + c′′z + d′′ = 0 , (7.16)

ed indichiamo con nπ′ = (a′, b′, c′), nπ′′ = (a′′, b′′, c′′) i loro vettori normali.

Per definizione, sappiamo che π′ � π′′ se e solo se−→π′ =

−→π′′ e cioe se e solo se

le equazioni a′x + b′y + c′z = 0, a′′x + b′′y + c′′z = 0 rappresentano lo stessosottospazio, ovvero sono proporzionali. Quindi

π′ � π′′ ⇐⇒ (a′, b′, c′) ∝ (a′′, b′′, c′′) ⇐⇒ ρ

(a′ b′ c′

a′′ b′′ c′′

)= 1 ,

o anche

π′ � π′′ ⇐⇒ nπ′ � nπ′′ ⇐⇒[nπ′ ,nπ′′

]e dipendente .

Se cio accade, ed inoltre

ρ

(a′ b′ c′ d′

a′′ b′′ c′′ d′′

)= 1 ,

le (7.16) risultano proporzionali, e quindi π′ = π′′. Si dice allora che π′, π′′ sonoimpropriamente paralleli o coincidenti. Se invece

ρ

(a′ b′ c′

a′′ b′′ c′′

)= 1 , ρ

(a′ b′ c′ d′

a′′ b′′ c′′ d′′

)= 2 ,

il sistema {a′x+ b′y + c′z + d′ = 0

a′′x+ b′′y + c′′z + d′′ = 0(7.17)

7.7. LO SPAZIO AFFINE ED EUCLIDEO REALE 157

non e compatibile, si ha che π′ ∩ π′′ = ∅ e i due piani si dicono propriamenteparalleli. Se, infine, π′ �� π′′, deve essere

ρ

�a′ b′ c′

a′′ b′′ c′′

�= ρ

�a′ b′ c′ d′

a′′ b′′ c′′ d′′

�= 2 ,

ed il sistema (7.17) e compatibile e ridotto, ammette infinite soluzioni dipendentida un parametro, e rappresenta, come vedremo in seguito, una retta.

Abbiamo gia affrontato il problema di rappresentare, in forma cartesiana oparametrica, le rette in uno spazio affine di dimensione arbitraria e anche il casoparticolare delle rette in un piano affine. Vediamo cosa succede in dettaglio inE3. Come osservato in generale, una retta r ha direttrice −→r ≤ V , un sottospaziovettoriale di dimensione 1, e per ogni P0 ∈ r si ha che r = P0 +

−→r ovvero

r =�P ∈ E3

�� ∃ v ∈ V�� −−→P0P = v

�.

Pertanto, fissato un vettore non nullo ur ∈ −→r , si ha che ur genera −→r (piuprecisamente, il sistema [ur] e una base di −→r ) e quindi

r =�P ∈ E3

�� ∃ t ∈ R�� −−→P0P = tur

�(7.18)

o ancher =

�P ∈ E3

�� �ur,−−→P0P

�e dipendente

�. (7.19)

esattamente come nel caso delle rette in un piano affine. Passando alle com-ponenti, dalla (7.18) si deducono le equazioni parametriche di r, dalla (7.19) leequazioni cartesiane (che in questo caso saranno due). Fissato un punto P0 ∈ E3

e scelto un vettore non nullo u, vogliamo descrivere la retta r tale che P0 ∈ red −→r = L(u). Indicato con P il generico punto del piano, e posto P ≡ (x, y, z),

P0 ≡ (x0, y0, z0), u = (l,m, n), abbiamo che−−→P0P = (x − x0, y − y0, z − z0) e

quindi, in base alla (7.18),

P ∈ r ⇐⇒ ∃ t ∈ R | −−→P0P = tu ,

ovvero, passando alle componenti,

(x− x0, y − y0, z − z0) = t(l,m, n) = (tl, tm, tn) .

Si ottiene quindi la seguente rappresentazione parametrica di r

r :

⎧⎪⎨⎪⎩

x− x0 = tl

y − y0 = tm

z − z0 = tn

ovvero

r :

⎧⎪⎨⎪⎩

x = x0 + tl

y = y0 + tm

z = z0 + tn

. (7.20)

157Spazi affini

Page 158: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

158 CAPITOLO 7. SPAZI AFFINI

Osserviamo esplicitamente che nella rappresentazione (7.20) i coefficienti delparametro t sono le componenti di un vettore direzionale di r. Utilizzandoinvece la (7.19), deve risultare dipendente il sistema

[(l,m, n), (x− x0, y − y0, z − z0)

]

e quindi, posto

C =

(l m n

x− x0 y − y0 z − z0

),

si ha cheP ∈ r ⇐⇒ ρ(C) = 1 . (7.21)

Poiche u �= 0, gli scalari l,m, n non sono tutti nulli. Supponiamo ad esempioche sia l �= 0. Il Teorema degli orlati ci dice che l’uguaglianza al II membro della(7.21) equivale al fatto che gli orlati dell’elemento l in C siano tutti degeneri,ovvero ∣∣∣∣

l mx− x0 y − y0

∣∣∣∣ = 0 ;

∣∣∣∣l n

x− x0 z − z0

∣∣∣∣ = 0 ,

e quindi una rappresentazione cartesiana della retta r e data da

r :

{−mx+ ly + (mx0 − ly0) = 0

−nx+ lz + (nx0 − lz0) = 0

Riassumendo, una rappresentazione cartesiana (o anche implicita) della retta re del tipo

r :

{a′x+ b′y + c′z + d′ = 0

a′′x+ b′′y + c′′z + d′′ = 0(7.22)

dove, posto

A′ =(

a′ b′ c′

a′′ b′′ c′′︸ ︷︷ ︸A

∣∣∣∣−d′

−d′′

),

si ha che ρ(A) = 2. In tale situazione e chiaro che le due equazioni (7.22)rappresentano due piani, diciamo π′, π′′, che risultano tra loro non paralleli, esi ha che

r = π′ ∩ π′′ .

Si potrebbe facilmente verificare che ogni sistema del tipo (7.22), con ρ(A) =2, rappresenta una retta r e che un vettore direzionale ur = (l,m, n) di r siottiene ponendo

l =

∣∣∣∣b′ c′

b′′ c′′

∣∣∣∣ ; m = −∣∣∣∣a′ c′

a′′ c′′

∣∣∣∣ ; n =

∣∣∣∣a′ b′

a′′ b′′

∣∣∣∣ , (7.23)

(ovvero ur = nπ′ ∧ nπ′′ , se il riferimento scelto e ortonormale).Consideriamo ora due piani distinti π′, π′′, rappresentati come in (7.16). Si

ha pertanto che ρ(A′) = 2 e che π′ � π′′ ⇐⇒ ρ(A) = 1.

158 Geometria e algebra

Page 159: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

158 CAPITOLO 7. SPAZI AFFINI

Osserviamo esplicitamente che nella rappresentazione (7.20) i coefficienti delparametro t sono le componenti di un vettore direzionale di r. Utilizzandoinvece la (7.19), deve risultare dipendente il sistema

[(l,m, n), (x− x0, y − y0, z − z0)

]

e quindi, posto

C =

(l m n

x− x0 y − y0 z − z0

),

si ha cheP ∈ r ⇐⇒ ρ(C) = 1 . (7.21)

Poiche u �= 0, gli scalari l,m, n non sono tutti nulli. Supponiamo ad esempioche sia l �= 0. Il Teorema degli orlati ci dice che l’uguaglianza al II membro della(7.21) equivale al fatto che gli orlati dell’elemento l in C siano tutti degeneri,ovvero ∣∣∣∣

l mx− x0 y − y0

∣∣∣∣ = 0 ;

∣∣∣∣l n

x− x0 z − z0

∣∣∣∣ = 0 ,

e quindi una rappresentazione cartesiana della retta r e data da

r :

{−mx+ ly + (mx0 − ly0) = 0

−nx+ lz + (nx0 − lz0) = 0

Riassumendo, una rappresentazione cartesiana (o anche implicita) della retta re del tipo

r :

{a′x+ b′y + c′z + d′ = 0

a′′x+ b′′y + c′′z + d′′ = 0(7.22)

dove, posto

A′ =(

a′ b′ c′

a′′ b′′ c′′︸ ︷︷ ︸A

∣∣∣∣−d′

−d′′

),

si ha che ρ(A) = 2. In tale situazione e chiaro che le due equazioni (7.22)rappresentano due piani, diciamo π′, π′′, che risultano tra loro non paralleli, esi ha che

r = π′ ∩ π′′ .

Si potrebbe facilmente verificare che ogni sistema del tipo (7.22), con ρ(A) =2, rappresenta una retta r e che un vettore direzionale ur = (l,m, n) di r siottiene ponendo

l =

∣∣∣∣b′ c′

b′′ c′′

∣∣∣∣ ; m = −∣∣∣∣a′ c′

a′′ c′′

∣∣∣∣ ; n =

∣∣∣∣a′ b′

a′′ b′′

∣∣∣∣ , (7.23)

(ovvero ur = nπ′ ∧ nπ′′ , se il riferimento scelto e ortonormale).Consideriamo ora due piani distinti π′, π′′, rappresentati come in (7.16). Si

ha pertanto che ρ(A′) = 2 e che π′ � π′′ ⇐⇒ ρ(A) = 1.

7.7. LO SPAZIO AFFINE ED EUCLIDEO REALE 159

7.21 Definizione. Siano π′, π′′ due piani distinti. Se π′, π′′ non sono paralleli,e quindi la loro intersezione e una retta, posto ad esempio r = π′ ∩π′′, l’insiemeF ′ dei piani che contengono r si dice fascio (proprio) di piani individuato daπ′, π′′. Se invece π′||π′′, e cioe −→π ′ = −→π ′′, l’insieme F ′′ dei piani paralleli a π′

(nonche a π′′), ovvero l’insieme dei piani che ammettono −→π ′ come sottospaziodirettore, si dice fascio improprio di iperpiani di giacitura −→π ′.

F ′ = Fπ′,π′′ = Fr

π′

π′′

r

La figura precedente esemplifica la nozione di fascio proprio, la successiva quelladi fascio improprio.

F ′′ = Fπ′,π′′

π′

π′′

Osserviamo che i piani che appartengono al fascio (proprio o improprio) indivi-duato da due iperpiani distinti π′, π′′ sono tutti e soli quelli del tipo

π : λ(a′1x1 + · · ·+ a′nxn + a′) + μ(a′′1x1 + · · ·+ a′′nxn + a′′) = 0

159Spazi affini

Page 160: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

160 CAPITOLO 7. SPAZI AFFINI

dove λ, μ ∈ R sono non entrambi nulli. Indichiamo con F , o anche Fπ′,π′′ , ilfascio (proprio o improprio) individuato da π′, π′′.

Se π′, π′′ non sono paralleli, e quindi i piani di F sono tutti e soli quelli checontengono la retta r, tale retta si dice asse del fascio. Se invece π′, π′′ sonoparalleli, i piani di F sono tutti e soli quelli paralleli a π′ (e anche a π′′), e inoltreil generico piano π del fascio F ammette una rappresentazione cartesiana deltipo

π : a′1x1 + · · ·+ a′nxn + k = 0

dove k e uno scalare.In entrambi i casi, il piano π rappresentato dall’equazione π : ax+ by+ cz+

d = 0 appartiene al fascio individuato da π′, π′′ se e solo se

ρ

⎛⎝

a b c da′ b′ c′ d′

a′′ b′′ c′′ d′′

⎞⎠ = 2 .

Sia ora r una retta come in (7.20) o in (7.18) e π un piano come in (7.14),ed indichiamo con ur = (l,m, n) il vettore direzionale di r e con nπ = (a, b, c) ilvettore normale di π. Poniamo

A′ =

⎛⎝

a b ca′ b′ c′

a′′ b′′ c′′� �� �A

������dd′

d′′

⎞⎠

.

Sappiamo che, per definizione, r e parallela a π se e solo se −→r ≤ −→π , ovverour ∈ −→π . Si vede che cio equivale a dire che ur ⊥ nπ. Pertanto

r � π ⇐⇒ ur ⊥ nπ ⇐⇒ ur · nπ = 0 .

Ricordando la descrizione (7.23) di ur e calcolando detA con la regola di Laplacesulla I riga, vediamo che detA = ur · nπ e quindi

r � π ⇐⇒ detA = 0

con ρ(A) = 2. Se r e parallela a π, distinguiamo due casi. Diremo che r e πsono impropriamente paralleli se r ⊂ π, e cio equivale a dire che ρ(A′) = 2.Altrimenti avremo che ρ(A′) = 3, ma ρ(A) = 2 e quindi il sistema

⎧⎪⎨⎪⎩

ax+ by + cz + d = 0

a′x+ b′y + c′z + d′ = 0

a′′x+ b′′y + c′′z + d′′ = 0

(7.24)

che rappresenta r ∩ π, e incompatibile. Pertanto r ∩ π = ∅ e diremo che r e πsono propriamente paralleli. In sintesi

r � π ⇐⇒ ρ(A) = 2 ⇐⇒ detA = 0

160 Geometria e algebra

Page 161: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

160 CAPITOLO 7. SPAZI AFFINI

dove λ, μ ∈ R sono non entrambi nulli. Indichiamo con F , o anche Fπ′,π′′ , ilfascio (proprio o improprio) individuato da π′, π′′.

Se π′, π′′ non sono paralleli, e quindi i piani di F sono tutti e soli quelli checontengono la retta r, tale retta si dice asse del fascio. Se invece π′, π′′ sonoparalleli, i piani di F sono tutti e soli quelli paralleli a π′ (e anche a π′′), e inoltreil generico piano π del fascio F ammette una rappresentazione cartesiana deltipo

π : a′1x1 + · · ·+ a′nxn + k = 0

dove k e uno scalare.In entrambi i casi, il piano π rappresentato dall’equazione π : ax+ by+ cz+

d = 0 appartiene al fascio individuato da π′, π′′ se e solo se

ρ

⎛⎝

a b c da′ b′ c′ d′

a′′ b′′ c′′ d′′

⎞⎠ = 2 .

Sia ora r una retta come in (7.20) o in (7.18) e π un piano come in (7.14),ed indichiamo con ur = (l,m, n) il vettore direzionale di r e con nπ = (a, b, c) ilvettore normale di π. Poniamo

A′ =

⎛⎝

a b ca′ b′ c′

a′′ b′′ c′′� �� �A

������dd′

d′′

⎞⎠

.

Sappiamo che, per definizione, r e parallela a π se e solo se −→r ≤ −→π , ovverour ∈ −→π . Si vede che cio equivale a dire che ur ⊥ nπ. Pertanto

r � π ⇐⇒ ur ⊥ nπ ⇐⇒ ur · nπ = 0 .

Ricordando la descrizione (7.23) di ur e calcolando detA con la regola di Laplacesulla I riga, vediamo che detA = ur · nπ e quindi

r � π ⇐⇒ detA = 0

con ρ(A) = 2. Se r e parallela a π, distinguiamo due casi. Diremo che r e πsono impropriamente paralleli se r ⊂ π, e cio equivale a dire che ρ(A′) = 2.Altrimenti avremo che ρ(A′) = 3, ma ρ(A) = 2 e quindi il sistema

⎧⎪⎨⎪⎩

ax+ by + cz + d = 0

a′x+ b′y + c′z + d′ = 0

a′′x+ b′′y + c′′z + d′′ = 0

(7.24)

che rappresenta r ∩ π, e incompatibile. Pertanto r ∩ π = ∅ e diremo che r e πsono propriamente paralleli. In sintesi

r � π ⇐⇒ ρ(A) = 2 ⇐⇒ detA = 0

7.8. POSIZIONE RECIPROCA TRA RETTE 161

e tale parallelismo e proprio, ovvero r ∩ π = ∅, se e solo se ρ(A′) = 3. Seinvece r �� π, ovvero ρ(A) = 3 e detA �= 0, il sistema (7.24) e di Cramer. Seindichiamo con (x, y, z) l’unica soluzione di (7.24), e poniamo P = (x, y, z), siha che r∩π = {P} e si dice che r e π sono incidenti. Se r e rappresentata comein (7.18), le coordinate del punto di incidenza si possono anche determinaresostituendo i secondi membri delle (7.18) al posto di x, y, z in (7.14), risolvendola risultante equazione in t e sostituendo tale valore nelle (7.18).

7.8 Posizione reciproca tra rette

Consideriamo due rette r, s, dove r e rappresentata come in (7.22) o (7.20) ed

�a′′′x+ b′′′y + c′′′z + d′′′ = 0

a′′′′x+ b′′′′y + c′′′′z + d′′′′ = 0(7.25)

dove

ρ

�a′′′ b′′′ c′′′

a′′′′ b′′′′ c′′′′

�= 2 .

Ricordiamo che le rette r, s sono parallele quando le loro direttrici −→r e −→scoincidono. Parleremo poi di parallelismo improprio se r = s e di parallelismoproprio se r �= s (e quindi r ∩ s = ∅). Diremo che r, s sono incidenti se siintersecano in un punto. Sia nel caso del parallelismo proprio che nel caso del-l’incidenza e agevole verificare che esiste un unico piano π che contiene entrambele rette. Pertanto diremo che r, s sono complanari. In caso contrario, r, s sononon complanari, o anche sghembe.

Vogliamo studiare le possibili posizioni reciproche di r, s. Indichiamo, co-me al solito, con π′, π′′ i piani rappresentati dalle (7.22) e con π′′′, π′′′′ quellirappresentati dalle (7.25). Poniamo, per comodita,

A′r =

�a′ b′ c′

a′′ b′′ c′′� �� �Ar

����−d′

−d′′

�;

A′s =

�a′′′ b′′′ c′′′

a′′′′ b′′′′ c′′′′� �� �As

����−d′′′

−d′′′′

e

A′ =

⎛⎝A′

r

A′s

⎞⎠ =

⎛⎜⎜⎝

a′ b′ c′

a′′ b′′ c′′

a′′′ b′′′ c′′′

a′′′′ b′′′′ c′′′′� �� �A

��������

d′

d′′

d′′′

d′′′′

⎞⎟⎟⎠ (7.26)

Osserviamo cheρ(Ar) = ρ(As) = ρ(A′

r) = ρ(A′r) = 2

e quindi2 ≤ ρ(A) ≤ ρ(A′) ≤ 4 .

Inoltre i piani π′, π′′ sono incidenti e si ha che r = π′ ∩ π′′ ed analogamentepiani π′′′, π′′′′ sono incidenti e si ha che s = π′′′ ∩π′′′′. Consideriamo il seguente

161Spazi affini

Page 162: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

162 CAPITOLO 7. SPAZI AFFINI

sistema lineare, che rappresenta l’intersezione tra le due rette r, s ed ammettele matrici A,A′ descritte dalla (7.26) come matrici associate, a meno del segnodegli elementi dell’ultima colonna che non incide nel calcolo dei ranghi

r ∩ s :

⎧⎪⎪⎪⎨⎪⎪⎪⎩

a′x+ b′y + c′z = −d′

a′′x+ b′′y + c′′z = −d′′

a′′′x+ b′′′y + c′′′z = −d′′′

a′′′′x+ b′′′′y + c′′′′z = −d′′′′

(7.27)

• Caso 1. Supponiamo che sia ρ(A) = ρ(A′) = 2. Allora il sistema (7.27) ecompatibile, per il Teorema di Rouche-Capelli, e si riduce al sistema (7.22),o equivalentemente al sistema (7.24), che rappresentano, rispettivamente,r ed s. Pertanto r = r ∩ s = s, ovvero r ed s coincidono. Vale ancheil viceversa, nel senso che se r, s sono rappresentate come sopra ed essecoincidono, allora ρ(A) = ρ(A′) = 2.

• Caso 2. Se ρ(A) = 2 e ρ(A′) = 3, il sistema (7.27) e incompatibile er ∩ s = ∅. Consideriamo le rette

r :

�a′x+ b′y + c′z = 0

a′′x+ b′′y + c′′z = 0; s :

�a′′′x+ b′′′y + c′′′z = 0

a′′′′x+ b′′′′y + c′′′′z = 0

ed i piani

π′ : a′x+ b′y + c′z = 0 ; π′′ : a′′x+ b′′y + c′′z = 0

π′′′ : a′′′x+ b′′′y + c′′′z = 0 ; π′′′′ : a′′′′x+ b′′′′y + c′′′′z = 0 .

Abbiamo che r, s, π′, π′′, π′′′, π′′′′ sono le rette ed i piani paralleli rispettiva-mente ad r, s, π′, π′′, π′′′, π′′′′, passanti per l’origine. Il fatto che ρ(A) = 2ci dice che π′′′, π′′′′ appartengono al fascio individuato da π′, π′′, ovveror = s, e quindi r � r = s � s. In definitiva, le rette r, s sono propriamenteparallele. Vale anche il viceversa, nel senso che se r � s in senso proprioallora ρ(A) = 2 e ρ(A′) = 3.

• Caso 3. Sia ora ρ(A) = 3, ρ(A′) = 3. Il sistema (7.27) e compatibile esi riduce, cancellando opportunamente una delle quattro equazioni, ad unsistema di Cramer che ammette come unica soluzione una terna (x, y, z).Le rette r ed s sono allora incidenti e si incontrano nel punto P ≡ (x, y, z).Vale anche il viceversa, nel senso che se sappiamo che r ed s si incontranoin un punto deduciamo che ρ(A) = 3, ρ(A′) = 3. Il Caso 3 e esemplificatonella seguente figura.

162 Geometria e algebra

Page 163: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

162 CAPITOLO 7. SPAZI AFFINI

sistema lineare, che rappresenta l’intersezione tra le due rette r, s ed ammettele matrici A,A′ descritte dalla (7.26) come matrici associate, a meno del segnodegli elementi dell’ultima colonna che non incide nel calcolo dei ranghi

r ∩ s :

⎧⎪⎪⎪⎨⎪⎪⎪⎩

a′x+ b′y + c′z = −d′

a′′x+ b′′y + c′′z = −d′′

a′′′x+ b′′′y + c′′′z = −d′′′

a′′′′x+ b′′′′y + c′′′′z = −d′′′′

(7.27)

• Caso 1. Supponiamo che sia ρ(A) = ρ(A′) = 2. Allora il sistema (7.27) ecompatibile, per il Teorema di Rouche-Capelli, e si riduce al sistema (7.22),o equivalentemente al sistema (7.24), che rappresentano, rispettivamente,r ed s. Pertanto r = r ∩ s = s, ovvero r ed s coincidono. Vale ancheil viceversa, nel senso che se r, s sono rappresentate come sopra ed essecoincidono, allora ρ(A) = ρ(A′) = 2.

• Caso 2. Se ρ(A) = 2 e ρ(A′) = 3, il sistema (7.27) e incompatibile er ∩ s = ∅. Consideriamo le rette

r :

�a′x+ b′y + c′z = 0

a′′x+ b′′y + c′′z = 0; s :

�a′′′x+ b′′′y + c′′′z = 0

a′′′′x+ b′′′′y + c′′′′z = 0

ed i piani

π′ : a′x+ b′y + c′z = 0 ; π′′ : a′′x+ b′′y + c′′z = 0

π′′′ : a′′′x+ b′′′y + c′′′z = 0 ; π′′′′ : a′′′′x+ b′′′′y + c′′′′z = 0 .

Abbiamo che r, s, π′, π′′, π′′′, π′′′′ sono le rette ed i piani paralleli rispettiva-mente ad r, s, π′, π′′, π′′′, π′′′′, passanti per l’origine. Il fatto che ρ(A) = 2ci dice che π′′′, π′′′′ appartengono al fascio individuato da π′, π′′, ovveror = s, e quindi r � r = s � s. In definitiva, le rette r, s sono propriamenteparallele. Vale anche il viceversa, nel senso che se r � s in senso proprioallora ρ(A) = 2 e ρ(A′) = 3.

• Caso 3. Sia ora ρ(A) = 3, ρ(A′) = 3. Il sistema (7.27) e compatibile esi riduce, cancellando opportunamente una delle quattro equazioni, ad unsistema di Cramer che ammette come unica soluzione una terna (x, y, z).Le rette r ed s sono allora incidenti e si incontrano nel punto P ≡ (x, y, z).Vale anche il viceversa, nel senso che se sappiamo che r ed s si incontranoin un punto deduciamo che ρ(A) = 3, ρ(A′) = 3. Il Caso 3 e esemplificatonella seguente figura.

7.8. POSIZIONE RECIPROCA TRA RETTE 163

H

rs

π

• Caso 4. Supponiamo infine che ρ(A) = 3, ρ(A′) = 4, ovvero det(A′) �=0. Poiche se due rette sono complanari, ovvero esiste un piano che lecontiene entrambe, esse risultano, come gia noto, incidenti o paralleleoppure coincidenti, e nel caso in esame nessuna di queste situazioni siverifica, le due rette r ed s saranno sghembe, ovvero non esiste alcunpiano che le contiene entrambe. Anche in questo caso vale il viceversa.Osserviamo che, nel Caso 4, il fatto che ρ(A′) = 4 implica che ρ(A) = 3, equindi r, s sono sghembe se e solo se detA′ �= 0. Il Caso 4 e esemplificatonella seguente figura.

r

s

π′

π′′

163Spazi affini

Page 164: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

164 CAPITOLO 7. SPAZI AFFINI

7.9 Questioni metriche nello spazio

7.22 Definizione. Due rette r′, r′′ sono ortogonali (e si scrive r′ ⊥ r′′) se ur′ ⊥ur′′ . Quando si verifica tale situazione, puo avvenire che r′ ed r′′ siano incidentioppure sghembe. Due rette ortogonali ed incidenti si dicono perpendicolari.

7.23 Definizione. Due piani π′, π′′ sono ortogonali (e si scrive π′ ⊥ π′′) senπ′ ⊥ nπ′′ .

7.24 Definizione. Si dice che r e π sono ortogonali se ur e ortogonale a π,ovvero a −→π . Scriveremo allora r ⊥ π.

Osserviamo esplicitamente che cio equivale a dire che ur � nπ, o, equivalen-temente, che, posto ur = (l,m, n) e nπ = (a, b, c), si abbia (l,m, n) ∝ (a, b, c),ovvero

ρ

(a b cl m n

)= 1 .

Riassumendo, si ha che

r ⊥ π ⇐⇒ ur � nπ ⇐⇒ (l,m, n) ∝ (a, b, c) ⇐⇒ ρ

(l m na b c

)= 1 .

Osserviamo anche che se r ⊥ π, allora r e π sono incidenti. E chiaro che talidefinizioni non dipendono dalla scelta dei vettori direzionali delle rette r, r′, r′′

e dei vettori normali dei piani π, π′, π′′. Possiamo definire l’angolo tra le duerette r′, r′′ e tra i due piani π′, π′′ ponendo

r′r′′ = min{ur′ur′′ , π − ur′ur′′

}; π′π′′ = min

{nπ′nπ′′ , π − nπ′nπ′′

}.

La definizione di angolo tra due rette appena data ha senso anche quando lerette in questione non sono incidenti, ovvero r′ ∩ r′′ = ∅.

Consideriamo ora due punti P0 ≡ (x0, y0 =, z0), P1 ≡ (x1, y1 =, z1), duerette r′, r′′ e due piani π′, π′′ (come in (7.16)). Per quanto riguarda la distanzatra due punti, osserviamo che, per definizione,

d(P0, P1) =∣∣−−−→P0P1

∣∣ =√−−−→P0P1 ·

−−−→P0P1

e quindi, poiche−−−→P0P1 = (x1 − x0, y1 − y0, z1 − z0),

d(P0, P1) =√

(x1 − x0)2 + (y1 − y0)2 + (z1 − z0)2 .

Occupiamoci ora della distanza di un punto P0 da un piano π′. Descritta la rettar passante per P0 e tale che ur = nπ′ , abbiamo che r ⊥ π′. Posto H = r ∩ π′ siverifica facilmente che

d(P0, H) ≤ d(P0, P ) ∀ P ∈ π′ .

164 Geometria e algebra

Page 165: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

164 CAPITOLO 7. SPAZI AFFINI

7.9 Questioni metriche nello spazio

7.22 Definizione. Due rette r′, r′′ sono ortogonali (e si scrive r′ ⊥ r′′) se ur′ ⊥ur′′ . Quando si verifica tale situazione, puo avvenire che r′ ed r′′ siano incidentioppure sghembe. Due rette ortogonali ed incidenti si dicono perpendicolari.

7.23 Definizione. Due piani π′, π′′ sono ortogonali (e si scrive π′ ⊥ π′′) senπ′ ⊥ nπ′′ .

7.24 Definizione. Si dice che r e π sono ortogonali se ur e ortogonale a π,ovvero a −→π . Scriveremo allora r ⊥ π.

Osserviamo esplicitamente che cio equivale a dire che ur � nπ, o, equivalen-temente, che, posto ur = (l,m, n) e nπ = (a, b, c), si abbia (l,m, n) ∝ (a, b, c),ovvero

ρ

(a b cl m n

)= 1 .

Riassumendo, si ha che

r ⊥ π ⇐⇒ ur � nπ ⇐⇒ (l,m, n) ∝ (a, b, c) ⇐⇒ ρ

(l m na b c

)= 1 .

Osserviamo anche che se r ⊥ π, allora r e π sono incidenti. E chiaro che talidefinizioni non dipendono dalla scelta dei vettori direzionali delle rette r, r′, r′′

e dei vettori normali dei piani π, π′, π′′. Possiamo definire l’angolo tra le duerette r′, r′′ e tra i due piani π′, π′′ ponendo

r′r′′ = min{ur′ur′′ , π − ur′ur′′

}; π′π′′ = min

{nπ′nπ′′ , π − nπ′nπ′′

}.

La definizione di angolo tra due rette appena data ha senso anche quando lerette in questione non sono incidenti, ovvero r′ ∩ r′′ = ∅.

Consideriamo ora due punti P0 ≡ (x0, y0 =, z0), P1 ≡ (x1, y1 =, z1), duerette r′, r′′ e due piani π′, π′′ (come in (7.16)). Per quanto riguarda la distanzatra due punti, osserviamo che, per definizione,

d(P0, P1) =∣∣−−−→P0P1

∣∣ =√−−−→P0P1 ·

−−−→P0P1

e quindi, poiche−−−→P0P1 = (x1 − x0, y1 − y0, z1 − z0),

d(P0, P1) =√(x1 − x0)2 + (y1 − y0)2 + (z1 − z0)2 .

Occupiamoci ora della distanza di un punto P0 da un piano π′. Descritta la rettar passante per P0 e tale che ur = nπ′ , abbiamo che r ⊥ π′. Posto H = r ∩ π′ siverifica facilmente che

d(P0, H) ≤ d(P0, P ) ∀ P ∈ π′ .

7.9. QUESTIONI METRICHE NELLO SPAZIO 165

Pertanto

d(P0, π′) = d(P0, H)

e si prova che

d(P0, π′) =

|a′x+ b′y + c′z + d′|√a′2 + b′2 + c′2

.

Studiamo la distanza tra i due piani π′, π′′. Se essi non sono paralleli, la lorointersezione e non vuota (e una retta) e quindi d(π′, π′′) = 0. Se invece π′ � π′′,si procede al modo seguente. Se r e una qualunque retta ortogonale a entrambii piani, detti P ′, P ′′ i punti di intersezione di r con tali piani, si ha che

d(π′, π′′) = d(P ′, P ′′) .

Consideriamo ora i sottospazi r′, π′ e calcoliamo d(r′, π′). Se r′ e π′ sonoincidenti e chiaro che d(r′, π′) = 0. Se invece r′ � π′, e altrettanto chiaroche

d(r′, π′) = d(P ′, π′) ∀ P ′ ∈ r′ .

La distanza tra il punto P0 e la retta r′ si calcola invece come segue. Esiste ununico piano π passante per P0 e ortogonale ad r′. Posto allora H = r′ ∩π, si hache

d(P0, r′) = d(P0, H) .

Consideriamo ora due rette r, s. Se r � s, scelto un piano π tale che nπ = ur

e posto H = π ∩ r, K = π ∩ s, si ha che

d(r, s) = d(H,K) .

Se invece r ed s sono non parallele, vale il seguente importante teorema.

7.25 Teorema della comune perpendicolare. Siano r ed s due rette nonparallele. Esiste allora un’unica retta p perpendicolare ad entrambe (che vienedetta la comune perpendicolare di r ed s). Inoltre, posto H = p∩ r, K = p∩ s,si ha che d(r, s) = d(H,K).

Dimostrazione. Allo scopo di provare tale teorema, distinguiamo i due casi chepossono presentarsi, ovvero che r, s siano incidenti oppure sghembe. Se r, s sonoincidenti, e H e il loro punto comune, poiche un vettore ortogonale alle direzionidi r ed s e dato dal prodotto vettoriale v = ur ∧ us, la retta p passante perH con vettore direzionale v sara certamente una perpendicolare comune ad red s. Essa e unica. Infatti ogni altra retta p′ ortogonale sia ad r che ad sdeve necessariamente essere parallela a p. Pertanto p′ interseca il piano π checontiene r ed s in un unico punto, e tale punto non puo che essere H, e quindip′ = p. E poi chiaro che in tal caso la distanza tra le due rette e nulla.

165Spazi affini

Page 166: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

166 CAPITOLO 7. SPAZI AFFINI

K

H r

s

π′

π′′

p

H

rs

π

p

Supponiamo ora che le due rette siano sghembe e consideriamo una loro rap-presentazione parametrica. Ad esempio, sia r come in (7.20) e sia

s :

⎧⎪⎨⎪⎩

x = x1 + t′l′

y = y1 + t′m′

z = z1 + t′n′

I vettori direzionali delle due rette sono quindi ur = (l,m, n) e us = (l′,m′, n′)e si ha che

ρ

�l m nl′ m′ n′

�= 2

essendo r �� s. Indichiamo con Pt il generico punto di r ed analogamente sia Qt′

il generico punto di s. Avremo che

Pt ≡ (x0 + lt, y0 +mt, z0 + nt) ; Qt′ ≡ (x1 + l′t′, y1 +m′t′, z1 + n′t′) .

In particolare P0 ≡ (x0, y0, z0) e Q0 ≡ (x1, y1, z1). Indichiamo con p la rettaper Pt e Qt′ . Essa e, per costruzione, incidente con r ed s (nei punti Pt e Qt′ ,

rispettivamente) ed ha vettore direzionale v =−−−→PtQt′ . Pertanto

v =�− lt+ l′t′ − x0 + x1 , −mt+m′t′ − y0 + y1 , −nt+ n′t′ − z0 + z1

�.

La retta p risultera quindi una comune perpendicolare ad r ed s se e solo sev ⊥ ur e v ⊥ us, ovvero �

v · ur = 0

v · us = 0

166 Geometria e algebra

Page 167: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

166 CAPITOLO 7. SPAZI AFFINI

K

H r

s

π′

π′′

p

H

rs

π

p

Supponiamo ora che le due rette siano sghembe e consideriamo una loro rap-presentazione parametrica. Ad esempio, sia r come in (7.20) e sia

s :

⎧⎪⎨⎪⎩

x = x1 + t′l′

y = y1 + t′m′

z = z1 + t′n′

I vettori direzionali delle due rette sono quindi ur = (l,m, n) e us = (l′,m′, n′)e si ha che

ρ

�l m nl′ m′ n′

�= 2

essendo r �� s. Indichiamo con Pt il generico punto di r ed analogamente sia Qt′

il generico punto di s. Avremo che

Pt ≡ (x0 + lt, y0 +mt, z0 + nt) ; Qt′ ≡ (x1 + l′t′, y1 +m′t′, z1 + n′t′) .

In particolare P0 ≡ (x0, y0, z0) e Q0 ≡ (x1, y1, z1). Indichiamo con p la rettaper Pt e Qt′ . Essa e, per costruzione, incidente con r ed s (nei punti Pt e Qt′ ,

rispettivamente) ed ha vettore direzionale v =−−−→PtQt′ . Pertanto

v =�− lt+ l′t′ − x0 + x1 , −mt+m′t′ − y0 + y1 , −nt+ n′t′ − z0 + z1

�.

La retta p risultera quindi una comune perpendicolare ad r ed s se e solo sev ⊥ ur e v ⊥ us, ovvero �

v · ur = 0

v · us = 0

7.10. AMPLIAMENTO COMPLESSO E PROIETTIVO 167

Tenendo conto dell’espressione di v,ur,us ed effettuando i prodotti scalari suindicati, otteniamo il sistema

⎧⎪⎪⎪⎨⎪⎪⎪⎩

l(−lt+ l′t′ − x0 + x1) +m(−mt+m′t′ − y0 + y1)

+ n(−nt+ n′t′ − z0 + z1) = 0

l′(−lt+ l′t′ − x0 + x1) +m′(−mt+m′t′ − y0 + y1)

+ n′(−nt+ n′t′ − z0 + z1) = 0

e cioe

⎧⎪⎪⎪⎨⎪⎪⎪⎩

−(l2 +m2 + n2)t+ (ll′ +mm′ + nn′)t′ + l(x1 − x0)

+m(y1 − y0) + n(z1 − z0) = 0

−(ll′ +mm′ + nn′)t+ (l′2 +m′2 + n′2)t′ + l′(x1 − x0)

+m′(y1 − y0) + n′(z1 − z0) = 0

Tale sistema, di due equazioni nelle due incognite t, t′, puo anche scriversi nellaforma piu compatta

�−(ur · ur)t+ (ur · us)t

′ + ur ·−−−→P0Q0 = 0

−(ur · us)t+ (us · us)t′ + us ·

−−−→P0Q0 = 0

(7.28)

Le matrici del sistema (7.28) sono

A′ =

�−ur · ur ur · us

−ur · us us · us� �� �A

���ur ·−−−→P0Q0

us ·−−−→P0Q0

Poiche detA = −(ur · ur)(us · us) + (ur · us)2, tenuto conto che i vettori ur,us

sono non paralleli, e quindi indipendenti, dalla disuguaglianza di Schwarz segueche detA �= 0 e quindi il sistema (7.28) e di Cramer nelle incognite t, t′. Siadunque (t0, t

′1) la soluzione (unica) di tale sistema. Allora il punto H = Pt0 ∈ r

e il punto K = Qt′1 ∈ s sono tali che la retta p per H,K e perpendicolare adr ed s. Dall’unicita della soluzione (t0, t

′1) si deduce che tale retta p (che per

costruzione e una comune incidente) e l’unica comune perpendicolare di r, s. Eagevole poi la verifica del fatto che d(r, s) = d(H,K). I punti H ∈ r e K ∈ ssono detti punti di minima distanza tra r ed s.

7.10 Ampliamento complesso e proiettivo

Nel prossimo capitolo studieremo le coniche, ovvero le curve del piano descritteda equazioni di secondo grado. A tal fine e opportuno utilizzare un modellodi piano in qualche modo piu ampio di E2. La costruzione di tale amplia-mento prevede dettagli formali che vanno ben al di la degli scopi del presentetesto, e quindi sara svolta in un modo forse formalmente insoddisfacente, ma,si spera, piu intuitivo. Sappiamo che, in un riferimento fissato R = (O; e1, e2)

167Spazi affini

Page 168: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

168 CAPITOLO 7. SPAZI AFFINI

ogni punto e individuato da due coordinate, ovvero due numeri reali, a, b. Im-maginiamo di aggiungere altri punti, le cui coordinate siano numeri complessi,di cui almeno uno non reale. Ad esempio sara possibile considerare il puntoQ ≡ (1, i). L’insieme cosı ottenuto sara indicato con il simbolo E2

C e sara dettoampliamento complesso del piano reale affine (ed euclideo) E2. I punti di E2

saranno detti punti reali, gli altri saranno detti punti immaginari. Osserviamoche se applichiamo le usuali formule di cambiamento di coordinate da R ad unaltro riferimento R� = (O�; e�1, e

�2), un punto di coordinate reali (a, b) in R avra

coordinate (a�, b�) in R� che risulteranno ancora reali. Analogamente, se le coor-dinate del punto in questione sono non entrambe reali in R, tali saranno anchein R�. In altre parole un punto sara reale, oppure immaginario, indipendente-mente dal riferimento di E2 scelto, in quanto sono reali le matrici coinvolte nelleformule di cambiamento delle coordinate. Per essere piu precisi, applichiamo laProposizione 7.14 al nostro contesto. Supponiamo che

P ≡R (x, y) ; P ≡R′ (x�, y�) . (7.29)

Supponiamo inoltre che

e1 = a1,1e�1 + a1,2e

�2 ; e2 = a2,1e

�1 + a2,2e

�2 ; O ≡R′ (a1,3, a2,3) . (7.30)

Poniamo

A =

(a1,1 a1,2a2,1 a2,2

); B =

(a1,3a2,3

); A� =

(a1,1 a1,2 a1,3a2,1 a2,2 a2,3

). (7.31)

Allora la Proposizione 7.14 ci assicura che(x�

y�

)= A ·

(xy

)+B =

(a1,1 a1,2a2,1 a2,2

)(xy

)+

(a1,3a2,3

)(7.32)

ovvero {x� = a1,1x+ a1,2y + a1,3

y� = a2,1x+ a2,2y + a2,3(7.33)

Conviene ricordare che se, come spesso accadra, i riferimenti sono ortonormali,la matrice A risulta ortogonale.

Consideriamo un punto Q ≡ (z, w). Le coordinate z, w sono numeri com-plessi. Possiamo quindi considerare i loro coniugati z, e w. Il punto Q = (z, w)si dice complesso coniugato di Q. Osserviamo che Q e un punto reale se e solose Q = Q. L’applicazione

χ : E2C −→ E2

C

che associa ad ogni punto Q il suo coniugato Q si dice coniugio. Essa fissa ipunti reali di E2

C e si ha che χχ = idE2C.

Consideriamo ora una retta r di E2, di equazione

r : ax+ by + c = 0 (7.34)

168 Geometria e algebra

Page 169: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

168 CAPITOLO 7. SPAZI AFFINI

ogni punto e individuato da due coordinate, ovvero due numeri reali, a, b. Im-maginiamo di aggiungere altri punti, le cui coordinate siano numeri complessi,di cui almeno uno non reale. Ad esempio sara possibile considerare il puntoQ ≡ (1, i). L’insieme cosı ottenuto sara indicato con il simbolo E2

C e sara dettoampliamento complesso del piano reale affine (ed euclideo) E2. I punti di E2

saranno detti punti reali, gli altri saranno detti punti immaginari. Osserviamoche se applichiamo le usuali formule di cambiamento di coordinate da R ad unaltro riferimento R� = (O�; e�1, e

�2), un punto di coordinate reali (a, b) in R avra

coordinate (a�, b�) in R� che risulteranno ancora reali. Analogamente, se le coor-dinate del punto in questione sono non entrambe reali in R, tali saranno anchein R�. In altre parole un punto sara reale, oppure immaginario, indipendente-mente dal riferimento di E2 scelto, in quanto sono reali le matrici coinvolte nelleformule di cambiamento delle coordinate. Per essere piu precisi, applichiamo laProposizione 7.14 al nostro contesto. Supponiamo che

P ≡R (x, y) ; P ≡R′ (x�, y�) . (7.29)

Supponiamo inoltre che

e1 = a1,1e�1 + a1,2e

�2 ; e2 = a2,1e

�1 + a2,2e

�2 ; O ≡R′ (a1,3, a2,3) . (7.30)

Poniamo

A =

(a1,1 a1,2a2,1 a2,2

); B =

(a1,3a2,3

); A� =

(a1,1 a1,2 a1,3a2,1 a2,2 a2,3

). (7.31)

Allora la Proposizione 7.14 ci assicura che(x�

y�

)= A ·

(xy

)+B =

(a1,1 a1,2a2,1 a2,2

)(xy

)+

(a1,3a2,3

)(7.32)

ovvero {x� = a1,1x+ a1,2y + a1,3

y� = a2,1x+ a2,2y + a2,3(7.33)

Conviene ricordare che se, come spesso accadra, i riferimenti sono ortonormali,la matrice A risulta ortogonale.

Consideriamo un punto Q ≡ (z, w). Le coordinate z, w sono numeri com-plessi. Possiamo quindi considerare i loro coniugati z, e w. Il punto Q = (z, w)si dice complesso coniugato di Q. Osserviamo che Q e un punto reale se e solose Q = Q. L’applicazione

χ : E2C −→ E2

C

che associa ad ogni punto Q il suo coniugato Q si dice coniugio. Essa fissa ipunti reali di E2

C e si ha che χχ = idE2C.

Consideriamo ora una retta r di E2, di equazione

r : ax+ by + c = 0 (7.34)

7.10. AMPLIAMENTO COMPLESSO E PROIETTIVO 169

ed il luogo geometrico r′ dei punti di E2C le cui coordinate (eventualmente anche

immaginarie) soddisfano la (7.34). Il luogo r′ e costituito dai punti di r e daaltri eventuali punti immaginari. r′ si dice ampliamento complesso della rettareale r. Ad esempio, se

r : x− y + 1 = 0 (7.35)

abbiamo che P ′ ≡ (0, 1), P ′′ ≡ (−1, 0), P ′′ ≡ (2, 3) sono punti di r, ovverosono punti reali di r′, mentre Q′ ≡ (i, i + 1) e un punto immaginario di r′. Ladistinzione tra r e r′, laddove non indispensabile, sara omessa. In E2

C possiamoconsiderare luoghi geometrici descritti da equazioni di primo grado in x, y, macon coefficienti non necessariamente reali. Chiameremo tali luoghi ancora rette.Ad esempio, sia

s : x+ iy = 0 . (7.36)

Osserviamo che il punto O ≡ (0, 0) e reale ed appartiene ad s, ma e l’unico puntoreale di s. Altri punti, necessariamente immaginari, di s sono R′ ≡ (i,−1),R′′ ≡ (1, i), R′′′ ≡ (3 + i, 3i − 1). Una retta descritta mediante un’equazionea coefficienti reali e detta retta reale. Puo accadere che una retta sia descrittada un’equazione a coefficienti non reali, ma sia comunque una retta reale. Adesempio, l’equazione

ix− iy + i = 0

descrive ancora la retta r della (7.35). E infatti vero, in generale, che equazioniproporzionali descrivono lo stesso luogo geometrico (ovvero hanno le stesse so-luzioni). Diremo quindi che una retta e immaginaria se non puo essere descrittada un’equazione a coefficienti reali. Non e difficile verificare che una retta imma-ginaria possiede al piu un punto reale, mentre una retta reale possiede infinitipunti reali. Quindi una retta che possiede almeno due punti reali e reale (epossiede infiniti punti reali).

Sia r una retta di equazione (7.34) (reale o immaginaria). I coefficienti a, b, cdell’equazione sono quindi numeri complessi. Indicheremo con r la retta

r : ax+ by + c = 0 ,

dove a, b, c sono i complessi coniugati di a, b, c. Diremo che r e la retta complessaconiugata di r. E interessante notare che una retta e reale se e solo se coincidecon la sua coniugata.

Osserviamo che anche il concetto di vettore libero, o applicato, va ampliato.Avremo quindi vettori di componenti non necessariamente reali. Ad esempio, il

vettore−−−→R′R′′ avra componenti (2+ i,−1+2i), e sara un vettore direzionale di s.

Va sottolineato che una retta immaginaria puo anche avere vettore direzionalereale. E il caso, ad esempio, della retta

t : x+ i = 0

che e immaginaria ed ha vettore direzionale ut = (0,−1), o anche (0, 1). Ilconcetto di parallelismo si estende all’insieme L di tutte le rette (reali o im-maginarie) di E2

C. Ad esempio vediamo che la retta immaginaria t e parallela

169Spazi affini

Page 170: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

170 CAPITOLO 7. SPAZI AFFINI

all’asse delle y, descritto dall’equazione x = 0, che e una retta reale. Sotto-lineiamo il fatto che i vettori e i punti che compaiono nei riferimenti che noiselezioniamo sono tutti reali. Parleremo pertanto di riferimenti reali.

Consideriamo ora l’insieme L delle rette di E2C. La relazione � di parallelismo

e un’equivalenza in L. Ricordiamo che se r′, r′′ ∈ L e ur′ = (l′,m′), ur′′ =(l′′,m′′) sono vettori direzionali di tali rette, abbiamo che

r′ � r′′ ⇐⇒ (l′,m′) ∝ (l′′,m′′) .

Un elemento dell’insieme quoziente L/‖, ovvero una classe di rette parallele, edetto anche talvolta, direzione. Definiamo un nuovo insieme

E2 = E2C⋃

L/‖ .

Un elemento di E2 sara detto punto. Se esso appartiene ad E2C, sara un punto

proprio, se invece appariene a L/‖, ovvero e una direzione, sara detto anchepunto improprio.

Sia ora K = R oppure K = C. Dalla potenza cartesiana K3 escludiamol’origine, e consideriamo quindi l’insieme

X = K3 − {0} .

In X consideriamo la relazione ∝ di proporzionalita: se (a, b, c), (a′, b′, c′) ∈ X,poniamo

(a, b, c) ∝ (a′, b′, c′) ⇐⇒ ∃λ ∈ K− {0}∣∣ (a′, b′, c′) = λ(a, b, c) .

Osserviamo che ∝ e una relazione d’equivalenza in X. Indicheremo con P2K

l’insieme quoziente X/ ∝, che e noto come piano proiettivo numerico (reale ocomplesso). Se (a, b, c) ∈ X, la sua classe si indichera con il simbolo [a, b, c]. Sipotrebbe verificare che tale classe, ovvero l’insieme delle terne non nulle pro-porzionali ad (a, b, c), e la retta per l’origine e per (a, b, c), privata dell’origine,o anche il sottospazio vettoriale di K3 generato da (a, b, c), privato del vettorenullo. Pertanto talvolta si dice che il piano proiettivo puo vedersi, geometri-camente, come l’insieme delle rette dello spazio passanti per l’origine, o anchecome l’insieme delle direzioni nello spazio.

Consideriamo un punto P ∈ E2C, ovvero, con la terminologia appena intro-

dotta, un punto proprio di E2, di coordinate, che d’ora in avanti chiameremoaffini, (a, b). Diremo che P ha come coordinate omogenee la terna (a, b, 1), ouna qualunque altra terna ad essa proporzionale (che risultera necessariamentenon nulla). Quindi la coppia di coordinate affini di un punto e univocamentedeterminata, mentre la terna di coordinate omogenee dello stesso punto e defi-nita solo a meno di proporzionalita. Comunque l’ultima coordinata omogeneanon sara mai nulla. Possiamo anche dire che le coordinate omogenee di P sono

170 Geometria e algebra

Page 171: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

170 CAPITOLO 7. SPAZI AFFINI

all’asse delle y, descritto dall’equazione x = 0, che e una retta reale. Sotto-lineiamo il fatto che i vettori e i punti che compaiono nei riferimenti che noiselezioniamo sono tutti reali. Parleremo pertanto di riferimenti reali.

Consideriamo ora l’insieme L delle rette di E2C. La relazione � di parallelismo

e un’equivalenza in L. Ricordiamo che se r′, r′′ ∈ L e ur′ = (l′,m′), ur′′ =(l′′,m′′) sono vettori direzionali di tali rette, abbiamo che

r′ � r′′ ⇐⇒ (l′,m′) ∝ (l′′,m′′) .

Un elemento dell’insieme quoziente L/‖, ovvero una classe di rette parallele, edetto anche talvolta, direzione. Definiamo un nuovo insieme

E2 = E2C⋃

L/‖ .

Un elemento di E2 sara detto punto. Se esso appartiene ad E2C, sara un punto

proprio, se invece appariene a L/‖, ovvero e una direzione, sara detto anchepunto improprio.

Sia ora K = R oppure K = C. Dalla potenza cartesiana K3 escludiamol’origine, e consideriamo quindi l’insieme

X = K3 − {0} .

In X consideriamo la relazione ∝ di proporzionalita: se (a, b, c), (a′, b′, c′) ∈ X,poniamo

(a, b, c) ∝ (a′, b′, c′) ⇐⇒ ∃λ ∈ K− {0}∣∣ (a′, b′, c′) = λ(a, b, c) .

Osserviamo che ∝ e una relazione d’equivalenza in X. Indicheremo con P2K

l’insieme quoziente X/ ∝, che e noto come piano proiettivo numerico (reale ocomplesso). Se (a, b, c) ∈ X, la sua classe si indichera con il simbolo [a, b, c]. Sipotrebbe verificare che tale classe, ovvero l’insieme delle terne non nulle pro-porzionali ad (a, b, c), e la retta per l’origine e per (a, b, c), privata dell’origine,o anche il sottospazio vettoriale di K3 generato da (a, b, c), privato del vettorenullo. Pertanto talvolta si dice che il piano proiettivo puo vedersi, geometri-camente, come l’insieme delle rette dello spazio passanti per l’origine, o anchecome l’insieme delle direzioni nello spazio.

Consideriamo un punto P ∈ E2C, ovvero, con la terminologia appena intro-

dotta, un punto proprio di E2, di coordinate, che d’ora in avanti chiameremoaffini, (a, b). Diremo che P ha come coordinate omogenee la terna (a, b, 1), ouna qualunque altra terna ad essa proporzionale (che risultera necessariamentenon nulla). Quindi la coppia di coordinate affini di un punto e univocamentedeterminata, mentre la terna di coordinate omogenee dello stesso punto e defi-nita solo a meno di proporzionalita. Comunque l’ultima coordinata omogeneanon sara mai nulla. Possiamo anche dire che le coordinate omogenee di P sono

7.10. AMPLIAMENTO COMPLESSO E PROIETTIVO 171

date dalla classe [a, b, 1] ∈ P2C. Scriveremo P ≡ [a, b, 1]. Ad esempio l’origine

O ha coordinate affini (0, 0) e coordinate omogenee date da una qualunque ter-na del tipo (0, 0, k) dove k e uno scalare non nullo, o piu semplicemente O hacoordinate omogenee [0, 0, 1] (o anche [0, 0, 37]!!) Se il punto P ′ ≡ (3, 5), ovveroha coordinate affini (3, 5), avremo che P ′ ≡ [3, 5, 1], o anche P ′ ≡ [6, 10, 2].Consideriamo ora un punto P ∈ L/‖, ovvero, con la terminologia appena intro-

dotta, un punto improprio di E2. In altri termini P = [r] e una classe di retteparallele, rappresentata, ad esempio, dalla retta r. Sia ur = (l,m) un vettoredirezionale di r. Diremo che P ha coordinate omogenee [l,m, 0], ovvero che unasua terna di coordinate omogenee e data da una qualunque terna (α, β, 0), doveα, β sono numeri direzionali di r (che come e noto sono definiti solo a meno diproporzionalita). Se r e la retta descritta dalla (7.35), abbiamo che ur = (1, 1),

e se P = [r] ∈ L/‖ ⊂ E2, le coordinate omogenee di P sono [1, 1, 0]. Abbiamoin tal modo costruito un’applicazione

c : E2 −→ P2C

che associa ad ogni punto di E2 un elemento di P2C, che e biettiva.

Se P ′ ∈ E2C ha coordinate affini (x′, y′), ogni terna (x′

1, x′2, x

′3) di coordinate

omogenee di P ′ sara tale che x′3 �= 0 e (x′, y′, 1) ∝ (x′

1, x′2, x

′3), e cio equivale a

dire che

x′ =x′1

x′3

; y′ =x′2

x′3

; x′3 �= 0 . (7.37)

Le (7.37) ci consentono agevolmente di passare dalle coordinate affini a quelleomogenee e viceversa. Osserviamo che se, invece, P ′ ∈ L/‖, e cioe P ′ e unaclasse di rette parallele, se P ′ ≡ [l′,m′, 0] vuol dire che (l′,m′) e un vettoredirezionale di una qualunque delle rette che rappresentano P ′.

Consideriamo la generica retta r di equazione (7.34) e l’equazione omogeneadi primo grado in x1, x2, x3

ax1 + bx2 + cx3 = 0 . (7.38)

Osserviamo che il punto P ′ ∈ E2C di coordinate affini (x′, y′) e di coordinate

omogenee (x′1, x

′2, x

′3), con x′

3 �= 0, appartiene ad r se e solo se la coppia (x′, y′)e una soluzione della (7.34), ma anche se e solo se la terna (x′

1, x′2, x

′3) e una

soluzione della (7.38). Pero la (7.38) e soddisfatta anche dalla terna (−b, a, 0)(ed ogni altra ad essa proporzionale) che rappresenta la direzione di r, che e

un punto improprio di E2C che possiamo indicare, ad esempio, con il simbolo

Pr. Pertanto la (7.38) rappresenta in E2C il luogo geometrico r ∪ {Pr}, che

indicheremo con il simbolo r e chiameremo retta ampliata. Scriveremo quindi

r : ax1 + bx2 + cx3 = 0 .

Osserviamo esplicitamente che anche la terna nulla (0, 0, 0) e soluzione della(7.38), ma non va considerata, in quanto, nel nostro contesto, essa non ha

171Spazi affini

Page 172: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

172 CAPITOLO 7. SPAZI AFFINI

significato geometrico, nel senso che non rappresenta in coordinate omogeneealcun punto di E2

C.

E interessante sottolineare che se r, s sono due rette distinte in E2C e r, s sono

le corrispondenti rette ampliate in E2C, accade che r, s possono essere incidenti, ed

in tal caso ammettono un punto di intersezione, oppure parallele (propriamente),ed in tal caso non si intersecano. Invece in ogni caso r, s si intersecano in unpunto, che sara un punto proprio quando r, s sono incidenti, e tale punto coincidecon il punto di incidenza di r, s, e sara invece un punto improprio nel caso incui r, s siano parallele, ed allora il punto di intersezione sara proprio la direzionecomune delle due rette. Osserviamo infine che, in coordinate omogenee, affinchela (7.38) sia effettivamente una equazione di primo grado, occorre e basta che gliscalari a, b, c non si annullino simultaneamente. Ha pertanto senso l’equazione

x3 = 0

che rappresenta il luogo di tutti i punti impropri di E2C. Tale luogo si indica con

il simbolo r∞ ed e noto come la retta impropria del piano ampliato. Quandonon sara strettamente necessario, indicheremo con lo stesso simbolo una retta re la corrispondente retta ampliata r.

Concludiamo il capitolo con alcune osservazioni sulle formule di cambiamentodelle coordinate non affini ma omogenee. Consideriamo la situazione descrittanelle formule (7.29) e successive, e definiamo una nuova matrice, che chiamiamomatrice completa del cambiamento

A =

�A B

0 0 1

�. (7.39)

Si verifica facilmente che ⎛⎝x�

y�

1

⎞⎠ = A ·

⎛⎝xy1

⎞⎠ .

Pertanto, se, in termini di coordinate omogenee, abbiamo che P ≡R [x1, x2, x3]

e P ≡R′ [x�1, x

�2, x

�3], la terna di coordinate omogenee

⎛⎝x�1

x�2

x�3

⎞⎠ e data, a meno di

proporzionalita, dal prodotto A ·

⎛⎝x1

x2

x3

⎞⎠, ovvero esiste uno scalare non nullo k

tale che

k

⎛⎝x�1

x�2

x�3

⎞⎠ = A ·

⎛⎝x1

x2

x3

⎞⎠ .

172 Geometria e algebra

Page 173: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

173

172 CAPITOLO 7. SPAZI AFFINI

significato geometrico, nel senso che non rappresenta in coordinate omogeneealcun punto di E2

C.

E interessante sottolineare che se r, s sono due rette distinte in E2C e r, s sono

le corrispondenti rette ampliate in E2C, accade che r, s possono essere incidenti, ed

in tal caso ammettono un punto di intersezione, oppure parallele (propriamente),ed in tal caso non si intersecano. Invece in ogni caso r, s si intersecano in unpunto, che sara un punto proprio quando r, s sono incidenti, e tale punto coincidecon il punto di incidenza di r, s, e sara invece un punto improprio nel caso incui r, s siano parallele, ed allora il punto di intersezione sara proprio la direzionecomune delle due rette. Osserviamo infine che, in coordinate omogenee, affinchela (7.38) sia effettivamente una equazione di primo grado, occorre e basta che gliscalari a, b, c non si annullino simultaneamente. Ha pertanto senso l’equazione

x3 = 0

che rappresenta il luogo di tutti i punti impropri di E2C. Tale luogo si indica con

il simbolo r∞ ed e noto come la retta impropria del piano ampliato. Quandonon sara strettamente necessario, indicheremo con lo stesso simbolo una retta re la corrispondente retta ampliata r.

Concludiamo il capitolo con alcune osservazioni sulle formule di cambiamentodelle coordinate non affini ma omogenee. Consideriamo la situazione descrittanelle formule (7.29) e successive, e definiamo una nuova matrice, che chiamiamomatrice completa del cambiamento

A =

�A B

0 0 1

�. (7.39)

Si verifica facilmente che ⎛⎝x�

y�

1

⎞⎠ = A ·

⎛⎝xy1

⎞⎠ .

Pertanto, se, in termini di coordinate omogenee, abbiamo che P ≡R [x1, x2, x3]

e P ≡R′ [x�1, x

�2, x

�3], la terna di coordinate omogenee

⎛⎝x�1

x�2

x�3

⎞⎠ e data, a meno di

proporzionalita, dal prodotto A ·

⎛⎝x1

x2

x3

⎞⎠, ovvero esiste uno scalare non nullo k

tale che

k

⎛⎝x�1

x�2

x�3

⎞⎠ = A ·

⎛⎝x1

x2

x3

⎞⎠ .

Capitolo 8

Coniche

8.1 Circonferenza, ellisse, iperbole, parabola

Fissato un punto C ≡ (x0, y0) ed un numero reale positivo h, si definisce cir-conferenza di centro C e raggio h il luogo γ dei punti del piano che distano hda C, ovvero

γ ={R

∣∣ d(R,C) = h}.

Poiche, posto R ≡ (x1, y1), si ha che

d(R,C) =∣∣−→RC

∣∣ =√

(x1 − x0)2 + (y1 − y0)2 ,

il luogo γ e rappresentato dall’equazione

√(x1 − x0)2 + (y1 − y0)2 = h

o anche

(x1 − x0)2 + (y1 − y0)

2 = h2

che e del tipo

x2 + y2 + 2ax+ 2by + c = 0 , (c < a2 + b2) ,

dove a = −x0, b = −y0, h =√a2 + b2 − c. Si verifica che ogni equazione di

questo tipo rappresenta una circonferenza, il cui centro ha coordinate (−a,−b),di raggio h =

√a2 + b2 − c.

173

Page 174: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

174 CAPITOLO 8. CONICHE

γ

C

R

h

C ≡ (2, 3), h = 4

γ : x2 + y2 − 2x− 3y − 3 = 0

Osserviamo che se h = 0 otteniamo il luogo costituito dal solo punto reale C,che possiamo considerare una circonferenza degenere di raggio nullo. Se inveceh < 0, si tratta di una circonferenza immaginaria, nel senso che il luogo γ eprivo di punti reali, ma dotato di punti immaginari. Ad esempio, al luogo

γ : x2 + y2 + 1 = 0

appartiene il punto A ≡ (i, 0).

Descriviamo ora la costruzione dell’ellisse. Consideriamo due punti distintiF ′, F ′′ e fissiamo, per comodita, il riferimento che ha come origine O il puntomedio di F ′F ′′, asse delle ascisse passante per F ′, F ′′, con F ′′ nel semiassepositivo, ed asse delle ordinate passante per O, ortogonale all’asse delle ascisse,con l’ovvio orientamento. Sia, ad esempio, d(F ′, F ′′) = 2c. Cio vuol dire cheF ′ ≡ (−c, 0) e F ′′ ≡ (c, 0). Sia a > c. Consideriamo il luogo γ dei puntiR ≡ (x1, y1) tali che la somma delle distanze di R da F ′ e F ′′ sia 2a, ovvero

γ ={R

∣∣ d(R,F ′) + d(R,F ′′) = 2a}.

Abbiamo che

R ∈ γ ⇐⇒√

(x1 + c)2 + y21 +√(x1 − c)2 + y21 = 2a .

Con una quadratura si ottiene

(x1 + c)2 + y21 + (x1 − c)2 + y21 + 2√(x1 + c)2 + y21

√(x1 − c)2 + y21 = 4a2

ovvero

(x1 + c)2 + y21 + (x1 − c)2 + y21 − 4a2 = −2√(x1 + c)2 + y21

√(x1 − c)2 + y21 .

174 Geometria e algebra

Page 175: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

174 CAPITOLO 8. CONICHE

γ

C

R

h

C ≡ (2, 3), h = 4

γ : x2 + y2 − 2x− 3y − 3 = 0

Osserviamo che se h = 0 otteniamo il luogo costituito dal solo punto reale C,che possiamo considerare una circonferenza degenere di raggio nullo. Se inveceh < 0, si tratta di una circonferenza immaginaria, nel senso che il luogo γ eprivo di punti reali, ma dotato di punti immaginari. Ad esempio, al luogo

γ : x2 + y2 + 1 = 0

appartiene il punto A ≡ (i, 0).

Descriviamo ora la costruzione dell’ellisse. Consideriamo due punti distintiF ′, F ′′ e fissiamo, per comodita, il riferimento che ha come origine O il puntomedio di F ′F ′′, asse delle ascisse passante per F ′, F ′′, con F ′′ nel semiassepositivo, ed asse delle ordinate passante per O, ortogonale all’asse delle ascisse,con l’ovvio orientamento. Sia, ad esempio, d(F ′, F ′′) = 2c. Cio vuol dire cheF ′ ≡ (−c, 0) e F ′′ ≡ (c, 0). Sia a > c. Consideriamo il luogo γ dei puntiR ≡ (x1, y1) tali che la somma delle distanze di R da F ′ e F ′′ sia 2a, ovvero

γ ={R

∣∣ d(R,F ′) + d(R,F ′′) = 2a}.

Abbiamo che

R ∈ γ ⇐⇒√

(x1 + c)2 + y21 +√(x1 − c)2 + y21 = 2a .

Con una quadratura si ottiene

(x1 + c)2 + y21 + (x1 − c)2 + y21 + 2√(x1 + c)2 + y21

√(x1 − c)2 + y21 = 4a2

ovvero

(x1 + c)2 + y21 + (x1 − c)2 + y21 − 4a2 = −2√(x1 + c)2 + y21

√(x1 − c)2 + y21 .

8.1. CIRCONFERENZA, ELLISSE, IPERBOLE, PARABOLA 175

Con una ulteriore quadratura si ottiene

((x1 + c)2 + y21 + (x1 − c)2 + y21 − 4a2

)2= 4

((x1 + c)2 + y21

)((x1 − c)2 + y21

),

ovvero

(2x21 + 2y21 + 2c2 − 4a2)2 = 4(x2

1 + y21 + c2 + 2cx1)(x21 + y21 + c2 − 2cx1)

o ancora(x2

1 + y21 + c2 − 2a2)2 = (x21 + y21 + c2)2 − 4c2x2

1

o anche

(x21 + y21 + c2)2 + 4a4 − 4a2(x2

1 + y21 + c2) = (x21 + y21 + c2)2 − 4c2x2

1

e quindi4a4 − 4a2(x2

1 + y21 + c2) = −4c2x21 .

Riordinando e dividendo per 4, abbiamo

(a2 − c2)x21 + a2y21 = a2(a2 − c2) .

Poniamo allora b =√a2 − c2, e cioe b2 = a2−c2, dividiamo per a2b2 e otteniamo

x21

a2+

y21b2

= 1 .

Pertanto una rappresentazione di γ e la seguente:

γ :x2

a2+

y2

b2= 1 . (8.1)

OA′ A′′

B′

B′′

F ′ F ′′

P

γ

a = 5, b = 4, c = 3

γ :x2

25+

y2

16= 1

Il luogo γ si dice ellisse di centro O e semiassi a, b, e la (8.1) e la rappresentazionedell’ellisse in forma canonica. I punti A′ ≡ (−a, 0), A′′ ≡ (a, 0), B′ ≡ (0,−b),

175Coniche

Page 176: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

176 CAPITOLO 8. CONICHE

B′′ ≡ (0, b) di intersezione di γ con gli assi cartesiani si dicono vertici, mentre ipunti F ′, F ′′ sono i fuochi dell’ellisse.

Studiamo ora la costruzione dell’iperbole. Utilizziamo gli stessi punti F ′, F ′′

e lo stesso riferimento di prima e consideriamo un numero reale positivo a < c.Consideriamo il luogo γ dei punti R ≡ (x1, y1) tali che la differenza delle distanzetra R ed F ′, F ′′ (in valore assoluto) sia 2a:

γ ={R

∣∣ |d(R,F ′)− d(R,F ′′)| = 2a}.

Si ha quindi che

R ∈ γ ⇐⇒∣∣√(x1 + c)2 + y21 −

√(x1 − c)2 + y21

∣∣ = 2a .

Con una doppia quadratura, in analogia con il caso dell’ellisse, abbiamo che

(c2 − a2)x21 − a2y21 = a2(c2 − a2) .

Poniamo allora b =√c2 − a2, e cioe b2 = c2−a2, dividiamo per a2b2 e otteniamo

x21

a2− y21

b2= 1 .

Il luogo γ cosı descritto si dice iperbole di centro O, semiasse maggiore a esemiasse minore b, ed e rappresentato dall’equazione

γ :x2

a2− y2

b2= 1 . (8.2)

176 Geometria e algebra

Page 177: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

176 CAPITOLO 8. CONICHE

B′′ ≡ (0, b) di intersezione di γ con gli assi cartesiani si dicono vertici, mentre ipunti F ′, F ′′ sono i fuochi dell’ellisse.

Studiamo ora la costruzione dell’iperbole. Utilizziamo gli stessi punti F ′, F ′′

e lo stesso riferimento di prima e consideriamo un numero reale positivo a < c.Consideriamo il luogo γ dei punti R ≡ (x1, y1) tali che la differenza delle distanzetra R ed F ′, F ′′ (in valore assoluto) sia 2a:

γ ={R

∣∣ |d(R,F ′)− d(R,F ′′)| = 2a}.

Si ha quindi che

R ∈ γ ⇐⇒∣∣√(x1 + c)2 + y21 −

√(x1 − c)2 + y21

∣∣ = 2a .

Con una doppia quadratura, in analogia con il caso dell’ellisse, abbiamo che

(c2 − a2)x21 − a2y21 = a2(c2 − a2) .

Poniamo allora b =√c2 − a2, e cioe b2 = c2−a2, dividiamo per a2b2 e otteniamo

x21

a2− y21

b2= 1 .

Il luogo γ cosı descritto si dice iperbole di centro O, semiasse maggiore a esemiasse minore b, ed e rappresentato dall’equazione

γ :x2

a2− y2

b2= 1 . (8.2)

8.1. CIRCONFERENZA, ELLISSE, IPERBOLE, PARABOLA 177

A′ A′′

B′

B′′

F ′ F ′′

P

a = 4, b = 3, c = 5 , γ :x2

16− y2

9= 1

La (8.2) e la rappresentazione dell’iperbole in forma canonica. I punti F ′, F ′′

sono i fuochi dell’iperbole, i punti A′ ≡ (−a, 0), A′′ ≡ (a, 0) di intersezione di γcon l’asse delle ascisse sono i vertici reali dell’iperbole, ed infine le rette

s′ : bx− ay = 0 , s′′ : bx+ ay = 0

sono gli asintoti di γ.

Consideriamo ora una retta r ed un punto F �∈ r. Sia ad esempio d(F, r) =p > 0. La retta s per F perpendicolare ad r interseca r in un punto H. SiaO il punto medio del segmento di estremi H ed F , s l’asse delle ascisse, ela perpendicolare ad s passante per O l’asse delle ordinate, opportunamenteorientati come in figura.

177Coniche

Page 178: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

178 CAPITOLO 8. CONICHE

O F

A

Br

H

γ : y2 = 8x

p = 4, F ≡ (2, 0)

A ≡ (8, 8), B ≡ (2, 4)

d(A,F ) = d(A, r) = 8

d(B,F ) = d(B, r) = 4

Nel riferimento cosı ottenuto avremo che F ≡ (p2 , 0). Consideriamo il luogo γdei punti R ≡ (x1, y1) equidistanti da F ed r. Avremo cioe

γ ={R

∣∣ d(R,F ) = d(R, r)}.

Poiche

d(R,F ) =

√(x1 −

p

2)2 + y21 , d(R, r) = x1 +

p

2

avremo che

R ∈ γ ⇐⇒√

(x1 −p

2)2 + y21 = x1 +

p

2,

ovvero, con una quadratura,

(x1 −p

2)2 + y21 = (x1 +

p

2)2

e cioe

y21 = 2px1 .

Il luogo cosı descritto si dice parabola, l’origine O appartiene ad essa e si dicevertice, F e il fuoco, r la direttrice. La parabola ammette quindi la seguenterappresentazione:

γ : y2 = 2px . (8.3)

La (8.3) e la rappresentazione della parabola in forma canonica.

178 Geometria e algebra

Page 179: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

178 CAPITOLO 8. CONICHE

O F

A

Br

H

γ : y2 = 8x

p = 4, F ≡ (2, 0)

A ≡ (8, 8), B ≡ (2, 4)

d(A,F ) = d(A, r) = 8

d(B,F ) = d(B, r) = 4

Nel riferimento cosı ottenuto avremo che F ≡ (p2 , 0). Consideriamo il luogo γdei punti R ≡ (x1, y1) equidistanti da F ed r. Avremo cioe

γ ={R

∣∣ d(R,F ) = d(R, r)}.

Poiche

d(R,F ) =

√(x1 −

p

2)2 + y21 , d(R, r) = x1 +

p

2

avremo che

R ∈ γ ⇐⇒√

(x1 −p

2)2 + y21 = x1 +

p

2,

ovvero, con una quadratura,

(x1 −p

2)2 + y21 = (x1 +

p

2)2

e cioe

y21 = 2px1 .

Il luogo cosı descritto si dice parabola, l’origine O appartiene ad essa e si dicevertice, F e il fuoco, r la direttrice. La parabola ammette quindi la seguenterappresentazione:

γ : y2 = 2px . (8.3)

La (8.3) e la rappresentazione della parabola in forma canonica.

8.2. GENERALITA SULLE CONICHE 179

8.2 Generalita sulle coniche

In questo capitolo useremo sempre le seguenti notazioni. Indicheremo conX,Y,W,Z i vettori colonna

X =

⎛⎝x1

x2

x3

⎞⎠ ; Y =

⎛⎝y1y2y3

⎞⎠ ; W =

⎛⎝w1

w2

w3

⎞⎠ ; Z =

⎛⎝z1z2z3

⎞⎠ .

Useremo le notazioni Xt, Y t,W t, Zt per gli stessi vettori in notazione di riga. Xrappresentera la terna delle incognite, Y,W,Z le terne delle coordinate omogeneedi punti del piano ampliato �E2

C, spesso indicati con i simboli R,S, T . In �E2C si

consideri un riferimento ortonormale R = (O; e1, e2) reale. Abbiamo quindi unabiezione

�c : �E2C −→ P2(C) ,

come descritto alla fine del capitolo precedente. Se R ∈ �E2C e �c(R) = [y1, y2, y3],

scriveremo anche, per brevita, R ≡ Y t.

Consideriamo lo spazio vettoriale numerico complesso di dimensione 3, C3,con una base ordinata fissata; per semplicita possiamo ad esempio sceglierequella canonica. Sia

f : C3 × C3 −→ C

una forma bilineare simmetrica (non nulla). Esistera dunque una matrice sim-metrica 3× 3

B =

⎛⎝b1,1 b1,2 b1,3b2,1 b2,2 b2,3b3,1 b3,2 b3,3

⎞⎠

tale che se Y,W ∈ C3 si abbia

f(Y,W ) = f(y1, y2, y3;w1, w2, w3) = Y t ·B ·W =

3�i,j=1

bi,jyiwj . (8.4)

8.1 Definizione. Si dice conica associata alla forma f il luogo geometrico γf ,o anche γ, descritto dall’equazione

γ :

3�i,j=1

bi,jxixj = 0 (8.5)

che e omogenea di secondo grado nelle incognite x1, x2, x3.

8.2 Definizione. Se la matrice (non nulla) B e reale, o proporzionale ad unamatrice reale, la conica γ si dice a sua volta reale.

179Coniche

Page 180: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

180 CAPITOLO 8. CONICHE

Osserviamo che, in virtu della simmetria di f , o di B, la (8.5) si riduce a

γ : b1,1x21 + 2b1,2x1x2 + b2,2x

22 + 2b1,3x1x3 + 2b2,3x2x3 + b3,3x

23 = 0 . (8.6)

Poiche si e supposto che f non e nulla, non tutti i coefficienti della matrice Bpossono annullarsi simultaneamente. Quindi il rango di B e almeno 1 e la (8.5),o anche (8.6), e effettivamente un’equazione omogenea di secondo grado nelleincognite x1, x2, x3. Osserviamo esplicitamente che la conica γ, pur essendouna conica reale, potrebbe non possedere alcun punto reale, oppure possedereun unico punto reale, o infiniti punti reali, mentre possiede sempre infiniti puntiimmaginari. Un esempio molto semplice di conica reale priva di punti reali efornito dalla conica

γ : x21 + x2

2 + x23 = 0 .

Infatti l’unica soluzione reale di tale equazione e data dalla terna nulla (0, 0, 0),

che non rappresenta, in coordinate omogenee, alcun punto di E2C.

Se γ e una conica reale definita dalla (8.6) e P � e un punto proprio di coor-dinate affini (x�, y�) e omogenee [x�

1, x�2, x

�3] (con x�

3 �= 0), e chiaro che P � ∈ γse e solo se la terna (x�

1, x�2, x

�3) e soluzione della (8.6), ma e agevole verificare

che P � ∈ γ se e solo se la coppia (x�, y�) e soluzione della seguente equazione disecondo grado non omogenea

b1,1x2 + 2b1,2xy + b2,2y

2 + 2b1,3x+ 2b2,3y + b3,3 = 0 (8.7)

in x, y, che chiameremo equazione non omogenea associata a γ. In altri termini,come gia osservato nel caso delle rette nel piano affine e nel piano ampliato,abbiamo che il luogo descritto (in coordinate affini) dalla (8.7) coincide con laparte propria del luogo descritto (in coordinate omogenee) dalla (8.6). Pero γpossiede anche alcuni punti impropri, che si possono studiare solo in coordinateomogenee mediante la (8.6). Tali punti avranno la terza coordinata omogeneanulla, e quindi costituiscono l’intersezione r∞ ∩ γ della conica γ con la rettaimpropria r∞. Osserviamo che se r e una qualunque retta reale nel piano am-pliato E2

C e γ e una conica reale vale il seguente risultato, di cui omettiamo ladimostrazione.

8.3 Teorema. L’intersezione r ∩ γ e di uno dei seguenti tipi:

(a) r ∩ γ e un punto (reale);

(b) r ∩ γ e costituita da due punti reali;

(c) r ∩ γ e costituita da due punti immaginari;

(d) r ∩ γ coincide con r, ovvero r ⊆ γ.

Nel caso (a) diremo che r e tangente, nel caso (b) secante, nel caso (c) esternaalla conica. Nel caso (d) puo accadere che γ = r oppure che γ sia l’unione di

180 Geometria e algebra

Page 181: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

180 CAPITOLO 8. CONICHE

Osserviamo che, in virtu della simmetria di f , o di B, la (8.5) si riduce a

γ : b1,1x21 + 2b1,2x1x2 + b2,2x

22 + 2b1,3x1x3 + 2b2,3x2x3 + b3,3x

23 = 0 . (8.6)

Poiche si e supposto che f non e nulla, non tutti i coefficienti della matrice Bpossono annullarsi simultaneamente. Quindi il rango di B e almeno 1 e la (8.5),o anche (8.6), e effettivamente un’equazione omogenea di secondo grado nelleincognite x1, x2, x3. Osserviamo esplicitamente che la conica γ, pur essendouna conica reale, potrebbe non possedere alcun punto reale, oppure possedereun unico punto reale, o infiniti punti reali, mentre possiede sempre infiniti puntiimmaginari. Un esempio molto semplice di conica reale priva di punti reali efornito dalla conica

γ : x21 + x2

2 + x23 = 0 .

Infatti l’unica soluzione reale di tale equazione e data dalla terna nulla (0, 0, 0),

che non rappresenta, in coordinate omogenee, alcun punto di E2C.

Se γ e una conica reale definita dalla (8.6) e P � e un punto proprio di coor-dinate affini (x�, y�) e omogenee [x�

1, x�2, x

�3] (con x�

3 �= 0), e chiaro che P � ∈ γse e solo se la terna (x�

1, x�2, x

�3) e soluzione della (8.6), ma e agevole verificare

che P � ∈ γ se e solo se la coppia (x�, y�) e soluzione della seguente equazione disecondo grado non omogenea

b1,1x2 + 2b1,2xy + b2,2y

2 + 2b1,3x+ 2b2,3y + b3,3 = 0 (8.7)

in x, y, che chiameremo equazione non omogenea associata a γ. In altri termini,come gia osservato nel caso delle rette nel piano affine e nel piano ampliato,abbiamo che il luogo descritto (in coordinate affini) dalla (8.7) coincide con laparte propria del luogo descritto (in coordinate omogenee) dalla (8.6). Pero γpossiede anche alcuni punti impropri, che si possono studiare solo in coordinateomogenee mediante la (8.6). Tali punti avranno la terza coordinata omogeneanulla, e quindi costituiscono l’intersezione r∞ ∩ γ della conica γ con la rettaimpropria r∞. Osserviamo che se r e una qualunque retta reale nel piano am-pliato E2

C e γ e una conica reale vale il seguente risultato, di cui omettiamo ladimostrazione.

8.3 Teorema. L’intersezione r ∩ γ e di uno dei seguenti tipi:

(a) r ∩ γ e un punto (reale);

(b) r ∩ γ e costituita da due punti reali;

(c) r ∩ γ e costituita da due punti immaginari;

(d) r ∩ γ coincide con r, ovvero r ⊆ γ.

Nel caso (a) diremo che r e tangente, nel caso (b) secante, nel caso (c) esternaalla conica. Nel caso (d) puo accadere che γ = r oppure che γ sia l’unione di

8.2. GENERALITA SULLE CONICHE 181

r e di un’altra retta. Il teorema precedente, applicato al caso r = r∞, ci diceche se r∞ non e contenuta nella conica, γ possiede un unico punto improprio,oppure due punti impropri reali o infine due punti impropri immaginari.

La conica γ induce una relazione tra i punti del piano ampliato.

8.4 Definizione. I punti R ≡ Y t, S ≡ W t si dicono coniugati rispetto a γ, oanche rispetto ad f , se

f(Y,W ) = 0 .

Scriveremo allora R ∼f S.

Alla luce di tale definizione, la conica γ puo vedersi come il luogo dei puntiautoconiugati, ovvero

γ ={R ∈ E2

C∣∣ R ∼f R

}.

Si verifica agevolmente che si si cambia riferimento ortonormale reale l’equazionedi γ nel nuovo riferimento e ancora omogenea di secondo grado in tre incognite.Si verifica anche, ma non cosı agevolmente, che se g e un’altra forma simmetricaf e g rappresentano la stessa conica se e solo se sono proporzionali ordinatamentei loro coefficienti:

γf = γg ⇐⇒ f ∝ g .

8.5 Definizione. Un punto V ∈ E2C si dice punto doppio di γ se e coniugato

ad ogni altro punto di E2C, ovvero

V ∼f R , ∀R ∈ E2C ,

o ancora, posto V ≡ Zt,

f(Z, Y ) = 0 , ∀Y ∈ C3 .

Indicheremo con D l’insieme dei punti doppi di γ.

Osserviamo che gli eventuali punti doppi di γ sono necessariamente reali, eappartengono alla conica.

8.6 Definizione. Per ogni punto R ∈ E2C definiamo un sottoinsieme ω(R) ⊆ E2

Cal modo seguente:

ω(R) ={S ∈ E2

C∣∣ R ∼= R

}.

Il sottoinsieme ω(R) prende il nome di luogo polare di R rispetto a γ.

Nel caso in cui ω(R) sia una retta, parleremo di retta polare o semplicementedi polare di R.

181Coniche

Page 182: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

182 CAPITOLO 8. CONICHE

8.7 Proposizione. Per ogni punto R di E2C abbiamo che:

(i) se R ∈ D, ω(R) = E2C;

(ii) se R �∈ D, ω(R) e una retta.

Pertanto, se γ e non degenere, non esistono punti doppi e ogni punto possiederetta polare, e quindi ω puo riguardarsi come applicazione da E2

C all’insieme L2C

delle rette di E2C. Dalla simmetria della forma f discende facilmente il seguente

risultato.

8.8 Teorema di reciprocita. Sia γ una conica e siano R,S due punti di E2C.

Allora

R ∈ ω(S) ⇐⇒ S ∈ ω(R) .

In particolare un punto doppio appartiene al luogo polare di ogni altro punto.

8.9 Teorema. Sia γ una conica reale, descritta dalla (8.6). L’insieme D deisuoi punti doppi e di uno dei seguenti tipi:

(a) D = ∅ se e solo se ρ(B) = 3;

(b) D = {V }, un singleton, se e solo se ρ(B) = 2;

(c) D = r, una retta, se e solo se ρ(B) = 1.

8.10 Definizione. La conica γ si dira non degenere se D = ∅, degenere (oriducibile) se D �= ∅. In particolare, se D = {V } e ρ(B) = 2 γ e semplicementedegenere, se D e una retta e ρ(B) = 1 γ e doppiamente degenere.

Sulle coniche doppiamente degeneri non c’e molto da dire. Si verifica cheρ(B) = 1 se e solo se esiste un polinomio omogeneo di primo grado

p(x1, x2, x3) = a1x1 + a2x2 + a3x3

(a coefficienti non tutti nulli) tale che

f(x1, x2, x3;x1, x2, x3) = (p(x1, x2, x3))2 .

Se indichiamo con r la retta rappresentata dal polinomio p, abbiamo che γ =r = D, e diciamo che i punti di r sono contati due volte, in quanto sono doppi.La retta r risulta necessariamente reale.

182 Geometria e algebra

Page 183: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

182 CAPITOLO 8. CONICHE

8.7 Proposizione. Per ogni punto R di E2C abbiamo che:

(i) se R ∈ D, ω(R) = E2C;

(ii) se R �∈ D, ω(R) e una retta.

Pertanto, se γ e non degenere, non esistono punti doppi e ogni punto possiederetta polare, e quindi ω puo riguardarsi come applicazione da E2

C all’insieme L2C

delle rette di E2C. Dalla simmetria della forma f discende facilmente il seguente

risultato.

8.8 Teorema di reciprocita. Sia γ una conica e siano R,S due punti di E2C.

Allora

R ∈ ω(S) ⇐⇒ S ∈ ω(R) .

In particolare un punto doppio appartiene al luogo polare di ogni altro punto.

8.9 Teorema. Sia γ una conica reale, descritta dalla (8.6). L’insieme D deisuoi punti doppi e di uno dei seguenti tipi:

(a) D = ∅ se e solo se ρ(B) = 3;

(b) D = {V }, un singleton, se e solo se ρ(B) = 2;

(c) D = r, una retta, se e solo se ρ(B) = 1.

8.10 Definizione. La conica γ si dira non degenere se D = ∅, degenere (oriducibile) se D �= ∅. In particolare, se D = {V } e ρ(B) = 2 γ e semplicementedegenere, se D e una retta e ρ(B) = 1 γ e doppiamente degenere.

Sulle coniche doppiamente degeneri non c’e molto da dire. Si verifica cheρ(B) = 1 se e solo se esiste un polinomio omogeneo di primo grado

p(x1, x2, x3) = a1x1 + a2x2 + a3x3

(a coefficienti non tutti nulli) tale che

f(x1, x2, x3;x1, x2, x3) = (p(x1, x2, x3))2 .

Se indichiamo con r la retta rappresentata dal polinomio p, abbiamo che γ =r = D, e diciamo che i punti di r sono contati due volte, in quanto sono doppi.La retta r risulta necessariamente reale.

8.2. GENERALITA SULLE CONICHE 183

8.11 Esempio. Sia γ : x21 − 2x1x2 + x2

2 + 2x1x3 − 2x2x3 + x23 = 0. La matrice associata e

⎛⎝

1 −1 1−1 1 −11 −1 1

⎞⎠

che ha chiaramente rango 1. Si vede subito che

x21 − 2x1x2 + x2

2 + 2x1x3 − 2x2x3 + x23 = (x1 − x2 + x3)

2 .

Quindi γ non e altro che la retta

r : x1 − x2 + x3 = 0

contata due volte. La parte propria di r e rappresentata, in coordinate affini, dall’equazione

x− y + 1 = 0 .

Il punto improprio di r, che e anche l’unico punto improprio di γ, e il punto Pr ≡ [1, 1, 0].

O

ur

r −→rr : x1 − x2 + x3 = 0

γ : (x1 − x2 + x3)2 = 0

γ = D = r

Il caso delle coniche semplicemente degeneri e un po’ piu articolato. Inanalogia con il caso precedente, accade che ρ(B) = 2 se e solo se esistono duepolinomi

p′(x1, x2, x3) = a′1x1 + a′2x2 + a′3x3 ; p′′(x1, x2, x3) = a′′1x1 + a′′2x2 + a′′3x3

(non identicamente nulli), tali che

f(x1, x2, x3;x1, x2, x3) = p′(x1, x2, x3) · p′′(x1, x2, x3) .

Pertanto, dette r′, r′′ le rette rappresentate dalle equazioni

p′(x1, x2, x3) = 0 ; p′′(x1, x2, x3) = 0 ,

si ha che γ = r′ ∪ r′′ e D = {V }, dove V e il punto di intersezione delle duerette, che e sicuramente reale, e puo essere proprio (nel caso di rette incidenti)o improprio (quando r′ � r′′).

183Coniche

Page 184: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

184 CAPITOLO 8. CONICHE

8.12 Esempio. (Coppia di rette reali parallele). Sia γ : x21 − 2x1x2 + x2

2 − x23 = 0. La matrice

associata e ⎛⎝

1 −1 0−1 1 00 0 −1

⎞⎠

che ha chiaramente rango 2. Si vede subito che

x21 − 2x1x2 + x2

2 − x23 = (x1 − x2 + x3) · (x1 − x2 − x3) .

Pertanto, posto

r′ : x1 − x2 + x3 = 0 ; r′′ : x1 − x2 − x3 = 0 ,

vediamo che γ = r′ ∪ r′′ e D = {V }, dove V ≡ [1, 1, 0]. Le rette r′, r′′ sono parallele eV = Pr′ = Pr′′ e il punto improprio che rappresenta la direzione comune delle due rette.

Or′

r′′

r′ : x1−x2+x3 = 0 ; r′′ : x1−x2−x3 = 0

γ : (x1 − x2 + x3)(x1 − x2 − x3) = 0

γ = r′ ∪ r′′ ; D = {V } ; V ≡ [1, 1, 0]

8.13 Esempio. (Coppia di rette reali incidenti). Sia γ : x21 − x2

2 − 2x2x3 − x23 = 0. La matrice

associata e ⎛⎝1 0 00 −1 −10 −1 −1

⎞⎠

che ha chiaramente rango 2. Si vede subito che

x21 − x2

2 − 2x2x3 − x23 = (x1 − x2 − x3) · (x1 + x2 + x3) .

Pertanto, posto

r′ : x1 − x2 − x3 = 0 ; r′′ : x1 + x2 + x3 = 0 ,

vediamo che γ = r′ ∪ r′′ e D = {V }, dove V ≡ [0,−1, 1]. Le rette r′, r′′ sono incidenti e V eil punto reale proprio che le due rette hanno in comune.

184 Geometria e algebra

Page 185: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

184 CAPITOLO 8. CONICHE

8.12 Esempio. (Coppia di rette reali parallele). Sia γ : x21 − 2x1x2 + x2

2 − x23 = 0. La matrice

associata e ⎛⎝

1 −1 0−1 1 00 0 −1

⎞⎠

che ha chiaramente rango 2. Si vede subito che

x21 − 2x1x2 + x2

2 − x23 = (x1 − x2 + x3) · (x1 − x2 − x3) .

Pertanto, posto

r′ : x1 − x2 + x3 = 0 ; r′′ : x1 − x2 − x3 = 0 ,

vediamo che γ = r′ ∪ r′′ e D = {V }, dove V ≡ [1, 1, 0]. Le rette r′, r′′ sono parallele eV = Pr′ = Pr′′ e il punto improprio che rappresenta la direzione comune delle due rette.

Or′

r′′

r′ : x1−x2+x3 = 0 ; r′′ : x1−x2−x3 = 0

γ : (x1 − x2 + x3)(x1 − x2 − x3) = 0

γ = r′ ∪ r′′ ; D = {V } ; V ≡ [1, 1, 0]

8.13 Esempio. (Coppia di rette reali incidenti). Sia γ : x21 − x2

2 − 2x2x3 − x23 = 0. La matrice

associata e ⎛⎝1 0 00 −1 −10 −1 −1

⎞⎠

che ha chiaramente rango 2. Si vede subito che

x21 − x2

2 − 2x2x3 − x23 = (x1 − x2 − x3) · (x1 + x2 + x3) .

Pertanto, posto

r′ : x1 − x2 − x3 = 0 ; r′′ : x1 + x2 + x3 = 0 ,

vediamo che γ = r′ ∪ r′′ e D = {V }, dove V ≡ [0,−1, 1]. Le rette r′, r′′ sono incidenti e V eil punto reale proprio che le due rette hanno in comune.

8.2. GENERALITA SULLE CONICHE 185

O

V

r′′

r′

r′ : x1−x2−x3 = 0 ; r′′ : x1+x2+x3 = 0

γ : (x1 − x2 − x3)(x1 + x2 + x3) = 0

γ = r′ ∪ r′′ ; D = {V } ; V ≡ [0,−1, 1]

8.14 Esempio. (Coppia di rette immaginarie parallele, con direzione reale). Consideriamo laconica γ : x2

1 + 2x1x2 + x22 + x2

3 = 0. La matrice associata e

⎛⎝1 1 01 1 00 0 1

⎞⎠

che ha chiaramente rango 2. Si vede subito che

x21 + 2x1x2 + x2

2 + x23 = (x1 + x2 + ix3) · (x1 + x2 − ix3) .

Pertanto, postor′ : x1 + x2 + ix3 = 0 ; r′′ : x1 + x2 − ix3 = 0 ,

vediamo che γ = r′ ∪ r′′ e D = {V }, dove V ≡ [−1, 1, 0]. Le rette r′, r′′ sono immaginarieparallele e V e il punto reale improprio, ovvero la direzione, che le due rette hanno in comune.

8.15 Esempio. (Coppia di rette immaginarie incidenti in un punto reale). Consideriamo laconica γ : x2

1 + x22 + 2x1x3 + x2

3 = 0. La matrice associata e

⎛⎝1 0 10 1 01 0 1

⎞⎠

che ha chiaramente rango 2. Si vede subito che

x21 + x2

2 + 2x1x3 + x23 = (x1 + x3)

2 + x22 = (x1 + ix2 + x3) · (x1 − ix2 + x3) .

Pertanto, postor′ : x1 + ix2 + x3 = 0 ; r′′ : x1 − ix2 + x3 = 0 ,

vediamo che γ = r′ ∪ r′′ e D = {V }, dove V ≡ [−1, 0, 1]. Le rette r′, r′′ sono immaginarieincidenti e V e il punto reale proprio che le due rette hanno in comune.

8.16 Esempio. (Coppia di rette reali di cui una e la retta impropria). Consideriamo la conicaγ : x1x3 + x2x3 + x2

3 = 0. La matrice associata e proporzionale a

⎛⎝0 0 10 0 11 1 2

⎞⎠

185Coniche

Page 186: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

186 CAPITOLO 8. CONICHE

che ha chiaramente rango 2. Si vede subito che

x1x3 + x2x3 + x23 = x3 · (x1 + x2 + x3) .

Pertanto, postor� = r∞ : x3 = 0 ; r�� : x1 + x2 + x3 = 0 ,

vediamo che γ = r∞ ∪ r�� e D = {V }, dove V ≡ [−1, 1, 0].

Supponiamo ora che γ sia non degenere, e cioe si abbia detB �= 0, ovveroρ(B) = 3. Deduciamo che γ non contiene rette e che ogni retta interseca γ inuno o due punti. Consideriamo allora l’insieme r∞ ∩ γ dei punti impropri dellaconica.

8.17 Definizione. La conica non degenere γ si dice ellisse se possiede due puntiimpropri immaginari, iperbole se possiede due punti impropri reali, parabola sepossiede un solo punto improprio (reale).

Il seguente risultato fornisce uno strumento per classificare una conica nondegenere.

8.18 Teorema. Sia γ una conica reale rappresentata dalla (8.6) e supponiamoche γ non contenga la retta impropria r∞. Allora si ha che

r∞ ∩ γ =

⎧⎪⎨⎪⎩

2 punti immaginari ⇐⇒ detB(3,3) > 0

1 punto reale ⇐⇒ detB(3,3) = 0

2 punti reali ⇐⇒ detB(3,3) < 0

8.19 Corollario. Sia γ una conica reale non degenere rappresentata dalla(8.6). Allora si ha che

γ e

⎧⎪⎨⎪⎩

un’ellisse ⇐⇒ detB(3,3) > 0

una parabola ⇐⇒ detB(3,3) = 0

un’iperbole ⇐⇒ detB(3,3) < 0

Nel caso in cui γ sia una conica semplicemente degenere, il teorema prece-dente ci assicura che la conica e unione di due rette immaginarie incidenti sedetB(3,3) > 0, di due rette parallele (reali o immaginarie, ma di direzione reale)se detB(3,3) = 0, di due rette reali incidenti se detB(3,3) < 0.

Come gia osservato, il fatto che γ sia una conica reale, ovvero una conicarappresentata da un’equazione a coefficienti reali, non garantisce l’esistenza in γdi punti reali. E’ pertanto utile il seguente risultato, di non facile dimostrazione.

186 Geometria e algebra

Page 187: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

186 CAPITOLO 8. CONICHE

che ha chiaramente rango 2. Si vede subito che

x1x3 + x2x3 + x23 = x3 · (x1 + x2 + x3) .

Pertanto, postor� = r∞ : x3 = 0 ; r�� : x1 + x2 + x3 = 0 ,

vediamo che γ = r∞ ∪ r�� e D = {V }, dove V ≡ [−1, 1, 0].

Supponiamo ora che γ sia non degenere, e cioe si abbia detB �= 0, ovveroρ(B) = 3. Deduciamo che γ non contiene rette e che ogni retta interseca γ inuno o due punti. Consideriamo allora l’insieme r∞ ∩ γ dei punti impropri dellaconica.

8.17 Definizione. La conica non degenere γ si dice ellisse se possiede due puntiimpropri immaginari, iperbole se possiede due punti impropri reali, parabola sepossiede un solo punto improprio (reale).

Il seguente risultato fornisce uno strumento per classificare una conica nondegenere.

8.18 Teorema. Sia γ una conica reale rappresentata dalla (8.6) e supponiamoche γ non contenga la retta impropria r∞. Allora si ha che

r∞ ∩ γ =

⎧⎪⎨⎪⎩

2 punti immaginari ⇐⇒ detB(3,3) > 0

1 punto reale ⇐⇒ detB(3,3) = 0

2 punti reali ⇐⇒ detB(3,3) < 0

8.19 Corollario. Sia γ una conica reale non degenere rappresentata dalla(8.6). Allora si ha che

γ e

⎧⎪⎨⎪⎩

un’ellisse ⇐⇒ detB(3,3) > 0

una parabola ⇐⇒ detB(3,3) = 0

un’iperbole ⇐⇒ detB(3,3) < 0

Nel caso in cui γ sia una conica semplicemente degenere, il teorema prece-dente ci assicura che la conica e unione di due rette immaginarie incidenti sedetB(3,3) > 0, di due rette parallele (reali o immaginarie, ma di direzione reale)se detB(3,3) = 0, di due rette reali incidenti se detB(3,3) < 0.

Come gia osservato, il fatto che γ sia una conica reale, ovvero una conicarappresentata da un’equazione a coefficienti reali, non garantisce l’esistenza in γdi punti reali. E’ pertanto utile il seguente risultato, di non facile dimostrazione.

8.2. GENERALITA SULLE CONICHE 187

8.20 Teorema. La conica reale γ rappresentata dalla (8.6) possiede almeno unpunto reale se e solo se

detB(3,3) ≤ 0 ∨ b1,1 · detB ≤ 0 .

Pertanto una conica che non possiede punti reali e caratterizzata come segue:

detB(3,3) > 0 ∧ b1,1 · detB > 0 . (8.8)

La seconda delle (8.8) implica che detB �= 0, e quindi γ e non degenere, e laprima delle (8.8) ci dice che si tratta di un’ellisse. Un’ellisse priva di punti realie detta immaginaria, ed e caratterizzata dalla seconda delle (8.8). Un’ellissedotata di punti reali si dice invece ordinaria.

Ci occuperemo ora di alcune applicazioni del concetto di retta polare nel casoin cui la conica γ sia non degenere. Abbiamo gia osservato che in tale situa-zione ogni punto possiede una retta polare. Piu precisamente, vale il seguenterisultato.

8.21 Proposizione. L’applicazione ω : E2C → L2

C che ad ogni punto associa lasua (retta) polare e biettiva.

Di conseguenza, per ogni retta r esistera esattamente un punto R tale cheω(R) = r e diremo che R e il polo di r. Inoltre

8.22 Corollario. Per ogni punto R abbiamo che

R ∈ ω(R) ⇐⇒ R ∈ γ .

In tal caso la polare di R coincide con la tangente di γ in R. Dalla definizionedi retta polare deduciamo che se R ∈ E2

C e R ≡ Y t, o, in altri termini, R hacoordinate omogenee y1, y2, y3, la retta polare di R si puo rappresentare, inmodo compatto, come segue:

ω(R) : Y tBX = 0 ,

ovvero, in modo piu esplicito,

ω(R) : ax1 + bx2 + cx3 = 0 ,

dove

a = Y t ·B1 = y1b1,1 + y2b2,1 + y3b3,1 ;

b = Y t ·B2 = y1b1,2 + y2b2,2 + y3b3,2 ;

187Coniche

Page 188: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

188 CAPITOLO 8. CONICHE

c = Y t ·B3 = y1b1,3 + y2b2,3 + y3b3,3 .

Ricordiamo che R ∈ γ se e solo se

f(y1, y2, y3; y1, y2, y3) = f(Y, Y ) = Y tBY = 0 .

Se invece accade che f(Y, Y ) > 0, diremo che R e esterno a γ, mentre parleremodi punto interno quando f(Y, Y ) < 0. Graficamente nel caso in cui R sia esterno,la polare si costruisce nel modo indicato nella seguente figura.

R

ω(R)A

B

s′s′′

Si verifica infatti che esistono esattamente due rette reali s′, s′′ per R tangentia γ, e, detti A,B i punti di tangenza, il Teorema di Reciprocita ci assicura chela retta r per A,B coincide con la polare di R. Se invece R e interno, si verificache ogni retta reale per R e secante. Scelte quindi due rette r′, r′′ per R edindicati con A,B i punti in cui r′ interseca γ ed C,D i punti in cui r′′ intersecaγ, consideriamo le tangenti a γ nei punti A,B,C,D. Indichiamo tali rette coni simboli s′, t′, s′′, t′′ e consideriamo il punto R′ in cui s′ interseca t′ e il puntoR′′ in cui s′′ interseca t′′. Il Teorema di Reciprocita ci assicura, anche in questocaso, che la retta r per R′, R′′ coincide con la polare di R.

188 Geometria e algebra

Page 189: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

188 CAPITOLO 8. CONICHE

c = Y t ·B3 = y1b1,3 + y2b2,3 + y3b3,3 .

Ricordiamo che R ∈ γ se e solo se

f(y1, y2, y3; y1, y2, y3) = f(Y, Y ) = Y tBY = 0 .

Se invece accade che f(Y, Y ) > 0, diremo che R e esterno a γ, mentre parleremodi punto interno quando f(Y, Y ) < 0. Graficamente nel caso in cui R sia esterno,la polare si costruisce nel modo indicato nella seguente figura.

R

ω(R)A

B

s′s′′

Si verifica infatti che esistono esattamente due rette reali s′, s′′ per R tangentia γ, e, detti A,B i punti di tangenza, il Teorema di Reciprocita ci assicura chela retta r per A,B coincide con la polare di R. Se invece R e interno, si verificache ogni retta reale per R e secante. Scelte quindi due rette r′, r′′ per R edindicati con A,B i punti in cui r′ interseca γ ed C,D i punti in cui r′′ intersecaγ, consideriamo le tangenti a γ nei punti A,B,C,D. Indichiamo tali rette coni simboli s′, t′, s′′, t′′ e consideriamo il punto R′ in cui s′ interseca t′ e il puntoR′′ in cui s′′ interseca t′′. Il Teorema di Reciprocita ci assicura, anche in questocaso, che la retta r per R′, R′′ coincide con la polare di R.

8.2. GENERALITA SULLE CONICHE 189

R�

R��

R

r�r��

A

B

C

D

t��s��

ω(R)

s�

t�

Nella teoria delle coniche reali non degeneri riveste una notevole importanza lostudio delle polari dei punti impropri.

8.23 Definizione. Sia γ una conica reale non degenere e sia R ∈ r∞.

(i) Se la polare ω(R) del punto improprio R e una retta propria, essa si dicediametro di γ, associato alla direzione rappresentata da R.

(ii) Se ω(R) e un diametro e R ∈ γ ∩ r∞, ω(R) si dice asintoto di γ.

(iii) Se ω(R) e un diametro e risulta ortogonale alla direzione rappresentata daR, ω(R) si dice asse di γ.

8.24 Teorema. I diametri di una conica reale non degenere formano un fascio,che sara proprio nel caso dell’ellisse e dell’iperbole, improprio nel caso dellaparabola.

Nel caso dell’ellisse e dell’iperbole, il punto C comune a tutti i diametri sidice centro della conica. Per tale motivo l’ellisse e l’iperbole sono dette conichea centro.

8.25 Osservazione. Per ogni punto improprio R non appartenente a γ, la polare ω(R), see una retta propria (cioe e un diametro) ed e secante, e un asse di simmetria di γ rispetto

189Coniche

Page 190: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

190 CAPITOLO 8. CONICHE

alla direzione rappresentata da R, nel senso che se R ≡ [α, β, 0] ed r e una retta di direzioneur = (α, β), detti A�, A�� i punti di intersezione di r con γ ed A il punto di intersezione di rcon ω(R), si ha che A e il punto medio di A�, A��.

O

A

A′

A′′

B′

B′′

ω(V )

u

r

s′

s′′

u = (1, 2), V ≡ [1, 2, 0]

8.26 Osservazione. Le coniche a centro hanno due assi, che sono ortogonali tra loro. SeR ∈ r∞ ed ω(R) e un asse, detto S il punto improprio di ω(R), ω(S) e l’altro asse.

8.27 Osservazione. La parabola ha un unico asse, il cui punto improprio e l’unico puntoimproprio della conica.

8.28 Definizione. Un punto proprio si dice vertice se appartiene all’interse-zione di un asse con la conica.

8.29 Osservazione. (i) Un’ellisse ordinaria che non sia una circonferenza ha quattro verticireali.

190 Geometria e algebra

Page 191: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

190 CAPITOLO 8. CONICHE

alla direzione rappresentata da R, nel senso che se R ≡ [α, β, 0] ed r e una retta di direzioneur = (α, β), detti A�, A�� i punti di intersezione di r con γ ed A il punto di intersezione di rcon ω(R), si ha che A e il punto medio di A�, A��.

O

A

A′

A′′

B′

B′′

ω(V )

u

r

s′

s′′

u = (1, 2), V ≡ [1, 2, 0]

8.26 Osservazione. Le coniche a centro hanno due assi, che sono ortogonali tra loro. SeR ∈ r∞ ed ω(R) e un asse, detto S il punto improprio di ω(R), ω(S) e l’altro asse.

8.27 Osservazione. La parabola ha un unico asse, il cui punto improprio e l’unico puntoimproprio della conica.

8.28 Definizione. Un punto proprio si dice vertice se appartiene all’interse-zione di un asse con la conica.

8.29 Osservazione. (i) Un’ellisse ordinaria che non sia una circonferenza ha quattro verticireali.

8.3. RIDUZIONE IN FORMA CANONICA 191

(ii) Un’iperbole ha due vertici reali e due vertici immaginari (che sono tra loro complessiconiugati).

(iii) Una parabola possiede un unico vertice reale.

Abbiamo finora ritrovato tutti gli elementi caratterizzanti di una conica,cosı come appaiono dalla iniziale descrizione elementare, tranne i fuochi. Essinecessitano di un approccio un po’ piu sofisticato.

8.30 Definizione. Si dicono punti ciclici del piano i punti (impropri immagi-nari)

C1 ≡ [1, i, 0] , C2 ≡ [1,−i, 0] .

Ogni retta propria passante per un punto ciclico si dice isotropa.

Per ogni punto proprio R passano due rette isotrope: la retta r′ per R e C1

e la retta r′′ per R e C2.

8.31 Definizione. Un fuoco di una conica reale non degenere γ e un puntoproprio R �∈ γ tale che le rette isotrope per R siano tangenti a γ.

Osserviamo che una conica a centro dotata di punti reale (iperbole o ellisseordinaria) ha due fuochi reali e due immaginari coniugati, mentre una parabolaha un solo fuoco, che risulta reale.

8.3 Riduzione in forma canonica

Consideriamo una conica γ rappresentata come in (8.6), e studiamo, in coordi-nate affini, la sua parte propria, rappresentata come in (8.7). In tale equazioneabbiamo una parte quadratica

b1,1x2 + 2b1,2xy + b2,2y

2 = (x, y) ·B(3,3) ·(xy

)

ed una parte lineare

2b1,3x+ 2b2,3y = 2 (b1,3, b2,3) ·(xy

),

per cui la (8.7) si scrive anche

γ : (x, y) ·B(3,3) ·(xy

)+ 2 (b1,3, b2,3) ·

(xy

)+ b3,3 = 0 (8.9)

191Coniche

Page 192: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

192 CAPITOLO 8. CONICHE

oppure

γ : (x, y, 1) ·B ·

⎛⎝xy1

⎞⎠ = 0 . (8.10)

Poiche B(3,3), al pari di B, e simmetrica, esiste una matrice ortogonale

P =

�p1,1 p1,2p2,1 p2,2

�∈ O(2)

tale che

P t ·B · P =

�λ 00 μ

�.

Consideriamo allora il riferimento ortonormale R� = (O, e�1, e�2) (con lo stesso

origine O di R) tale che P sia la matrice di passaggio, ovvero MRR′ = P . Cio

vuol dire che se, detto R il generico punto, si ha che

R ≡R (x, y) , R ≡R′ (x�, y�) ,

si avra anche che�xy

�= P ·

�x�

y�

�, (x, y) = (x�, y�) · P t

e quindi γ sara rappresentata, in R� dall’equazione

γ : (x�, y�) · P t ·B(3,3) · P ·�x�

y�

�+ 2 (b1,3, b2,3) · P ·

�x�

y�

�+ b3,3 = 0 (8.11)

ovveroλx�2 + μy�2 + 2b�1,3x

� + 2b�2,3y� + b3,3 = 0 (8.12)

doveb�1,3 = b1,3p1,1 + b2,3p2,1 , b�2,3 = b1,3p1,2 + b2,3p2,2 .

Il cambiamento di riferimento appena descritto e una rotazione, eventual-mente seguita da un cambio di orientamento degli assi cartesiani. A seguito ditale cambiamento di riferimento, i nuovi assi cartesiani risultano paralleli agliassi della conica, nel caso delle coniche non degeneri a centro (ellisse e iperbole).Nel caso della parabola avremo invece un asse cartesiano parallelo all’asse dellaparabola.

Ora dobbiamo distinguere due casi. Per quanto riguarda il primo caso,supponiamo che gli autovalori λ, μ siano entrambi non nulli. La (8.12) puoscriversi allora

λ�x�2 + 2

b�1,3λ

�+ μ

�y�2 + 2

b�2,3μ

�+ b3,3 = 0

o anche

λ�x�2 + 2

b�1,3λ

x� +b�21,3λ2

�+ μ

�y�2 + 2

b�2,3μ

y� +b�22,3μ2

�+ b3,3 −

b�21,3λ

−b�22,3μ

= 0

192 Geometria e algebra

Page 193: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

192 CAPITOLO 8. CONICHE

oppure

γ : (x, y, 1) ·B ·

⎛⎝xy1

⎞⎠ = 0 . (8.10)

Poiche B(3,3), al pari di B, e simmetrica, esiste una matrice ortogonale

P =

�p1,1 p1,2p2,1 p2,2

�∈ O(2)

tale che

P t ·B · P =

�λ 00 μ

�.

Consideriamo allora il riferimento ortonormale R� = (O, e�1, e�2) (con lo stesso

origine O di R) tale che P sia la matrice di passaggio, ovvero MRR′ = P . Cio

vuol dire che se, detto R il generico punto, si ha che

R ≡R (x, y) , R ≡R′ (x�, y�) ,

si avra anche che�xy

�= P ·

�x�

y�

�, (x, y) = (x�, y�) · P t

e quindi γ sara rappresentata, in R� dall’equazione

γ : (x�, y�) · P t ·B(3,3) · P ·�x�

y�

�+ 2 (b1,3, b2,3) · P ·

�x�

y�

�+ b3,3 = 0 (8.11)

ovveroλx�2 + μy�2 + 2b�1,3x

� + 2b�2,3y� + b3,3 = 0 (8.12)

doveb�1,3 = b1,3p1,1 + b2,3p2,1 , b�2,3 = b1,3p1,2 + b2,3p2,2 .

Il cambiamento di riferimento appena descritto e una rotazione, eventual-mente seguita da un cambio di orientamento degli assi cartesiani. A seguito ditale cambiamento di riferimento, i nuovi assi cartesiani risultano paralleli agliassi della conica, nel caso delle coniche non degeneri a centro (ellisse e iperbole).Nel caso della parabola avremo invece un asse cartesiano parallelo all’asse dellaparabola.

Ora dobbiamo distinguere due casi. Per quanto riguarda il primo caso,supponiamo che gli autovalori λ, μ siano entrambi non nulli. La (8.12) puoscriversi allora

λ�x�2 + 2

b�1,3λ

�+ μ

�y�2 + 2

b�2,3μ

�+ b3,3 = 0

o anche

λ�x�2 + 2

b�1,3λ

x� +b�21,3λ2

�+ μ

�y�2 + 2

b�2,3μ

y� +b�22,3μ2

�+ b3,3 −

b�21,3λ

−b�22,3μ

= 0

8.3. RIDUZIONE IN FORMA CANONICA 193

ovvero

λ�x� +

b�1,3λ

�2+ μ

�y� +

b�2,3μ

�2+ b3,3 −

b�21,3λ

−b�22,3μ

= 0 .

Consideriamo allora un ulteriore riferimento R�� = (O��, e�1, e�2) (questa volta si

tratta di una traslazione, ovvero cambia l’origine ma non la base di vettori) taleche, posto R ≡R′′ (x��, y��), si abbia

⎧⎪⎪⎨⎪⎪⎩

x�� = x� +b�1,3λ

y�� = y� +b�2,3μ

In altri termini, la matrice completa del cambiamento da R� a R�� (vedi (7.39))e

A =

⎛⎝ I2

b′1,3b′1,3

0 0 1

⎞⎠ . (8.13)

In R�� la conica e quindi rappresentata da

γ : λx��2 + μy��2 + b��3,3 = 0 (8.14)

dove

b��3,3 = b3,3 −b�21,3λ

−b�22,3μ

.

Se b��3,3 �= 0, con semplici passaggi si perviene ad una rappresentazione del tipo(8.1) quando λ, μ sono concordi e b��3,3 e discorde da λ, μ, e si trattera di una ellisseordinaria, si perviene ad una rappresentazione del tipo (8.2) quando λ, μ sonodiscordi, e si trattera allora di una iperbole. Se invece λ, μ, b��3,3 sono concordi,avremo una ellisse immaginaria.

Oe1

e2

e�1

e�2

e��1

e��2

O

O��

Se b��3,3 = 0 la (8.14) si riduce a

(�

|λ|x�� +�|μ|y��)(

�|λ|x�� −

�|μ|y��) = 0

193Coniche

Page 194: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

194 CAPITOLO 8. CONICHE

e γ e l’unione di due rette reali, quando λ, μ sono concordi. Se invece λ, μ sonodiscordi, ad esempio λ > 0 e μ < 0, otterremo l’equazione

(√λx′′ + i

√−μy′′)(

√λx′′ − i

√−μy′′) = 0

e γ sara l’unione di due rette immaginarie incidenti in un punto reale.Consideriamo ora il secondo caso, ovvero supponiamo che uno degli autova-

lori, ad esempio μ, si annulli. Allora la (8.12) si riduce a

λx′2 + 2b′1,3x′ + 2b′2,3y

′ + b3,3 = 0

ovvero

λ�x′2 + 2

b′1,3λ

x′ +b′21,3λ2

�+ 2b′2,3y

′ ++b3,3 −b′21,3λ

= 0

ovvero

λ�x′ +

b′1,3λ

�2+ μ

�y′ +

b′2,3μ

�2+ b′′3,3 = 0 ,

dove

b′′3,3 = b3,3 −b′21,3λ

.

Se b′2,3 �= 0, utilizziamo la traslazione

⎧⎪⎪⎨⎪⎪⎩

x′′ = x′ +b′1,3λ

y′′ = y′ +λb3,3 − b′21,3

2b′2,3λ

ed otteniamo la rappresentezione

γ : λx′′2 + 2b′2,3y′′ = 0 ,

che equivale ad un’equazione del tipo (8.3), e γ e una parabola.

Oe1

e2

e′1

e′2

e′′1e′′2

O

O′′

194 Geometria e algebra

Page 195: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

194 CAPITOLO 8. CONICHE

e γ e l’unione di due rette reali, quando λ, μ sono concordi. Se invece λ, μ sonodiscordi, ad esempio λ > 0 e μ < 0, otterremo l’equazione

(√λx′′ + i

√−μy′′)(

√λx′′ − i

√−μy′′) = 0

e γ sara l’unione di due rette immaginarie incidenti in un punto reale.Consideriamo ora il secondo caso, ovvero supponiamo che uno degli autova-

lori, ad esempio μ, si annulli. Allora la (8.12) si riduce a

λx′2 + 2b′1,3x′ + 2b′2,3y

′ + b3,3 = 0

ovvero

λ�x′2 + 2

b′1,3λ

x′ +b′21,3λ2

�+ 2b′2,3y

′ ++b3,3 −b′21,3λ

= 0

ovvero

λ�x′ +

b′1,3λ

�2+ μ

�y′ +

b′2,3μ

�2+ b′′3,3 = 0 ,

dove

b′′3,3 = b3,3 −b′21,3λ

.

Se b′2,3 �= 0, utilizziamo la traslazione

⎧⎪⎪⎨⎪⎪⎩

x′′ = x′ +b′1,3λ

y′′ = y′ +λb3,3 − b′21,3

2b′2,3λ

ed otteniamo la rappresentezione

γ : λx′′2 + 2b′2,3y′′ = 0 ,

che equivale ad un’equazione del tipo (8.3), e γ e una parabola.

Oe1

e2

e′1

e′2

e′′1e′′2

O

O′′

8.3. RIDUZIONE IN FORMA CANONICA 195

Se invece b′2,3 = 0, la conica e degenere. Utilizziamo la traslazione

⎧⎨⎩

x′′ = x′ +b′1,3λ

y′′ = y′

ed otteniamo la rappresentezione

γ : λx′′2 + b′′3,3 = 0 .

In questo caso, se b′′3,3 �= 0, γ e l’unione di due rette parallele, che saranno realise λ, b′′3,3 sono discordi, immaginarie (ma con direzione reale) se λ, b′′3,3 sonoconcordi. Se infine b′′3,3 = 0, γ e doppiamente degenere.

In definitiva ogni conica puo rappresentarsi, in un opportuno riferimento, informa canonica.

195Coniche

Page 196: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno
Page 197: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

197

Capitolo 9

Esercizi

Esercizi sul primo capitolo

1. Relazioni in un insieme. Si considerino le seguenti relazioni h, h′ in Z:

a h b ⇐⇒ b2 − a2 e pari ; a h′ b ⇐⇒ b2 − a2 e multiplo di 4 .

(i) Si verifichi che h, h′ sono relazioni d’equivalenza.

(ii) Si verifichi che h, h′ coincidono, entrambe, con la relazione dell’Esempio1.12.

2. Relazioni in un insieme. Si considerino le seguenti relazioni h, h′ in N:

a h b ⇐⇒ a e un divisore di b

a h′ b ⇐⇒ a, b hanno un divisore comune (non invertibile) .

(i) Si verifichi che h e una relazione d’ordine.

(ii) Si verifichi che h′ non e una relazione d’ordine, ne d’equivalenza, maverifica la proprieta simmetrica.

3. Applicazioni. Si consideri l’applicazione f : R+ −→ R+ definita ponendo

f(α) =α

1 + α.

(i) Si verifichi che f e iniettiva.

(ii) Si verifichi che im f =]0, 1[.

4. Applicazioni. Si consideri l’applicazione g : R+ −→]0, 1[ definita ponendo

g(α) =α

1 + α.

(i) Si verifichi che g e biettiva.

197

Page 198: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

198 ESERCIZI

(ii) Si determini l’inversa di g.

5. Operazioni insiemistiche. SiaX un insieme non vuoto e indichiamo con P (X)l’insieme delle parti di X. Consideriamo le classiche operazioni insiemistiche∩,∪,−, ovvero l’intersezione, l’unione e la differenza tra sottoinsiemi.

(i) Si provi che(P (X),∩)

)e(P (X),∪)

)sono monoidi commutativi,

specificando qual e l’elemento neutro.

(ii) Si provi che in tali strutture gli unici elementi simmetrizzabili sonoquelli neutri.

(iii) Si provi che l’operazione di differenza non e associativa.

(iv) Considerata una parte propria Y di X ed indicato con PY (X) l’insiemedelle parti di X contenenti Y , si provi che

(PY (X),∩

)e una parte

stabile di(P (X),∩

), ed e a sua volta un monoide, ovvero, come si

suol dire, e un sottomonoide, mentre(PY (X),∪

)e una parte stabile

di(P (X),∪)

), ed e a sua volta un semigruppo, ma non un monoide.

6. Moltiplicazione su una circonferenza. Sia S1 la circonferenza unitaria delpiano euclideo, ovvero l’insieme dei punti P le cui coordinate x, y in un fissatoriferimento monometrico ortogonale soddisfino la relazione x2 + y2 = 1. Perogni θ ∈ R, indichiamo con Pθ il punto di coordinate (cos θ, sin θ). E facileverificare che tutti e soli i punti di S1 sono di questo tipo. Definiamo unaoperazione • in S1 ponendo

Pθ • Pθ′ = Pθ+θ′ .

(i) Si provi che • e una operazione interna in S1 e (S1, •) e un gruppoabeliano con elemento neutro P0, ovvero il punto di coordinate (1, 0).

7. Strutture su reali positivi. Si considerino i seguenti sottoinsiemi di R:

A =]0, 1[ ; B =]0, 1] ; C =]0,+∞[= R+ .

(i) Si verifichi se le operazioni di addizione e moltiplicazione sono stabiliin questi sottoinsiemi.

(ii) Si verifichi se (A; ·), (B; ·), (C; ·) sono gruppi.

8. Coppie di interi. Si consideri l’insieme Z×Z delle coppie ordinate di numeriinteri con le operazioni +, · definite componente per componente.

(i) Si verifichi che (Z× Z; +, ·) e un anello commutativo unitario.

(ii) Si verifichi che (Z × Z; +, ·) non e un dominio d’integrita, ovvero siverifichi che esistono due elementi non nulli con prodotto nullo.

9. Applicazioni a valori reali. SiaX un insieme non vuoto e si consideri l’insiemeC(X) delle applicazioni di X in R. Si definiscano in C(X) due operazioni⊕,� ponendo

(f ⊕ g)(x) = f(x) + g(x) ; (f � g)(x) = f(x) · g(x)

per ogni f, g ∈ C(X) e per ogni x ∈ X.

198 Geometria e algebra

Page 199: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

198 ESERCIZI

(ii) Si determini l’inversa di g.

5. Operazioni insiemistiche. SiaX un insieme non vuoto e indichiamo con P (X)l’insieme delle parti di X. Consideriamo le classiche operazioni insiemistiche∩,∪,−, ovvero l’intersezione, l’unione e la differenza tra sottoinsiemi.

(i) Si provi che(P (X),∩)

)e(P (X),∪)

)sono monoidi commutativi,

specificando qual e l’elemento neutro.

(ii) Si provi che in tali strutture gli unici elementi simmetrizzabili sonoquelli neutri.

(iii) Si provi che l’operazione di differenza non e associativa.

(iv) Considerata una parte propria Y di X ed indicato con PY (X) l’insiemedelle parti di X contenenti Y , si provi che

(PY (X),∩

)e una parte

stabile di(P (X),∩

), ed e a sua volta un monoide, ovvero, come si

suol dire, e un sottomonoide, mentre(PY (X),∪

)e una parte stabile

di(P (X),∪)

), ed e a sua volta un semigruppo, ma non un monoide.

6. Moltiplicazione su una circonferenza. Sia S1 la circonferenza unitaria delpiano euclideo, ovvero l’insieme dei punti P le cui coordinate x, y in un fissatoriferimento monometrico ortogonale soddisfino la relazione x2 + y2 = 1. Perogni θ ∈ R, indichiamo con Pθ il punto di coordinate (cos θ, sin θ). E facileverificare che tutti e soli i punti di S1 sono di questo tipo. Definiamo unaoperazione • in S1 ponendo

Pθ • Pθ′ = Pθ+θ′ .

(i) Si provi che • e una operazione interna in S1 e (S1, •) e un gruppoabeliano con elemento neutro P0, ovvero il punto di coordinate (1, 0).

7. Strutture su reali positivi. Si considerino i seguenti sottoinsiemi di R:

A =]0, 1[ ; B =]0, 1] ; C =]0,+∞[= R+ .

(i) Si verifichi se le operazioni di addizione e moltiplicazione sono stabiliin questi sottoinsiemi.

(ii) Si verifichi se (A; ·), (B; ·), (C; ·) sono gruppi.

8. Coppie di interi. Si consideri l’insieme Z×Z delle coppie ordinate di numeriinteri con le operazioni +, · definite componente per componente.

(i) Si verifichi che (Z× Z; +, ·) e un anello commutativo unitario.

(ii) Si verifichi che (Z × Z; +, ·) non e un dominio d’integrita, ovvero siverifichi che esistono due elementi non nulli con prodotto nullo.

9. Applicazioni a valori reali. SiaX un insieme non vuoto e si consideri l’insiemeC(X) delle applicazioni di X in R. Si definiscano in C(X) due operazioni⊕,� ponendo

(f ⊕ g)(x) = f(x) + g(x) ; (f � g)(x) = f(x) · g(x)

per ogni f, g ∈ C(X) e per ogni x ∈ X.

ESERCIZI 199

(i) Si verifichi che (C(X);⊕,�) e un anello commutativo unitario.

(ii) Si verifichi che (C(X);⊕,�) non e un dominio d’integrita (a patto chel’insieme X abbia almeno due elementi).

10. Polinomi - MCD. Si determini il massimo comun divisore monico tra leseguenti coppie di polinomi.

(i) f = x3 − x2 + x− 1 ; g = x4 − x3 − x2 − x− 2.

(ii) f = x4 − 1 ; g = x3 − 6x2 + 11x− 6.

(iii) f = x3 − x2 + x− 1 ; g = x3 − 6x2 + 11x− 6.

11. Polinomi. Sia f = a0 + a1x+ · · ·+ anxn ∈ Q[x].

(i) Si provi che f e proporzionale ad un polinomio a coefficienti interi.

(ii) Supponiamo che f sia un polinomio a coefficienti interi. Si provi chese u

v e una radice di f , con u, v interi coprimi, ovvero privi di fattoricomuni non invertibili, allora u divide a0 e v divide an.

(iii) Supponiamo che f sia un polinomio a coefficienti interi. Si provi cheogni sua radice intera divide a0.

(iv) Supponiamo che f sia un polinomio monico a coefficienti interi. Si proviche ogni sua radice e intera.

12. Polinomi. Si determinino due polinomi in Z[x] che ammettono le stesseradici, ma non sono proporzionali.

Esercizi sul secondo capitolo

1. Dipendenza ed indipendenza lineare. In uno spazio vettoriale V sul camporeale, sia S = [u,v,w] un sistema di vettori di V .

(i) Si verifichi che il sistema S ′ = [u+v+w,−u+v, 2u+w] e dipendente.

(ii) Si verifichi che, se S e indipendente, allora anche il sistema S ′′ = [u+v +w,u+ v,u] e indipendente.

2. Dipendenza ed indipendenza lineare nello spazio dei polinomi. Sia V = K[x]lo spazio vettoriale dei polinomi sul campo K e si consideri il sistema S =[1, x, x2, x3].

(i) Si provi che ogni polinomio di grado al piu 3 dipende da S.(ii) Si provi che ogni polinomio di grado maggiore di 3 non dipende da S.

3. Generatori in R3. Sia V = R3, e si considerino i vettori

v1 = (1, 1, 1) ; v2 = (1, 1, 2) ; v3 = (1, 1, 3) ; e1 = (1, 0, 0) .

(i) Si verifichi il sistema S = [v1,v2,v3, e1] e il sistema [v1,v2,v3] sonodipendenti.

199Esercizi

Page 200: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

200 ESERCIZI

(ii) Si verifichi il sistema [v1,v2] e il sistema [v1,v2, e1] sono indipendenti.

(iii) Si determinino tutti i sottosistemi indipendenti massimali di S.(iv) Si verifichi [v1,v2, e1] e S sono sistemi di generatori (e quindi [v1,v2, e1]

e una base).

4. Completamento a base. Si considerino i vettori u = (1, 1, 1) e v = (1, 1, 0) diR3.

(i) Si verifichi che [u,v] e indipendente.

(ii) Si completi [u,v] a base di R3, utilizzando uno dei vettori e1, e2, e3della base standard. Si evidenzi anche quale di tali vettori non puoessere utilizzato.

5. Sottospazi in R3. Si considerino i seguenti sottoinsiemi di R3:

A ={(a, b, c) ∈ R3 | a+ b+ c = 0

};

B ={(a, b, c) ∈ R3 | a+ b+ c = 1

}.

(i) Si provi che A ≤ R3 e che B �≤ R3.

(ii) Si determinino due elementi non proporzionali di A e si verifichi che necostituiscono una base.

(iii) Detto S il sistema determinato al punto precedente, si completi S abase, utilizzando un vettore della base standard.

6. Somme di sottospazi. Si consideri lo spazio vettoriale V = R[x].

(i) Si determinino due sottospazi U,W ≤ R[x] tali che risulti R[x] = U⊕W .

(ii) Si determinino due sottospazi U,W ≤ R[x] tali che risulti R[x] = U+W ,somma NON diretta.

7. Bandiere di sottospazi. Sia V uno spazio vettoriale di dimensione n e siconsideri una n-pla (U1, . . . , Un) di sottospazi di V tale che si abbia

U1 < U2 < · · · < Un = V .

Una tale sequenza si dice bandiera completa di sottospazi.

(i) Si dimostri che dimUj = j, per ogni j.

(ii) Si provi che esiste una base ordinata B = (u1, . . . ,un) di V tale cheUj = L(u1, . . . ,uj), per ogni j.

8. Immagini di sottospazi. Sia f : V → V � un’applicazione lineare.

(i) Sia U ≤ V . Si provi che f(U) ≤ V � e che, se U e finitamente generato,dim(f(U)) ≤ dimU .

(ii) Sia U � ≤ V �. Si provi che f−1(U �) ≤ V e che, se f−1(U �) e finitamentegenerato, dimU � ≤ dim f−1(U �).

200 Geometria e algebra

Page 201: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

200 ESERCIZI

(ii) Si verifichi il sistema [v1,v2] e il sistema [v1,v2, e1] sono indipendenti.

(iii) Si determinino tutti i sottosistemi indipendenti massimali di S.(iv) Si verifichi [v1,v2, e1] e S sono sistemi di generatori (e quindi [v1,v2, e1]

e una base).

4. Completamento a base. Si considerino i vettori u = (1, 1, 1) e v = (1, 1, 0) diR3.

(i) Si verifichi che [u,v] e indipendente.

(ii) Si completi [u,v] a base di R3, utilizzando uno dei vettori e1, e2, e3della base standard. Si evidenzi anche quale di tali vettori non puoessere utilizzato.

5. Sottospazi in R3. Si considerino i seguenti sottoinsiemi di R3:

A ={(a, b, c) ∈ R3 | a+ b+ c = 0

};

B ={(a, b, c) ∈ R3 | a+ b+ c = 1

}.

(i) Si provi che A ≤ R3 e che B �≤ R3.

(ii) Si determinino due elementi non proporzionali di A e si verifichi che necostituiscono una base.

(iii) Detto S il sistema determinato al punto precedente, si completi S abase, utilizzando un vettore della base standard.

6. Somme di sottospazi. Si consideri lo spazio vettoriale V = R[x].

(i) Si determinino due sottospazi U,W ≤ R[x] tali che risulti R[x] = U⊕W .

(ii) Si determinino due sottospazi U,W ≤ R[x] tali che risulti R[x] = U+W ,somma NON diretta.

7. Bandiere di sottospazi. Sia V uno spazio vettoriale di dimensione n e siconsideri una n-pla (U1, . . . , Un) di sottospazi di V tale che si abbia

U1 < U2 < · · · < Un = V .

Una tale sequenza si dice bandiera completa di sottospazi.

(i) Si dimostri che dimUj = j, per ogni j.

(ii) Si provi che esiste una base ordinata B = (u1, . . . ,un) di V tale cheUj = L(u1, . . . ,uj), per ogni j.

8. Immagini di sottospazi. Sia f : V → V � un’applicazione lineare.

(i) Sia U ≤ V . Si provi che f(U) ≤ V � e che, se U e finitamente generato,dim(f(U)) ≤ dimU .

(ii) Sia U � ≤ V �. Si provi che f−1(U �) ≤ V e che, se f−1(U �) e finitamentegenerato, dimU � ≤ dim f−1(U �).

ESERCIZI 201

9. Omotetie. Sia f : V → V un’omotetia di ragione k �= 0.

(i) Si verifichi che f e un isomorfismo, la cui inversa e ancora un’omotetia,di ragione k−1.

(ii) Si provi che per ogni sottospazio U di V si ha che f(U) = U .

10. Applicazioni lineari definite su una base ed estese per linearita. Si determinil’applicazione lineare f ;R2 → R3 definita ponendo

f(1, 0) = (1, 1, 1) ; f(0, 1) = (1, 2, 3)

ed estendendo poi per linearita. [f(a,b)=(a+b,a+2b,a+3b)

]

11. Applicazioni lineari definite su una base ed estese per linearita. Si determinil’applicazione lineare f ;R2 → R3 definita ponendo

f(1, 1) = (1, 0,−1) ; f(1,−1) = (−3, 0, 3)

ed estendendo poi per linearita.[f(a,b)=(−a+2b,0,a−2b)

]

12. Nucleo e immagine. Sia f : V → V un endomorfismo, e sia dimV = n.

(i) Si stabilisca se e possibile che ker f = im f quando n e pari e quando ne dispari.

(ii) Nel caso in cui cio e possibile, si costruisca un esempio.

13. Nucleo, immagine e somme di sottospazi. Sia V uno spazio vettoriale didimensione 3.

(i) Si costruisca un endomorfismo f : V → V tale che V = ker f ⊕ im f .

(ii) Si costruisca un endomorfismo g : V → V tale che ker g ≤ im g.

(iii) Si costruisca un endomorfismo h : V → V tale che imh ≤ kerh.

14. Applicazioni lineari composte. Siano V, V �, V �� spazi vettoriali su un campoK e siano

f : V −→ V � ; g : V � −→ V ��

due applicazioni lineari.

(i) Si verifichi che im(g ◦ f) ≤ im g ≤ V ��.

(ii) Si verifichi che ker f ≤ ker(g ◦ f) ≤ V .

(iii) Supposto che gli spazi siano tutti finitamente generati, si verifichi chedim(im(g ◦ f)) ≤ dim(im f).

15. Endomorfismi ed Automorfismi. Sia V uno spazio vettoriale su un campoK. Un endomorfismo f : V → V che sia anche un isomorfismo si dice ancheautomorfismo. Indichiamo con End(V ) l’insieme degli endomorfismi di V , econ Aut(V ) l’insieme degli automorfismi di V .

201Esercizi

Page 202: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

202 ESERCIZI

(a) Si verifichi l’operazione di composizione tra applicazioni rende End(V )un monoide (non commutativo).

(b) Si verifichi l’operazione di composizione tra applicazioni rende Aut(V )un gruppo (non abeliano).

Esercizi sul terzo capitolo

1. Prodotto di matrici triangolari alte. Siano A,B ∈ M2,2(R). Si verifichi chesono veri i seguenti enunciati.

(i) Se A,B sono triangolari alte, tale e anche A ·B.

(ii) Se A,B sono triangolari alte, e gli elementi della diagonale principaledi A e di B sono tutti uguali ad 1, lo stesso vale anche per A ·B.

2. Prodotto di matrici e commutativita. Siano A,B ∈ Mn,n(R) e sia

A =

⎛⎜⎜⎜⎝

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

⎞⎟⎟⎟⎠

una matrice diagonale in cui gli elementi della diagonale sono a due a duedistinti. Si provi che A ·B = B ·A se e solo se B e diagonale.

3. Prodotto di matrici righe per righe. Si consideri l’insieme M2,2(R) dellematrici quadrate di ordine 2.

(i) In analogia con il prodotto righe per colonne, si definisca formalmenteun prodotto righe per righe in M2,2(R).

(ii) Si considerino le matrici

A =

�1 00 0

�; B =

�0 10 0

�; C =

�0 20 0

e si verifichi, utilizzando tale prodotto, che (AB)C �= A(BC), e quindinon vale la proprieta associativa. Si verifichi, altresı, che (BA)C =B(AC).

4. Rango e determinante. Si consideri la seguente matrice 4× 4:

A =

⎛⎜⎜⎝1 0 −1 23 2 0 51 2 2 10 1 1 3

⎞⎟⎟⎠

(i) Si calcoli il rango di A, con i vari metodi disponibili.

202 Geometria e algebra

Page 203: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

202 ESERCIZI

(a) Si verifichi l’operazione di composizione tra applicazioni rende End(V )un monoide (non commutativo).

(b) Si verifichi l’operazione di composizione tra applicazioni rende Aut(V )un gruppo (non abeliano).

Esercizi sul terzo capitolo

1. Prodotto di matrici triangolari alte. Siano A,B ∈ M2,2(R). Si verifichi chesono veri i seguenti enunciati.

(i) Se A,B sono triangolari alte, tale e anche A ·B.

(ii) Se A,B sono triangolari alte, e gli elementi della diagonale principaledi A e di B sono tutti uguali ad 1, lo stesso vale anche per A ·B.

2. Prodotto di matrici e commutativita. Siano A,B ∈ Mn,n(R) e sia

A =

⎛⎜⎜⎜⎝

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

⎞⎟⎟⎟⎠

una matrice diagonale in cui gli elementi della diagonale sono a due a duedistinti. Si provi che A ·B = B ·A se e solo se B e diagonale.

3. Prodotto di matrici righe per righe. Si consideri l’insieme M2,2(R) dellematrici quadrate di ordine 2.

(i) In analogia con il prodotto righe per colonne, si definisca formalmenteun prodotto righe per righe in M2,2(R).

(ii) Si considerino le matrici

A =

�1 00 0

�; B =

�0 10 0

�; C =

�0 20 0

e si verifichi, utilizzando tale prodotto, che (AB)C �= A(BC), e quindinon vale la proprieta associativa. Si verifichi, altresı, che (BA)C =B(AC).

4. Rango e determinante. Si consideri la seguente matrice 4× 4:

A =

⎛⎜⎜⎝1 0 −1 23 2 0 51 2 2 10 1 1 3

⎞⎟⎟⎠

(i) Si calcoli il rango di A, con i vari metodi disponibili.

ESERCIZI 203

(ii) Si calcoli il determinante di A, con i vari metodi disponibili.

(iii) Si spieghi se e vero che il risultato di (i) implica quello di (ii) e/oviceversa.

5. Matrice inversa. Posto A =

�1 23 4

�e osservato che A e invertibile, si spieghi

perche SICURAMENTE la sua inversa possiede elementi non interi.

6. Inverse destre e sinistre. Sia

A =

⎛⎝0 12 13 1

⎞⎠ .

(i) Si provi che A non ammette inverse a destra.

(ii) Si costruiscano alcuni esempi di inversa sinistra di A.

7. Un sottomonoide. Si consideri il monoide (M2,2; ·) delle matrici quadrate diordine 2 sul campo R con l’operazione di prodotto righe per colonne. Sia

S =� �

a b−b a

� �� a, b ∈ R�.

(i) Si provi che S e stabile rispetto al prodotto righe per colonne ed equindi un sottomonoide di M2,2, essendo anche I2 ∈ S.

(ii) Si provi che una matrice A ∈ S e invertibile se e solo se a �= 0 o b �= 0.

(iii) Si provi che l’inversa di una matrice invertibile di S e ancora un ele-mento di S.

8. Invertibilita. Sia A una matrice 2× 3 e B una matrice 3× 2 (su R).

(i) Si verifichi che det(B ·A) = 0.

(ii) Posto

A =

�1 2 00 1 1

�; B =

⎛⎝1 12 0t t

⎞⎠ ,

si stabilisca per quali valori del parametro t la matrice A · B risultainvertibile.

Esercizi sul quarto capitolo

1. Cramer 2×2. Si studi la compatibilita e si determinino le eventuali soluzionidei seguenti sistemi lineari.

(i) �x+ y = 2

x− y = 0

203Esercizi

Page 204: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

204 ESERCIZI

(ii) �x+ y = 2

x− y = 2

(iii) �x+ y = 2

x− y = tal variare del parametro t

2. Cramer 3×3. Si studi la compatibilita e si determinino le eventuali soluzionidei seguenti sistemi lineari.

(i) ⎧⎪⎨⎪⎩

x+ y + z = 3

x− y = 0

x+ 3z = 4

(ii) ⎧⎪⎨⎪⎩

x+ y + z = 3

x− y = t− 2

x+ 2z = t+ 2

al variare del parametro t

3. Cramer 4×4. Si studi la compatibilita e si determinino le eventuali soluzionidel seguente sistema lineare. Si utilizzino entrambi i metodi.

⎧⎪⎪⎪⎨⎪⎪⎪⎩

x1 + x2 + x3 + x4 = 4

x1 − x2 + x3 − x4 = 0

x1 + x2 + x3 − x4 = 2

x1 + 2x2 + 3x3 = 6

4. Cramer 4 × 4 con parametro. Si studi la compatibilita e si determinino leeventuali soluzioni del seguente sistema lineare al variare del parametro t. Siutilizzino entrambi i metodi.

⎧⎪⎪⎪⎨⎪⎪⎪⎩

x1 + x2 + x3 + x4 = 4

x1 − x2 + x3 − x4 = t− 1

x1 + x2 + x3 − x4 = t+ 1

x1 + 2x2 + 3x3 = 6

5. 3 × 3 con parametro. Si studi la compatibilita e si determinino le eventualisoluzioni del seguente sistema lineare al variare del parametro t. Si utilizzinoentrambi i metodi. ⎧⎪⎨

⎪⎩

x1 + x2 + x3 = 2

x1 + x2 + tx3 = 2

tx2 + 2x3 = 1

204 Geometria e algebra

Page 205: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

204 ESERCIZI

(ii) �x+ y = 2

x− y = 2

(iii) �x+ y = 2

x− y = tal variare del parametro t

2. Cramer 3×3. Si studi la compatibilita e si determinino le eventuali soluzionidei seguenti sistemi lineari.

(i) ⎧⎪⎨⎪⎩

x+ y + z = 3

x− y = 0

x+ 3z = 4

(ii) ⎧⎪⎨⎪⎩

x+ y + z = 3

x− y = t− 2

x+ 2z = t+ 2

al variare del parametro t

3. Cramer 4×4. Si studi la compatibilita e si determinino le eventuali soluzionidel seguente sistema lineare. Si utilizzino entrambi i metodi.

⎧⎪⎪⎪⎨⎪⎪⎪⎩

x1 + x2 + x3 + x4 = 4

x1 − x2 + x3 − x4 = 0

x1 + x2 + x3 − x4 = 2

x1 + 2x2 + 3x3 = 6

4. Cramer 4 × 4 con parametro. Si studi la compatibilita e si determinino leeventuali soluzioni del seguente sistema lineare al variare del parametro t. Siutilizzino entrambi i metodi.

⎧⎪⎪⎪⎨⎪⎪⎪⎩

x1 + x2 + x3 + x4 = 4

x1 − x2 + x3 − x4 = t− 1

x1 + x2 + x3 − x4 = t+ 1

x1 + 2x2 + 3x3 = 6

5. 3 × 3 con parametro. Si studi la compatibilita e si determinino le eventualisoluzioni del seguente sistema lineare al variare del parametro t. Si utilizzinoentrambi i metodi. ⎧⎪⎨

⎪⎩

x1 + x2 + x3 = 2

x1 + x2 + tx3 = 2

tx2 + 2x3 = 1

ESERCIZI 205

6. 3 × 4 da ridurre. Si studi la compatibilita e si determinino le eventualisoluzioni del seguente sistema lineare. Si utilizzino entrambi i metodi.

⎧⎪⎨⎪⎩

x1 + 2x2 + 3x3 = 1

2x1 + 3x2 + 4x3 + x4 = 2

x1 + x2 + x3 + x4 = 1

7. 3 × 4 con parametro. Si studi la compatibilita e si determinino le eventualisoluzioni del seguente sistema lineare. Si utilizzino entrambi i metodi.

⎧⎪⎨⎪⎩

x1 + 2x2 + 3x3 = 1

2x1 + 3x2 + 4x3 + x4 = 2

x1 + x2 + x3 + tx4 = 1

8. 2 × 2 con due parametri. Si studi la compatibilita e si determinino le even-tuali soluzioni del seguente sistema lineare al variare dei parametri h, k. Siutilizzino entrambi i metodi.

�hx− ky = 2

hx+ ky = 2

9. Rappresentazioni di sottospazi. Sia V uno spazio vettoriale reale di dimensio-ne 3, e sia B = (e1, e2, e3) una sua base ordinata. Si determini una base delsottospazio W di V che ammette la seguente rappresentazione cartesiana:

W :

⎧⎪⎨⎪⎩

x+ y − z = 0

2x+ z = 0

x− y + 2z = 0

10. Rappresentazioni di sottospazi. Sia V uno spazio vettoriale reale di dimen-sione 3, e sia B = (e1, e2, e3) una sua base ordinata. Si considerino i vettoriu = e1 + e2 + e3, w = 2e1 − e3 e il sottospazio W = L(u,w). Si costruiscauna rappresentazione cartesiana di W (rispetto alla base B).

11. Rappresentazioni di sottospazi. Sia V uno spazio vettoriale reale di dimensio-ne 4, e sia B = (e1, e2, e3, e4) una sua base ordinata. Si considerino i vettoriu = e1 + e2 + e3 + e4, w = 2e1 − e2 + e3 e il sottospazio W = L(u,w). Sicostruisca una rappresentazione cartesiana di W (rispetto alla base B).

Esercizi sul quinto capitolo

1. Matrice associata ad f in varie basi, caso numerico. Sia f : R2 → R3

l’applicazione lineare definita ponendo

f(a, b) = (a+ b, 2a, a− 2b) ∀ (a, b) ∈ R2 .

205Esercizi

Page 206: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

206 ESERCIZI

Consideriamo le basi standard B e B� di R2 ed R3 rispettivamente, ed inoltrele basi B�� =

�(1, 1), (1,−1)

�di R2 e B��� =

�(1, 0, 1), (1, 1, 1), (1, 1,−1)

�di

R3.

(i) Si determini la matrice MB�B (f).

(ii) Si determini la matrice MB�B��(f).

(iii) Si determini la matrice MB���B (f).

(iv) Si determini la matrice MB���B�� (f).

2. Matrice associata ad f in varie basi, caso astratto. Siano V, V � due spazivettoriali sul campo reale, e siano

B =�e1, e2

�; B� =

�e�1, e

�2, e

�3

�.

Sia f : V → V � l’applicazione lineare definita ponendo

f(e1) = e�1 + e�2 ; f(e2) = e�1 − e�2 + e�3

ed estendendo poi per linearita.

(i) Si verifichi che B�� = (e1 + e2, e1 − e2) e una base di V e che B��� =(e�1 + e�2, e

�2 + e�3, e

�1 + e�2 + e�3) e una base di V �.

(ii) Si determini la matrice MB�B (f).

(iii) Si determini la matrice MB���B�� (f).

3. Rango del prodotto di matrici. Siano A ∈ Mm,n, B ∈ Mn,p due matricicompatibili.

(i) Come conseguenza dell’Esercizio 14 del secondo capitolo, parte (i) eparte (ii), si verifichi che ρ(B ·A) ≤ ρ(A) e ρ(B ·A) ≤ ρ(B).

(ii) Si verifichi che due matrici coniugate hanno lo stesso rango.

4. Cambi di base. Sia V uno spazio vettoriale su un campo K e sia B =(e1, e2, e3) una sua base ordinata. Si consideri la matrice

A =

⎛⎝1 1 00 0 11 2 0

⎞⎠ .

(i) Si determini una base B� tale che MBB� = A. �

B�=(e1+e3,e1+2e3,e2)�

(ii) Si determini una base B�� tale che MB��B = A.�

si calcoli A−1 e si proceda come in (i)�

5. Derivate ed autovalori. Si consideri lo spazio vettoriale V = R[x] dei polino-mi, e sia D : R[x] → R[x] l’operatore di derivazione, definito ponendo

D(a0 + a1x+ · · ·+ anxn) = a1 + 2a2x+ · · ·+ nanx

n−1 .

206 Geometria e algebra

Page 207: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

206 ESERCIZI

Consideriamo le basi standard B e B� di R2 ed R3 rispettivamente, ed inoltrele basi B�� =

�(1, 1), (1,−1)

�di R2 e B��� =

�(1, 0, 1), (1, 1, 1), (1, 1,−1)

�di

R3.

(i) Si determini la matrice MB�B (f).

(ii) Si determini la matrice MB�B��(f).

(iii) Si determini la matrice MB���B (f).

(iv) Si determini la matrice MB���B�� (f).

2. Matrice associata ad f in varie basi, caso astratto. Siano V, V � due spazivettoriali sul campo reale, e siano

B =�e1, e2

�; B� =

�e�1, e

�2, e

�3

�.

Sia f : V → V � l’applicazione lineare definita ponendo

f(e1) = e�1 + e�2 ; f(e2) = e�1 − e�2 + e�3

ed estendendo poi per linearita.

(i) Si verifichi che B�� = (e1 + e2, e1 − e2) e una base di V e che B��� =(e�1 + e�2, e

�2 + e�3, e

�1 + e�2 + e�3) e una base di V �.

(ii) Si determini la matrice MB�B (f).

(iii) Si determini la matrice MB���B�� (f).

3. Rango del prodotto di matrici. Siano A ∈ Mm,n, B ∈ Mn,p due matricicompatibili.

(i) Come conseguenza dell’Esercizio 14 del secondo capitolo, parte (i) eparte (ii), si verifichi che ρ(B ·A) ≤ ρ(A) e ρ(B ·A) ≤ ρ(B).

(ii) Si verifichi che due matrici coniugate hanno lo stesso rango.

4. Cambi di base. Sia V uno spazio vettoriale su un campo K e sia B =(e1, e2, e3) una sua base ordinata. Si consideri la matrice

A =

⎛⎝1 1 00 0 11 2 0

⎞⎠ .

(i) Si determini una base B� tale che MBB� = A. �

B�=(e1+e3,e1+2e3,e2)�

(ii) Si determini una base B�� tale che MB��B = A.�

si calcoli A−1 e si proceda come in (i)�

5. Derivate ed autovalori. Si consideri lo spazio vettoriale V = R[x] dei polino-mi, e sia D : R[x] → R[x] l’operatore di derivazione, definito ponendo

D(a0 + a1x+ · · ·+ anxn) = a1 + 2a2x+ · · ·+ nanx

n−1 .

ESERCIZI 207

(i) Si verifichi che 0 e un autovalore per D e si determini l’autospaziocorrispondente.

(ii) Si verifichi che non possono esistere autovalori non nulli.

6. Autovalori ed automorfismi. Sia V uno spazio vettoriale su un campo K esia f ∈ Aut(V ) (ovvero sia f un isomorfismo di V in V ).

(i) Si verifichi che λ e un autovalore per f se e solo se λ−1 e un autovaloreper f−1.

(ii) Sia λ uno scalare. Si verifichi che se λ e un autovalore per f gli autospaziVλ(f) e Vλ−1(f−1) coincidono.

(iii) Si verifichi che f e diagonalizzabile se e solo se f−1 e diagonalizzabile.

7. Diagonalizzabilita su vari campi. Sia V uno spazio vettoriale su un campoK, sia B = (e1, e2, e3, e4) una sua base ordinata, e sia f ∈ End(V ) definitoponendo

f(e1) = −e2 ; f(e2) = e1 ; f(e3) = e1 + 2e4 ; f(e4) = 2e2 + e3 .

(i) Si studi la diagonalizzabilita di f nel caso in cui K = Q.

(ii) Si studi la diagonalizzabilita di f nel caso in cui K = R.

(iii) Si studi la diagonalizzabilita di f nel caso in cui K = C.

8. Diagonalizzabilita con due parametri. Sia V uno spazio vettoriale sul campoR, sia B = (e1, e2, e3) una sua base ordinata, e sia f ∈ End(V ) definitoponendo

f(e1) = e1 + be3 ; f(e2) = 2e2 ; f(e3) = ae1 + e3 ,

dove a, b sono parametri reali.

(i) Si stabilisca per quali valori dei parametri a, b l’endomorfismo f am-mette autovalori multipli.

(ii) Si stabilisca per quali valori dei parametri a, b l’endomorfismo f nonsoddisfa alla prima parte della quarta condizione del Teorema Spettrale.

(iii) Si studi la diagonalizzabilita di f .

9. Diagonalizzabilita con un parametro. Sia V uno spazio vettoriale sul campoR, sia B = (e1, e2) una sua base ordinata, e sia f ∈ End(V ) definito ponendo

f(e1) = t2e1 ; f(e2) = (t− 1)e1 + (2− t2)e2 ,

dove t e un parametro reale. Si discuta la diagonalizzabilita di f al variaredel parametro t.

207Esercizi

Page 208: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

208 ESERCIZI

Esercizi sul sesto capitolo

1. Vettori isotropi. Si consideri la forma bilineare dell’Esempio 6.10.

(i) Si determinino tutti i vettori isotropi.

(ii) Si stabilisca se essi formano un sottospazio.

2. Complemento ortogonale. Sia V uno spazio vettoriale euclideo di dimensione4, e sia B = (e1, e2, e3, e4) una sua fissata base ordinata ortonormale. SiaW ≤ V .

(i) Si provi che V = W ⊕W⊥.

(ii) Si considerino i vettori u = (1, 0, 1, 0) e v = (1, 1, 2, 2). Posto W =L(u,v), si descriva W⊥.

3. Gruppo ortogonale. Sia O2 il gruppo delle matrici ortogonali 2× 2 su R.

(i) Si verifichi che per ogni θ ∈ R la matrice

Aθ =

(cos θ − sin θsin θ cos θ

)

appartiene ad O2.

(ii) Si verifichi che l’insieme SO2 ={Aθ | θ ∈ R

}e un sottogruppo (abelia-

no) del gruppo (non abeliano) O2.

(iii) Si verifichi che la matrice(1 00 −1

)appartiene ad O2 ma non ad SO2.

4. Gram-Schmidt. Si consideri lo spazio vettoriale euclideo R3 ed il suo sistemadi vettori

S =((1, 1, 1), (1, 2, 2), (1, 2, 1)

).

(i) Si verifichi che S e una base, ma non ortonormale.

(ii) Si ortonormalizzi S.

5. Diagonalizzazione ortogonale. Si consideri uno spazio vettoriale euclideo Ved una sua base ortonormale B = (e1, e2, e3). Sia f : V → V l’endomorfismodefinito ponendo

f(e1) = 2e3 ; f(e2) = 2e2 ; f(e3) = 2e1

ed estendendo poi per linearita.

(i) Si verifichi che f e ortogonalmente diagonalizzabile.

(ii) Si determini una base ortonormale di autovettori.

208 Geometria e algebra

Page 209: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

208 ESERCIZI

Esercizi sul sesto capitolo

1. Vettori isotropi. Si consideri la forma bilineare dell’Esempio 6.10.

(i) Si determinino tutti i vettori isotropi.

(ii) Si stabilisca se essi formano un sottospazio.

2. Complemento ortogonale. Sia V uno spazio vettoriale euclideo di dimensione4, e sia B = (e1, e2, e3, e4) una sua fissata base ordinata ortonormale. SiaW ≤ V .

(i) Si provi che V = W ⊕W⊥.

(ii) Si considerino i vettori u = (1, 0, 1, 0) e v = (1, 1, 2, 2). Posto W =L(u,v), si descriva W⊥.

3. Gruppo ortogonale. Sia O2 il gruppo delle matrici ortogonali 2× 2 su R.

(i) Si verifichi che per ogni θ ∈ R la matrice

Aθ =

(cos θ − sin θsin θ cos θ

)

appartiene ad O2.

(ii) Si verifichi che l’insieme SO2 ={Aθ | θ ∈ R

}e un sottogruppo (abelia-

no) del gruppo (non abeliano) O2.

(iii) Si verifichi che la matrice(1 00 −1

)appartiene ad O2 ma non ad SO2.

4. Gram-Schmidt. Si consideri lo spazio vettoriale euclideo R3 ed il suo sistemadi vettori

S =((1, 1, 1), (1, 2, 2), (1, 2, 1)

).

(i) Si verifichi che S e una base, ma non ortonormale.

(ii) Si ortonormalizzi S.

5. Diagonalizzazione ortogonale. Si consideri uno spazio vettoriale euclideo Ved una sua base ortonormale B = (e1, e2, e3). Sia f : V → V l’endomorfismodefinito ponendo

f(e1) = 2e3 ; f(e2) = 2e2 ; f(e3) = 2e1

ed estendendo poi per linearita.

(i) Si verifichi che f e ortogonalmente diagonalizzabile.

(ii) Si determini una base ortonormale di autovettori.

ESERCIZI 209

Esercizi sul settimo capitolo

1. Parallelismo. Sia A uno spazio affine reale di dimensione n. Si provi la nontransitivita della relazione di parallelismo tra sottospazi.

2. Punto medio. Sia A uno spazio affine reale di dimensione n. Si provil’esistenza ed unicita del punto medio tra due punti.

3. Baricentro. Sia A un piano affine reale e siano A,B,C tre punti non allineati.Indichiamo com A′, B′, C ′ i punti medi delle coppie di punti (B,C), (A,C),(A,B) rispettivamente. Si provi che le rette ra, rb, rc individuate dalle cop-pie (A,A′), (B,B′), (C,C ′) si incontrano in un punto H, che e noto comebaricentro della terna (A,B,C), o anche del triangolo di vertici A,B,C.

A

A′

B

B′

C

C ′

rc

HA

A′

B

B′

C

C ′

ra

rb

rc

H

4. Asse di due punti. Sia A uno spazio euclideo reale di dimensione n. Si proviche l’insieme dei punti equidistanti da due punti dati e un iperpiano.

A

B

M

P

Q

R

A

B

M

P

Q

R

209Esercizi

Page 210: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

210 ESERCIZI

5. Distanze in E2. Si consideri un punto P0 ≡ (x0, y0) ∈ E2 ed una rettar : ax+ by + c = 0. Si verifichi che

d(P0, r) =|ax0 + by0 + c|√

a2 + b2.

6. Prodotto misto. Nello spazio (di dimensione 3) dei vettori liberi ordinariassociato allo spazio euclideo tridimensionale, considerati tre vettori u,v,w,lo scalare u ∧ v ·w si dice prodotto misto dei tre vettori. In un riferimentoortonormale, poniamo u = (�,m, n),v = (�′,m′, n′),w = (�′′,m′′, n′′) e

A =

⎛⎝

� m n�′ m′ n′

�′′ m′′ n′′

⎞⎠ .

(i) Si verifichi che u ∧ v ·w = v ∧w · u = w ∧ u · v.(ii) Si verifichi che |u ∧ v ·w| = detA.

(iii) Siano A,B,C,D ∈ E3 e sia

−−→AB = u ;

−→AC = v ;

−−→AD = w .

Si verifichi che |u ∧ v ·w| e il volume del parallelepipedo che ammetteAB, AC, AD come spigoli.

7. Piani in E4. Si costruiscano due piani π, π′ in uno spazio affine di dimensione4, in modo che l’intersezione π ∩ π′ sia un punto.

8. Fasci di piani. Sia F un fascio di piani in E3.

(i) Nel caso in cui F e improprio, si provi che ∀ P ∈ E3 ∃! π ∈ F tale cheP ∈ π.

(ii) Nel caso in cui F e proprio, ad esempio di asse r, si provi che

∀ P ∈ E3 − r ∃! π ∈ F tale che P ∈ π .

9. Rette e fasci di piani. Siano r ed s due rette distinte in E3 e si consideriil fascio proprio di piani Fr di asse r. Si provi che esiste un (unico) pianoπ ∈ Fr che contiene s se e solo se r ed s sono incidenti o parallele.

10. Rappresentazione di sottospazi. Si considerino quattro punti A,B,C,D inE4. In un fissato riferimento sia

A ≡ (1, 1, 1, 1) , B ≡ (1, 2, 1, 2) , C ≡ (2, 1, 2, 1) , D ≡ (2, 2, 2, 2) .

(i) Si determinino i vettori−−→AB,

−→AC,

−−→AD.

(ii) Si determini il piu piccolo sottospazio affine contenente i punti A,B (esi verifichi che e una retta).

(iii) Si determini il piu piccolo sottospazio affine contenente i punti A,B,C(e si verifichi che e un piano).

(iv) Si determini il piu piccolo sottospazio affine contenente i punti A,B,C,D e si verifichi che esso coincide con il sottospazio del punto precedente.

210 Geometria e algebra

Page 211: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

210 ESERCIZI

5. Distanze in E2. Si consideri un punto P0 ≡ (x0, y0) ∈ E2 ed una rettar : ax+ by + c = 0. Si verifichi che

d(P0, r) =|ax0 + by0 + c|√

a2 + b2.

6. Prodotto misto. Nello spazio (di dimensione 3) dei vettori liberi ordinariassociato allo spazio euclideo tridimensionale, considerati tre vettori u,v,w,lo scalare u ∧ v ·w si dice prodotto misto dei tre vettori. In un riferimentoortonormale, poniamo u = (�,m, n),v = (�′,m′, n′),w = (�′′,m′′, n′′) e

A =

⎛⎝

� m n�′ m′ n′

�′′ m′′ n′′

⎞⎠ .

(i) Si verifichi che u ∧ v ·w = v ∧w · u = w ∧ u · v.(ii) Si verifichi che |u ∧ v ·w| = detA.

(iii) Siano A,B,C,D ∈ E3 e sia

−−→AB = u ;

−→AC = v ;

−−→AD = w .

Si verifichi che |u ∧ v ·w| e il volume del parallelepipedo che ammetteAB, AC, AD come spigoli.

7. Piani in E4. Si costruiscano due piani π, π′ in uno spazio affine di dimensione4, in modo che l’intersezione π ∩ π′ sia un punto.

8. Fasci di piani. Sia F un fascio di piani in E3.

(i) Nel caso in cui F e improprio, si provi che ∀ P ∈ E3 ∃! π ∈ F tale cheP ∈ π.

(ii) Nel caso in cui F e proprio, ad esempio di asse r, si provi che

∀ P ∈ E3 − r ∃! π ∈ F tale che P ∈ π .

9. Rette e fasci di piani. Siano r ed s due rette distinte in E3 e si consideriil fascio proprio di piani Fr di asse r. Si provi che esiste un (unico) pianoπ ∈ Fr che contiene s se e solo se r ed s sono incidenti o parallele.

10. Rappresentazione di sottospazi. Si considerino quattro punti A,B,C,D inE4. In un fissato riferimento sia

A ≡ (1, 1, 1, 1) , B ≡ (1, 2, 1, 2) , C ≡ (2, 1, 2, 1) , D ≡ (2, 2, 2, 2) .

(i) Si determinino i vettori−−→AB,

−→AC,

−−→AD.

(ii) Si determini il piu piccolo sottospazio affine contenente i punti A,B (esi verifichi che e una retta).

(iii) Si determini il piu piccolo sottospazio affine contenente i punti A,B,C(e si verifichi che e un piano).

(iv) Si determini il piu piccolo sottospazio affine contenente i punti A,B,C,D e si verifichi che esso coincide con il sottospazio del punto precedente.

ESERCIZI 211

Esercizi sull’ottavo capitolo

1. Circonferenze. Sia

γ : b1,1x21 + 2b1,2x1x2 + b2,2x

22 + 2b1,3x1x3 + 2b2,3x2x3 + b3,3x

23 = 0

una conica. Si verifichi che γ e una circonferenza se e solo se

b1,1 = b2,2, b1,2 = 0 , b1,1b3,3 ≤ b21,3 + b22,3 .

2. Coniche prive di punti reali. Si spieghi perche una conica priva di punti realie necessariamente un’ellisse.

3. Ellissi ed angoli. Sia γ un’ellisse, siano F �, F �� i suoi fuochi, e sia P ∈ γ. Adesempio si ponga

γ : x2 + 2xy + 2x− 3 = 0 ; P ≡ (1,−1) .

(i) Si determini la tangente r = ω(P ).

(ii) Si calcolino la coordinate dei fuochi.

(iii) Siano r�, r�� le rette passanti per P e per F �, F �� rispettivamente. Siverifichi che gli angoli α e β che r forma con r� ed r�� coincidono.

(iv) Si verifichi tale proprieta in generale (difficile!!).

4. Coniche a centro. Si considerino le seguenti coniche in coordinate affini

γ± : 2x2 + 2xy ± y2 + 2x = 0 .

(i) Si scrivano le corrispondenti equazioni in coordinate omogenee.

(ii) Si provi che γ+ e un’ellisse ordinaria e γ− e una iperbole.

(iii) Si calcolino gli asintoti di γ+ e γ−.

(iv) Si calcolino gli assi di γ+ e γ−.

(v) Si calcoli il centro di γ+ e γ−.

(vi) Si calcolino i vertici di γ+ e γ−.

5. Polarita. Si considerino i punti

O ≡ (0, 0), A ≡ (−1, 0), B ≡ (−1, 2), C ≡ (1, 1), D ≡ (−1, 1)

e l’ellisse ordinariaγ+ : 2x2 + 2xy + y2 + 2x = 0

(i) Si provi che O,A,B ∈ γ+ e si determini la tangente alla conica in talipunti.

(ii) Si provi che C,D �∈ γ+ e si determini la polare in tali punti.

6. Diametri. Si consideri l’iperbole γ− : 2x2 + 2xy − y2 + 2x = 0.

211Esercizi

Page 212: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

212 ESERCIZI

(i) Si determini un diametro r = ω(P∞) di γ−.

(ii) Si determinino i punti di r ∩ γ−.

(iii) Si determinino le tangenti s� ed s�� in tali punti.

(iv) Si verifichi che s� � s��.

7. Fuochi. Si determinino i fuochi delle coniche γ+ e γ− degli esercizi precedenti.

8. Polarita definita da una conica semplicemente degenere. Siano r�, r�� duerette distinte, e sia γ = r� ∪ r�� (conica semplicemente degenere). Indichiamocon V il punto in cui r� ed r�� si intersecano. Sia infine s� una retta per V .

(i) Si provi che se P,Q ∈ s� (P,Q �= V ) si ha ω(P ) = ω(Q).

(ii) Si indichi con s�� la polare comune a tutti i punti di s� distinti da V . Siprovi che per ogni R ∈ s�� si ha ω(R) = s�.

(iii) Nel fascio di rette F di centro V si definisca un’applicazione � : F → Fal modo seguente. Per ogni s� ∈ F si ponga �(s�) = s��, la polarecomune di tutti i punti di s� distinti da V . Si provi che � ha carattereinvolutorio, ovvero � ◦ � = idF , e che le rette r�, r�� sono (tutti e soli i)punti fissi di tale involuzione, ovvero �(r�) = r� ed �(r��) = r��.

9. Famiglie di coniche dipendenti da un parametro. Si consideri, al variare delparametro reale t, la conica γt : tx

2 + 2xy + 2y2 + 2tx+ 1 = 0.

(i) Si determini, per ogni valore di t, il luogo γt ∩ r∞ dei punti impropri.

(ii) Si classifichi, per ogni valore di t, la conica γt.

(iii) Si scelga il valore di t per cui γt sia una parabola, e si determini l’asse.

(iv) Si ponga t = 1 e si calcoli il centro.

(v) Si ponga t = 0 e si determinino gli asintoti.

10. Famiglie di coniche dipendenti da un parametro. Si consideri, al variare delparametro reale t, la conica γt : tx

2 + 2xy + y2 + 2tx+ 2y + 1 = 0.

(i) Si determini, per ogni valore di t, il luogo γt ∩ r∞ dei punti impropri.

(ii) Si classifichi, per ogni valore di t, la conica γt.

(iii) Si scelga il valore di t per cui la conica γt sia doppiamente degenere, esi determini la retta (tutta costituita di punti doppi) in cui si spezza laconica.

(iv) Si ponga t = 2 e si calcolino i vertici della conica.

(v) Si ponga t = 0 e si determinino gli asintoti.

212 Geometria e algebra

Page 213: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno
Page 214: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno
Page 215: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

AREA – Scienze matematiche e informatiche

– Scienze fisiche

– Scienze chimiche

– Scienze della terra

– Scienze biologiche

– Scienze mediche

– Scienze agrarie e veterinarie

– Ingegneria civile e architettura

– Ingegneria industriale e dell’informazione

– Scienze dell’antichità, filologico–letterarie e storico–artistiche

– Scienze storiche, filosofiche, pedagogiche e psicologiche

– Scienze giuridiche

– Scienze economiche e statistiche

– Scienze politiche e sociali

Il catalogo delle pubblicazioni di Aracne editrice è su

www.aracneeditrice.it

Page 216: A01 - Aracne editrice · di base di Algebra Lineare e di Geometria, cercando di mantenere un livello accettabile di rigore formale. L’opera `e indirizzata a studenti del primo anno

Compilato il agosto , ore :con il sistema tipografico LATEX 2ε

Finito di stampare nel mese di agosto del dalla «ERMES. Servizi Editoriali Integrati S.r.l.»

Ariccia (RM) – via Quarto Negroni, per conto della «Aracne editrice S.r.l.» di Roma