alg ebre lin eaire - free

109
Alg´ ebre lin´ eaire Table des mati` eres 1 Les matrices 3 1.1 Vocabulaire ................................. 3 1.2 Op´ erations sur les matrices ......................... 4 1.3 L’alg` ebre des matrices carr´ ees ....................... 7 1.4 Transpos´ ee d’une matrice .......................... 10 1.5 Diff´ erentes interpr´ etations du produit matriciel .............. 12 1.6 Trace d’une matrice ............................. 14 1.7 Matrices d´ ecompos´ ees en blocs ....................... 15 1.7.1 Matrices extraites .......................... 15 1.7.2 Matrices blocs ............................ 15 1.7.3 Op´ erations sur les matrices blocs ................. 16 2 Familles de vecteurs 17 2.1 Familles libres et g´ en´ eratrices ....................... 17 2.2 Dimension d’un espace vectoriel ...................... 18 2.3 Base canonique ............................... 22 2.4 Exemples .................................. 23 2.5 Application lin´ eaire associ´ ee ` a une famille de vecteurs .......... 27 2.6 Image d’une famille par une application lin´ eaire ............. 27 2.7 Rang d’une famille de vecteurs ....................... 32 2.8 Matrice d’une application lin´ eaire ..................... 32 3 Les syst` emes lin´ eaires 38 3.1 Trois interpr´ etations d’un syst` eme lin´ eaire ................ 38 3.2 Les op´ erations ´ el´ ementaires ........................ 39 3.3 ethode du pivot de Gauss ........................ 42 3.4 ethode du pivot total ........................... 45 3.5 ethode de Gauss-Jordan ......................... 46 1

Upload: others

Post on 21-Jun-2022

3 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Alg ebre lin eaire - Free

Algebre lineaire

Table des matieres

1 Les matrices 31.1 Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Operations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 41.3 L’algebre des matrices carrees . . . . . . . . . . . . . . . . . . . . . . . 71.4 Transposee d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 101.5 Differentes interpretations du produit matriciel . . . . . . . . . . . . . . 121.6 Trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.7 Matrices decomposees en blocs . . . . . . . . . . . . . . . . . . . . . . . 15

1.7.1 Matrices extraites . . . . . . . . . . . . . . . . . . . . . . . . . . 151.7.2 Matrices blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.7.3 Operations sur les matrices blocs . . . . . . . . . . . . . . . . . 16

2 Familles de vecteurs 172.1 Familles libres et generatrices . . . . . . . . . . . . . . . . . . . . . . . 172.2 Dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . 182.3 Base canonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.5 Application lineaire associee a une famille de vecteurs . . . . . . . . . . 272.6 Image d’une famille par une application lineaire . . . . . . . . . . . . . 272.7 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . 322.8 Matrice d’une application lineaire . . . . . . . . . . . . . . . . . . . . . 32

3 Les systemes lineaires 383.1 Trois interpretations d’un systeme lineaire . . . . . . . . . . . . . . . . 383.2 Les operations elementaires . . . . . . . . . . . . . . . . . . . . . . . . 393.3 Methode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 423.4 Methode du pivot total . . . . . . . . . . . . . . . . . . . . . . . . . . . 453.5 Methode de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 46

1

Page 2: Alg ebre lin eaire - Free

Algebre lineaire 0

4 Somme de sous-espaces vectoriels 474.1 Sommes et sommes directes . . . . . . . . . . . . . . . . . . . . . . . . 474.2 Supplementaires d’un sous-espace vectoriel . . . . . . . . . . . . . . . . 494.3 Rang d’une application lineaire . . . . . . . . . . . . . . . . . . . . . . 524.4 Proprietes des sommes directes . . . . . . . . . . . . . . . . . . . . . . 53

4.4.1 Un moyen de definir une application lineaire . . . . . . . . . . . 534.4.2 Formules dimensionnelles . . . . . . . . . . . . . . . . . . . . . . 544.4.3 Associativite des sommes directes . . . . . . . . . . . . . . . . . 564.4.4 Base adaptee a une decomposition en somme directe . . . . . . 58

4.5 Les projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 594.6 Sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

4.6.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 624.6.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654.6.3 Proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

5 Changement de base 665.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 665.2 Diagonalisation et trigonalisation . . . . . . . . . . . . . . . . . . . . . 685.3 Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 715.4 Matrices equivalentes et matrices semblables . . . . . . . . . . . . . . . 71

5.4.1 Matrices equivalentes . . . . . . . . . . . . . . . . . . . . . . . . 715.4.2 Proprietes du rang d’une matrice . . . . . . . . . . . . . . . . . 735.4.3 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . 74

6 Les hyperplans 756.1 En dimension quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . 756.2 En dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 766.3 Les hyperplans affines . . . . . . . . . . . . . . . . . . . . . . . . . . . 776.4 Application aux systemes lineaires . . . . . . . . . . . . . . . . . . . . . 78

7 Determinants 807.1 Applications multilineaires . . . . . . . . . . . . . . . . . . . . . . . . . 807.2 Les trois notions de determinants . . . . . . . . . . . . . . . . . . . . . 84

7.2.1 Volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 847.2.2 Determinant d’un systeme de n vecteurs . . . . . . . . . . . . . 877.2.3 Determinant d’une matrice . . . . . . . . . . . . . . . . . . . . . 897.2.4 Determinant d’un endomorphisme . . . . . . . . . . . . . . . . . 90

7.3 Proprietes du determinant . . . . . . . . . . . . . . . . . . . . . . . . . 907.4 Calcul des determinants . . . . . . . . . . . . . . . . . . . . . . . . . . 927.5 Formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 957.6 Exemples de determinants. . . . . . . . . . . . . . . . . . . . . . . . . . 96

7.6.1 Determinant de Vandermonde . . . . . . . . . . . . . . . . . . . 967.6.2 Determinants tridiagonaux . . . . . . . . . . . . . . . . . . . . . 99

c©Eric Merle 2 MPSI2, LLG

Page 3: Alg ebre lin eaire - Free

7.6.3 Determinants circulants . . . . . . . . . . . . . . . . . . . . . . 1017.7 Le polynome caracteristique . . . . . . . . . . . . . . . . . . . . . . . . 102

7.7.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1027.7.2 Proprietes du polynome caracteristique . . . . . . . . . . . . . . 1047.7.3 Caracterisation des endomorphismes diagonalisables . . . . . . . 107

Page 4: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

Notation. K designe un corps quelconque.Selon le programme, “en pratique, K est egal a R ou C”.

Notation. Symbole de Kronecker : Si i et j sont deux objets mathematiques, onconvient que δi,j = 0 lorsque i 6= j et δi,i = 1 lorsque i = j.

1 Les matrices

1.1 Vocabulaire

Definition. Soit (n, p) ∈ N∗2. On appelle matrice a n lignes et a p colonnes (acoefficients dans K) toute famille de scalaires indexee par Nn × Np.Si M = (mi,j)(i,j)∈Nn×Np = (mi,j) 1≤i≤n

1≤j≤p, on represente M sous la forme suivante :

M =

m1,1 · · · m1,p...

...mn,1 · · · mn,p

,

ou le (i, j)eme coefficient est situe a l’intersection de la ieme ligne et de la j eme colonne.Une matrice est donc un tableau de scalaires.

Notation.— L’ensemble des matrices a coefficients dans K, a n lignes et p colonnes est noteMK(n, p) ou Mn,p(K).

— De plus, MK(n, n) est souvent note MK(n) ou Mn(K).

Definitions :— Une matrice ligne est une matrice ne possedant qu’une ligne.— Une matrice colonne est une matrice ne possedant qu’une colonne.— Une matrice carree est une matrice possedant autant de lignes que de co-

lonnes.— Soit M = (mi,j) ∈MK(n, p).

M est une matrice triangulaire superieure si et seulement si∀(i, j) ∈ Nn × Np (i > j =⇒ mi,j = 0).

— M est une matrice triangulaire inferieure si et seulement si∀(i, j) ∈ Nn × Np (i < j =⇒ mi,j = 0).

— M est une matrice diagonale si et seulement si∀(i, j) ∈ Nn × Np (i 6= j =⇒ mi,j = 0).On note alors M = diag(m1,1, . . . ,mn,n).

— Soit M une matrice diagonale et carree. On dit que M est une matrice scalairesi et seulement si tous ses coefficients diagonaux sont egaux.En particulier, lorsque tous ses coefficients diagonaux sont egaux a 1, on obtientla matrice identite, notee In.Ainsi, M est une matrice scalaire si et seulement s’il existe λ ∈ K tel queM = λIn.

c©Eric Merle 3 MPSI2, LLG

Page 5: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

Definition. Soit M = (αi,j) ∈MK(n, p).Pour j ∈ Np, on appelle j eme vecteur colonne de M la quantite (α1,j, . . . , αn,j) ∈ Kn.Pour i ∈ Nn, on appelle ieme vecteur ligne de M la quantite (αi,1, . . . , αi,p) ∈ Kp.

Remarque. Lorqu’aucune ambiguıte n’est possible, on identifie Kn avec MK(n, 1)(ensemble des matrices colonnes).Plus rarement, un vecteur de Kn sera vu comme un element de MK(1, n) (ensembledes matrices lignes).

1.2 Operations sur les matrices

Definition. MK(n, p) = KNn×Np , or K est un K-espace vectoriel , donc MK(n, p) estun K-espace vectoriel : On dispose ainsi des lois d’addition et de multiplication par unscalaire.

Exemple. 3

(1 2 −10 0 3

)−(

0 4 −12 3 1

)= · · ·.

Definition du produit matriciel : Soit (n, p, q) ∈ (N∗)3.Soient A = (ai,j) ∈MK(n,p) et B = (bj,k) ∈MK(p, q).On appelle produit des matrices A et B la matrice C = (ci,k) ∈ MK(n, q) definiepar

∀(i, k) ∈ Nn × Nq ci,k =

p∑j=1

ai,jbj,k.

Exemple. Soit a ∈ K :

(1 −12 1

) a 1−a a0 0

a+ 2 1− aa 2a0 0

Convention : sauf precision du contraire, lorsque A est une matrice, on notera Ai,json coefficient de position (i, j).Ainsi, lorsque A et B sont deux matrices telles que le nombre p de colonnes de A estegal au nombre de lignes de B, la definition du produit matriciel se resume par :

[AB]i,j =

p∑k=1

Ai,kBk,j .

Formule pour le produit de trois matrices : Soit (n,m, l, p) ∈ (N∗)4.Soient A = (ai,j) ∈MK(n,m), B = (bj,k) ∈MK(m, l) et C = (ck,h) ∈MK(l, p).

Pour tout i, h ∈ Nn × Np, [(AB)C]i,h = [A(BC)]i,h =∑

1≤j≤m1≤k≤l

Ai,jBj,kCk,h.

c©Eric Merle 4 MPSI2, LLG

Page 6: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

Demonstration.Soit (i, h) ∈ Nn × Np.

[(AB)C]i,h =l∑

k=1

[AB]i,kCk,h =l∑

k=1

(m∑j=1

Ai,jBj,k

)Ck,h =

m∑j=1

l∑k=1

Ai,jBj,kCk,h.

Remarque. On pourrait generaliser en donnant l’expression des coefficients du pro-duit de N matrices en fonction des coefficients de ces N matrices.

Exemple. On considere un ensemble S = {s1, . . . , sn} fini de cardinal n, dont leselements sont appeles des sommets, et une partie A de S2, dont les elements sontappeles des aretes. On a ainsi defini un graphe oriente, dont l’ensemble des sommetsest S et l’ensemble des aretes est A.La matrice d’adjacence de ce graphe est, par definition, la matrice M ∈ Mn(R) sui-vante : pour tout i, j ∈ {1, . . . , n}, Mi,j = 1 si (si, sj) ∈ A et Mi,j = 0 sinon.Alors, pour tout p ∈ N, [Mp]i,j correspond au nombre de chemins de longueur p per-

mettant de passer de si a sj : en effet, [Mp]i,j =∑

1≤i1,...,ip−1≤n

Mi,i1Mi1,i2 · · ·Mip−1,j, et

Mi,i1Mi1,i2 · · ·Mip−1,j est egal a 1 si et seulement si le cheminsi → si1 → · · · → sip−1 → sj est bien une succession d’aretes du graphe, et il est egala 0 sinon.

Propriete. La multiplication matricielle est associative.

Propriete. La mutiplication matricielle est distributive par rapport a l’addition.

Demonstration.Soit A ∈Mn,p et B,C ∈Mp,q. Alors A(B + C) = AB + AC

car [A(B + C)]i,k =

p∑j=1

Ai,j(Bj,k + Cj,k) =

p∑j=1

Ai,jBj,k +

p∑j=1

Ai,jCj,k = [AB + AC]i,j.

De meme, on montre que si D ∈Mn,p(K), (A+D)B = AB +DB.

Propriete. Soit A ∈Mn,p, B ∈Mp,q et a ∈ K. Alors a(AB) = (aA)B = A(aB).

Demonstration.

[a(AB)]i,k =

p∑j=1

aAi,jBj,k = [(aA)B)]i,k = [A(aB))]i,k.

Propriete. Pour tout M ∈MK(n, p), InM = MIp = M .

Demonstration.[InM ]i,k =

∑1≤j≤n

δi,jMj,k = Mi,k.

Propriete. Soit n, p ∈ N∗ et M ∈MK(n, p).Pour tout X ∈ Kp =MK(p, 1), MX ∈MK(n, 1) = Kn.

Si X =

x1...xp

, alors ∀i ∈ {1, . . . , n}, [MX]i =

p∑j=1

Mi,jxj .

c©Eric Merle 5 MPSI2, LLG

Page 7: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

Si X =

x1...xp

, alors MX = x1M1 + · · · xpMp ,

en notant M1, . . . ,Mp les colonnes de M .

Demonstration.

[MX]i,1 =

p∑j=1

Mi,jXj,1, donc avec d’autres notations, [MX]i =

p∑j=1

Mi,jxj.

Ainsi, [MX]i =

p∑j=1

xj[Mj]i, ou [Mj]i designe la i-eme composante de Mj.

Propriete. Soit n, p ∈ N∗ et M ∈MK(n, p).Soit j ∈ {1, . . . , p}. La j-eme colonne de M est Mcj, ou cj = (δi,j)1≤i≤n ∈ Kp.

Propriete. Soit n, p ∈ N∗ et M ∈MK(n, p).

Alors l’applicationM : Kp −→ Kn

X 7−→ MXest une application lineaire que l’on appelle

l’application lineaire canoniquement associee a la matrice M .

Propriete. Soit n, p ∈ N∗. AlorsMK(n, p) −→ L(Kp,Kn)

M 7−→ Mest un isomorphisme

d’espaces vectoriels.

Demonstration.� Soit A,B ∈MK(n, p) et λ ∈ K. Pour tout X ∈ Kn,˜(λA+B)(X) = (λA + B)X = λAX + BX = λA(X) + B(X) = (λA + B)(X). Ceci

prouve que M 7−→ M est lineaire.� Soit u ∈ L(Kp,Kn). S’il existe M ∈ MK(n, p) telle que M = u, alors, pour toutj ∈ {1, . . . , p}, la j-eme colonne de M est egale a Mcj = M(cj) = u(cj). Donc si Mexiste, elle est unique.Pour la synthese, notons M la matrice de MK(n, p) dont la j-eme colonne est egale au(cj) = Mj, pour tout j ∈ {1, . . . , p}. Ainsi, pour tout j ∈ {1, . . . , p}, u(cj) = M(cj).

Soit X ∈ Kp. En posant X =

x1...xp

, X =

p∑j=1

xjcj,

donc u(X) =

p∑j=1

xju(cj) =

p∑j=1

xjMj = MX = M(X), donc u = M .

Ainsi, pour tout u ∈ L(Kp,Kn), il existe une unique M ∈ MK(n, p) telle que M = u,ce qui prouve que M 7−→ M est une bijection.

Remarque. Avec les notations precedentes, pour tout X ∈ Kp, M(X) = MX.Il est frequent que l’on identifie M et M . Alors, pour tout X ∈ Kp, M(X) = MX.Cette identification n’est pas systematique cependant.

Definition. Soit M ∈MK(n, p).

Ker(M)∆= Ker(M) = {X ∈ Kp / MX = 0}.

c©Eric Merle 6 MPSI2, LLG

Page 8: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

Im(M)∆= Im(M) = {MX / X ∈ Kp}.

Corollaire. Soit (M,M ′) ∈MK(n, p). Alors,

(∀X ∈ Kp MX = M ′X)⇐⇒M = M ′.

Demonstration.Si ∀X ∈ Kp MX = M ′X, alors M = M ′, donc par injectivite, M = M ′.

1.3 L’algebre des matrices carrees

Notation. On fixe un entier n non nul.

Propriete. (Mn(K),+, .,×) est une K-algebre, non commutative des que n ≥ 2.

ATTENTION : (Mn(K),+, .,×) n’est pas integre, des que n ≥ 2.

En effet,

(0 10 0

)2

= 0.

Ainsi, lorsque A,B,C ∈Mn(K), AB = 0 6=⇒ (A = 0) ∨ (B = 0)et (C 6= 0) ∧ (AC = BC) 6=⇒ A = B.Cependant, lorsque C est inversible, alors AC = BC =⇒ A = B.

Definition. Soit A ∈Mn(K).On dit que A est nilpotente si et seulement si il existe p ∈ N∗ tel que Ap = 0.

ATTENTION : L’anneau (Mn(K),+,×) n’est pas commutatif, ce qui nous prived’un certain nombre de regles : si A,B ∈Mn(K),

— (AB)p 6= ApBp ;— (A − B)(A + B) 6= A2 − B2 ; plus generalement, la formule de Bernoulli n’est

plus valable, lorsque A et B ne commutent pas.— (A+B)2 6= A2 +B2 + 2AB. plus generalement, la formule de Newton n’est plus

valable, lorsque A et B ne commutent pas.

Propriete.MK(n) −→ L(Kn)

M 7−→ Mest un isomorphisme d’algebres.

Demonstration.ϕ(In) = IdKn .Pour tout A,B ∈MK(n) et X ∈ Kn,

(AB)(X) = (AB)X = A(BX) = A(B(X)) = [A ◦ B](X).

Corollaire. Soit A ∈ MK(n). A est inversible dans MK(n) si et seulement si A est

inversible dans L(Kn) et dans ce cas, M−1 = M−1.

Corollaire. Soit A ∈ MK(n). A est inversible dans MK(n) si et seulement si, pourtout Y ∈ Kn, il existe un unique X ∈ Kn tel que AX = Y .

Formule : Dans M2(K), M =

(a bc d

)est inversible si et seulement si

c©Eric Merle 7 MPSI2, LLG

Page 9: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

det(M)∆= ad− cb 6= 0, et dans ce cas(

a bc d

)−1

=1

det(M)

(d −b−c a

).

Demonstration.� Supposons que det(M) 6= 0.

On calcule

(a bc d

)×(d −b−c a

)=

(ad− bc 0

0 −cb+ ad

)= det(M)I2,

donc

(a bc d

)× 1

det(M)

(d −b−c a

)= I2.

De meme on verifie que1

det(M)

(d −b−c a

)×(a bc d

)= I2,

donc M est inversible et M−1 =1

det(M)

(d −b−c a

).

� Supposons que ad− bc = 0.

Alors

(a bc d

)(d−c

)= 0 et

(a bc d

)(b−a

)= 0, donc

(d−c

),

(b−a

)∈ Ker(M).

On en deduit que Ker(M) 6= {0} lorsque M 6= 0, donc que M n’est pas inversible, puisque M n’est pas inversible. Lorsque M = 0, comme dans tout anneau non nul, M n’estpas inversible.

Exemple.

(1 5−3 2

)−1

=1

17

(2 −53 1

).

On en deduit les formules de Cramer pour la resolution d’un systeme lineaire de deuxequations a deux inconnues :

Formule de Cramer : Soit a, b, c, d, e, f ∈ K4. On considere le systeme lineaire (S) :{ax+ by = ecx+ dy = f

, en les inconnues (x, y) ∈ K2.

Lorsque det = ad− cb ∆=

∣∣∣∣ a bc d

∣∣∣∣ 6= 0, (S)⇐⇒

x =

∣∣∣∣ e bf d

∣∣∣∣det

y =

∣∣∣∣ a ec f

∣∣∣∣det

.

Demonstration.

Posons M =

(a bc d

), X =

(xy

)et Y =

(ef

). Alors (S)⇐⇒MX = Y .

On suppose que det(M) 6= 0, donc M est inversible.

Alors (S)⇐⇒ X = M−1Y =1

det(M)

(d −b−c a

)(ef

).

Exemple.

{x+ 5y = 1−3x+ 2y = 1

⇐⇒{x = − 3

17

y = 417

.

c©Eric Merle 8 MPSI2, LLG

Page 10: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

Notation. On note GLn(K) le groupe des inversibles de Mn(K). On l’appelle legroupe lineaire de degre n.

Exemple. Un automorphisme interieur deMn(K) est un automorphisme surMn(K)de la forme M 7−→ AMA−1 ou A ∈ GLn(K).

Propriete. L’ensemble des matrices diagonales deMn(K) est une sous-algebre com-mutative de Mn(K).

Propriete. Pour tout i ∈ Nn, on pose ci = (δi,j)1≤j≤n ∈ Kn.Pour tout i ∈ {0, . . . , n}, on note Fi = Vect(ck)1≤k≤i. Ainsi, F0 = {0} et pour tout

i ∈ {1, . . . , n}, Fi ={

x1...xi0...0

/ x1, . . . , xi ∈ K}

.

Si M ∈ Mn(K), alors M est triangulaire superieure si et seulement si, pour toutj ∈ {1, . . . , n}, Fj est stable par M .

Demonstration.M est triangulaire superieure si et seulement si, pour tout j ∈ {1, . . . , n}, la j-emecolonne de M , egale a M(cj), est une combinaison lineaire de c1, . . . , cj, donc si etseulement si (C) : ∀j ∈ {1, . . . , n}, M(cj) ∈ Fj.Or si tout les Fj sont stables par M , alors pour tout j, sachant que cj ∈ Fj, M(cj) ∈ Fj,donc (C) est verifiee.Reciproquement, si l’on suppose (C), pour j fixe dans {1, . . . , p}, pour toutk ∈ {1, . . . , j}, M(ck) ∈ Fk ⊂ Fj, donc Vect({M(ck)/1 ≤ k ≤ j}) ⊂ Fj, or

Vect({M(ck)/1 ≤ k ≤ j}) = {j∑

k=1

αkM(ck) / α1, . . . , αj ∈ K}

= {M( j∑k=1

αkck

)/ α1, . . . , αj ∈ K}

= M(Vect({ck/1 ≤ k ≤ j})),donc Vect({M(ck)/1 ≤ k ≤ j}) = M(Fj), si bien que M(Fj) ⊂ Fj.

Propriete. On suppose que n ≥ 2.— L’ensemble des matrices triangulaires superieures (respectivement : inferieures)

de Mn(K) est une sous-algebre non commutative de Mn(K).— Le produit d’une matrice triangulaire superieure dont la diagonale est (a1, . . . , an)

par une matrice triangulaire superieure dont la diagonale est (b1, . . . , bn) est unematrice triangulaire superieure dont la diagonale est (a1b1, . . . , anbn).

Demonstration.Premiere demonstration :� Notons T l’ensemble des matrices superieures. In ∈ T , T est stable pour l’addition etla multiplication par un scalaire, donc pour montrer que T est une sous-algebre, il reste

c©Eric Merle 9 MPSI2, LLG

Page 11: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

a montrer qu’il est stable pour le produit. Or, si A,B ∈ T , pour tout i ∈ {1, . . . , n},(AB)(Fi) = A(B(Fi)) ⊂ A(Fi), car B ∈ T donc B(Fi) ⊂ Fi, donc (AB)(Fi) ⊂ Fi, cequi prouve que AB ∈ T .� Soit j ∈ {1, . . . , n}. Acj est la j-eme colonne de A et A ∈ T , donc Acj = Aj,jcj + d,ou d ∈ Fj−1. De meme, Bcj = Bj,jcj + d′, ou d′ ∈ Fj−1.Ainsi, (AB)cj = A(Bj,jcj + d′) = Bj,jAcj + Ad′ = Aj,jBj,jcj +Bj,jd+ Ad′.Or A ∈ T et d′ ∈ Fj−1, donc Ad′ ∈ Fj−1 et d ∈ Fj−1. Ceci demontre que le coefficientde position (j, j) de AB est egal a Aj,jBj,j.

Seconde demonstration : Par calcul matriciel direct.� Soient A = (ai,j) et B = (bi,j) deux matrices triangulaires superieures.

Soit (i, j) ∈ N2n avec i > j. Le coefficient de position (i, j) de AB vaut

n∑k=1

ai,kbk,j. Mais,

pour tout k ∈ Nn, i > k ou k > j (sinon, i ≤ k ≤ j, donc i ≤ j, ce qui est faux). Or Aet B sont triangulaires superieures, donc, pour tout k ∈ Nn, ai,k = 0 ou bk,j = 0, ce quiprouve que le (i, j)eme coefficient de AB est nul. Ainsi AB est une matrice triangulairesuperieure.

� De plus, le coefficient de position (i, i) de AB vautn∑k=1

ai,kbk,i. Mais, pour tout

k ∈ Nn, ai,kbk,i est non nul si et seulement si i ≤ k et k ≤ i, donc si et seulement sik = i. Ainsi, le (i, i)eme coefficient de AB vaut ai,ibi,i.

Exercice. Soit M ∈MK(n) une matrice triangulaire superieure stricte, c’est-a-dire triangulaire superieure et de diagonale nulle.Montrer que pour tout k ∈ {1, . . . , n}, Mk est une matrice triangulaire superieuredont les k diagonales superieures (en partant de la diagonale principale) sontnulles. En deduire que M est nilpotente.

Solution : En adaptant ce qui precede, on montre que pour tout i ∈ {1, . . . , n},M(Fi) ⊂ Fi−1, puis par recurrence sur k que, pour tout k ∈ {1, . . . , n},et i ∈ {1, . . . , n}, Mk(Fi) ⊂ Fi−k en convenant que pour tout h ∈ Z\N, Fh = {0}.

1.4 Transposee d’une matrice

Definition. Soit A = (αi,j) ∈ MK(n, p). On appelle transposee de la matrice Aet on note tA la matrice (βi,j) ∈MK(p, n) definie par

∀(i, j) ∈ Np × Nn βi,j = αj,i.

En resume, [tA]i,j = Aj,i.

ATTENTION : Si A = (αi,j) ∈MK(n, p), alors (αj,i) 1≤j≤n1≤i≤p

= A.

Exemples.— tIn = In. Plus generalement, pour toute matrice diagonale D ∈MK(n), tD = D.

c©Eric Merle 10 MPSI2, LLG

Page 12: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

— La transposee de

1 22 34 5

est

(1 2 42 3 5

).

— La transposee d’une matrice triangulaire superieure est triangulaire inferieure.

Propriete. Pour tout A ∈MK(n, p), t(tA) = A.

Propriete. L’applicationMK(n, p) −→ MK(p, n)

M 7−→ tMest un isomorphisme d’espaces

vectoriels.

Propriete. Soit (A,B) ∈MK(n, p)×MK(p, q). Alors, t(AB) = tB tA.

Demonstration.Soit i ∈ {1, . . . , n} et k ∈ {1, . . . , q}.

[tB tA]k,i =

p∑j=1

[tB]k,j[tA]j,i =

p∑j=1

Bj,kAi,j = [AB]i,k = [t(AB)]k,i.

Corollaire. Si A ∈ GLn(K), tA ∈ GLn(K) et (tA)−1 = t(A−1).

Demonstration.Soit A ∈ GLn(K). Alors AA−1 = In, donc In = tIn = t(AA−1) = t(A−1)tA.De meme, on montre que tA t(A−1) = In.

Definition. Soit M ∈Mn(K).M est une matrice symetrique si et seulement si tM = M .M est une matrice antisymetrique si et seulement si tM = −M .

Exemples.

1 0 10 3 21 2 4

est symetrique et

0 a 1−a 0 2−1 −2 0

est antisymetrique.

Remarque. Lorsque car(K) 6= 2, si M ∈Mn(K) est antisymetrique, sa diagonale estnulle.

Notation. Sn(K) designe l’ensemble des matrices symetriques d’ordre n.An(K) designe l’ensemble des matrices antisymetriques d’ordre n.

Propriete. Sn(K) et An(K) sont des sous-espaces vectoriels de Mn(K), mais ce nesont pas des sous-algebres. Cependant, elles sont stables par passage a l’inverse :si A ∈ Sn(K) ∩GLn(K) (resp : A ∈ An(K) ∩GLn(K)) ,alors A−1 ∈ Sn(K) (resp : A ∈ An(K)).

Demonstration.Notons T l’operateur de tranposition. Alors Sn(K) = Ker(T − IdMn(K))et An(K) = Ker(T + IdMn(K)), donc ce sont des sous-espaces vectoriels.(

0 11 0

)×(

1 00 0

)=

(0 01 0

), donc Sn(K) n’est pas stable pour le produit : ce n’est

pas un sous-anneau.In /∈ An(K), donc ce n’est pas un sous-anneau.

c©Eric Merle 11 MPSI2, LLG

Page 13: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

Soit A une matrice inversible. Si tA = A, alors t(A−1) = (tA)−1 = A−1 donc A−1 estsymetrique.C’est analogue si A est antisymetrique.

1.5 Differentes interpretations du produit matriciel

Au niveau des coefficients :

Si A ∈MK(n,p) et B ∈MK(p, q), [AB]i,k =

p∑j=1

Ai,jBj,k.

Remarque. D’apres cette formule, les coefficients de la k-eme colonne de AB nedependent que de A et de la k-eme colonne de B. Plus precisement, on voit que lak-eme colonne de AB est egale a ABk si Bk designe la k-eme colonne de B.D’ou l’interpretation suivante :

Au niveau des colonnes de la matrice de droite :Soit A ∈MK(n,p) et B ∈MK(p, q).Notons B1, . . . , Bq les colonnes de B, ce qui permet d’ecrire B = B1 B2 · · · Bq .

Alors AB = AB1 AB2 · · · ABq . En resume, si B1, . . . , Bq sont des vecteurs colonnes

de Kp, A× B1 B2 · · · Bq = AB1 AB2 · · · ABq .

En decomposant la matrice de droite en blocs de colonnes :Soit A ∈MK(n,p) et B ∈MK(p, q). Soit r ∈ {1, . . . , q − 1}.Notons B′ la matrice constituee des r premieres colonnes de B et B′′ celle qui estconstituee des colonnes suivantes : B′ = (Bj,k) 1≤j≤p

1≤k≤ret B′ = (Bj,k+r) 1≤j≤p

1≤k≤q−r).

Ainsi, on peut decomposer B en blocs : B = B′ B′′ . Alors AB = AB′ AB′′ .

En resume, A× B′ B′′ = AB′ AB′′ .

Au niveau des colonnes de la matrice de gauche :— Si M ∈MK(n, p) et X ∈ Kp, MX est une combinaison lineaire des colonnes de

M . Plus precisement, si l’on note M1, . . . ,Mp les colonnes de M et X =

x1...xp

,

MX = x1M1 + · · ·+ xpMp .

— Soient A ∈ MK(n, p) et B ∈ MK(p, q). Les colonnes de AB sont des combi-naisons lineaires des colonnes de A : en notant A1, . . . , Ap les colonnes de A et

B = (bi,j), la j eme colonne de AB est egale a b1,jA1 + · · ·+ bp,jAp .

Exemple. Si M ∈MK(n, p), la j-eme colonne de M est egale a M × (δi,j)1≤j≤p.

La premiere colonne privee de la derniere est egale a M

10...0−1

.

c©Eric Merle 12 MPSI2, LLG

Page 14: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

Propriete. Pour tout M ∈MK(n, p),Im(M) est l’espace vectoriel engendre par les colonnes de M .

Demonstration.

Im(M) = {MX / X ∈ Kp} = {p∑j=1

xjMj / x1, . . . , xj ∈ K}.

Remarque. En prenant la transposee de ces differentes relations, on obtient desinterpretations au niveau des lignes des matrices :

Au niveau des lignes de la matrice de gauche :Soit A ∈MK(n,p) et B ∈MK(p, q). Notons 1A, . . . , nA les lignes de A, ce qui permet

d’ecrire A =

1A...

nA

. Alors AB =

1AB...

nAB

. En resume, si 1A, . . . , nA sont des

vecteurs lignes de taille n,

1A...

nA

×B =

1AB...

nAB

.

Demonstration.En transposant l’egalite A× B1 B2 · · · Bq = AB1 AB2 · · · ABq ,

on obtient

tB1

...tBq

× tA =

tB1

tA...

tBqtA

.

En decomposant la matrice de gauche en blocs de lignes :Soit A ∈MK(n,p) et B ∈MK(p, q). Soit r ∈ {1, . . . , n− 1}.Notons A′ la matrice constituee des r premieres lignes de A et A′′ celle qui est constitueedes lignes suivantes : A′ = (Ai,j) 1≤i≤r

1≤j≤pet A′′ = (Ai+r,j) 1≤i≤n−r

1≤j≤p.

Ainsi, on peut decomposer A en blocs : A =

(A′

A′′

). Alors AB =

(A′B

A′′B

).

En resume,

(A′

A′′

)×B =

(A′B

A′′B

).

Au niveau des lignes de la matrice de droite :— Si M ∈MK(n, p) et X ∈M1,n, XM est une combinaison lineaire des lignes de

M . Plus precisement, si l’on note 1M, . . . , nM les lignes deM etX = (x1 · · · xn),XM = x1 × 1M + · · ·+ xn × nM .

— Soient A ∈MK(n, p) et B ∈MK(p, q). Les lignes de AB sont des combinaisonslineaires des lignes de B : en notant 1B, . . . , pB les lignes de B et A = (ai,j),

la ieme ligne de AB est egale a ai,1 × 1B + · · ·+ ai,p × pB .

Exemple. Notons U ∈ Kn le vecteur Attila, dont toutes les composantes sont egalesa 1. Pour tout A ∈Mn(K), AU est un vecteur colonne, obtenu en sommant toutes les

c©Eric Merle 13 MPSI2, LLG

Page 15: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

colonnes de A, tUA est un vecteur ligne, obtenu en sommant toutes les lignes de A, ettUAU est un scalaire, egal a la somme de tous les coefficients de A.

1.6 Trace d’une matrice

Definition. Soit M = (mi,j) ∈Mn(K).

La trace de la matrice M est Tr(M) =n∑i=1

mi,i.

Exemple. Tr(In) = n.

Propriete. La trace est une forme lineaire de Mn(K).

Propriete. Soit A ∈Mn,p(K) et B ∈Mp,n(K). Alors, Tr(AB) = Tr(BA).

Demonstration.Notons A = (ai,j) et B = (bi,j).

Tr(AB) =n∑i=1

(p∑

k=1

ai,kbk,i

)=∑1≤i≤n1≤k≤p

bk,iai,k =

p∑k=1

(n∑i=1

bk,iai,k

)= Tr(BA).

Exemple. Soit X =

x1...xn

∈ Kn. Alors Tr(X tX) = tXX =n∑i=1

x2i .

Remarque. Si A ∈Mn,p(R), Tr(tAA) =

p∑i=1

n∑j=1

A2j,i, donc A = 0⇐⇒ Tr(tAA) = 0.

ATTENTION : Si (A,B,C) ∈Mn(K)3, on peut ecrireTr(ABC) = Tr((AB)C) = Tr(C(AB) = Tr(CAB), ou Tr(ABC) = Tr(BCA), mais engeneral Tr(ABC) 6= Tr(ACB).

Definition. Soit A,B ∈ Mn(K). On dit que A et B sont semblables si et seulementsi il existe P ∈ GLn(K) telle que B = PAP−1.La relation de similitude (“etre semblable a”) est une relation d’equivalence surMn(K).

Remarque. Pour une matrice A donnee dansMn(K), “reduire A”, c’est trouver unematrice semblable a A aussi simple que possible.La theorie de la reduction des matrices est au centre du programme d’algebre de secondeannee.

Definition. Une matrice de Mn(K) est diagonalisable (resp : trigonalisable) si etseulement si elle est semblable a une matrice diagonale (resp : triangulaire superieure).

Propriete. Deux matrices semblables ont la meme trace, mais la reciproque est fausse.

Demonstration.� Soient (M,M ′) ∈ Mn(K) un couple de matrices semblables. Il existe P ∈ GLn(K)tel que M ′ = P−1MP . Ainsi Tr(M ′) = Tr((P−1M)P ) = Tr(P (P−1M)) = Tr(M).

c©Eric Merle 14 MPSI2, LLG

Page 16: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

� Prenons A =

(0 10 0

): Tr(A) = 0 = Tr(0), mais si A etait semblable a la matrice

nulle, il existerait P ∈ GLn(K) telle que A = P0P−1 = 0, ce qui est faux.

1.7 Matrices decomposees en blocs

1.7.1 Matrices extraites

Definition. Soit n, p ∈ N et soit I et J deux parties de N telles que |I| = n et |J | = p.Notons 0 ≤ i1 ≤ i2 ≤ · · · ≤ in les elements de I et 0 ≤ j1 ≤ i2 ≤ · · · ≤ jp les elementsde J .Alors on convient d’identifier toute famille (Mi,j)(i,j)∈I×J de scalaires indexee par I×Javec la matrice (Mih,jk) 1≤h≤n

1≤k≤p∈MK(n, p).

Ainsi, on identifie globalement MK(n, p) = KNn×Np avec KI×J .

Exemple. Il est en particulier parfois pratique de faire debuter les indices de ligneset de colonnes a partir de 0.

Par exemple, (max(i, j)) 0≤i≤20≤j≤2

=

0 1 21 1 22 2 2

.

Remarque. Lorsque I ou J est vide, I × J = ∅ et KI×J possede un unique element,que l’on appellera la matrice vide.

Definition. Soit n, p ∈ N∗ et M ∈ MK(n, p). Une matrice extraite de M est unematrice de la forme (Mi,j)(i,j)∈I×J , ou I ⊂ Nn et J ⊂ Np.

Exemple. . . .

1.7.2 Matrices blocs

Definition. Soient (n1, . . . , na) ∈ (N∗)a et (p1, . . . , pb) ∈ (N∗)b.

On pose n =a∑i=1

ni et p =b∑

j=1

pj.

Pour tout (i, j) ∈ Na × Nb, considerons une matrice Mi,j ∈MK(ni, pj).Alors la famille de ces matrices M = (Mi,j) 1≤i≤a

1≤j≤bpeut etre identifiee a une matrice

possedant n lignes et p colonnes. On dit que M est une matrice decomposee enblocs , de dimensions (n1, . . . , na) et (p1, . . . , pb).

Exemple. Posons A =

(0 1−1 0

)et B =

(1 11 1

).(

A A BB B A

)est une matrice decomposee en blocs.

c©Eric Merle 15 MPSI2, LLG

Page 17: Alg ebre lin eaire - Free

Algebre lineaire 1 Les matrices

Elle est egale a

0 1 0 1 1 1−1 0 −1 0 1 11 1 1 1 0 11 1 1 1 −1 0

.

Remarque. Choisissons A =

(0 1 2−1 0 2

), B =

(1 11 1

)et C =

(−20

).

Au sens de la definition precedente,

(A

B C

)n’est pas une matrice decomposee en

blocs. Ainsi, le theoreme ci-dessous, relatif au produit matriciel, ne s’applique pas a cetype de matrices. Cependant, cette decomposition peut etre utilisee pour decrire unematrice.

Definition. La definition precedente peut etre generalisee : Soit n, p ∈ N∗. Soit(Ii)1≤i≤a et (Jj)1≤j≤b des partitions respectivement de Nn et de Np. Alors on peutidentifier toute matrice M = (mi,j) 1≤i≤n

1≤j≤pde MK(n, p) avec la famille des matrices

extraites (Mi,j) 1≤i≤a1≤j≤p

, ou Mi,j = (mh,k)(h,k)∈Ih×Jk . On dit encore que (Mi,j) 1≤i≤a1≤j≤p

est une

ecriture par blocs de la matrice M , associee aux partitions (Ii)1≤i≤a et (Jj)1≤j≤b.Avec ces notations, pour tout α, β ∈ Nn × Np, mα,β = [Mi,j]α,β, ou (i, j) est l’uniquecouple tel que α ∈ Ij et β ∈ Jj.Definition. Reprenons les notations de la premiere definition.La matrice M = (Mi,j) 1≤i≤a

1≤j≤best une matrice triangulaire superieure par blocs

si et seulement si, pour tout (i, j) ∈ Na × Nb tel que i > j, Mi,j = 0.De meme on definit la notion de matrice triangulaire inferieure par blocs.La matrice M = (Mi,j) 1≤i≤a

1≤j≤best une matrice diagonale par blocs si et seulement

si, pour tout (i, j) ∈ Na × Nb tel que i 6= j, Mi,j = 0.

1.7.3 Operations sur les matrices blocs

Combinaison lineaire de matrices decomposees en blocs :Soient M = (Mi,j) 1≤i≤a

1≤j≤bet N = (Ni,j) 1≤i≤a

1≤j≤bdeux matrices decomposees en blocs selon

les memes partitions (Ii)1≤i≤a et (Jj)1≤j≤b respectivement de Nn et de Np.Pour tout (u, v) ∈ K2, uM + vN se decompose en blocs selon la formule suivante :

uM + vN = (uMi,j + vNi,j) 1≤i≤a1≤j≤b

.

Demonstration.Notons M = (mα,β) 1≤α≤n

1≤β≤pet N = (nα,β) 1≤α≤n

1≤β≤p.

Soit α ∈ Nn et β ∈ Np. Il existe un unique (i, j) ∈ Na × Nb tel que α ∈ Ii et β ∈ Jj.Alors mα,β = [Mi,j]α,β et nα,β = [Ni,j]α,β, donc u mα,β + v nα,β = [u Mi,j + v Ni,v]α,β.

Produit matriciel de deux matrices decomposees en blocs : soit n, p, q ∈ N∗.Soit M = (Mi,j) 1≤i≤a

1≤j≤bune matrice decomposee en blocs selon les partitions (Ii)1≤i≤a et

(Jj)1≤j≤b respectivement de Nn et de Np.

c©Eric Merle 16 MPSI2, LLG

Page 18: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Soit N = (Nj,k) 1≤j≤b1≤k≤c

une matrice decomposee en blocs selon la meme partition

(Jj)1≤j≤b de Np et une partition (Kk)1≤k≤c de Nq.Alors MN peut etre vue comme une matrice decomposee en blocs selon les partitions(Ii)1≤i≤a de Nn et (Kk)1≤k≤c de Nq et :

MN =( b∑j=1

Mi,jNj,k

)1≤i≤a1≤k≤c

.

En resume, le produit de deux matrices par blocs se comporte comme le produit ma-triciel usuel.

Demonstration.Notons M = (mα,β) 1≤α≤n

1≤β≤pet N = (nβ,γ) 1≤β≤p

1≤γ≤q. Soit α, γ ∈ Nn × Nq.

Il s’agit de montrer que

p∑β=1

mα,βnβ,γ =[ b∑j=1

Mi,jNj,k

]α,γ

, ou (i, k) est l’unique couple

tel que α ∈ Ii et γ ∈ Kk. Or,[ b∑j=1

Mi,jNj,k

]α,γ

=b∑

j=1

[Mi,jNj,k]α,γ =b∑

j=1

∑β∈Jj

[Mi,j]α,β[Nj,k]β,γ, donc

[ b∑j=1

Mi,jNj,k

]α,γ

=b∑

j=1

∑β∈Jj

mα,βnβ,γ =

p∑β=1

mα,βnβ,γ.

Application : Produit de matrices triangulaires (resp : diagonales) par blocs, puis-sances de telles matrices.

2 Familles de vecteurs

Notation. Pour ce chapitre, on fixe un K-espace vectoriel E et un ensemble quelconqueI (eventuellement infini).

2.1 Familles libres et generatrices

Definition. Soit (xi)i∈I une famille de vecteurs de E.• Elle est libre si et seulement si

∀(αi)i∈I ∈ K(I)

(∑i∈I

αixi = 0 =⇒ (∀i ∈ I αi = 0)

).

• Elle est liee si et seulement si elle n’est pas libre, c’est-a-dire si et seulement si

∃(αi)i∈I ∈ K(I) \ {0}∑i∈I

αixi = 0.

c©Eric Merle 17 MPSI2, LLG

Page 19: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

• Elle est generatrice dans E si et seulement si

∀x ∈ E ∃(αi)i∈I ∈ K(I)∑i∈I

αixi = x.

Ainsi (xi)i∈I est toujours generatrice dans Vect(xi)i∈I .• C’est une base de E si et seulement si elle est libre et generatrice dans E.

Remarque. Dans la definition d’une famille liee, la condition “(αi)i∈I 6= 0” est essen-

tielle. En effet, si on l’oublie, comme 0 =∑i∈I

0.xi, toute famille serait liee.

Remarque. Lorsque I = ∅, on dit que (xi)i∈I est la famille vide.La famille vide est libre, car la propriete “∀i ∈ ∅ αi = 0” est vraie.D’apres les conventions du cours sur les groupes, l’unique combinaison lineaire de cettefamille est 0, donc la famille vide n’est pas generatrice dans E, sauf si E = {0}.En particulier, on remarquera que la famille vide est l’unique base de {0}.Exemple. Dans K[X], la famille (1, X + 1, X − 1) est liee.Dans RR, la famille (cos, sin) est libre, car si α sin +β cos = 0,alors 0 = α sin(0) + β cos(0) = β et 0 = α sin(π

2) + β cos(π

2) = α.

Definition. Deux vecteurs x et y d’un K-espace vectoriel E sont colineaires si etseulement si la famille (x, y) est liee.

Propriete. Soit e = (ei)i∈I une famille de vecteurs de E.e est une base de E si et seulement si

∀x ∈ E ∃ !(αi)i∈I ∈ K(I)∑i∈I

αiei = x.

Dans ce cas, pour x ∈ E, on appelle coordonnees de x dans la base (ei)i∈I l’unique

famille presque nulle de scalaire (αi)i∈I telle que x =∑i∈I

αiei.

2.2 Dimension d’un espace vectoriel

Definition. E est de dimension finie si et seulement s’il admet une famille generatricecontenant un nombre fini d’elements. Sinon, on dit qu’il est de dimension infinie.

Remarque. On dira qu’un espace vectoriel est de “dimension quelconque” lorsqu’ilest de dimension finie ou de dimension infinie.

Exemple.R2 = {x(1, 0) + y(0, 1) / (x, y) ∈ R2} = Vect((1, 0), (0, 1)) est de dimension finie.Kn[X] = Vect(1, X, . . . , Xn) est de dimension finie.

Lemme : Soit n ∈ N et e1, . . . , en ∈ E.Toute famille (x1, . . . , xn+1) de n+ 1 vecteurs de Vect(e1, . . . , en) est liee.

c©Eric Merle 18 MPSI2, LLG

Page 20: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Demonstration.Soit n ∈ N. On noteR(n) l’assertion : pour tout e1, . . . , en ∈ E, toute famille (x1, . . . , xn+1)de n+ 1 vecteurs de Vect(e1, . . . , en) est liee.� Pour n = 0, si x1 ∈ Vect(∅) = {0}, x1 est nul, donc (x1) est une famille liee.� Supposons que n ≥ 1 et que R(n− 1) est vraie.Soit e1, . . . , en ∈ E et (x1, . . . , xn+1) une famille de n+ 1 vecteurs de Vect(e1, . . . , en).

Pour tout j ∈ {1, . . . , n+ 1}, il existe (αi,j)1≤i≤n ∈ Kn tel que xj =n∑i=1

αi,jei.

Premier cas : si, pour tout j ∈ {1, . . . , n + 1}, αn,j = 0, alors (x1, . . . , xn) est unefamille de n vecteurs de Vect(e1, . . . , en−1), donc d’apres R(n − 1) elle est liee. Alors(x1, . . . , xn+1) est aussi liee.Second cas : supposons maintenant qu’il existe j0 ∈ {1, . . . , n + 1} tel que αn,j0 6= 0 :nous allons l’utiliser comme un pivot. Quitte a reordonner les vecteurs x1, . . . , xn+1, onpeut supposer que j0 = n+ 1. Ainsi, αn,n+1 6= 0.

Pour tout j ∈ {1, . . . , n}, posons yj = xj −αn,jαn,n+1

xn+1 : yj ∈ Vect(e1, . . . , en−1), donc

d’apres R(n− 1), la famille (y1, . . . , yn) est liee. Ainsi, il existe (β1, . . . , βn) ∈ Kn \ {0}

tel que 0 =n∑j=1

βjyj =n∑j=1

βjxj+λxn+1, ou λ ∈ K. La famille de scalaires (β1, . . . , βn, λ)

est non nulle, donc (x1, . . . , xn+1) est liee.

Corollaire. Si (e1, . . . , en) est une famille generatrice de E, alors toute famille librede E est de cardinal inferieur ou egal a n.

Theoreme de la base incomplete : Soient E un K-espace vectoriel de dimensionfinie et (ei)i∈I une famille generatrice de E (on ne suppose pas qu’elle contient unnombre fini d’elements). Soit J ⊂ I tel que (ei)i∈J est une famille libre.Alors il existe un ensemble L avec J ⊂ L ⊂ I tel que (ei)i∈L est une base de E.Cela signifie que toute famille libre f de E peut etre completee en une base de E al’aide de vecteurs d’une famille generatrice de E ( Inutile : qui contient f).

Demonstration.On note D l’ensemble des cardinaux des familles libres (ei)i∈K , ou J ⊂ K ⊂ I.D est une partie non vide de N. De plus, E est de dimension finie, donc il possede unefamille generatrice finie. Notons n son cardinal. Alors d’apres le corollaire precedent,D est majoree par n. D possede donc un plus grand element, note m et il existe unefamille libre b = (ei)i∈L avec J ⊂ L ⊂ I tel que |L| = m.Supposons que, pour tout i0 ∈ I \L, ei0 ∈ Vect(b). Alors pour tout i ∈ I, ei ∈ Vect(b),donc E = Vect(ei)i∈I ⊂ Vect(b), donc b est generatrice et libre, ce qui prouve que c’estune base de E. Il suffit donc de montrer que pour tout i0 ∈ I \ L, ei0 ∈ Vect(b).Raisonnons par l’absurde en supposant qu’il existe i0 ∈ I \ L tel que ei0 /∈ Vect(b).Posons L′ = L ∪ {i0}. Montrons que b′ = (ei)i∈L∪{i0} est libre, ce qui contredira la

definition de m. Soit (αi)i∈L∪{i0} une famille de scalaires telle que∑

i∈L∪{i0}

αiei = 0.

c©Eric Merle 19 MPSI2, LLG

Page 21: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Si αi0 6= 0, on peut ecrire ei0 = − 1

αi0

∑i∈L

αiei, ce qui est exclu car ei0 /∈ Vect(b).

Ainsi, αi0 = 0, donc∑i∈L

αiei = 0, or b est libre, donc pour tout i ∈ L, αi = 0.

Remarque. En adaptant la demonstration, on a egalement prouve les proprietessuivantes, en dimension quelconque :

Propriete. Soit (ei)i∈I une famille libre de vecteurs de E. Soit ej ∈ E, ou j /∈ I.La famille (ei)i∈I∪{j} est libre si et seulement si ej /∈ Vect(ei)i∈I .

Propriete.Soient E un K-espace vectoriel et g = (ei)i∈I une famille generatrice de E.On dit qu’une sous-famille libre (ei)i∈J de g est maximale dans g si et seulement sipour tout i0 ∈ I \ J , la famille (ei)i∈J∪{i0} est liee.Si (ei)i∈J est libre maximale dans g, alors c’est une base de E.

Corollaire. Une famille libre de vecteurs de E est maximale si et seulement si en luiajoutant un vecteur elle devient liee.Toute famille libre maximale de vecteurs de E est une base de E.

Corollaire. Soit E un K-espace vectoriel de dimension finie.Toute famille libre de E peut etre completee en une base de E.

Demonstration.On applique le theoreme de la base incomplete en prenant comme famille generatricede E la famille (x)x∈E de tous les vecteurs de E.

Definition. Soit E un K-espace vectoriel de dimension finie.E admet au moins une base. Toutes les bases de E sont finies et ont meme cardinal.Ce cardinal est appele la dimension de E et est note dim(E) ou dimK(E).

Demonstration.La famille vide est libre et d’apres le corollaire precedent, on peut la completer en unebase.Soit b et b′ deux bases de E, de cardinaux n et n′.b est generatrice de E et b′ est libre, donc n′ = |b′| ≤ |b| = n.De meme on montre que n ≤ n′.

Propriete. Soit E un K-espace vectoriel de dimension finie egale a n et soit e unefamille de E. Les proprietes suivantes sont equivalentes.

1. e est une base de E.

2. e est libre et de cardinal n.

3. e est generatrice et de cardinal n.

c©Eric Merle 20 MPSI2, LLG

Page 22: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Demonstration.1 =⇒ 2 et 1 =⇒ 3 sont claires.2 =⇒ 1 : supposons que e est libre et de cardinal n. On peut la completer en une baseb de E, mais b est alors de cardinal n, donc e = b et e est bien une base de E.3 =⇒ 1 : supposons que e est generatrice et de cardinal n. On peut en extraire unebase b de E, mais b est alors de cardinal n, donc e = b et e est bien une base de E.

Propriete. Soit E un K-espace vectoriel de dimension finie egale a n.Toute famille libre de E a au plus n elements ettoute famille generatrice de E a au moins n elements.

Remarque. Tout espace de dimension finie possede donc au moins une base. C’estaussi le cas pour les espaces vectoriels de dimension infinie, si l’on accepte l’axiomedu choix. Cependant, on peut construire des modeles de ZF dans lesquels R n’admetaucune base en tant que Q-espace vectoriel.

Exemples. Soit E un K-espace vectoriel de dimension finie ou infinie.� {0} est un sous-espace vectoriel de E de dimension 0 car ∅ est une base de {0}.� Si u ∈ E \ {0}, alors (u) est une base de Vect(u) = {λu/λ ∈ K}, donc la droitevectorielle Vect(u) est de dimension 1.� Si (u, v) est une famille libre de vecteurs de E, Vect(u, v) = {αu + βv/α, β ∈ K}admet comme base (u, v), donc il est de dimension 2. On dit que Vect(u, v) est le planvectoriel engendre par (u, v).

Exemple.� Soit I un intervalle d’interieur non vide de R et b : I −→ C une applicationcontinue. Alors l’ensemble des solutions de l’equation differentielle (E) : y′ = b(t)yest la droite vectorielle engendree par l’application t 7−→ eB(t), ou B est une primitivede b. C’est un sous-espace vectoriel du C-espace vectoriel C1(I,C).� Soit a, b ∈ R tels que a2 − 4b > 0. Alors l’ensemble des solutions de l’equationdifferentielle (E) : y′′ + ay′ + by = 0 est le plan vectoriel engendre par(t 7−→ er1t, t 7−→ er2t), ou r1 et r2 sont les racines du polynome caracteristiqueX2 + aX + b. C’est un sous-espace vectoriel du R-espace vectoriel C∞(R,R).

Theoreme. Soit E un K-espace vectoriel de dimension quelconque.Soit F et G deux sous-espaces vectoriels de E avec G de dimension finie et F ⊂ G.Alors F est de dimension finie avec dim(F ) ≤ dim(G).De plus [F = G⇐⇒ dim(F ) = dim(G)].

Demonstration.Toute famille libre de F est une famille libre de G, donc elle est de cardinal inferieure adim(G). Ainsi, l’ensemble D des cardinaux des familles libres de F est une partie nonvide et majoree de N, donc elle possede un maximum note m. Il existe une famille librede vecteurs de F de cardinal m. Par construction c’est une famille libre maximale deF , donc c’est une base de F . Ainsi F est de dimension finie et dim(F ) = m ≤ n.

c©Eric Merle 21 MPSI2, LLG

Page 23: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Supposons que dim(F ) = dim(G). Alors la famille maximale precedente est une famillelibre de G de cardinal egal a la dimension de G, donc c’est aussi une base de G. Alorscette famille engendre a la fois F et G, donc F = G.

Remarque. Ainsi, en dimension finie, pour montrer que deux sous-espaces vectorielssont egaux, il suffit de montrer une inclusion et l’egalite des dimensions.

Propriete. C est un R-espace vectoriel de dimension 2, dont (1, i) est une base.

Demonstration.Pour tout z ∈ C, il existe x, y ∈ R tel que z = x + iy, donc la famille de complexes(1, i) est une famille generatrice de C, vu comme un R-espace vectoriel .De plus, si x + iy = 0 avec x, y ∈ R, on sait alors que x = y = 0, donc (1, i) est unefamille libre.Ainsi (1, i) est une base du R-espace vectoriel C. Ceci prouve que C est un R-espacevectoriel de dimension finie et que dimR(C) = 2.Dans la base (1, i), les coordonnees d’un complexe sont ses parties reelle et imaginaire.

Exemple. Prenons E = R2 et posons c1 = (1, 0) et c2 = (0, 1). Montrons quec = (c1, c2) est une base de E.Pour tout (a, b) ∈ E, (a, b) = a(1, 0) + b(0, 1), donc c est une famille generatrice de E.De plus, si ac1 + bc2 = 0, avec a, b ∈ R, alors 0 = ac1 + bc2 = (a, b), donc a = b = 0.Ainsi c est une base de R2, que l’on appelle la base canonique de R2.En particulier, on a montre que R2 est de dimension finie et que dim(R2) = 2.La forte ressemblance avec la demonstration precedente provient du fait que l’applica-

tionR2 −→ C

(a, b) 7−→ a+ ibest un isomorphisme de R-espace vectoriel.

On peut generaliser sans difficulte a Kn :

2.3 Base canonique

Propriete. Soit n ∈ N∗. Kn est un K-espace vectoriel de dimension n dont une baseest c = (c1, . . . , cn), ou pour tout i ∈ {1, . . . , n}, ci = (δi,j)1≤j≤n.c est appele la base canonique de Kn.Pour tout x = (x1, . . . , xn) ∈ Kn, les coordonnees de x dans la base c sont exactementses composantes x1, . . . , xn.

On peut encore generaliser :

Propriete. Soit I un ensemble quelconque.Pour tout i ∈ I, on note ci = (δi,j)j∈I . Ainsi c = (ci)i∈I est une famille de K(I).C’est une base de K(I), appelee la base canonique de K(I).

De plus, pour tout x = (αi)i∈I ∈ K(I), x =∑i∈I

αici. Ainsi, les coordonnees de x dans

la base canonique sont exactement ses composantes.

c©Eric Merle 22 MPSI2, LLG

Page 24: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Demonstration.Soit (αi) ∈ K(I). Pour tout i ∈ I, αi =

∑j∈I

δi,jαj,

donc (αi)i∈I = (∑j∈I

δi,jαj)i∈I =∑j∈I

αj(δi,j)i∈I .

Ainsi (αi)i∈I =∑j∈I

αjcj.

Ceci prouve que c est une famille generatrice de K(I).

De plus, si∑j∈I

αjcj = 0, (αi)i∈I = 0, donc, pour tout i ∈ I, αi = 0, ce qui prouve que

c est aussi une famille libre.

Corollaire. La base canonique de K[X] est la famille (Xn)n∈N.

Ainsi, pour P ∈ K[X], l’ecriture P =∑k∈N

akXk est la decomposition de P dans la base

canonique de K[X].

Demonstration.K[X] = K(N) et pour tout n ∈ N, Xn = (δi,n)i∈N.

Corollaire. Soit n ∈ N. (1, X, . . . , Xn) est une base de Kn[X], encore appelee la basecanonique de Kn[X]. On en deduit que dim(Kn[X]) = n+ 1.

Corollaire. Soit n, p ∈ N∗. La base canonique de Mn,p(K) est la famille de matrices(Ei,j) 1≤i≤n

1≤j≤mdefinie par : Pour tout i ∈ {1, . . . , n} et j ∈ {1, . . . , p}, Ei,j = (δa,iδb,j) 1≤a≤n

1≤b≤p.

Ei,j est appelee la (i, j)-ieme matrice elementaire deMn,p(K). Tous ses coefficients sontnuls, sauf celui de position (i, j) qui est egal a 1.

Ainsi, pour tout M ∈Mn,p(K), M =∑1≤i≤n1≤j≤p

Mi,jEi,j.

On en deduit que dim(Mn,p(K)) = np.

Exercice. Lorsque n = p, calculer Ei,jEh,k.

Exercice. Soit M ∈ Mn(K). Montrer qu’il existe P ∈ K[X] \ {0} tel queP (M) = 0. Un tel polynome est dit annulateur de M . Que peut-on dire del’ensemble des polynomes annulateurs de M ?

2.4 Exemples

Propriete. Dans K2, deux vecteurs u =

(u1

u2

)et v =

(v1

v2

)forment une base de K2

si et seulement si u1v2 − u2v1∆= detc(u, v) 6= 0.

Demonstration.dim(K2) = 2, donc

c©Eric Merle 23 MPSI2, LLG

Page 25: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

(u, v) libre ⇐⇒ (u, v) est une base de K2

⇐⇒ ∀w ∈ K2, ∃!(α, β) ∈ K2, αu+ βv = w

⇐⇒ ∀w ∈ K2, ∃!(αβ

)∈ K2, (u|v)

(αβ

)= w,

ou (u|v) designe la matrice dont les colonnes sont u et v. Ainsi,

(u, v) libre ⇐⇒ (u|v) ∈ GL(K2)⇐⇒ (u|v) ∈ GL2(K)⇐⇒ det(u|v) 6= 0⇐⇒ u1v2 − u2v1 6= 0.

Propriete. Soient n ∈ N et (a0, a1, . . . , an) ∈ Kn+1 une famille de n+1 scalaires deux

a deux distincts. Pour tout i ∈ {0, . . . , n}, notons Li =∏

0≤j≤nj 6=i

X − ajai − aj

le i-eme polynome

d’interpolation de Lagrange associe a la famille (a0, a1, . . . , an).Alors L = (Li)0≤i≤n est une base de Kn[X], appelee la base de Lagrange associe a lafamille (a0, a1, . . . , an).De plus, pour tout P ∈ Kn[X], la decomposition de P dans cette base s’ecrit

P =n∑i=0

P (ai)Li : les P (ai) sont les coordonnees de P dans la base L.

Demonstration.

Soit P ∈ Kn[X]. P −n∑i=0

P (ai)Li admet au moins pour racines a0, . . . , an, ce qui fait

au moins n+ 1 racines, or c’est un polynome de degre inferieur ou egal a n, donc il estidentiquement nul. Ceci prouve que L est une famille generatrice de Kn[X]. De plus,|L| = dim(Kn[X]), donc c’est une base de Kn[X].

Exercice. Soit (Pn)n∈N une suite de polynomes de K[X]. On suppose que cettesuite de polynomes est etagee c’est-a-dire que, ∀n ∈ N deg(Pn) = n.Montrer que pour tout N ∈ N, (Pn)0≤n≤N est une base de KN [X].En deduire que (Pn)n∈N est une base de K[X].

Solution :

� Soit N ∈ N. Soit (αn)0≤n≤N une famille de scalaires telle queN∑n=0

αnPn = 0.

Supposons que cette famille est non nulle. Alors {n ∈ {0, . . . , N}/αn 6= 0} est unensemble non vide inclus dans N et majore par N , donc il admet un maximumque l’on note p.

Ainsi, Pp = − 1

αp

p−1∑n=0

αnPn, donc p = deg(Pp) ≤ max0≤n<p

deg(αnPn) ≤ p − 1. C’est

faux, donc la famille (αn)0≤n≤N est nulle. Ainsi la famille (Pn)0≤n≤N est unefamille libre de KN [X] de cardinal N + 1. Or la famille (Xn)0≤n≤N est la basecanonique de KN [X], donc KN [X] est un espace vectoriel de dimension N + 1.Ainsi (Pn)0≤n≤N est une base de KN [X].

c©Eric Merle 24 MPSI2, LLG

Page 26: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

• Soit (αn)n∈N ∈ K(N) telle que∑n∈N

αnPn = 0. Cette famille de scalaires etant

presque nulle, il existe N ∈ N tel que pour tout n > N , αn = 0.

AinsiN∑n=0

αnPn = 0, or la famille (Pn)0≤n≤N est libre, donc pour tout n ≤ N ,

αn = 0. Ainsi la famille (Pn)n∈N est libre.• Remarque. Plus generalement, le meme argument permet de demontrer qu’unefamille (xi)i∈I de vecteurs d’un espace vectoriel est libre si et seulement si toutesous-famille finie de (xi)i∈I est libre.• Il reste a montrer que (Pn)n∈N est une famille generatrice de K[X].Soit P ∈ K[X]. NotonsN son degre. P ∈ KN [X], donc il existe (αn)0≤n≤N ∈ KN+1

telle que P =N∑n=0

αnPn. On complete cette famille finie en la suite (αn)n∈N en

posant αn = 0 pour tout n > N . Ainsi P =∑n∈N

αnPn. Donc la famille (Pn)n∈N

engendre K[X].

Exercice. Soit f un endomorphisme de E. Montrer que f est une homothetiesi et seulement si pour tout u ∈ E, (u, f(u)) est lie.

Propriete. Toute sur-famille d’une famille generatrice est generatrice.Toute sous-famille d’une famille libre est libre.

Propriete. Une famille de vecteurs est libre si et seulement si toute sous-famille finiede cette famille est libre.

Exercice. Pour n ∈ N∗, on posefn : R −→ R

x 7−→ 1

x2 + n2

. La famille (fn)n∈N∗

est-elle libre ?

Solution : Soit (αn)n∈N∗ ∈ R(N∗) telle que∑n∈N

αnfn = 0.

On dispose ainsi de deux decompositions en elements simples de la fraction nulledans R(X). D’apres l’unicite d’une telle decomposition, les αn sont tous nuls.La famille (fn)n∈N∗ est donc libre.

Exercice. Pour n ∈ N, on posefn : R −→ R

x 7−→ sin(xn). La famille (fn)n∈N

est-elle libre ?

Solution : Supposons que∑n∈N

αnfn = 0.

Ainsi, pour tout x ∈ R, (1) :∑n∈N

αnfn(x) = 0.

[Pour montrer qu’une famille de fonctions est libre, il existe d’autres methodes que celle consis-

tant a substituer x par des valeurs bien choisies pour se ramener a un systeme lineaire dont

les inconnues sont les αn. On peut en effet faire de l’analyse, c’est-a-dire deriver ou integrer la

c©Eric Merle 25 MPSI2, LLG

Page 27: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

relation (1). On peut egalement faire un developpement limite de (1) au voisinage d’un point

bien choisi.]

Pour tout n ∈ N∗, xn−→x→0

0, donc fn(x) = xn + o(xn).

Ainsi, 0 = α0 sin(1) +∑n≥1

(αnxn + o(xn)).

On suppose qu’il existe un αn 6= 0 avec n ≥ 1.Appelons k le plus petit n ≥ 1 tel que αn 6= 0.Alors 0 = α0 sin(1) +αkx

k + o(xk). D’apres l’unicite du developpement limite (del’application identiquement nulle), αk = 0, ce qui est faux.Ainsi les αn sont nuls pour n ≥ 1. On en deduit que α0 sin(1) = 0, donc que α0

est aussi nul. La famille (fn)n∈N est donc libre.

Theoreme. Si E1, . . . , En sont n sous-espaces vectoriels de dimensions finies, alorsE1 × · · · × En est de dimension finie et

dim(E1 × · · · × En) = dim(E1) + · · ·+ dim(En).

Demonstration.Le cas general se deduit du cas ou n = 2 par recurrence carE1 × · · · × En = (E1 × · · · × En−1)× En (Logique et vocabulaire ensembliste page 7).Soit donc E et F deux espaces vectoriels de dimensions p et q. Notons e = (e1, . . . , ep)une base de E et f = (f1, . . . , fq) une base de F .

Pour tout (x, y) ∈ E × F , avec x =

p∑i=1

xiei et y =

q∑j=1

yjfj,

(x, y) = (x, 0) + (0, y) =( p∑i=1

xiei, 0)

+ (0,

q∑j=1

yjfj

), donc

(x, y) =

p∑i=1

xi(ei, 0) +

q∑j=1

yj(0, fj) : ceci demontre que la concatenation des familles

((e1, 0), . . . , (ep, 0)) et ((0, f1), . . . , (0, fq)) est une famille generatrice de E × F .Notons g cette famille.

Pour montrer qu’elle est libre, supposons que

p∑i=1

xi(ei, 0) +

q∑j=1

yj(0, fj) = 0, ou

(xi)1≤i≤p et (yj)1≤j≤q sont deux familles de scalaires. D’apres le calcul precedent,

(x, y) = 0, ou x =

p∑i=1

xiei et y =

q∑j=1

yjfj, or e et f sont libres, donc pour tout i

et j, xi = yj = 0. Ainsi g est une base de E × F .Alors dim(E × F ) = |g| = p+ q = dim(E) + dim(F ).

c©Eric Merle 26 MPSI2, LLG

Page 28: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

2.5 Application lineaire associee a une famille de vecteurs

Propriete. Soit x = (xi) ∈ EI . NotonsΨx : K(I) −→ E

(αi)i∈I 7−→∑i∈I

αixi .

Ψx est une application lineaire.• x est une famille libre si et seulement si Ψx est injective.• x est une famille generatrice si et seulement si Ψx est surjective.• x est une base si et seulement si Ψx est un isomorphisme.Ψx est appelee l’application lineaire associee a la famille de vecteurs x.

Demonstration.• Soit ((αi), (βi)) ∈ (K(I))2.

Ψ((αi) + (βi)) = Ψ((αi + βi)) =∑i∈I

(αi + βi)xi = Ψ((αi)) + Ψ((βi)).

Soit ((αi), λ) ∈ K(I) ×K. Ψ(λ(αi)) = Ψ((λαi)) =∑i∈I

(λαi)xi = λΨ((αi)).

Ainsi Ψx est une application lineaire.• x est libre si et seulement si la seule famille (αi) presque nulle de scalaires verifiantΨx((αi)) = 0 est la famille nulle, donc si et seulement si le noyau de Ψx est reduit a{0}.• x est generatrice si et seulement si pour tout element v de E, il existe (αi) ∈ K(I)

telle que v = Ψx((αi)), donc si et seulement si Ψx est surjective.

Remarque. Lorsque e = (ei)i∈I est une base de E, pour tout x ∈ E,

Ψ−1e (x) est la famille des coordonnees de x dans la base e .

Propriete. Soit x = (xi)i∈I une famille de vecteurs de E.x est libre si et seulement si, pour tout y ∈ Vect(x), il existe une unique famille presque

nulle de scalaires (αi)i∈I telle que y =∑i∈I

αixi.

Demonstration.x est libre si et seulement si Ψx est injective, donc si et seulement si, pour touty ∈ Im(Ψx), il existe un unique (αi)i∈I ∈ K(I) tel que y = Ψx((αi)).

Or Im(Ψx) = {∑i∈I

αixi/(αi)i∈I ∈ K(I)} = Vect(x).

Propriete. Si e = (ei)i∈I est une base de E, alors E est isomorphe a K(I).

Demonstration.Ψe est en effet un isomorphisme de K(I) dans E.

2.6 Image d’une famille par une application lineaire

Definition. Soient E et F deux K-espaces vectoriels, u ∈ L(E,F )et x = (xi)i∈I ∈ EI . La famille (u(xi))i∈I est appelee l’image de la famille x parl’application lineaire u.

c©Eric Merle 27 MPSI2, LLG

Page 29: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

On notera (u(xi))i∈I = u(x). On remarquera que x ∈ EI et que u(x) ∈ F I .

Propriete. Avec les notations precedentes, Ψu(x) = u ◦Ψx.

Demonstration.Soit (αi) ∈ K(I).

Ψu(x)((αi)) =∑i∈I

αiu(xi) = u

(∑i∈I

αixi

)= (u ◦Ψx)((αi)).

Theoreme.• L’image d’une famille libre par une injection lineaire est une famille libre.• L’image d’une famille generatrice par une surjection lineaire est generatrice.• L’image d’une base par un isomorphisme est une base.

Demonstration.Soient E et F deux K-espaces vectoriels , u ∈ L(E,F ) et x = (xi)i∈I ∈ EI .• Supposons que x est libre et que u est injective. Alors u et Ψx sont injectives, doncΨu(x) est injective en tant que composee de deux applications injectives. Ainsi u(x) estune famille libre.• Supposons que x est generatrice et que u est surjective. Alors u et Ψx sont surjectives,donc Ψu(x) est surjective en tant que composee de deux applications surjectives. Ainsiu(x) est une famille generatrice.

Theoreme. Deux espaces de dimensions finies ont la meme dimension si et seulementsi ils sont isomorphes.

Demonstration.Soit E et F deux K-espaces vectoriels de dimensions finies respectives n et m.Suppose qu’il existe un isomorphisme f de E dans F . Soit e = (e1, . . . , en) une base deE. Alors (f(e1), . . . , f(en)) est une base de F , donc dim(F ) = n = dim(E).Reciproquement, supposons que n = m. On sait que l’application Ψe canoniquementassociee a e est un isomorphisme de Kn dans E. De meme on montre que F et Kn sontisomorphes, donc E et F sont isomorphes.

Remarque. On dispose ainsi de deux techniques importantes pour calculer la dimen-sion d’un espace vectoriel E : rechercher une base de E et calculer son cardinal ou bienchercher un isomorphisme entre E et un espace de dimension connue.

Exercice. Montrer que le cardinal d’un corps fini est de la forme pn ou p ∈ Pet n ∈ N∗

Solution : Soit L un corps fini. Alors car(L) 6= 0, donc en posant p = car(L),p ∈ P. Notons K le sous-corps premier de L. On sait que K est isomorphe a Fp,donc il est de cardinal p.L est un K-espace vectoriel , et (x)x∈L est une famille generatrice finie de L, doncL est de dimension finie. Posons n = dimK(L). Alors L est un K-espace vectorielisomorphe a Kn, donc |L| = pn.

Propriete. Soit E et F deux espaces de dimensions finies et soit f ∈ L(E,F ).

c©Eric Merle 28 MPSI2, LLG

Page 30: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Si f est injective, alors dim(E) ≤ dim(F ).Si f est surjective, alors dim(E) ≥ dim(F ).

Propriete. Soient E et F deux K-espaces vectoriels de dimensions quelconques. Soientu ∈ L(E,F ) et G un sous-espace vectoriel de E de dimension finie. Alorsu(G) est de dimension finie et dim(u(G)) ≤ dim(G), avec egalite lorsque u est injective.

Demonstration.u|u(G)G est surjective. Elle est bijective lorsque u est injective.

Propriete. L’image d’une famille generatrice par une application lineaire u est unefamille generatrice de Im(u).

Demonstration.Soient E et F deux K-espaces vectoriels , u ∈ L(E,F ) et x = (xi)i∈I ∈ EI une famillegeneratrice de E.

L’applicationE −→ Im(u)y 7−→ u(y)

est surjective, donc u(x), en tant qu’image de x par

cette application, est une famille generatrice de Im(u).

Propriete. L’image d’une famille liee par une application lineaire est liee.

Demonstration.Soient E et F deux K-espaces vectoriels , u ∈ L(E,F ) et x = (xi)i∈I ∈ EI une famille

liee de E. Ainsi il existe (αi)i∈I ∈ K(I) \ {0} tel que∑i∈I

αixi = 0.

0 = u(∑i∈I

αixi) =∑i∈I

αiu(xi), donc u(x) est aussi une famille liee.

Theoreme.On suppose que E est un K-espace vectoriel admettant une base e = (ei)i∈I .Soit f = (fi)i∈I une famille quelconque de vecteurs d’un second K-espace vectoriel F .Il existe une unique application lineaire u ∈ L(E,F ) telle que, ∀i ∈ I u(ei) = fi.

De plus, (fi)i∈I est

libregeneratriceune base

si et seulement si u est

injectivesurjectivebijective

.

Demonstration.Soit u ∈ L(E,F ).

(∀i ∈ I u(ei) = fi) ⇐⇒ ∀(αi) ∈ K(I)∑i∈I

αiu(ei) =∑i∈I

αifi

⇐⇒ Ψu(e) = Ψf ⇐⇒ u ◦Ψe = Ψf

⇐⇒ u = Ψf ◦Ψ−1e

car e etant une base Ψe est un isomorphisme.Ainsi il existe une unique application lineaire u ∈ L(E,F ) telle que ∀i ∈ I u(ei) = fi.Il s’agit de u = Ψf ◦Ψ−1

e .f est libre si et seulement si Ψf est injective, donc si et seulement si u = Ψf ◦Ψ−1

e estinjective.f est generatrice si et seulement si Ψf est surjective, donc si et seulement si u = Ψf◦Ψ−1

e

est surjective.

c©Eric Merle 29 MPSI2, LLG

Page 31: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Remarque. Ce theoreme affirme notamment qu’une application lineaire u ∈ L(E,F )est injective (resp : surjective, bijective) si et seulement si l’image par u d’une base deE est une famille libre (resp : une famille generatrice, une base) de F .

Corollaire.Soit E et F deux espaces vectoriels de dimensions finies et soit u ∈ L(E,F ).Si dim(E) = dim(F ), alors u injective⇐⇒ u surjective⇐⇒ u bijective.

Demonstration.Notons n = dim(E) = dim(F ). Soit e une base de E. Alors u est injective si etseulement si u(e) est libre dans F , or |u(e)| = n = dim(F ), donc u est injective si etseulement si u(e) est une base de F , c’est-a-dire si et seulement si u est bijective. Onraisonne de meme pour la surjectivite.

Exercice. Soit u ∈ L(K[X]) tel que pour tout P ∈ K[X], deg(u(P )) = deg(P ).Montrer que u est un automorphisme sur K[X].Solution : Soit P ∈ Ker(u) : deg(P ) = deg(u(P )) = −∞, donc u(P ) = 0. Ainsi,Ker(u) = {0} et u est injective.Soit n ∈ N. Pour tout P ∈ Kn[X], deg(u(P )) = deg(P ) ≤ n, donc Kn[X] eststable par u et l’endomorphisme un induit par u sur Kn[X] est bien defini. un estlineaire injective de Kn[X] dans Kn[X] qui est de dimension finie, donc c’est unautomorphisme de Kn[X].Soit P ∈ K[X]. Il existe n ∈ N tel que P ∈ Kn[X], donc il existe Q ∈ Kn[X] telque un(Q) = P . Alors u(Q) = P , ce qui prouve que u est surjective.Par exemple, P 7−→ P + P ′ + 2P ′′ est un automorphisme de K[X].

Propriete. Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). Alorsu inversible dans L(E) ⇐⇒ u inversible a droite dans L(E)

⇐⇒ u inversible a gauche dans L(E).

Demonstration.Si u est inversible a droite, il existe v ∈ L(E) tel que vu = IdE. Alors u est injectif, maisE est de dimension finie, donc u est un isomorphisme, c’est-a-dire que u est inversibledans L(E).On raisonne de meme a gauche.

Corollaire. Soit A ∈Mn(K). AlorsA inversible dans Mn(K) ⇐⇒ A inversible a droite dans Mn(K)

⇐⇒ A inversible a gauche dans Mn(K).

Demonstration.A est inversible a droite dans Mn(K) si et seulement si il existe B ∈ Mn(K) telleque BA = In, i.e telle que BA = IdKn , donc si et seulement si A est inversible a droitedans L(Kn).De meme, A est inversible a gauche dans Mn(K) si et seulement si A est inversiblea gauche dans L(Kn).De plus, on sait que A est inversible dans Mn(K) si et seulement si A est inversibledans L(Kn).

c©Eric Merle 30 MPSI2, LLG

Page 32: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Exercice. Soit A une K-algebre et B une sous-algebre de A de dimension finie.Soit b ∈ B. Montrer que si b est inversible dans A, alors b−1 ∈ B.

Solution : Notonsu : B −→ B

x 7−→ bx. u est lineaire. De plus, pour x ∈ B,

x ∈ Ker(u) ⇐⇒ bx = 0 ⇐⇒ b−1bx = 0 ⇐⇒ x = 0, donc u est injective. Or Best de dimension finie, donc u est un isomorphisme. En particulier, 1A possedeun antecedent par u : il existe c ∈ B tel que bc = 1A. Alors b−1 = c ∈ B.

Propriete. Soit A ∈ Mn(K) une matrice triangulaire superieure, dont la diagonaleest notee (a1, . . . , an). Alors A est inversible si et seulement si pour tout i ∈ {1, . . . , n},ai 6= 0, et dans ce cas, A−1 est encore triangulaire superieure et sa diagonale est(

1

a1

, . . . ,1

an

).

Demonstration.� Notons T l’ensemble des matrices triangulaires superieures. On a deja vu que T estune sous-algebre deMn(K) et nous sommes en dimension finie, donc d’apres l’exerciceprecedent, si A ∈ T est inversible, alors A−1 ∈ T . Les elements diagonaux deIn = AA−1 sont egaux au produit des elements diagonaux de A et de A−1, donc leselements diagonaux de A sont non nuls et les elements diagonaux de A−1 sont lesinverses des elements diagonaux de A.� Reciproquement, supposons que pour tout i ∈ Nn, Ai,i 6= 0.Soit X ∈ Kn tel que AX = 0. Pour tout i ∈ Nn,

(Ei) : 0 = [AX]i =n∑j=1

Ai,jXj =n∑j=i

Ai,jXj, car A est triangulaire superieure.

Pour i = n, (En) se reduit a An,nXn = 0, or An,n 6= 0, donc Xn = 0. Alors (En−1) sereduit a An−1,n−1Xn−1 = 0, or An−1,n−1 6= 0, donc Xn−1. Par recurrence descendante,on en deduit que X = 0.Ainsi Ker(A) = {0}, donc A est une application lineaire injective de Kn dans lui-meme,or Kn est de dimension finie, donc A est un isomorphisme, ce qui prouve que A estinversible.

Propriete. Soit E un K-espace vectoriel admettant une base (ei)i∈I .Alors L(E,F ) est isomorphe a F I .

Demonstration.

L’applicationL(E,F ) −→ F I

u 7−→ (u(ei))i∈Iest une application lineaire et le theoreme

precedent montre que toute famille (fi)i∈I de F I admet un unique antecedent pour cetteapplication, donc qu’elle est bijective. Ainsi cette application est un isomorphisme.

Theoreme. Soit E et F deux espaces vectoriels de dimensions finies. Alors

dim(L(E,F )) = dim(E)× dim(F ).

Demonstration.Posons n = dim(E) et notons e = (ei)1≤i≤n une base de E. D’apres le precedentcorollaire, dim(L(E,F )) = dim(F {1,...,n}) = dim(F n) = n× dim(F ).

c©Eric Merle 31 MPSI2, LLG

Page 33: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

2.7 Rang d’une famille de vecteurs

Definition. Soient E un espace vectoriel et x une famille de vecteurs de E.

Le rang de x est rg(x)∆= dim(Vect(x)) ∈ N ∪ {+∞}.

Propriete. Pour une famille x de vecteurs d’un K-espace vectoriel E,— rg(x) ≤ #(x). Lorsque rg(x) est fini, il y a egalite si et seulement si x est libre.— rg(x) ≤ dim(E). Lorsque rg(x) est fini, il y a egalite si et seulement si x est

generatrice.

Demonstration.� x est une famille generatrice de Vect(x), donc son cardinal est plus grand que ladimension de Vect(x), egale au rang de x.De plus, il y a egalite si et seulement si x est une base de Vect(x), donc si et seulementsi x est une famille libre.� Vect(x) est un sous-espace vectoriel de E, donc sa dimension est inferieure a ladimension de E. De plus, il y a egalite si et seulement si Vect(x) = E, c’est-a-dire siet seulement si x est une famille generatrice de E.

Propriete.Soient E et F deux espaces vectoriels, x une famille de vecteurs de E et u ∈ L(E,F ).Alors rg(u(x)) ≤ rg(x). . Lorsque rg(x) est fini, il y a egalite lorsque u est injective.

Demonstration.Notons G = Vect(x) et x = (xi)i∈I . rg(u(x)) = dim(Vect(u(x))). Or

Vect(u(x)) = Vect(u(xi))i∈I = u(

Vect(xi)i∈I

)= u(G), donc rg(u(x)) = dim(u(G)).

La propriete resulte alors du fait que dim(u(G)) ≤ dim(G), avec egalite lorsque u estinjective.

Propriete. Soit (xi)i∈I une famille de vecteurs d’un K-espace vectoriel E. Alorsrg((xi)i∈I) n’est pas modifie si l’on echange l’ordre de deux vecteurs, si l’on multipliel’un des vecteurs xi par un scalaire non nul, ou bien si l’on ajoute a l’un des xi unecombinaison lineaire des autres xj.

2.8 Matrice d’une application lineaire

Remarque. On a vu que pour construire une application lineaire u de E dans F , si(ei)i∈I est une base de E, il suffit de donner la famille (u(ei))i∈I des images des ei paru.Par exemple, on peut definir un endomorphisme u sur R3[X] par les conditions :u(X3) = X, u(X2) = X2 + 1, u(X) = X3 −X, et u(1) = 1.u est necessairement l’unique endomorphisme tel que : pour toutP = a3X

3 + a2X2 + a1X + a0, u(P ) = a3X + a2(X2 + 1) + a1(X3 −X) + a0.

Definition. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0et n > 0. Soient e = (e1, . . . , ep) une base de E et f = (f1, . . . , fn) une base de F .

c©Eric Merle 32 MPSI2, LLG

Page 34: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Si u ∈ L(E,F ), on appelle matrice de l’application lineaire u dans les bases e et fla matrice notee mat(u, e, f) = (αi,j) ∈MK(n, p) definie par : pour tout i ∈ {1, . . . , n}et j ∈ {1, . . . , p}, αi,j est la ieme coordonnee du vecteur u(ej) dans la base f .

C’est donc l’unique matrice (αi,j) ∈MK(n, p) verifiant : ∀j ∈ Np u(ej) =n∑i=1

αi,jfi.

C’est l’unique matrice dont la j-eme colonne contient les coordonnees de u(ej) dans labase f , pour tout j : la j-eme colonne est egale a Ψ−1

f (u(ej)).On peut egalement dire que la matrice de u dans les bases e et f est definie par[mat(u, e, f)]i,j = f ∗i (ej)), pour tout i ∈ Nn et j ∈ Np.

Interpretation tabulaire : Avec les notations precedentes,

mat(u, e, f) =

u(e1) · · · u(ep)m1,1...

mn,1

· · ·

· · ·

m1,p...

mn,p

f1...fn

.

Notation. Lorsque E = F et que l’on choisit e = f , on note mat(u, e) au lieu demat(u, e, e).

Exemple. L’endomorphisme u de R3[X] defini ci-dessus a pour matrice dans la base

canonique : mat(u, (1, X,X2, X3)) =

1 0 1 00 −1 0 10 0 1 00 1 0 0

.

Exemple. La forme lineaire u : K4 −→ K definie par u

xyzt

= x + y − 2z + 3t a

pour matrice dans les bases canoniques de K4 et K la matrice ligne (1 1 − 2 3).Plus generalement la matrice d’une forme lineaire est toujours une matrice ligne.

Exemple. Considerons

u : R2 −→ R3(xy

)7−→

2x+ yy

3x− y

.

u est une application lineaire et, si l’on note B = (b1, b2) et C = (c1, c2, c3) les basescanoniques de R2 et de R3 respectivement,

mat(u,B,C) =

2 10 13 −1

. En effet, u(b1) = u

(10

)=

203

et u(b2) = u

(01

)=

11−1

.

c©Eric Merle 33 MPSI2, LLG

Page 35: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

En fait, si l’on pose M =

2 10 13 −1

, on voit que pour tout

(xy

)∈ R2,

u

(xy

)= M

(xy

), donc u n’est autre que l’application lineaire canoniquement associee

a M .

Remarque. Plus generalement, si M ∈ MK(n, p), on a defini M ∈ L(Kp,Kn) par :∀X ∈ Kp, M(X) = MX.On a vu que, si l’on note c = (c1, . . . , cp) la base canonique de Kp, alors pour toutj ∈ Np, M(cj) = Mcj est la j-eme colonne de M , donc :

Propriete. Pour tout n, p ∈ N∗, pour tout M ∈ MK(n, p), mat(M, c, c′) = M , en

notant c et c′ les bases canoniques de Kp et de Kn.

Remarque. Nous disposons maintenant de deux manieres equivalentes de definirl’application lineaire canoniquement associee a une matrice M ∈ MK(n, p) : c’est

l’applicationM : Kp −→ Kn

X 7−→ M(X) = MX, ou bien c’est l’unique application

M ∈ L(Kp,Kn) telle que mat(M, c, c′) = M .

Exemple. Reprenons l’exemple precedent, et determinons la matrice de u pour un

autre couple de bases : Posons e1 =

(11

)et e2 =

(1−1

).

det(e1, e2) = −2 6= 0, donc E = (e1, e2) est une base de R2.

Posons f1 =

101

, f2 =

110

et f3 =

001

.

On verifie que F = (f1, f2, f3) est une base de R3.En effet, si a1f1 + a2f2 + a3f3 = 0, ou a1, a2, a3 ∈ R, alors 0 = a1 + a2 = a2 = a1 + a3,donc 0 = a2 = a1 = a3. Ainsi F est libre, de cardinal 3, or dim(R3) = 3, donc c’estbien une base de R3.

Soit (α, β) ∈ R2. u(αe1 + βe2) = αu

(11

)+ βu

(1−1

)= α

312

+ β

1−14

,

donc u(αe1 + βe2) = xf1 + yf2 + zf3, ou

3α + β = x+ yα− β = y

2α + 4β = x+ z, donc y = α − β,

x = 2α + 2β et z = 2β. On en deduit que mat(u,E, F ) =

2 21 −10 2

.

Nous verrons plus loin une formule de changement de bases qui permet d’aller plusvite.

Propriete. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0et n > 0. Soient e = (e1, . . . , ep) une base de E et f = (f1, . . . , fn) une base de F .

c©Eric Merle 34 MPSI2, LLG

Page 36: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

L’applicationL(E,F ) −→ MK(n, p)

u 7−→ mat(u, e, f)est un isomorphisme d’espaces vectoriels.

Demonstration.� Soit u, v ∈ L(E,F ) et λ ∈ K.Posons U = mat(u, e, f), V = mat(v, e, f) et M = mat(λu+ v, e, f).Soit i ∈ Nn et j ∈ Np. Mi,j est la i-eme coordonnee de (λu + v)(ej) dans la base f .C’est donc f ∗i (λu(ej) + v(ej)), or f ∗i est lineaire, donc Mi,j = λf ∗i (u(ej)) + f ∗i (v(ej)) =λUi,j + Vi,j, donc M = λU + V ,c’est-a-dire mat(λu+ v, e, f) = λmat(u, e, f) + mat(v, e, f). Ceci prouve la linearite.� Soit M = (αi,j) ∈ MK(n, p) et u ∈ L(E,F ). On a vu que M = mat(u, e, f) si et

seulement si pour tout j ∈ Np, u(ej) = gj, ou gj =n∑i=1

αi,jfi, or on a deja enonce

qu’il existe une unique u ∈ L(E,F ) telle que, pour tout j ∈ Np, u(ej) = gj (i.e : uneapplication lineaire est uniquement determinee par la donnee des images des vecteursd’une base de l’espace de depart). Ainsi, M possede un unique antecedent : l’applicationest bijective.

Remarque. En particulier, lorsque E = Kp et F = Kn, ou n, p ∈ N∗, en notant cn etcp les bases canoniques de Kn et de Kp, on vient de montrer queΨ : L(Kp,Kn) −→ MK(n, p)

u 7−→ mat(u, cp, cn)est un isomorphisme. On le savait deja car c’est

l’isomorphisme reciproque deMK(n, p) −→ L(Kp,Kn)

M 7−→ M.

Theoreme. Soient E, F et G trois K-espaces vectoriels de dimensions respectives q, pet n, munis de bases e, f et g. Soient u ∈ L(E,F ) et v ∈ L(F,G).Alors, mat(v ◦ u, e, g) = mat(v, f, g)×mat(u, e, f).

Demonstration.Posons U = mat(u, e, f) ∈MK(p, q), V = mat(v, f, g) ∈MK(n, p)et M = mat(v ◦ u, e, g) ∈MK(n, q). Soit k ∈ Nq et i ∈ Nn.

Mi,k = g∗i (vu(ek)) = g∗i

[v( p∑j=1

Uj,kfj

)]=

p∑j=1

Uj,kg∗i [v(fj)],

donc Mi,k =

p∑j=1

Uj,kVi,j = [V U ]i,k, ce qui prouve que M = V U .

Exemple. On peut ainsi remplacer un calcul matriciel par un calcul sur des applica-tions lineaires. Par exemple, on peut retrouver que, dans MK(n), Ei,jEh,k = δj,hEi,k :Notons e = (e1, . . . , en) la base canonique de Kn.Pour (i, j) ∈ N2

n, notons ui,j l’endomorphisme de Kn canoniquement associe a Ei,j.Pour tout k ∈ Nn, ui,j(ek) = δk,jei.Soit l ∈ Nn. ui,j ◦ uh,k(el) = ui,j(δk,leh) = δk,lδj,hei, donc ui,j ◦ uh,k(el) = δj,hui,k(el).Ainsi, ui,j ◦ uh,k = δj,hui,k, puis en prenant les matrices de ces endomorphismes,Ei,jEh,k = δj,hEi,k.

c©Eric Merle 35 MPSI2, LLG

Page 37: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Propriete. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0et n > 0, munis des bases e = (e1, . . . , ep) et f = (f1, . . . , fn), et soit u ∈ L(E,F ).On note M la matrice de u dans les bases e et f .Soit (x, y) ∈ E×F . On note X la matrice colonne des coordonnees de x dans la base e,

et Y celle des coordonnees de y dans la base f . C’est-a-dire qu’en posant x =

p∑j=1

xjej,

X =

x1...xp

, et qu’en posant y =n∑i=1

yifi, Y =

y1...yn

.

C’est aussi dire que X = Ψ−1e (x) et Y = Ψ−1

f (y).On ecrira egalement que X = mat(x, e) et Y = mat(y, f). Alors,

u(x) = y ⇐⇒MX = Y.

Demonstration.On pourrait bien sur passer aux coordonnees et mener un calcul analogue a celui dela demonstration de la propriete precedente. Essayons plutot d’utiliser cette dernierepropriete.

Si x ∈ E, notonsx : K −→ E

λ 7−→ λx: x ∈ L(K, E).

L’applicationE −→ L(K, E)x 7−→ x

est un isomorphisme, dont la bijection reciproque est

L(K, E) −→ Ea 7−→ a(1)

. De meme, a tout y ∈ F , on associe y = (λ 7−→ λy) ∈ L(K, F ).

On verifie que u(x) = u ◦ x, car pour tout λ ∈ K, u(x)(λ) = λu(x) = u(λx) = u(x(λ)).Alors y 7−→ y etant injective,u(x) = y ⇐⇒ u(x) = y

⇐⇒ mat(u ◦ x, 1, f) = mat(y, 1, f)⇐⇒M ×mat(x, 1, e) = mat(y, 1, f).

Or mat(x, 1, e) est une matrice colonne dont les composantes sont les coordonnees dex(1) = x dans la base e, donc mat(x, 1, e) = X, et de meme, mat(y, 1, e) = Y .

Propriete.On reprend les notations de la propriete precedente et on suppose de plus que n = p.Alors u est un isomorphisme si et seulement si M est une matrice inversible et dans cecas, mat(u, e, f)−1 = mat(u−1, f, e).

Demonstration.u est bijective si et seulement si pour tout y ∈ F , il existe un unique x ∈ E tel queu(x) = y, donc si et seulement si pour tout Y ∈ Kn, il existe un unique X ∈ Kn telque MX = Y , c’est-a-dire si et seulement si M est inversible.Dans ce cas, posons N = mat(u−1, f, e).Alors MN = mat(uu−1, f, f) = mat(IdF , f, f) = In, donc N = M−1.

c©Eric Merle 36 MPSI2, LLG

Page 38: Alg ebre lin eaire - Free

Algebre lineaire 2 Familles de vecteurs

Exercice. Pour tout i, j ∈ {0, . . . , n}, on pose mi,j =

(ji

), en convenant que(

ji

)= 0 lorsque i > j. Montrer que M = (mi,j) 0≤i≤n

0≤j≤nest inversible et calculer

son inverse.

Solution : Notons u : Kn[X] −→ Kn[X] definie par u(P ) = P (X + 1).Notons c la base canonique de Kn[X]. Pour tout j ∈ {0, . . . , n},

(X + 1)j =

j∑i=0

(ji

)X i, donc M = mat(u, c).

Or u est inversible et u−1 : P 7−→ P (X − 1), donc M est une matrice inversibleet M−1 = mat(u−1, c). Pour tout j ∈ {0, . . . , n},

(X − 1)j =

j∑i=0

(ji

)X i(−1)j−i, donc M−1 =

((ji

)(−1)j−i

)1≤i≤n1≤j≤n

.

Propriete. Soit E un K-espace vectoriel de dimension finie egale a n, muni d’une

base e. L’applicationL(E) −→ Mn(K)

u 7−→ mat(u, e)est un isomorphisme d’algebres.

Remarque. Si e′ est une seconde base de E, L’applicationL(E) −→ Mn(K)

u 7−→ mat(u, e, e′)n’est pas un morphisme d’algebres.C’est pourquoi, le plus souvent, lorsque l’on considere la matrice d’un endomorphisme,on choisit la base d’arrivee egale a la base de depart.

Propriete. Si E est un K-espace vectoriel de dimension finie egale a n, muni d’une

base e, l’applicationGL(E) −→ GLn(K)

u 7−→ mat(u, e)est un isomorphisme de groupes.

c©Eric Merle 37 MPSI2, LLG

Page 39: Alg ebre lin eaire - Free

Algebre lineaire 3 Les systemes lineaires

3 Les systemes lineaires

3.1 Trois interpretations d’un systeme lineaire

Definition. Une equation lineaire a p inconnues scalaires est une equation de la forme(E) : α1x1 + α2x2 + · · · + αpxp = b, ou α1, . . . , ap, b ∈ K sont des parametres, et oux1, . . . , xp ∈ K sont les inconnues.

Exemples.— (E) : 2x− 5y + z = 5 est une equation lineaire.— (E) : 2x = 1 + 2z est aussi lineaire.— (E) : x2 + y + z − t = 2 n’est pas lineaire.

Notation. Fixons (n, p) ∈ N∗2 et considerons un systeme lineaire a n equations et pinconnues, c’est-a-dire un systeme d’equations de la forme suivante :

(S) :

α1,1x1 + · · · + α1,pxp = b1...

...αi,1x1 + · · · + αi,pxp = bi

......

αn,1x1 + · · · + αn,pxp = bn

,

ou, pour tout (i, j) ∈ {1, . . . , n}×{1, . . . , p}, αi,j ∈ K, pour tout i ∈ {1, . . . , n}, bi ∈ K,les p inconnues etant x1, . . . , xp, elements de K.

Le vecteur

b1...bn

est appele le second membre du systeme, ou bien le membre constant.

Lorsqu’il est nul, on dit que le systeme est homogene.

Premiere interpretation. Combinaison lineaire de vecteurs.

Notons C1 =

α1,1

...αi,1

...αn,1

, C2 =

α1,2

...αi,2

...αn,2

, . . ., Cp =

α1,p

...αi,p

...αn,p

, et B =

b1...bi...bn

. Il s’agit de

p+ 1 vecteurs de Kn. Alors

(S)⇐⇒ x1C1 + x2C2 + · · ·+ xpCp = B.

Definition. On dit que (S) est compatible si et seulement s’il admet au moins unesolution.

Propriete. (S) est compatible si et seulement si B ∈ Vect(C1, . . . , Cp).

c©Eric Merle 38 MPSI2, LLG

Page 40: Alg ebre lin eaire - Free

Algebre lineaire 3 Les systemes lineaires

Demonstration.S est compatible si et seulement s’il existe (x1, . . . , xp) ∈ Kp tel queB = x1C1 + x2C2 + · · ·xpCp, c’est-a-dire si et seulement si B ∈ Vect(C1, . . . , Cp).

Deuxieme interpretation. Matricielle.

Notons M la matrice de Mn,p(K) dont les colonnes sont C1, . . ., Cp, et X =

x1...xp

.

Alors(S)⇐⇒MX = B.

Definition. On dit que (S) est un systeme de Cramer si et seulement si n = p etsi M est inversible. Dans ce cas, (S) admet une unique solution.

Demonstration.Si M est inversible, (S)⇐⇒ X = M−1B.

Troisieme interpretation. A l’aide d’une application lineaire.Soient E et F des K-espaces vectoriels de dimensions p et n munis de basese = (e1, . . . , ep) et f = (f1, . . . , fn). On note u l’unique application lineaire de L(E,F )telle que mat(u, e, f) = M , x le vecteur de E dont les coordonnees dans e sont X et ble vecteur de F dont les coordonnees dans f sont B. Alors

(S)⇐⇒ u(x) = b.

Definition. On dit que (S) est un systeme homogene si et seulement si b = 0.

Definition. Le systeme homogene associe a (S) est (SH) : u(x) = 0.

Propriete. L’ensemble des solutions de (SH) est Ker(u).C’est un sous-espace vectoriel de dimension p− r, ou r designe le rang de u (ou de M).

3.2 Les operations elementaires

Definition. On appelle manipulations ou operations elementaires sur les lignes d’unematrice, les applications de MK(n, p) dans MK(n, p) suivantes :

1) Ajouter a une ligne le multiple d’une autre, operation notee :

Li ←− Li + λLj, ou i 6= j et λ ∈ K. C’est une transvection.

2) Multiplier une ligne par un scalaire non nul, notee :

Li ←− αLi, ou α ∈ K∗. C’est une affinite.

3) Permuter deux lignes, notee :

Li ←→ Lj , ou i 6= j. C’est une transposition.

c©Eric Merle 39 MPSI2, LLG

Page 41: Alg ebre lin eaire - Free

Algebre lineaire 3 Les systemes lineaires

Remarque. On definirait de meme les operations sur les colonnes.

Definition. Si σ ∈ Sn, on note Pσ = (δi,σ(j)) ∈Mn(K).Ainsi, pour tout j ∈ {1, . . . , n}, la j eme colonne de Pσ est constituee de 0, sauf pour leσ(j)eme coefficient qui vaut 1.

Propriete. Pour tout (σ, σ′) ∈ S2n, Pσσ′ = PσPσ′ .

Demonstration.Notons e = (e1, . . . , en) la base canonique de Kn. Si s ∈ Sn, notons us l’endomorphismecanoniquement associe a la matrice Ps : Pour tout j ∈ {1, . . . , n}, us(ej) = es(j).Soit j ∈ {1, . . . , n} : (uσ ◦ uσ′)(ej) = uσ(eσ′(j)) = eσ(σ′(j)) = uσ◦σ′(ej),donc uσ ◦ uσ′ = uσσ′ . En prenant les matrices de ces endomorphismes dans la base e,on en deduit que Pσσ′ = PσPσ′ .

Propriete.En notant (Ei,j)(i,j)∈{1,...,n}2 la base canonique deMn(K), si λ ∈ K∗ et (i, j) ∈ {1, . . . , n}2

avec i 6= j, alors

Li ←− Li + λLj : MK(n, p) −→ MK(n, p)M 7−→ (In + λEi,j)M

Li ←− λLi : MK(n, p) −→ MK(n, p)M 7−→ (In + (λ− 1)Ei,i)M

Li ←→ Lj : MK(n, p) −→ MK(n, p)M 7−→ P(i,j)M

De meme, en notant (Ei,j)(i,j)∈{1,...,p}2 la base canonique de Mp(K), si λ ∈ K∗ et(i, j) ∈ {1, . . . , p}2 avec i 6= j, alors

Ci ←− Ci + λCj : MK(n, p) −→ MK(n, p)M 7−→ M(Ip + λEj,i)

Ci ←− λCi : MK(n, p) −→ MK(n, p)M 7−→ M(Ip + (λ− 1)Ei,i)

Ci ←→ Cj : MK(n, p) −→ MK(n, p)M 7−→ MP(i,j)

.

Propriete. Si l’on effectue une serie d’operations elementaires sur les lignes d’unematrice M , alors on a multiplie M a gauche par une certaine matrice inversible.Si l’on effectue une serie d’operations elementaires sur les colonnes d’une matrice M ,alors on a multiplie M a droite par une certaine matrice inversible.

Notation. Soit (S) : MX = B un systeme lineaire de matrice M ∈ Mn,p(K) et devecteur constant B ∈ Kn.

c©Eric Merle 40 MPSI2, LLG

Page 42: Alg ebre lin eaire - Free

Algebre lineaire 3 Les systemes lineaires

On appellera matrice globale de (S) la matrice a n lignes et p + 1 colonnes dont les ppremieres colonnes sont celles de M et dont la derniere colonne est egale a B.

Propriete. Soient (S) : MX = B et (S ′) : M ′X = B′. On suppose que l’on peutpasser de la matrice globale de (S) a celle de (S ′) a l’aide d’une serie d’operationselementaires portant uniquement sur les lignes.Alors ces deux systemes sont equivalents.

Demonstration.Une operation du type 1) revient a ajouter a l’equation i du systeme λ fois l’equationj. Le systeme apres cette manipulation est equivalent au systeme avant cette manipu-lation.Une operation du type 2) revient a multiplier une equation par un scalaire non nul, etune operation du type 3) revient a permuter l’ordre de deux equations du systeme.A chaque etape on ne change pas l’espace des solutions du systeme.

En pratique : Pour resoudre un systeme lineaire, on tente de modifier la matriceglobale du systeme par des manipulations elementaires, afin de se ramener a une matricequi, privee de sa derniere colonne, est diagonale ou bien triangulaire superieure. Dansce cas en effet, le systeme est simple a resoudre.

Remarque. Dans le systeme (S) : MX = B, permuter les colonnes de M revienta modifier l’ordre des inconnues. On peut donc autoriser ce type d’operation pour laresolution d’un systeme lineaire, mais il faudra les memoriser pour connaıtre la positionde chaque inconnue.

Propriete. SoitM ∈Mn(K). On suppose que l’on peut transformer, par des operationselementaires portant uniquement sur les lignes, la matrice blocs M In ∈ MK(n, 2n)

en une matrice de la forme In N ∈MK(n, 2n).Alors M est inversible et M−1 = N .

Demonstration.Il existe une matrice P ∈ GLn(K) telle que In N = P × M In ,

or P × M In = PM P × In , donc In = PM et N = P , ce qui montre bien que Mest inversible et que son inverse est N .

Exemple. Inversion de la matrice de taille 4

M =

0 1 1 11 0 1 11 1 0 11 1 1 0

:

Partons de la matrice

0 1 1 1 | 1 0 0 01 0 1 1 | 0 1 0 01 1 0 1 | 0 0 1 01 1 1 0 | 0 0 0 1

. Ajoutons a la premiere ligne

la somme des suivantes. On obtient comme nouvelle matrice :

c©Eric Merle 41 MPSI2, LLG

Page 43: Alg ebre lin eaire - Free

Algebre lineaire 3 Les systemes lineaires3 3 3 3 | 1 1 1 11 0 1 1 | 0 1 0 01 1 0 1 | 0 0 1 01 1 1 0 | 0 0 0 1

. On divise ensuite la premiere ligne par 3, ce qui

donne

1 1 1 1 | 1

313

13

13

1 0 1 1 | 0 1 0 01 1 0 1 | 0 0 1 01 1 1 0 | 0 0 0 1

, puis on enleve la premiere ligne aux sui-

vantes. On obtient

1 1 1 1 | 1

313

13

13

0 −1 0 0 | −13

23−1

3−1

3

0 0 −1 0 | −13−1

323−1

3

0 0 0 −1 | −13−1

3−1

323

. On multiplie en-

suite les lignes autres que la premiere par −1, ce qui fournit :1 1 1 1 | 1

313

13

13

0 1 0 0 | 13−2

313

13

0 0 1 0 | 13

13−2

313

0 0 0 1 | 13

13

13−2

3

. Enfin, on enleve a la premiere ligne la somme

des suivantes. On obtient :

1 0 0 0 | −2

313

13

13

0 1 0 0 | 13−2

313

13

0 0 1 0 | 13

13−2

313

0 0 0 1 | 13

13

13−2

3

. Ainsi M est in-

versible est son inverse vaut M−1 =

−2

313

13

13

13−2

313

13

13

13−2

313

13

13

13−2

3

.

Remarque. Pour cette matrice, generalisee a une matrice de taille n, une autremethode plus rapide consiste a remarquer que (M + In)2 = n(M + In), doncM2 + (2 − n)M + (1 − n)In = 0, puis M(M + (2 − n)In) = (n − 1)In, ce qui montre

que M est inversible et que M−1 =1

n− 1(M + (2− n)In).

Cette methode se generalise a toute matrice pour laquelle on peut trouver simplementun polynome annulateur.Pour cette matrice, c’est facile car elle est combinaison lineaire de In et de la matriceU dont tous les coefficients sont egaux a 1. C’est plus generalement le cas de toute

matrice de la forme

a b · · · b

b. . . . . .

......

. . . . . . bb · · · b a

.

3.3 Methode du pivot de Gauss

Notation. On souhaite resoudre le systeme (S) : MX = B de n equations a pinconnues. La matrice globale du systeme sera notee (ai,j) ∈MK(n, p+ 1).

c©Eric Merle 42 MPSI2, LLG

Page 44: Alg ebre lin eaire - Free

Algebre lineaire 3 Les systemes lineaires

Pour simplifier les notations, si on transforme (ai,j) par des operations elementaires, leresultat sera encore note (ai,j) : C’est la matrice globale d’un systeme equivalent a (S).

But : On veut transformer la matrice globale en une matrice (ai,j) de dimensions(n, p+ 1) telle que

∀(i, j) ∈ {1, . . . , n} × {1, . . . , p} i > j =⇒ ai,j = 0.

Le systeme correspondant est alors triangulaire et facile a resoudre.Pour cela on procede en min(p, n) etapes, en imposant qu’a l’etape r, la matrice globalecommence comme une matrice triangulaire superieure sur ses r premieres colonnes,c’est-a-dire que

(Er) : ∀(i, j) ∈ {1, . . . , n} × Nr i > j =⇒ ai,j = 0.

Pour r = 0 : (E0) est toujours verifiee.

Pour 0 < r ≤ min(n, p) : On suppose que l’etape r − 1 est realisee et on effectuel’etape r de la maniere suivante :Premier cas : ∀i ∈ {r, . . . , n} ai,r = 0.

Dans ce cas, il n’y a rien a faire car (Er) est deja verifiee.Second cas : ∃i0 ∈ {r, . . . , n} ai0,r 6= 0 : On dit que ai0,r est le pivot de l’etape r.

On permute d’abord les lignes Li0 et Lr. Ainsi ar,r 6= 0. Ensuite on effectue la seried’operations elementaires suivante :

for i from r + 1 to n do Li ←− Li −ai,rar,r

Lr od;

La nouvelle matrice verifie (Er).

Remarque. Replacons-nous dans la situation du debut du second cas :Il existe differentes strategies pour choisir le pivot parmi les ai,r 6= 0 ou i ∈ {r, . . . , n} :Strategie du pivot partiel : On choisit comme pivot un coefficient ai,r dont le module

est maximum. Cela presente l’avantage de minimiser les erreurs d’arrondis commiseslorsque l’on divise par le pivot. C’est la strategie la plus couramment utilisee lorsquecet algorithme est programme en langage informatique.Strategie humaine : Dans les cas ou on applique l’algorithme du pivot a la main,

on souhaite eviter autant que possible l’apparition de fractions compliquees lors de ladivision par le pivot. La strategie humaine consiste donc a choisir comme pivot 1 ou−1 quand c’est possible, sinon 2 ou −2, etc. . .

Remarque. Comme on n’effectue que des operations elementaires sur les lignes, leslignes de la matrice finale du systeme engendrent le meme espace vectoriel que les lignesde la matrice initiale. La methode du pivot permet donc de determiner une base del’espace vectoriel engendre par les lignes (ou les colonnes en operant sur les colonnes)d’une matrice.

c©Eric Merle 43 MPSI2, LLG

Page 45: Alg ebre lin eaire - Free

Algebre lineaire 3 Les systemes lineaires

La methode du pivot permet aussi de determiner une base de l’image d’une applicationlineaire : On considere sa matrice dans des bases donnees et on determine une base deses vecteurs colonnes en appliquant la methode du pivot au niveau des colonnes.

Remarque. Le systeme final presente une matrice triangulaire superieure, la dernierecolonne exceptee. On dit que le systeme est echelonne.Cependant, comme les pivots peuvent etre nuls, il est assez difficile de programmer laresolution de ce systeme echelonne.

Exercice. Soit λ ∈ R. Determinez la compatibilite et les eventuelles solutionsdu systeme suivant :

λx +y +z +t = 1x +λy +z +t = λx +y +λz +t = λ2

x +y +z +λt = λ3

.

Resolution : La matrice globale du systeme est

λ 1 1 1 11 λ 1 1 λ1 1 λ 1 λ2

1 1 1 λ λ3

.

Le pivot de la premiere etape est 1 (on adopte la strategie ‘humaine’). On obtientcomme nouvelle matrice :

1 λ 1 1 λ0 1− λ2 1− λ 1− λ 1− λ2

0 1− λ λ− 1 0 λ(λ− 1)0 1− λ 0 λ− 1 λ(λ2 − 1)

.

Premier cas : Si λ 6= 1, on simplifie les equations par 1− λ. On obtient ainsi1 λ 1 1 λ0 1 + λ 1 1 1 + λ0 1 −1 0 −λ0 1 0 −1 −λ(1 + λ)

. Pour la seconde etape, le pivot choisi est 1.

On aboutit a1 λ 1 1 λ0 1 −1 0 −λ0 0 2 + λ 1 (1 + λ)2

0 0 1 −1 −λ2

. Pour la troisieme etape, le pivot choisi est 1.

On aboutit a1 λ 1 1 λ0 1 −1 0 −λ0 0 1 −1 −λ2

0 0 0 3 + λ (1 + λ)2 + λ2(λ+ 2)

.

1.1 : Si λ 6= −3, le systeme est de Cramer et l’unique solution est donnee par :

t =λ3 + 3λ2 + 2λ+ 1

λ+ 3, z = −λ2 +

λ3 + 3λ2 + 2λ+ 1

λ+ 3=

2λ+ 1

λ+ 3,

y = −λ+2λ+ 1

λ+ 3=−λ2 − λ+ 1

λ+ 3,

c©Eric Merle 44 MPSI2, LLG

Page 46: Alg ebre lin eaire - Free

Algebre lineaire 3 Les systemes lineaires

x = λ+−λ3 − 3λ2 − 2λ− 1− 2λ− 1 + λ3 + λ2 − λ

λ+ 3=−λ2 − 2λ− 2

λ+ 3.

1.2 : Si λ = −3, le systeme est incompatible.Second cas : Si λ = 1, le syteme est compatible,

et (S)⇐⇒ x = 1− y − z − t.

3.4 Methode du pivot total

Notation. On reprend les notations du paragraphe precedent.

But : On veut transformer la matrice globale en une matrice (ai,j) de dimensions(n, p+ 1) telle qu’il existe s ∈ {0,min(n, p)} verifiant

(F ) :∀(i, j) ∈ N2

s i > j =⇒ ai,j = 0,∀r ∈ Ns ar,r 6= 0 , et

∀(i, j) ∈ {s+ 1, . . . , n} × {1, . . . , p} ai,j = 0 .

� Pour cela on procede en au plus min(p, n) etapes, en imposant qu’a l’etape r,la matrice globale commence comme une matrice triangulaire superieure sur ses rpremieres colonnes, les coefficients diagonaux etant non nuls, c’est-a-dire que

(Fr) : (∀(i, j) ∈ {1, . . . , n} × Nr i > j =⇒ ai,j = 0) et (∀i ∈ Nr ai,i 6= 0).

� Pour r = 0 : (F0) est toujours verifiee.

� Pour 0 < r ≤ min(n, p) : On suppose que l’etape r − 1 est realisee et on effectuel’etape r de la maniere suivante :Premier cas : ∀(i, j) ∈ {r, . . . , n} × {r, . . . , p} ai,j = 0.

Dans ce cas, avec s = r − 1, la matrice verifie (F ) : on arrete l’algorithme.Second cas : ∃(i0, j0) ∈ {r, . . . , n}×{r, . . . , p} ai0,j0 6= 0 : on dit que ai0,j0 est le pivot

de l’etape r.On permute les colonnes Cj0 et Cr, ce qui revient a modifier l’ordre des inconnues(il faudra memoriser ce nouvel ordre). La suite de l’algorithme est identique a celuipresente au b).

� A la fin de l’algorithme, on obtient la matrice globale d’un systeme equivalent a(S), verifiant (F ).� Le systeme est compatible si et seulement si ∀i ∈ {s+ 1, . . . , n} ai,p+1 = 0.

Si le vecteur B =

b1...bn

du systeme est quelconque, ces conditions de compatibilite

s’expriment en fonction de b1, . . . , bn. Elles constituent un systeme d’equations de l’es-pace vectoriel engendre par les colonnes de (S), car (S) est compatible si et seulementsi B appartient a cet espace vectoriel .

c©Eric Merle 45 MPSI2, LLG

Page 47: Alg ebre lin eaire - Free

Algebre lineaire 3 Les systemes lineaires

Si la matrice de (S) est celle d’une application lineaire u dans des bases e et f , cesconditions de compatibilite constituent un systeme d’equations de Im(u) dans la basef .

� En cas de compatibilite, le systeme triangulaire final peut etre facilement resolu :

Definition. Resoudre un systeme (S) : MX = B a n equations et p inconnues, c’estdeterminer une partie I de {1, . . . , p} et une famille (bi,j)(i,j)∈({1,...,p}\I)×I telles que :

∀i ∈ {1, . . . , p} \ I, xi = ci +∑j∈I

bi,jxj.

On dit que (xj)j∈I est la famille des inconnues principales et que (xi)i∈{1,...,p}\I est lafamille des inconnues secondaires (Attention : Le choix de la partie I n’est en generalpas unique).En resume, resoudre un systeme, c’est exprimer les inconnues secondaires en fonctiondes inconnues principales.

Apres deroulement de l’algorithme du pivot total, la resolution du systeme triangulairefinal se fait en prenant naturellement comme inconnues principales xs+1, . . . , xn.Attention : Ces inconnues ne sont pas necessairement les n− s dernieres inconnues dusysteme d’origine, car d’eventuelles permutations de colonnes ont peut-etre modifieesl’ordre des inconnues.

3.5 Methode de Gauss-Jordan

Notation. On reprend les notations du b), en supposant que (S) est un systeme deCramer, c’est-a-dire que M ∈ GLn(K).

But : On veut transformer la matrice globale en une matrice de dimension (n, n+ 1)dont les n premieres colonnes correspondent a la matrice In, en utilisant uniquementdes operations elementaires sur les lignes.Pour cela on procede en n etapes, en imposant qu’a l’etape r, la matrice globale com-mence comme la matrice In sur ses r premieres colonnes.

Pour 0 < r ≤ n : On suppose que l’etape r − 1 est realisee et on effectue l’etape r dela maniere suivante :La matrice obtenue apres l’etape r− 1, que l’on notera encore M , est egale au produitd’une matrice inversible avec la matrice initiale, donc elle est encore inversible. Alors,il existe i0 ∈ {r, . . . , n} ai0,r 6= 0.

En effet, si pour tout i ∈ {r, . . . , n}, ai,r = 0, alors on verifie que M

a1,r...

ar−1,r

−10...0

= 0, ce

c©Eric Merle 46 MPSI2, LLG

Page 48: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

qui contredit l’inversibilite de la matrice M .ai0,r est le pivot de l’etape r.On permute alors les lignes Li0 et Lr. Ainsi ar,r 6= 0. Ensuite on effectue la seried’operations elementaires suivante :

∀i ∈ {1, . . . , n} \ {r}, Li ←− Li −ai,rar,r

Lr .

Enfin, on realise l’operation

Lr ←−1

ar,rLr.

Les r premieres colonnes de la nouvelle matrice sont bien celles de la matrice In.

A la fin de l’algorithme, le systeme est immediatement resolu puisque

(S)⇐⇒ ∀i ∈ {1, . . . , n} xi = ai,n+1.

Remarque. Le dernier theoreme du paragraphe 3.2 montre comment modifier cetalgorithme pour calculer l’inverse d’une matrice. Ce nouvel algorithme sera encoreappele algorithme de Gauss-Jordan.

Remarque. Si, lors de la recherche du pivot de l’etape r, pour tout i ∈ {r, . . . , n},ai,r = 0, c’est que la matrice initiale du systeme n’etait pas inversible. L’algorithme deGauss-Jordan peut donc constituer un test efficace d’inversibilite d’une matrice.

Remarque. Ceci montre que toute matrice inversible est un produit de matrices depermutation, d’affinites et de transvections.

4 Somme de sous-espaces vectoriels

Notation. E designe un K-espace vectoriel.

4.1 Sommes et sommes directes

Definition. Soient k ∈ N∗ et (Ei)1≤i≤k une famille de k sous-espaces vectoriels de E.

On note E1 + · · ·+ Ek = Vect

(k⋃i=1

Ei

).

Propriete. Avec les notations precedentes,

E1 + · · ·+ Ek ={ k∑

i=1

xi / ∀i ∈ {1, . . . , k} xi ∈ Ei}.

c©Eric Merle 47 MPSI2, LLG

Page 49: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Demonstration.

Notons F ={ k∑

i=1

xi / ∀i ∈ {1, . . . , k} xi ∈ Ei}

.

• Pour tout i ∈ {1, . . . , k}, 0 ∈ Ei, donc 0 =k∑i=1

0 ∈ F . Ainsi, F 6= ∅.

Soit (α, β, x, y) ∈ K2 × F 2. Il existe (xi)1≤i≤k ∈ E1 × · · · × Ek et

(yi)1≤i≤k ∈ E1 × · · · × Ek tels que x =k∑i=1

xi et y =k∑i=1

yi.

αx+ βy =k∑i=1

(αxi + βyi) ∈ F , donc F est stable par combinaison lineaire.

Ainsi, F est un sous-espace vectoriel.

• Soit x ∈k⋃i=1

Ei. Il existe j ∈ {1, . . . , k} tel que x ∈ Ej.

Pour i = j, posons xi = x et pour tout i ∈ {1, . . . , k} \ {j}, posons xi = 0.

(xi)1≤i≤k ∈ E1 × · · · × Ek et x =k∑i=1

xi, donc x ∈ F .

Ainsi F contientk⋃i=1

Ei.

• Soit G un sous-espace vectoriel qui contientk⋃i=1

Ei.

Si (x1, . . . , xk) ∈ E1 × · · · × Ek,k∑i=1

xi ∈ G, donc F ⊂ G.

Ainsi F est bien le plus petit sous-espace vectoriel contenantk⋃i=1

Ei.

Exemples. Si F est un K-espace vectoriel , F + {0} = F = F + F .

Notation. On note egalement, E1 + · · ·+ Ek =k∑i=1

Ei.

Definition. On dit que la somme precedente est directe si et seulement si

∀(x1, . . . , xk) ∈ E1 × · · · × Ek

(k∑i=1

xi = 0 =⇒ (∀i ∈ {1, . . . , k} xi = 0)

).

Dans ce cas, la somme est notee E1 ⊕ · · · ⊕ Ek ou encore⊕

1≤i≤k

Ei.

Remarque. k sous-espaces vectoriels non nuls de E notes E1, . . . , Ek sont en sommedirecte si et seulement si pour tout (x1, . . . , xk) ∈ E1 × · · · × Ek, avec pour tout i,xi 6= 0, la famille (x1, . . . , xk) est libre.

c©Eric Merle 48 MPSI2, LLG

Page 50: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Les notions de famille libre et de somme directe sont donc tres proches.

Propriete.

Reprenons les notations ci-dessus.k∑i=1

Ei est une somme directe si et seulement si

∀x ∈k∑i=1

Ei , ∃!(x1, . . . , xk) ∈ E1 × · · · × Ek x =k∑i=1

xi.

Demonstration.

Notons ϕ : E1 × · · · × Ek −→k∑i=1

Ei l’application definie par : ϕ(x1, . . . , xk) =k∑i=1

xi.

On verifie que ϕ est lineaire. Elle est surjective par definition dek∑i=1

Ei.

De plus, Ker(ϕ) ={

(x1, . . . , xk) ∈ E1 × · · · × Ek /k∑i=1

xi = 0}

.

Ainsi, la somme est directe si et seulement si Ker(ϕ) = {0}, donc si et seulement si ϕ est

injective, c’est-a-dire bijective, ce qui est equivalent a l’existence, pour tout x ∈k∑i=1

Ei,

d’un unique (x1, . . . , xk) ∈ E1 × · · · × Ek tel que x =k∑i=1

xi.

Exemple. Soit n ∈ N∗. Notons c = (c1, . . . , cn) la base canonique de Kn. Pour tout

i ∈ {1, . . . , n}, notons Ei = Vect(ci). Alors Kn =n⊕i=1

Ei.

4.2 Supplementaires d’un sous-espace vectoriel

Propriete. Soient F et G deux sous-espaces vectoriels de E.

F et G forment une somme directe si et seulement si F ∩G = {0}.Demonstration.• Supposons que F et G forment une somme directe.Soit x ∈ F ∩G. 0 = x+ (−x) avec x ∈ F et −x ∈ G, donc x = 0. Ainsi F ∩G ⊂ {0}.• Reciproquement, supposons que F ∩G = {0}.Soit (x, y) ∈ F ×G tel que x+ y = 0. Alors x = −y ∈ F ∩G, donc x = y = 0.

Propriete. Soit F un sous-espace vectoriel de E.

Si x ∈ E \ F , F et Kx sont en somme directe.

c©Eric Merle 49 MPSI2, LLG

Page 51: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Demonstration.Soit y ∈ F ∩Kx. Il existe λ ∈ K tel que y = λx.

Si λ 6= 0, x =1

λy ∈ F , ce qui est faux, donc λ = 0, ce qui prouve que y = 0.

Ainsi, F ∩Kx = {0}, donc la somme de F et de Kx est directe.

Corollaire. Deux droites vectorielles distinctes sont en somme directe.

Demonstration.Soient E un K-espace vectoriel et D et D′ deux droites vectorielles distinctes de E.Il existe (x, x′) ∈ (E \ {0})2 tel que D = Vect(x) et D′ = Vect(x′).Si x′ ∈ D, on montre que D′ = D, ce qui est faux, donc x′ ∈ D′ \ D. Ainsi D etD′ = Kx′ sont en somme directe.

Definition. On dit que deux sous-espaces vectoriels F et G de E sontsupplementaires (dans E) si et seulement si ils verifient l’une des conditionsequivalentes suivantes :

i) E = F ⊕G.ii) E = F +G et F ∩G = {0}.iii) ∀x ∈ E ∃!(x1, x2) ∈ F ×G x = x1 + x2.

Propriete. Soient E un K-espace vectoriel de dimension finie et F un sous-espacevectoriel de E. F admet au moins un supplementaire, et pour tout supplementaire Gde F , dim(F ) + dim(G) = dim(E).

Demonstration.F etant de dimension finie, F possede au moins une base, notee (e1, . . . , ep). D’apresle theoreme de la base incomplete, on peut la completer en une base e = (e1, . . . , en)de E. Posons G = Vect(ep+1, . . . , en).

Soit x ∈ E, on peut ecrire x =n∑i=1

xiei ou xi ∈ K.

Alors x =

p∑i=1

xiei +n∑

i=p+1

xiei ∈ F +G, donc E = F +G.

Soit x ∈ F ∩ G. On peut ecrire x =

p∑i=1

xiei =n∑

i=p+1

xiei, ou les xi sont des scalaires.

Alors

p∑i=1

xiei−n∑

i=p+1

xiei = 0, or e est une base, donc pour tout i, xi = 0. Ainsi, x = 0,

puis F ∩G = {0}. On a ainsi construit un supplementaire de F .

Remarque. Tout sous-espace vectoriel de E possede au moins un supplementaire, sil’on accepte l’axiome du choix, ce qui formellement place ce resultat hors programme.

Exemple. Deux droites vectorielles D et D′ dans K2 sont supplementaires si etseulement si elles sont distinctes. Il est important de noter que D ∩ D′ = {0} 6= ∅

c©Eric Merle 50 MPSI2, LLG

Page 52: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

et que D ∪ D′ 6= K2, ainsi D′ n’a aucun rapport avec le complementaire de D. Enparticulier, le raisonnement “x /∈ D, donc x ∈ D′” est completement faux.

Remarque. Plus generalement, les notions d’union d’ensembles et de somme de sous-espaces vectoriels sont tres voisines, mais il ne faut pas les confondre.Si A et B sont deux parties d’un ensemble E, A∪B est le plus petit ensemble contenantA et B. Si ce sont des sous-espaces vectoriels, A + B est le plus petit espace vectorielcontenant A et B.Ainsi, la somme de sous-espaces vectoriels est a l’algebre lineaire ce qu’est l’union departies a la theorie des ensembles.Cependant, et nous insistons, la somme de deux sous-espaces vectoriels n’est pas l’unionde ces deux sous-espaces vectoriels.En particulier, la situation suivante est possible. E = F ⊕G, x ∈ E, x /∈ F et x /∈ G.

Propriete. On suppose que la caracteristique de K est differente de 2.Mn(K) = Sn(K)⊕An(K). Pour tout M ∈Mn(K), la decomposition de M selon cette

somme directe est M =1

2(M + tM) +

1

2(M − tM).

De plus dim(Sn(K)) =n(n+ 1)

2et dim(An(K)) =

n(n− 1)

2.

Demonstration.

� Pour tout M ∈ Mn(K), M =1

2(M + tM) +

1

2(M − tM) ∈ Sn(K) + An(K), donc

Mn(K) = Sn(K) + An(K). De plus, si M ∈ Sn(K) ∩ An(K), alors M = tM = −M ,donc M = 0. Ainsi, Mn(K) = Sn(K)⊕An(K).� Soit M ∈ An(K). On sait alors que pour tout i, Mi,i = 0,

donc (1) : M =∑

1≤i,j≤n

Mi,jEi,j =∑

1≤i<j≤n

Mi,j(Ei,j − Ej,i), or pour tout i, j,

Ei,j − Ej,i ∈ An(K), donc (Ei,j − Ej,i)1≤i<j≤n est une famille generatrice de An(K).

De plus si∑

1≤i<j≤n

Mi,j(Ei,j − Ej,i) = 0, pour une famille de scalaires (Mi,j)1≤i<j≤n,

en posant pour i > j, Mi,j = −Mj,i et pour i = j, Mi,i = 0, la relation (1) affirmeque (Mi,j) = 0, donc (Ei,j − Ej,i)1≤i,j≤n est libre. C’est une base de An(K), dont la

dimension vaut donc |{(i, j) ∈ N/1 ≤ i < j ≤ n}| =(n2

)=n(n− 1)

2.

Remarque. Lorsque car(K) = 2, Sn(K) = An(K).

Exercice. Soit n ∈ N et P un polynome de K[X] de degre n+ 1.Montrer que l’ideal PK[X] est un supplementaire de Kn[X] dans K[X].

Solution : D’apres le principe de la division euclidienne, pour tout S ∈ K[X],il existe un unique couple (Q,R) ∈ K[X]2 tel que S = PQ + R et deg(R) ≤ n,c’est-a-dire qu’il existe un unique couple (T,R) ∈ K[X]2 tel que S = T + R,T ∈ PK[X] et R ∈ Kn[X].Ainsi, K[X] = Kn[X]⊕ PK[X].

c©Eric Merle 51 MPSI2, LLG

Page 53: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

4.3 Rang d’une application lineaire

Theoreme. Soit u ∈ L(E,F ).

Si H est un supplementaire de Ker(u) dans E, alors u|Im(u)H est un isomorphisme.

Ainsi Im(u) est isomorphe a tout supplementaire de Ker(u).

Remarque. Soit u ∈ L(E,F ) et H un sous-espace vectoriel de E.On a toujours Ker(u|H) = {x ∈ H / u(x) = 0} = H ∩Ker(u).

Demonstration.Posons v = u|Im(u)

H . Ker(v) = H ∩Ker(u) = {0}, donc v est injective.Soit y ∈ Im(u). Il existe x ∈ E tel que y = u(x), or E = H ⊕ Ker(u), donc il existe(h, k) ∈ H × Ker(u) tel que x = h + k. Ainsi y = u(h) + u(k) = u(h) = v(h), caru(k) = 0 et h ∈ H. Ceci prouve que v est surjective.

Definition. Soient E et F deux espaces vectoriels et u ∈ L(E,F ). On noterg(u) = dim(Im(u)) ∈ N ∪ {+∞} : il s’agit du rang de l’application lineaire u.

Propriete. Si e est une base de E, alors rg(u) = rg(u(e)).

Demonstration.rg(u(e)) = dim(Vect(u(e))) = dim(u(Vect(e))) = dim(Im(u)) = rg(u).

Formule du rang. Soient E un K-espace vectoriel de dimension finie et F un secondK-espace vectoriel de dimension quelconque. Soit u ∈ L(E,F ). Alors Im(u) est dedimension finie et

dim(Im(u)) + dim(Ker(u)) = dim(E).

Demonstration.Avec les notations du theoreme precedent, Im(u) est isomorphe a H qui est de dimen-sion finie, donc Im(u) est de dimension finieet rg(u) = dim(H) = dim(E)− dim(Ker(u)).

Propriete. Soient E et F deux espaces vectoriels et u ∈ L(E,F ).Alors rg(u) ≤ min(dim(E), dim(F )). De plus,lorsque E est de dimension finie, rg(u) = dim(E) si et seulement si u est injectiveet lorsque F est de dimension finie, rg(u) = dim(F ) si et seulement si u est surjective.

Demonstration.Lorsque E est de dimension finie, rg(u) = dim(E)−dim(Ker(u)), donc rg(u) = dim(E)si et seulement si dim(Ker(u)) = 0, c’est-a-dire si et seulement si u est injective.

Theoreme. Soient E,F et G 3 espaces vectoriels. Soient u ∈ L(E,F ) et v ∈ L(F,G)tels que Im(u) et Im(v) sont de dimensions finies. Alors rg(v ◦ u) ≤ inf(rg(u), rg(v)) .De plus, si u est bijective, alors rg(v ◦ u) = rg(v) et si v est bijective, rg(v ◦ u) = rg(u).Ainsi, on ne modifie par le rang d’une application lineaire en la composant avec unisomorphisme (a sa gauche ou a sa droite).

c©Eric Merle 52 MPSI2, LLG

Page 54: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Demonstration.rg(vu) = dim(v(Im(u))) ≤ dim(Im(u)), avec egalite lorsque v est injective.rg(vu) = dim(v(u(E))) ≤ dim(v(E)), avec egalite lorsque u est surjective.

Definition. Si M ∈MK(n, p), le rang de M est rg(M)∆= rg(M) = dim(Im(M)).

Le rang d’une matrice est aussi le rang de la famille de ses vecteurs colonnes.

Demonstration.On a deja vu que Im(M) est l’espace vectoriel engendre par les colonnes de M .

Exemple. Le rang de

1 1 2 20 1 2 11 1 2 2

est 2, car les deux premieres colonnes sont

libres et les suivantes sont des combinaisons lineaires des deux premieres.

Propriete. Soient E et F deux K-espaces vectoriels de dimensions finies, munis debases e et f et soit u ∈ L(E,F ). Alors rg(mat(u, e, f)) = rg(u).

Demonstration.Notons e = (e1, . . . , ep) et f = (f1, . . . , fn).Alors les colonnes de mat(u, e, f) sont les Ψ−1

f (u(ej)), donc

rg(mat(u, e, f)) = rg(Ψ−1f (u(ej))1≤j≤p) = rg(u(e)) car Ψ−1

f est injective.De plus, e etant une base de E, on a deja vu que rg(u(e)) = rg(u).

Propriete. M ∈Mn(K) est inversible si et seulement si rg(M) = n.

Propriete. Soit (A,B) ∈MK(n, p)×MK(p, q). Alors, rg(AB) ≤ min(rg(A), rg(B)).On ne modifie pas le rang d’une matrice en la multipliant a gauche ou a droite par unematrice inversible.

4.4 Proprietes des sommes directes

4.4.1 Un moyen de definir une application lineaire

Theoreme. Soit (Ei)1≤i≤k une famille de k sous-espaces vectoriels de E telle que

E =⊕

1≤i≤k

Ei. Soit F un second K-espace vectoriel et, pour tout i ∈ {1, . . . , k}, soit ui

une application lineaire de Ei dans F .Il existe une unique application lineaire u de E dans F telle que,pour tout i ∈ {1, . . . , k}, la restriction de u a Ei est egale a ui.Ainsi, pour definir une application lineaire u de E dans F , on peut se contenter depreciser ses restrictions aux sous-espaces vectoriels Ei.

Demonstration.� Unicite. Supposons qu’il existe une application lineaire u de E dans F telle que,pour tout i ∈ {1, . . . , k}, la restriction de u a Ei est egale a ui.

c©Eric Merle 53 MPSI2, LLG

Page 55: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Soit x ∈ E. Il existe un unique (xi)1≤i≤k tel que, pour tout i, xi ∈ Ei et x =k∑i=1

xi.

Alors u(x) =k∑i=1

u(xi) =k∑i=1

ui(xi), ce qui prouve l’unicite : u est necessairement

l’application qui a x ∈ E associek∑i=1

ui(xi) ouk∑i=1

xi est l’unique decomposition de x

dans⊕

1≤i≤k

Ei.

� Existence. Notons u l’application ainsi definie. Il est clair que pour tout i, u|Ei = ui.Il reste a montrer que u est lineaire.

Soit x, y ∈ E et α ∈ K. Ecrivons x =k∑i=1

xi et y =k∑i=1

yi, avec pour tout i, xi, yi ∈ Ei.

Alors αx+ y =k∑i=1

(αxi + yi), donc par definition de u,

u(αx+ y) =k∑i=1

ui(αxi + yi) =k∑i=1

[αui(xi) + u(yi)],

donc u(αx+ y) = αk∑i=1

ui(xi) +k∑i=1

ui(yi) = αu(x) + u(y).

Remarque. La propriete precedente signifie queL(E,F ) −→

k∏i=1

L(Ei, F )

u 7−→ (u/Ei)1≤i≤k

est un

isomorphisme, la linearite etant simple a demontrer.

4.4.2 Formules dimensionnelles

Propriete. Soit k ∈ N∗ et soit E1, . . . , Ek k sous-espaces vectoriels de dimensions

finies d’un K-espace vectoriel E. Alors, dim( k∑i=1

Ei

)≤

k∑i=1

dim(Ei),

avec egalite si et seulement si la somme est directe .

Demonstration.

L’application

ϕ :k∏i=1

Ei −→k∑i=1

Ei

(x1, . . . , xk) 7−→k∑i=1

xi

est lineaire et surjective,

donck∑i=1

dim(Ei) = dim( k∏i=1

Ei

)≥ dim

( k∑i=1

Ei

).

c©Eric Merle 54 MPSI2, LLG

Page 56: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

De plus, il y a egalite des dimensions si et seulement si ϕ est injective, donc si et

seulement si son noyau est reduit a {0}, ce qui signifie quek∑i=1

Ei est une somme

directe.

Remarque. Ainsi, lorsque E est de dimension finie, si F et G sont deux sous-espacesvectoriels de E, ils sont supplementaires dans E si et seulement si E = F + G etdim(E) = dim(F ) + dim(G).

Exercice. A et B sont deux sous-espaces vectoriels de E.On suppose que A′ est un supplementaire de A ∩ B dans A et que B′ est unsupplementaire de A ∩B dans B.Montrer que A+B = (A ∩B)⊕ A′ ⊕B′.Solution :• Montrons que A+B = (A ∩B) + A′ +B′.� Les trois sous-espaces vectoriels A′, B′ et A∩B sont inclus dans A+B, donc(A∩B)+A′+B′ = Vect((A∩B)∪A′∪B′) est un sous-espace vectoriel de A+B.� Soit x ∈ A+B. Il existe (a, b) ∈ A×B tel que x = a+ b.A = (A ∩ B) ⊕ A′, donc il existe (α, a′) ∈ (A ∩ B) × A′ tel que a = α + a′. Dememe, il existe (β, b′) ∈ (A ∩B)×B′ tel que b = β + b′.Ainsi x = (α+ β) + a′+ b′ ∈ (A∩B) +A′+B′, donc A+B ⊂ (A∩B) +A′+B′.• Soit (α, a′, b′) ∈ (A ∩B)× A′ ×B′ tel que α + a′ + b′ = 0.a′ = −α− b′ ∈ B et a′ ∈ A′, donc a′ ∈ A′ ∩ (A∩B), or A′ ∩ (A∩B) = {0} car A′

et A ∩ B sont supplementaires dans A. Ainsi, a′ = 0. De meme, on montre queb′ = 0. On en deduit que α = 0, donc la somme est bien directe.

Formule de Grassmann : Soit E un K-espace vectoriel et soit F et G deux sous-espaces vectoriels de E de dimensions finies. Alors F + G est de dimension finie etdim(F +G) = dim(F ) + dim(G)− dim(F ∩G) .

Demonstration.Reprenons l’exercice precedent et supposons que A et B sont de dimensions finies.Alors A+B = (A ∩B)⊕ A′ ⊕B′ est de dimension finie etdim(A + B) = dim(A ∩ B) + dim(A′) + dim(B′), or par definition de A′ et de B′,dim(A′) = dim(A)− dim(A ∩B) et dim(B′) = dim(B)− dim(A ∩B).Ainsi, dim(A+B) = dim(A) + dim(B)− dim(A ∩B).

Remarque. Cette formule est analogue a la formule donnant le cardinal d’une reunionde deux ensembles finis A et B : |A∪B| = |A|+ |B| − |A∩B|. Cette derniere formulese generalise a une union de p ensembles finis : c’est la formule du crible. On peutnoter que la formule du crible ne s’adapte pas au cadre des dimensions de sous-espacesvectoriels : on peut trouver 3 sous-espaces vectoriels F , G et H d’un meme K-espacevectoriel tels quedim(F +G+H) 6= dim(F ) + dim(G) + dim(H)

− dim(F ∩G)− dim(F ∩H)− dim(G ∩H)+ dim(F ∩G ∩H).

c©Eric Merle 55 MPSI2, LLG

Page 57: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Il suffit en effet de prendre 3 droites deux a deux distinctes d’un plan vectoriel.

4.4.3 Associativite des sommes directes

Propriete. Associativite d’une somme directe.Soient k ∈ N∗ et E1, . . . , Ek k sous-espaces vectoriels d’un K-espace vectoriel E.Soit (Ii)1≤i≤p une partition de {1, . . . , k}.E1, . . . , Ek forment une somme directe si et seulement si

i) ∀i ∈ {1, . . . , p} (Ej)j∈Ii forment une somme directe,

et ii)(⊕j∈Ii

Ej

)i∈{1,...,p}

forment une somme directe.

Exemple. On peut ecrire E1⊕E2⊕E3⊕E4 si et seulement si on peut ecrire E1⊕E2,E3 ⊕ E4 et (E1 ⊕ E2) ⊕ (E3 ⊕ E4), ou bien si et seulement si on peut ecrire E1 ⊕ E2,(E1 ⊕ E2)⊕ E3 et ((E1 ⊕ E2)⊕ E3)⊕ E4.

Demonstration.• Supposons que E1, . . . , Ek forment une somme directe.� Soit i ∈ {1, . . . , p}. Soit (xj)j∈Ii une famille de vecteurs telle que

∀j ∈ Ii xj ∈ Ej et∑j∈Ii

xj = 0.

Completons a l’aide de vecteurs nuls cette famille en une famille (xj)1≤j≤k. Ainsik∑j=1

xj = 0, mais E1, . . . , Ek forment une somme directe, donc la famille (xj)1≤j≤k est

nulle. Ainsi ∀j ∈ Ii xj = 0, ce qui prouve i).

� Soit (yi)1≤i≤p une famille de vecteurs telle que, pour tout i ∈ {1, . . . , p}, yi ∈⊕j∈Ii

Ej

et

p∑i=1

yi = 0.

Soit i ∈ {1, . . . , p}. Il existe une famille (xj)j∈Ii telle que ∀j ∈ Ii xj ∈ Ej et yi =∑j∈Ii

xj.

Ainsi 0 =

p∑i=1

yi =

p∑i=1

∑j∈Ii

xj =k∑j=1

xj, or E1, . . . , Ek forment une somme directe, donc

la famille (xj)1≤j≤k est nulle. Ainsi, pour tout i ∈ {1, . . . , p}, yi = 0, ce qui prouve ii).

• Reciproquement, supposons que i) et ii) sont vraies.

Soit (x1, . . . , xk) ∈ E1 × · · · × Ek tel quek∑

h=1

xh = 0.

Pour tout i ∈ {1, . . . , p}, posons yi =∑j∈Ii

xj. Ainsi, yi ∈⊕j∈Ii

Ej.

c©Eric Merle 56 MPSI2, LLG

Page 58: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

0 =k∑

h=1

xh =

p∑i=1

yi et d’apres ii),(⊕j∈Ii

Ej

)1≤i≤p

forment une somme directe, donc,

pour tout i ∈ {1, . . . , p}, yi = 0.

Soit i ∈ {1, . . . , p}. 0 = yi =∑j∈Ii

xj et (Ej)j∈Ii forment une somme directe, donc pour

tout j ∈ Ii, xj = 0.Ainsi, pour tout h ∈ {1, . . . , k}, xh = 0, ce qui prouve que E1, . . . , Ek forment unesomme directe.

Theoreme. Soient k un entier superieur ou egal a 2, et (Ei)1≤i≤k une famille dek sous-espaces vectoriels de E. E1, . . . , Ek sont en somme directe si et seulement si

∀i ∈ {2, . . . , k} Ei⋂ i−1∑

j=1

Ej = {0}.

Demonstration.Effectuons une demonstration par recurrence.Soit k ≥ 2. Notons R(k) l’assertion suivante : pour tout k-uplet (E1, . . . , Ek) de sous-espaces vectoriels de E, E1, . . . , Ek forment une somme directe si et seulement si

∀i ∈ {2, . . . , k} Ei⋂ i−1∑

j=1

Ej = {0}.

Pour k = 2, on a deja montre R(2) page 49, au debut du paragraphe 4.2.Pour k ≥ 2, supposons R(k).Soit (E1, . . . , Ek+1) un (k + 1)-uplet de sous-espaces vectoriels de E.D’apres l’associativite de la somme directe, (E1, . . . , Ek+1) forment une somme directe

si et seulement si (E1, . . . , Ek) forment une somme directe et si Ek+1 etk∑j=1

Ej forment

une somme directe, c’est-a-dire si et seulement si pour tout i ∈ {2, . . . , k},

Ei⋂ i−1∑

j=1

Ej = {0} (d’apres R(k)) et si Ek+1

⋂ k∑j=1

Ej = {0} (d’apres R(2)).

Ceci prouve R(k + 1).

c©Eric Merle 57 MPSI2, LLG

Page 59: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Figure.

���������

��

��

���

��

@@

@@

@@@

@@

@@@@@@@@@

−→0

D1 D2 D3

Remarque. Une erreur frequente est de croire que (Ei)1≤i≤k constitue une sommedirecte si et seulement si, pour tout (i, j) ∈ {1, . . . , k}, avec i 6= j, Ei ∩ Ej = {0}.C’est faux. En effet, la figure represente trois droites vectorielles d’un plan vectorielP , notees D1, D2 et D3. On sait qu’elles sont deux a deux en somme directe, doncD1 ∩D2 = D1 ∩D3 = D2 ∩D3 = {0}. Cependant, D1, D2 et D3 ne sont pas en sommedirecte, car il est facile de dessiner sur la figure ci-dessus 3 vecteurs non nuls sur D1, D2

et D3 dont la somme est nulle.

4.4.4 Base adaptee a une decomposition en somme directe

Theoreme. Soit E un K-espace vectoriel muni d’une base (ei)i∈I . Soit (Ik)1≤k≤n une

partition de I. Pour tout k ∈ {1, . . . , n}, on pose Ek = Vect(ei)i∈Ik . Alors E =n⊕k=1

Ek.

Demonstration.• Soit x ∈ E. il existe (αi)i∈I ∈ K(I) telle que x =

∑i∈I

αiei.

x =n∑k=1

(∑i∈Ik

αiei

)∈

n∑k=1

Ek, ainsi E =n∑k=1

Ek.

• Soit (xk)1≤k≤n ∈ E1 × · · · × En tel quen∑k=1

xk = 0.

Pour tout k ∈ {1, . . . , n}, il existe (αi)i∈Ik ∈ K(Ik) telle que xk =∑i∈Ik

αiei.

Ainsi 0 =n∑k=1

xk =∑i∈I

αiei, or (ei) est une famille libre, donc, pour tout i ∈ I, αi = 0.

Ainsi, pour tout k ∈ {1, . . . , n}, xk = 0, ce qui prouve que la somme est directe.

Theoreme reciproque. Soit (Ek)1≤k≤n une famille de sous-espaces vectoriels d’un

c©Eric Merle 58 MPSI2, LLG

Page 60: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

K-espace vectoriel E tels que E =n⊕k=1

Ek. Pour tout k ∈ {1, . . . , n}, on suppose que

Ek admet une base bk. Alors la concatenation des bases (bk)1≤k≤n, notee b, est une basede E. On dit que b est une base adaptee a la decomposition en somme directe

E =n⊕k=1

Ek.

Demonstration.• Soit k ∈ {1, . . . , n}. Notons bk = (ei)i∈Ik . On peut supposer que les Ik sont deux

a deux disjoints. Notons I =n⋃k=1

Ik. Ainsi b = (ei)i∈I . C’est en ce sens que b est la

concatenation des bases (bk)1≤k≤n.

• Soit (αi)i∈I ∈ K(I) telle que∑i∈I

αiei = 0.

0 =n∑k=1

(∑i∈Ik

αiei

)et pour tout k ∈ {1, . . . , n},

∑i∈Ik

αiei ∈ Ek. Or E1, . . . , En forment

une somme directe, donc, pour tout k ∈ {1, . . . , n},∑i∈Ik

αiei = 0. De plus, pour tout

k ∈ {1, . . . , n}, bk = (ei)i∈Ik est libre, donc, pour tout i ∈ I, αi = 0, ce qui prouve queb est une famille libre.

• Soit x ∈ E. Il existe (xk)1≤k≤n ∈ E1 × · · · × En tel que x =n∑k=1

xk.

Pour tout k ∈ {1, . . . , n}, il existe (αi)i∈Ik ∈ K(Ik) telle que xk =∑i∈Ik

αiei.

Ainsi x =∑i∈I

αiei, ce qui prouve que b est une famille generatrice.

Definition. Soient E un K-espace vectoriel et F un sous-espace vectoriel de E.On appelle base adaptee a F toute base obtenue par “reunion” d’une base de F avecune base d’un supplementaire de F , c’est-a-dire toute base de E obtenue en completantune base de F .

4.5 Les projecteurs

Definition. p ∈ L(E) est un projecteur si et seulement si p2 = p.

Propriete. Soient F et G deux sous-espaces vectoriels supplementaires de E.Pour x ∈ E, on note (p(x), q(x)) l’unique couple de F ×G tel que x = p(x) + q(x).p et q sont des projecteurs.p est appele le projecteur sur F parallelement a G, et q le projecteur associe a p.On verifie que p+ q = IdE et pq = qp = 0.

Figure.

c©Eric Merle 59 MPSI2, LLG

Page 61: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Demonstration.� Soit x, y ∈ E et α ∈ K.Alors x = p(x) + q(x) et y = p(y) + q(y), donc αx+y = (αp(x) +p(y)) + (αq(x) + q(y))et ((αp(x)+p(y)), (αq(x)+q(y))) ∈ F×G. D’autre part, αx+y = p(αx+y)+q(αx+y)avec (p(αx + y), q(αx + y)) ∈ F × G, donc d’apres l’unicite de la decomposition d’unvecteur selon F ⊕G, p(αx+ y) = αp(x) + p(y) et q(αx+ y) = αq(x) + q(y).On a montre que p, q ∈ L(E).� Soit x ∈ E. p(x) ∈ F , donc p(p(x)) = p(x). De meme, q(q(x)) = q(x). Ainsi, p et qsont des projecteurs.� Par definition, pour tout x ∈ E, x = p(x) + q(x), donc p+ q = IdE.� Soit x ∈ E. p(x) ∈ F , donc q(p(x)) = 0. Ainsi, q ◦ p = 0. De meme, p ◦ q = 0.

Exemples.— IdE est le projecteur sur E parallelement a {0}.— 0L(E) est le projecteur sur {0} parallelement a E.

— L’application p1 : K2 −→ K2 definie par p1

(xy

)=

(x0

)est la projection sur

la droite engendree par

(10

)parallelement a celle engendree par

(01

).

— Soit Q ∈ K[X] un polynome de degre n ∈ N∗. L’application qui a P ∈ K[X]associe son reste pour la division euclidienne de P par Q est la projection surKn−1[X] parallelement a l’ideal engendre par Q.

Propriete reciproque. Soit p un projecteur de E. Alorsp est le projecteur sur Im(p) parallelement a Ker(p).Pour tout x ∈ E, la decomposition de x selon la somme directe E = Im(p) ⊕ Ker(p)est x = p(x) + (x− p(x)), avec p(x) ∈ F = Im(p) et x− p(x) ∈ G = Ker(p).Pour tout x ∈ E, x = p(x)⇐⇒ x ∈ F : F = Ker(IdE − p).Demonstration.Posons F = Im(p) et G = Ker(p).� Soit x ∈ E tel que p(x) = x. Alors x ∈ Im(p) = F .Reciproquement, si x ∈ F = Im(p), il existe y ∈ E tel que x = p(y),donc p(x) = p ◦ p(y) = p(y) = x car p est un projecteur.Ainsi x ∈ F ⇐⇒ p(x) = x et Im(p) = F = Ker(IdE − p).� Soit x ∈ E. p(x− p(x)) = p(x)− p2(x) = 0, car p est un projecteur,donc x− p(x) ∈ Ker(p). De plus p(x) ∈ Im(p), donc x = p(x)︸︷︷︸

∈F

+ (x− p(x))︸ ︷︷ ︸∈G

.

Ceci demontre que E = F +G.� Soit x ∈ F ∩G. Alors p(x) = x et p(x) = 0, donc x = 0. Ainsi F ∩G = {0}.On a montre que E = F ⊕G.� On peut donc considerer le projecteur u sur F parallelement a G.Soit x ∈ E. On a vu que x = p(x) + (x − p(x)) avec p(x) ∈ F et x − p(x) ∈ G, doncu(x) = p(x). Ainsi, p = u.

Exercice. On note p : R2 −→ R2 l’application definie par

c©Eric Merle 60 MPSI2, LLG

Page 62: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

p(x, y) =(x+ y

2,x+ y

2

). Montrer que p est un projecteur et determiner son

noyau et son image.

Solution :Premiere methode : On verifie que p est un endomorphisme et que pour tout

(x, y) ∈ R2, p2(x, y) = p(x+ y

2,x+ y

2

)=(x+ y

2,x+ y

2

), donc p est bien un

projecteur.

Soit (x, y) ∈ R2. p(x, y) = 0 ⇐⇒ x+ y

2= 0 ⇐⇒ (x, y) ∈ Vect(1,−1), donc

Ker(p) est la droite vectorielle engendree par (1,−1).

p(x, y) = (x, y)⇐⇒ x− y2

= 0, donc Im(p) est la droite vectorielle engendree par

(1, 1).Ainsi, p est la projection sur la premiere diagonale parallelement a la secondediagonale.

Seconde methode : Pour tout (x, y) ∈ R2,

(1) : (x, y) =(x+ y

2,x+ y

2

)+(x− y

2,−x− y

2

),

or(x+ y

2,x+ y

2

)∈ D = Vect(1, 1) et

(x− y2

,−x− y2

)∈ D′ = Vect(1,−1),

donc (1) correspond a la decomposition de (x, y) selon la somme directeR2 = D⊕D′ (les deux droites D et D′ sont distinctes, donc en somme directe, etdim(D⊕D′) = 2, donc R2 = D⊕D′). Ainsi p est la projection sur D parallelementa D’.

ATTENTION : Pour un endomorphisme quelconque u ∈ L(E), Im(u) et Ker(u)peuvent ne pas etre supplementaires. D’ailleurs on rencontre assez souvent des endo-morphismes u tels que u2 = 0, auquel cas Im(u) ⊂ Ker(u).

Definition. s ∈ L(E) est une symetrie si et seulement si s2 = IdE.

Propriete. Soient F et G deux sous-espaces vectoriels supplementaires de E.L’unique application s de E dans E telle que, pour tout f, g ∈ F ×G, s(f + g) = f − gest une symetrie, appelee symetrie par rapport a F parallelement a G.Si l’on note p le projecteur sur F parallelement a G, et q le projecteur associe a p, alorss = p− q = 2p− IdE.

Figure.

Demonstration.On sait que p2 = p, q2 = q et pq = qp = 0, donc s2 = p2 + q2 − pq − qp = p+ q = IdE.

Exemple. L’application s : K2 −→ K2 definie par s

(xy

)=

(x−y

)est la symetrie

par rapport a la droite engendree par

(10

)parallelement a celle engendree par

(01

).

C et R2 pouvant etre identifies par : ∀z ∈ C, Re(z) + iIm(z) = (Re(z), Im(z)), l’appli-cation precedente devient z 7−→ z : c’est la symetrie par rapport a la droite des reels

c©Eric Merle 61 MPSI2, LLG

Page 63: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

parallelement a la droite des imaginaires purs, en regardant C comme un R-espacevectoriel.

Exemple. Lorsque E = F(R,R), l’application s ∈ L(E) definie par s(f)(x) = f(−x)est une symetrie car s2 = IdE.Si l’on note P (resp : I) l’ensemble des fonctions paires (resp : impaires) de E dans

E, pour tout f ∈ E et x ∈ R, f(x) =f(x) + f(−x)

2+f(x)− f(−x)

2∈ P + I. On en

deduit que E = P ⊕ I et que la projection sur P parallelement a I est definie par

p(f)(x) =f(x) + f(−x)

2. Son projecteur associe est defini par q(f)(x) =

f(x)− f(−x)

2,

donc s = p− q est la symetrie par rapport a P parallelement a I.

Propriete reciproque. On suppose que car(K) 6= 2.Pour toute symetrie s de E, il existe deux sous-espaces vectoriels supplementairesF et G tels que s est la symetrie par rapport a F parallelement a G. Il s’agit deF = Ker(IdE − s) et de G = Ker(IdE + s).

Demonstration.Posons p = 1

2(s+ IdE). On sait que s2 = IdE, donc

p2 = 14(s2 + IdE + 2s) = 1

2(IdE + s) = p. Ainsi p est un projecteur.

Posons F = Im(p) = Ker(IdE − p) = Ker(IdE − s) et G = Ker(p) = Ker(IdE + s).On sait que E = F ⊕ G et que p est le projecteur sur F parallelement a G, doncs = p− q est la symetrie par rapport a F parallelement a G.

Remarque. Cette reciproque est fausse lorsque car(K) = 2. En effet dans ce cas, sis est la symetrie par rapport a F parallelement a G (ou E = F ⊕G), alors pour tout(f, g) ∈ F ×G, s(f + g) = f − g = f + g, car 1K = −1K, donc s = IdE.Supposons que E de dimension finie n ≥ 2 et fixons e = (e1, . . . , en) une base de E. Ilexiste un unique s ∈ L(E) tel que s(e1) = e2, s(e2) = e1 et pour tout i ∈ {2, . . . , n},s(ei) = ei. Alors s2 = s, donc s est une symetrie, differente de l’identite.

4.6 Sous-espaces propres

Notation. On fixe un K-espace vectoriel E et u ∈ L(E).

4.6.1 Definitions

Introduction. Lorsque E est de dimension finie, la reduction de u consiste en larecherche d’une base e de E dans laquelle la matrice de u est aussi simple que possible.On considere que la matrice est d’autant plus simple qu’elle est voisine d’une matricediagonale. Ainsi, il est interessant de disposer d’un nombre important d’indices j telsque la j eme colonne de Mat(u, e) a tous ses coefficients nuls, sauf eventuellement lej eme, c’est-a-dire, en notant e = (e1, . . . , en), tels que u(ej) est colineaire a ej.Ceci explique la presence des definitions suivantes.

c©Eric Merle 62 MPSI2, LLG

Page 64: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Definition. λ ∈ K est une valeur propre de u si et seulement s’il existe un vecteurx non nul de E tel que u(x) = λx.Dans ce cas, tout vecteur y non nul tel que u(y) = λy est appele un vecteur proprede u associe a la valeur propre λ.De plus, toujours lorsque λ est une valeur propre de u, Ker(λIdE − u) est appele lesous-espace propre de u associe a la valeur propre λ. Il est note Eλ, ou Eu

λ en casd’ambiguıte.

Remarque. Dans la definition ci-dessus d’une valeur propre, la condition “x non nul”est essentielle. En effet, si on l’omettait, tout scalaire deviendrait une valeur propre,car, pour tout λ ∈ K, u(0) = λ× 0.

Remarque. Si λ est une valeur propre de u, l’ensemble des vecteurs propres de upour la valeur propre λ est Eλ \ {0}.

Remarque. Meme lorsque λ n’est pas une valeur propre de u, on note parfoisEλ = Ker(λIdE − u), mais dans ce cas, Eλ = {0}.

Methode : Pour rechercher les elements propres de u, une methode est d’etudier lacondition u(x) = λx. Si l’on regarde cette condition comme une equation en l’inconnuex, en considerant λ comme un parametre, la resolution de cette equation donne lesvaleurs propres et les sous-espaces propres.

Exemple. Choisissons pour E l’ensemble des applications de classe C∞ de R dans Ret pour u,

E −→ Ef 7−→ f ′

.

Soient λ ∈ R et f ∈ E. u(f) = λf ⇐⇒ f ′ = λf ⇐⇒ [∃C ∈ R ∀x ∈ R f(x) = Ceλx],donc tout reel est une valeur propre de u et, pour tout λ ∈ R, Eλ est la droite vectorielle

engendree par l’applicationfλ : R −→ R

x 7−→ eλx.

Definition. Soient n ∈ N∗ et M ∈ Mn(K) : Les elements propres de M (c’est-a-dire les valeurs propres, les vecteurs propres et les sous-espaces propres) sont leselements propres de l’endomorphisme canoniquement associe a M .En particulier, pour tout λ ∈ Sp(M), EM

λ = Ker(λIn −M) = {X ∈ Kn/MX = λX}.

Propriete.λ ∈ K est une valeur propre de u si et seulement si λIdE − u n’est pas injective.En particulier, u est injectif si et seulement si 0 n’est pas une valeur propre de u.

Demonstration.λ est une valeur propre de u si et seulement s’il existe un vecteur x non nul de E telque (λIdE − u)(x) = 0, c’est-a-dire si et seulement si Ker(λIdE − u) 6= {0}.

Definition. On appelle spectre de u l’ensemble des valeurs propres de u.Il est souvent note Sp(u).

Theoreme.La somme d’un nombre fini de sous-espaces propres de u est toujours directe.

c©Eric Merle 63 MPSI2, LLG

Page 65: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Demonstration.Effectuons une recurrence portant sur le nombre de sous-espaces propres.Soit h ∈ N∗. Notons R(h) l’assertion suivante :pour toute famille (λ1, . . . , λh) de h valeurs propres deux a deux distinctes de u, la

sommeh∑j=1

Eλj est directe.

• Supposons que h = 1. Toute famille (Ei)1≤i≤1 constituee d’un seul sous-espacevectoriel de E forme une somme directe, car, pour tout x1 = (xi)1≤i≤1 ∈ E1,

si1∑i=1

xi = 0, alors x1 = 0.

Ainsi, la propriete R(1) est vraie.• Lorsque h ≥ 1, supposons R(h).Soit (λ1, . . . , λh+1) une famille de h+ 1 valeurs propres deux a deux distinctes de u.

Soit (x1, . . . , xh+1) ∈ Eλ1 × · · · × Eλh+1tel que

h+1∑j=1

xj = 0.

Ainsi, (1) : −xh+1 =h∑j=1

xj.

Prenons l’image de (1) par u. Ainsi, −λh+1xh+1 =h∑j=1

λjxj.

Multiplions (1) par λh+1. Ainsi, −λh+1xh+1 = λh+1

h∑j=1

xj.

Effectuons la difference des deux egalites precedentes. 0 =h∑j=1

(λj − λh+1)xj.

Or, pour tout j ∈ Nh, (λj − λh+1)xj ∈ Eλj , et, d’apres R(h), la famille (Eλj)1≤j≤hconstitue une somme directe. Ainsi, si j ∈ Nh, (λj − λh+1)xj = 0, or λj − λh+1 6= 0,donc xj = 0.L’egalite (1) prouve alors que xh+1 = 0, ce qui montre R(h+ 1).

Corollaire. Si (xi)i∈I est une famille de vecteurs propres de u associes a des valeurspropres deux a deux distinctes, alors cette famille est libre.

Demonstration.Pour tout i ∈ I, il existe λi ∈ Sp(u) tel que u(xi) = λixi.De plus, par hypothese, pour tout (i, j) ∈ I2 tel que i 6= j, λi 6= λj.

Soit (αi)i∈I une famille presque nulle de scalaires telle que∑i∈I

αixi = 0.

Supposons que (αi) est une famille non nulle. Posons J = {i ∈ I/αi 6= 0}. J etant finimais non vide, les sous-espaces propres Eλi , pour i ∈ J , constituent une somme directe,

or∑i∈J

αixi = 0 et, pour tout i ∈ J , αixi ∈ Eλi , donc, pour tout i ∈ J , αixi = 0.

c©Eric Merle 64 MPSI2, LLG

Page 66: Alg ebre lin eaire - Free

Algebre lineaire 4 Somme de sous-espaces vectoriels

Les xi etant des vecteurs propres, ils sont non nuls, donc, pour tout i ∈ J , αi = 0, cequi est faux. Ainsi la famille (αi)i∈I est nulle, ce qui prouve que la famille (xi)i∈I estlibre.

Exemple. Reprenons pour E l’ensemble des applications de classe C∞ de R dans R et

pour u,E −→ Ef 7−→ f ′

. En posantfλ : R −→ R

x 7−→ eλx, l’etude precedente de u montre

que (fλ)λ∈R est une famille libre de E.

4.6.2 Exemples

Lemme : Si F est un sous-espace vectoriel de E tel que F ⊕ E = E, alors F = {0}.Demonstration.{0} = F ∩ E = F .

Propriete. Supposons que E 6= {0}.Soient F et G deux sous-espaces vectoriels supplementaires non nuls dans E.• Si u est une homothetie de rapport λ, ou λ ∈ K, Sp(u) = {λ} et Eλ = E.• Si u est le projecteur sur F parallelement a G, Sp(u) = {0, 1}, E1 = F et E0 = G.• Si u est la symetrie par rapport a F parallelement a G, Sp(u) = {1,−1}, E1 = Fet E−1 = G.

Demonstration.• Supposons que u = λIdE, ou λ ∈ K.Pour tout x ∈ E \ {0}, u(x) = λx, donc x est un vecteur propre associe a λ.Ainsi Sp(u) = {λ} et Eλ = E.• Supposons que u est le projecteur sur F parallelement a G.x ∈ F ⇐⇒ u(x) = x, or F 6= {0}, donc 1 ∈ Sp(u) et F = E1.x ∈ G⇐⇒ u(x) = 0, or G 6= {0}, donc 0 ∈ Sp(u) et G = E0.Supposons qu’il existe une troisieme valeur propre λ ∈ K \ {0, 1}.Alors Eλ ⊕ (E0 ⊕ E1) = E, donc d’apres le lemme, Eλ = {0}, ce qui est impossible.Ainsi, u admet 0 et 1 pour seules valeurs propres.On a montre que Sp(u) = {0, 1}, avec E0 = G et E1 = F .• Supposons que u est la symetrie par rapport a F parallelement a G.x ∈ F ⇐⇒ u(x) = x, or F 6= {0}, donc 1 ∈ Sp(u) et F = E1.x ∈ G⇐⇒ u(x) = −x, or G 6= {0}, donc −1 ∈ Sp(u) et G = E−1.Comme dans le cas du projecteur, on montre que 1 et −1 sont les seules valeurs propresde u.

4.6.3 Proprietes

Propriete.Si v ∈ L(E) commute avec u, les sous-espaces propres de u sont stables par v.

c©Eric Merle 65 MPSI2, LLG

Page 67: Alg ebre lin eaire - Free

Algebre lineaire 5 Changement de base

Demonstration.Supposons que v et u commutent. Soit λ ∈ Sp(u).Soit x ∈ Eu

λ . u(v(x)) = v(u(x)) = v(λx) = λv(x), donc v(x) ∈ Euλ .

Ainsi, v(Euλ) ⊂ Eu

λ .

Propriete. Soit F un sous-espace vectoriel de E stable par u.On note u/F l’endomorphisme induit par u sur F .

Alors Sp(u/F ) ⊂ Sp(u) et pour tout λ ∈ Sp(u/F ), Eu/Fλ = Eu

λ ∩ F .

Demonstration.Soit λ ∈ Sp(u/F ). Il existe x ∈ F \ {0} tel que u/F (x) = λx,or u/F (x) = u(x), donc λ ∈ Sp(u).

De plus, si x ∈ F , x ∈ Eu/Fλ ⇐⇒ u/F (x) = λx⇐⇒ u(x) = λx⇐⇒ x ∈ Eu

λ ,

donc Eu/Fλ = Eu

λ ∩ F .

5 Changement de base

5.1 Matrice de passage

Notation. On fixe un K-espace vectoriel E de dimension finie egale a n ∈ N∗.

Propriete. Soit e = (e1, . . . , en) une base de E et f = (fj)1≤j≤n ∈ En une famille den vecteurs de E. Pour tout j ∈ Nn, on pose pi,j = e∗i (fj) : c’est la ieme coordonnee dans

la base e du j eme vecteur de la famille f . Ainsi, pour tout j ∈ Nn, fj =n∑i=1

pi,jei.

f est une base si et seulement si la matrice P = (pi,j) est inversible. Dans ce cas, Pest note P f

e (ou bien Pe→f ) et on dit que P fe = (pi,j) est la matrice de passage de

la base e vers la base f .

Demonstration.P = mat(u, e, f) ou u est l’unique endomorphisme tel que u(e) = f . P est inversible siet seulement si u est inversible, ce qui est vrai si et seulement si f est une base de E.

Interpretation tabulaire : Avec les notations precedentes,

P fe =

f1 · · · fn p1,1...pn,1

· · ·

· · ·

p1,n...

pn,n

e1...en

.

Remarque. La notation P fe reflete cette interpretation tabulaire.

Par analogie, on notera parfois mat(u, e, f) sous la forme mat(u)ef .

Remarque. On pourrait egalement definir la matrice d’une famille de p vecteurs

c©Eric Merle 66 MPSI2, LLG

Page 68: Alg ebre lin eaire - Free

Algebre lineaire 5 Changement de base

f = (fj)1≤j≤p de E selon la base e = (e1, . . . , en) de E :

matfe = (e∗i (fj)) 1≤i≤n1≤j≤p

∈Mn,p(K).

Alors les colonnes de matfe sont les Ψ−1e (fj), donc

rg(matfe ) = dim(Vect(Ψ−1e (fj)1≤j≤p))

= dim(Ψ−1e (Vect(fj)1≤j≤p))

= dim(Vect(fj)1≤j≤p)),car Ψ−1

e est injective. Ainsi, rg(matfe ) = rg(f).On retrouve ainsi que f est une base si et seulement si matfe est inversible.

Exemple. Notons E = Vect(cos, sin), f = (x 7−→ eix) et g = (x 7−→ e−ix). Alors

mat(f,g)(cos,sin) =

(1 1i −i

). Le determinant de cette matrice est non nul, donc elle est

inversible. Ainsi (f, g) est une base de E et P(f,g)(cos,sin) =

(1 1i −i

).

Propriete. Soit e une base de E : Pour toute matrice P inversible d’ordre n, il existeune unique base f de E telle que P = P f

e .

Demonstration.Soit P ∈ GLn(K). Si f est une base telle que P = P f

e , alors pour tout j ∈ Nn,

fj =n∑i=1

Pi,jei, ce qui prouve l’unicite de f .

Posons f = u(e), ou u est l’unique automorphisme de E tel que P = mat(u, e, f). Alorsf = u(e) est une base et P = P f

e . Ceci prouve l’existence.

Propriete. Soit e et e′ deux bases de E. Alors P e′e = mat(IdE, e

′, e) = mat(IdE)e′e .

Remarque. ci-dessous, nous reutilisons la notation x definie page 36.

Formule de changement de base pour les vecteurs :Soit e et e′ deux bases de E. Soit x ∈ E.On pose X = Ψ−1

e (x) le vecteur colonne des coordonnees de x dans la base e.On notera indifferemment X = Ψ−1

e (x) = mat(x, 1, e) = mat(x)1e = mat(x)e.

De meme on pose X ′ = Ψ−1e′ (x) = mat(x)e′ .

Alors, X = P e′e X

′ , ou encore mat(x)e = P e′e mat(x)e′ .

Demonstration.X = mat(x, 1, e) = mat(IdE ◦ x, 1, e) = mat(IdE, e

′, e)×mat(x, 1, e′)).

Remarque. Cette formule n’est pas naturelle. En effet, P etant appelee la matricede passage de la base (ancienne) e vers la (nouvelle) base e′, on est plutot en droitd’attendre qu’elle permette d’exprimer simplement les nouvelles coordonnees X ′ enfonction des anciennes coordonnees X, or c’est l’inverse qui se produit.

Exemple. Soit E un R-plan vectoriel muni d’une base (i, j). Soit θ ∈ R. On pose

uθ = (cos θ)i + (sin θ)j et vθ = −(sin θ)i + (cos θ)j. Posons P =

(cos θ − sin θsin θ cos θ

):

det(P ) = 1 6= 0, donc P est inversible. Ainsi (uθ, vθ) est une base de E et P = P(uθ,vθ)(i,j) .

c©Eric Merle 67 MPSI2, LLG

Page 69: Alg ebre lin eaire - Free

Algebre lineaire 5 Changement de base

Soit M un point de E. Notons (x0, y0) les coordonnees de M dans (i, j) et (xθ, yθ) ses

coordonnees dans (uθ, vθ). Alors

(x0

y0

)=

(cos θ − sin θsin θ cos θ

)(xθyθ

), donc en inversant

cette relation,

(xθyθ

)=

(cos θ sin θ− sin θ cos θ

)(x0

y0

).

Formule. Si e, e′ et e′′ sont trois bases de E, P e”e = P e′

e Pe”e′ et (P e′

e )−1 = P ee′ .

Demonstration.IdE = IdE ◦ IdE et P e′

e × P ee′ = P e

e = In.

Formule de changement de bases pour les applications lineaires :Soient E et F deux K-espaces vectoriels de dimensions finies.On suppose que e et e′ sont deux bases de E et que f et f ′ sont deux bases de F .Soit u ∈ L(E,F ). Notons M = mat(u)ef , M

′ = mat(u)e′

f ′ , P = P e′e et Q = Qf ′

f . Alors,

M ′ = Q−1MP c’est-a-dire mat(u)e′

f ′ = P ff ′ ×mat(u)ef × P e′

e .

Demonstration.u = IdF ◦ u ◦ IdE.

Formule de changement de bases pour les endomorphismes :Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). On suppose que e et e′

sont deux bases de E. Notons M = mat(u, e), M ′ = mat(u, e′) et P = P e′e . Alors,

M ′ = P−1MP .

5.2 Diagonalisation et trigonalisation

Exemple. Considerons la matrice M =

0 −1 20 1 01 1 −1

.

Commencons par en rechercher les elements propres : soit λ ∈ R et X =

xyz

∈ R3.

MX = λX ⇐⇒

−y + 2z = λxy = λy

x+ y − z = λz.

Si λ = 1, MX = X ⇐⇒ x+ y − 2z = 0, donc 1 ∈ Sp(M) et

EM1 = Ker(M − I3) = Vect(

1−10

,

201

) : il s’agit d’un plan vectoriel. Si λ 6= 1,

MX = λX ⇐⇒ (y = 0, 2z = λx, x = (λ + 1)z)⇐⇒ (y = 0, 2z = λx, 2x = (λ + 1)λx),or 2 = (λ+ 1)λ⇐⇒ (λ− 1)(λ+ 2) = 0. Si λ = −2, MX = −2X ⇐⇒ (y = 0, z = −x),

donc −2 ∈ Sp(M) et EM−2 = Vect

10−1

.

c©Eric Merle 68 MPSI2, LLG

Page 70: Alg ebre lin eaire - Free

Algebre lineaire 5 Changement de base

Ainsi Sp(M) = {1,−2} et si l’on pose e1 =

1−10

, e2 =

201

et e3 =

10−1

,

e = (e1, e2, e3) constitue une base de vecteurs propres de M : en effet, (e1, e2) est unebase de EM

1 donc e est une base de EM1 ⊕ EM

−2 = R3.

Ainsi, M est diagonalisable. En effet, M = mat(M, c), ou c designe la base canonique

de R3 et mat(M, e) =

1 0 00 1 00 0 −2

, que l’on notera D.

D’apres la formule de changement de bases pour les endomorphismes, M = PDP−1,

ou P = P ec =

1 2 1−1 0 00 1 −1

.

Definition. Soit E un K-espace vectoriel de dimension n ∈ N∗ et u ∈ L(E).Les proprietes suivantes sont equivalentes.

i) Il existe une base e de E telle que mat(u, e) est diagonale.ii) Il existe une base de E constituee de vecteurs propres de u.

iii) E =⊕

λ∈SpK(u)

Euλ .

iv) n =∑

λ∈SpK(u)

dim(Euλ).

Lorsqu’elles sont vraies, on dit que u est diagonalisable .

Demonstration.• i)=⇒ii). Supposons qu’il existe une base e = (e1, . . . , en) de E telle mat(u, e) estdiagonale. Soit j ∈ Nn. La j eme colonne de mat(u, e) a tous ses coefficients nuls, saufeventuellement le j eme, donc u(ej) est colineaire a ej. Ainsi, pour tout j ∈ Nn, ej estun vecteur propre de u.• ii)=⇒iii). Supposons qu’il existe une base e = (e1, . . . , en) de E constituee de vec-teurs propres de u.

Soit j ∈ Nn. Il existe µ ∈ Sp(u) telle que ej ∈ Euµ , donc ej ∈

⊕λ∈SpK(u)

Euλ .

Ainsi, {e1, . . . , en} ⊂⊕

λ∈SpK(u)

Euλ , donc E = V ect({e1, . . . , en}) ⊂

⊕λ∈SpK(u)

Euλ .

• iii)=⇒iv). Supposons que E =⊕

λ∈SpK(u)

Euλ .

Alors, n = dim(E) = dim

⊕λ∈SpK(u)

Euλ

=∑

λ∈SpK(u)

dim(Euλ).

• iv)=⇒i). Supposons que n =∑

λ∈SpK(u)

dim(Euλ).

Pour tout λ ∈ SpK(u), choisissons une base de Euλ , notee eλ. D’apres le theoreme

de la base adaptee a une decomposition en somme directe, la “reunion” des eλ pour

c©Eric Merle 69 MPSI2, LLG

Page 71: Alg ebre lin eaire - Free

Algebre lineaire 5 Changement de base

λ ∈ SpK(u) est une famille libre de E. De plus elle est de cardinal∑λ∈SpK(u)

dim(Euλ) = n = dim(E), donc c’est une base de E, constituee de vecteurs

propres de u. Ainsi, la matrice de u dans cette base est diagonale.

Propriete. les homotheties, les projecteurs et les symetries sont diagonalisables.

Demonstration.On a deja vu que, pour chacun de ces endomorphismes, la somme des sous-espacespropres est egale a l’espace E en entier.

Definition. Soit M ∈Mn(K). On dit que M est diagonalisable si et seulement si sonendomorphisme canoniquement associe est diagonalisable.

Propriete. M ∈ Mn(K) est diagonalisable si et seulement si il existe P ∈ GLn(K)telle que P−1MP est une matrice diagonale.

Demonstration.Notons u l’endomorphisme canoniquement associe a M et c la base canonique de Kn.• Supposons que M est diagonalisable. Alors u est diagonalisable, donc il existe unebase e de Kn telle que mat(u, e) est diagonale.Or mat(u, e) = P−1MP , ou P = P e

c ∈ GLn(K).• Reciproquement, supposons qu’il existe P ∈ GLn(K) et une matrice D diagonaletelles que M = PDP−1.Il existe une base e de Kn telle que P est la matrice de passage de c vers e. Alors,mat(u, e) = P−1mat(u, c)P = P−1PDP−1P = D, donc mat(u, e) est diagonale, ce quiprouve que u est diagonalisable.

Definition. Soit M ∈Mn(K) une matrice diagonalisable.“diagonaliser” M , c’est determiner une matrice diagonale D et une matrice inversibleP telles que M = PDP−1.

Definition. Un endomorphisme u est trigonalisable si et seulement s’il existe unebase dans laquelle la matrice de u est triangulaire superieure.

Definition. M ∈ Mn(K) est trigonalisable si et seulement si l’endomorphisme ca-noniquement associe a M est trigonalisable, c’est-a-dire si et seulement si il existeP ∈ GLn(K) telle que P−1MP est triangulaire superieure.

Demonstration.Notons u l’endomorphisme canoniquement associe a M et c = (c1, . . . , cn) la basecanonique de Kn.• Supposons que M est trigonalisable. Ainsi, il existe une base e = (e1, . . . , en) deKn telle que T = mat(u, e) est triangulaire superieure. Donc, en notant P = P e

c ,P−1MP = T est triangulaire superieure.• Reciproquement, supposons qu’il existe P ∈ GLn(K) telle que M = PTP−1, ouT est triangulaire superieure. Il existe une base e de Kn telle que P = P e

c . CommeM = PTP−1, T = mat(u, e), donc M est trigonalisable.

c©Eric Merle 70 MPSI2, LLG

Page 72: Alg ebre lin eaire - Free

Algebre lineaire 5 Changement de base

Definition. Soit M ∈ Mn(K). “Trigonaliser” M , c’est determiner si M est trigo-nalisable, et dans ce cas, c’est calculer P ∈ GLn(K) et T triangulaire superieure tellesque M = PTP−1.

5.3 Trace d’un endomorphisme

Definition.Soit E un K-espace vectoriel de dimension finie. La quantite Tr(mat(u, e)) ne dependpas du choix de la base e de E. On la note Tr(u). C’est la trace de l’endomorphisme u.

Demonstration.Soient e et f deux bases de E.mat(u, e) et mat(u, f) sont deux matrices semblables, donc elles ont la meme trace.

Propriete. Soit E un K-espace vectoriel de dimension finie.Pour tout u, v ∈ L(E), Tr(uv) = Tr(vu).

Propriete. Soit E un K-espace vectoriel de dimension finie.Si p est un projecteur de E, alors Tr(p) = rg(p).

Demonstration.Il existe F et G avec E = F ⊕G tels que p est le projecteur sur F parallelement a G.Notons rg(p) = r = dim(F ) et n = dim(E). Considerons une base (e1, . . . , er) de F etune base (er+1, . . . , en) de G. La famille de vecteurs e = (e1, . . . , en) est une base de E,adaptee a la decomposition en somme directe E = F ⊕G.

La matrice de p dans e est egale a la matrice blocs suivante :

(Ir 0r,n−r

0n−r,r 0n−r,n−r

), dont

la trace vaut r. Ainsi Tr(p) = r = rg(p).

5.4 Matrices equivalentes et matrices semblables

5.4.1 Matrices equivalentes

Definition. Deux matrices M et M ′ deMK(n, p) sont equivalentes si et seulements’il existe P ∈ GLp(K) et Q ∈ GLn(K) telles que M ′ = QMP−1.On definit ainsi une relation d’equivalence sur MK(n, p).

Propriete. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0et n > 0, munis des bases e et f , et soit u ∈ L(E,F ). On note M = mat(u, e, f).Soit M ′ ∈ MK(n, p) : M ′ est equivalente a M si et seulement s’il existe des bases e′

et f ′ telles que M ′ = mat(u, e′, f ′). En resume, deux matrices sont equivalentes si etseulement si elles representent une meme application lineaire dans des bases differentes,autant pour la base de depart que pour la base d’arrivee.

Demonstration.Supposons qu’il existe des bases e′ et f ′ de E et F telles que M ′ = mat(u, e′, f ′).

En notant P = P e′e et Q = P f ′

f , M ′ = Q−1MP , donc M ′ est equivalente a M .

c©Eric Merle 71 MPSI2, LLG

Page 73: Alg ebre lin eaire - Free

Algebre lineaire 5 Changement de base

Reciproquement, supposons que M ′ est equivalente a M . Il existe P ∈ GLp(K) etQ ∈ GLn(K) telles que M ′ = Q−1MP . Il existe une base e′ de E et une base f ′ de F

telles que P = P e′e et Q = P f ′

f . Ainsi M ′ = Q−1MP = mat(u, e′, f ′).

Propriete. Deux matrices sont equivalentes si et seulement si il est possible de trans-former l’une en l’autre par une succession d’operations elementaires portant sur leslignes ou sur les colonnes.

Demonstration.Notons M et M ′ ces deux matrices.� ⇐= : par hypothese, il existe deux matrices inversibles P (qui provient des operationselementaires portant sur les colonnes) et Q (qui provient des operations elementairesportant sur les lignes) telles que M ′ = QMP , donc M et M ′ sont equivalentes.� =⇒ : par hypothese, il existe deux matrices inversibles P et Q telles que M ′ = QMP .D’apres l’algorithme de Gauss-Jordan d’inversion d’une matrice, la matrice inver-sible Q peut etre transformee en la matrice identite par une succession d’operationselementaires portant sur les lignes. Ces operations elementaires correspondent globale-ment au fait de multiplier Q a sa gauche par une matrice Q′, donc ces memes operationstransforment M ′ en Q′M ′ = (Q′Q)MP = MP . On raisonne de meme a droite pour lamatrice P en utilisant des operations elementaires portant sur les colonnes.

Theoreme. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0et n > 0, et soit u ∈ L(E,F ). Notons r le rang de u.Il existe une base e de E et une base f de F telles que mat(u, e, f) admet la decompositionen blocs suivante :

mat(u, e, f) =

(Ir 0r,p−r

0n−r,r 0n−r,p−r

).

Pour la suite, cette matrice sera notee Jn,p,r.

Demonstration.D’apres la formule du rang, dim(Ker(u)) = p − r : notons (er+1, . . . , ep) une base deKer(u), que l’on complete en une base e = (e1, . . . , en) de E.PosonsH = Vect(e1, . . . , er) : d’apres le theoreme de la base adaptee a une decomposition

en somme directe, E = H ⊕ Ker(u). On sait alors que u|Im(u)H est un isomorphisme,

donc (u(e1), . . . , u(er)) est une base de Im(u), que l’on complete en une basef = (u(e1), . . . , u(er), fr+1, . . . , fn) de F . Alors mat(u, e, f) = Jn,p,r.

Propriete. Si M ∈MK(n, p), M est equivalente a Jn,p,r, ou r designe le rang de M .

Demonstration.Notons u l’application lineaire canoniquement associee a M .u a pour rang r, donc il existe une base e de Kp et une base f de Kn telles que

mat(u, e, f) =

(Ir 0r,p−r

0n−r,r 0n−r,p−r

)= Jn,p,r. Or, dans les bases canoniques de Kp et de

Kn, la matrice de u est M , donc M et Jn,p,r sont equivalentes.

Corollaire. Deux matrices sont equivalentes si et seulement si elles ont le meme rang.

c©Eric Merle 72 MPSI2, LLG

Page 74: Alg ebre lin eaire - Free

Algebre lineaire 5 Changement de base

Demonstration.Soient M et M ′ deux matrices deMK(n, p). Si M et M ′ ont le meme rang note r, ellessont toutes deux equivalentes a Jn,p,r, donc M est equivalente a M ′.Reciproquement, supposons que M est equivalente a M ′ Il existe P ∈ GLp(K) etQ ∈ GLn(K) telles que M ′ = Q−1MP , donc, P etant inversible, rg(M ′) = rg(Q−1M),puis rg(M ′) = rg(M).

5.4.2 Proprietes du rang d’une matrice

Propriete. Pour toute matrice M ∈MK(n, p), rg(M) = rg(tM).On en deduit que le rang de M est aussi le rang de la famille de ses vecteurs lignes.

Demonstration.Si l’on pose r = rg(M), on a vu qu’il existe des matrices Q et P inversibles telles queM = QJn,p,rP , donc tM = tPJp,n,r

tQ. Mais tP et tQ sont inversibles,donc rg(tM) = rg(Jp,n,r) = r.

Propriete. Si l’on effectue une serie de manipulations elementaires sur une matrice,on ne modifie pas le rang de cette matrice.

Remarque. Pour determiner le rang d’une matrice, une methode consiste donc atransformer cette matrice en une matrice dont on connaıt le rang par une successiond’operations elementaires portant sur les lignes ou sur les colonnes. On peut en parti-culier utiliser l’algorithme du pivot.En particulier :

Propriete. Le rang d’une matrice est egal au nombre d’etapes dans la methode dupivot global.

Demonstration.Soit M ∈MK(n, p). Par la methode du pivot total, M est equivalente a une matrice de

la forme

(T 0k,p−k

0n−k,k 0n−k,p−k

), ou T est une matrice triangulaire superieure a coefficients

diagonaux non nuls (ce sont les pivots successifs) de taille k : k correspond bien aunombre d’etapes lorsqu’on applique l’algorithme du pivot total a M .On sait que T est une matrice inversible, donc rg(T ) = k.Le rang d’une matrice etant egal au rang de la famille de ses colonnes, on a encorek = rg((T 0k,p−k )). Enfin, Le rang d’une matrice etant egal au rang de la famille de

ses lignes, on a encore k = rg(

(T 0k,p−k

0n−k,k 0n−k,p−k

)) = rg(M).

Propriete. Soit M ∈MK(n, p).Si P est une matrice extraite de M , alors rg(P ) ≤ rg(M).

Demonstration.Il existe I ⊂ Nn et J ⊂ Np tels que P = (Mi,j) i∈I

j∈J. Posons Q = (Mi,j) i∈Nn

j∈J.

Alors, rg(Q) = dim(Vect(Mj)j∈J) ≤ dim(Vect(Mj)j∈Np) = rg(M).De meme, en raisonnant sur les lignes, on montre que rg(P ) ≤ rg(Q).

c©Eric Merle 73 MPSI2, LLG

Page 75: Alg ebre lin eaire - Free

Algebre lineaire 5 Changement de base

Exemple. Posons M =

1 −2 3 20 2 1 30 0 −1 −14 5 6 15

. M n’est pas de rang 4 car sa derniere

colonne est la somme des precedentes, mais M est de rang superieur ou egal a 3, carla matrice extraite de M en otant la derniere ligne et la derniere colonne est inversible(car triangulaire superieure a coefficients diagonaux non nuls). Ainsi rg(M) = 3.

Propriete. Soit A ∈MK(n, p) une matrice non nulle.rg(A) est egal a la taille maximale des matrices inversibles extraites de A.

Demonstration.Posons A l’ensemble des entiers k tels qu’il existe une matrice inversible extraite de Ade taille k.� Soit k ∈ A. Il existe une matrice inversible B extraite de A de taille k. Alors d’apresla propriete precedente, k = rg(B) ≤ rg(A). Ainsi A est majoree par rg(A). De plus1 ∈ A car A est non nulle. Ainsi A est non vide et majore, donc il possede un maximumnote s et s ≤ rg(A).� Posons r = rg(A). Vect(A1, . . . , Ap) est de dimension r, donc d’apres le theoremede la base extraite, il existe J ⊂ Np de cardinal r tel que (Aj)1≤j≤r est une base deVect(A1, . . . , Ap) = Im(A). Posons Q = (Ai,j) i∈Nn

j∈J. Q est une matrice extraite de A et

rg(Q) = rg((Aj)j∈J) = r.Ainsi r est la dimension de l’espace F engendre par les lignes de Q. On peut donc anouveau extraire des lignes de Q une base de F : il existe I ⊂ Nn de cardinal r tel queP = (Ai,j) i∈I

j∈Jest de rang r.

P est une matrice carree de taille r et de rang r, donc elle est inversible, ce qui conclut.

5.4.3 Matrices semblables

Definition. Deux matrices carrees M et M ′ dans Mn(K) sont semblables si etseulement s’il existe P ∈ GLn(K) tel que M ′ = PMP−1. On definit ainsi une seconderelation d’equivalence sur Mn(K), appelee relation de similitude.

Remarque. Si deux matrices sont semblables, elles sont equivalentes, mais la reciproqueest fausse. En particulier, l’interpretation de la relation de similitude en termes d’ope-rations elementaires est delicate et non productive (jusqu’a preuve du contraire).

Remarque. Les classes d’equivalence de la relation d’equivalence sont entierementdeterminees par un entier, egal au rang des representants de cette classe. Au contraire,les classes d’equivalence de la relation de similitude sont nettement plus complexes.Leur etude constitue la theorie de la reduction que vous etudierez en detail en secondeannee.

Exemple. Une matrice M de Mn(K) est diagonalisable (resp : trigonalisable) si etseulement si elle est semblable a une matrice diagonale (resp : triangulaire superieure).

c©Eric Merle 74 MPSI2, LLG

Page 76: Alg ebre lin eaire - Free

Algebre lineaire 6 Les hyperplans

Propriete. Soit E un K-espace vectoriel de dimension n > 0, muni d’une base e, etsoit u ∈ L(E). On note M = mat(u, e). Soit M ′ ∈Mn(K).M ′ est semblable a M si et seulement s’il existe une base e′ telle que M ′ = mat(u, e′).En resume, deux matrices sont semblables si et seulement si elles representent un memeendomorphisme dans des bases differentes, en imposant de prendre une meme base audepart et a l’arrivee.

Demonstration.Il suffit d’adapter la demonstration de la propriete analogue portant sur la relation“etre equivalente a”.

Propriete. Soient (M,M ′) ∈Mn(K)2 et P ∈ GLn(K) tels que M ′ = PMP−1.Alors, pour tout n ∈ N,M ′n = PMnP−1 et pour toutQ ∈ K[X],Q(M ′) = PQ(M)P−1.Si M ′ et M sont inversibles, pour tout n ∈ Z, M ′n = PMnP−1.

Demonstration.• Pour n = 0, PM0P−1 = PP−1 = In = M ′0.Pour n ≥ 0, supposons que M ′n = PMnP−1.Alors M ′n+1 = M ′nM ′ = PMnP−1PMP−1 = PMn+1P−1.On a donc montre par recurrence que, pour tout n ∈ N, M ′n = PMnP−1.

• Soit Q ∈ K[X]. Il existe (an) ∈ K(N) tel que Q =∑n∈N

anXn.

PQ(M)P−1 = P(∑n∈N

anMn)P−1 =

∑n∈N

anPMnP−1 =

∑n∈N

anM′n = Q(M ′).

• Supposons que M et M ′ sont inversibles.Soit n ∈ N. M ′−n = (M ′n)−1 = (PMnP−1)−1 = (P−1)−1M−nP−1 = PM−nP−1.Ainsi, pour tout n ∈ Z, M ′n = PMnP−1.

6 Les hyperplans

Dans tout ce chapitre, on fixe un K-espace vectoriel E, ou K est un corps.

6.1 En dimension quelconque

Definition. Soit H un sous-espace vectoriel de E. On dit que H est un hyperplan siet seulement si il existe une droite vectorielle D telle que H ⊕D = E.Ainsi, les hyperplans sont les supplementaires des droites vectorielles.

Propriete. SoitH un hyperplan etD une droite non incluse dansH. AlorsH⊕D = E.

Demonstration.Il existe x1 ∈ E \H tel que D = Kx1.� Si x ∈ H ∩D, il existe λ ∈ K tel que x = λx1. Si λ 6= 0, alors x1 = 1

λx ∈ H ce qui

est faux, donc λ = 0 puis x = 0, ce qui prouve que la somme H +D est directe.

c©Eric Merle 75 MPSI2, LLG

Page 77: Alg ebre lin eaire - Free

Algebre lineaire 6 Les hyperplans

� Soit x ∈ E. H etant un hyperplan, il existe une droite vectorielle D0 telle queE = H ⊕D0. Il existe x0 ∈ E \H tel que D0 = Kx0.Ainsi, il existe h ∈ H et λ ∈ K tel que x = h+ λx0.De plus x1 ∈ E = H ⊕ Kx0, donc il existe egalement λ1 ∈ K et h1 ∈ H tels quex1 = h1 + λ1x0. λ1 6= 0 car x1 6∈ H, donc x0 = 1

λ1(x1 − h1).

Alors x = (h− λλ1h1) + λ

λ1x1 ∈ H ⊕Kx1, ce qui prouve que E = H ⊕D.

Propriete. Soit H une partie de E. H est un hyperplan de E si et seulement si il estle noyau d’une forme lineaire non nulle.De plus, si H = Ker(ϕ) = Ker(ψ), alors ϕ et ψ sont colineaires. Ainsi H est le noyaud’une forme lineaire non nulle, unique a un coefficient multiplicatif pres.

Demonstration.• Supposons que H = Ker(ϕ), ou ϕ ∈ L(E,K) \ {0}.Il existe x0 ∈ E tel que ϕ(x0) 6= 0. x0 6∈ H donc H∩Kx0 = {0} (raisonnement identiquea celui de la demonstration precedente).

De plus, si x ∈ E, en posant λ =ϕ(x)

ϕ(x0), on a ϕ(x) = ϕ(λx0), donc x = (x−λx0) +λx0

et x − λx0 ∈ Ker(ϕ) = H, ce qui prouve que E = H ⊕ Kx0, donc que H est unhyperplan.• Reciproquement, supposons que H est un hyperplan de E.Il existe donc x ∈ E \ {0} tel que E = H ⊕Kx.Notons ϕ l’unique forme lineaire telle que ϕ/H = 0 et ϕ(x) = 1. ϕ est non nulle.De plus, si y = h+ λx ∈ E, ou h ∈ H et λ ∈ K,y ∈ Ker(ϕ) ⇐⇒ ϕ(h) + λϕ(x) = 0 ⇐⇒ λ = 0 ⇐⇒ y = h ⇐⇒ y ∈ H, doncKer(ϕ) = H.Soit ψ ∈ L(E,K) telle que H = Ker(ψ). Posons λ = ψ(x).Soit y = h+ αx ∈ E, ou h ∈ H et α ∈ K. ψ(y) = αλ = λϕ(y), donc ψ = λϕ.

Definition. Soient H un hyperplan de E et ϕ ∈ L(E,K) \ {0} tel que H = Ker(ϕ).Alors x ∈ H ⇐⇒ [(E) : ϕ(x) = 0]. On dit que (E) est equation de H.

Exemples.{f ∈ C([0, 1],R) /

∫ 1

0

f(t) dt = 0}

est un hyperplan de C([0, 1],R).

L’ensemble des matrices carrees de taille n et de trace nulle est un hyperplan deMn(K).

6.2 En dimension finie

Notation. On suppose que E est un espace de dimension finie notee n, avec n > 0.Si e = (e1, . . . , en) est une base de E, pour tout i ∈ {1, . . . , n}, on note e∗i l’applicationqui associe a tout vecteur x de E sa ieme coordonnee dans la base e.ATTENTION : e∗i depend non seulement de ei mais egalement des autres ej : si l’onchange la valeur de e1 dans la base e, on change a priori la valeur de e∗2.

Propriete. Avec les notations precedentes, la famille e∗ = (e∗i )1≤i≤n est une base deL(E,K) = E∗, que l’on appelle la base duale de e.

c©Eric Merle 76 MPSI2, LLG

Page 78: Alg ebre lin eaire - Free

Algebre lineaire 6 Les hyperplans

Demonstration.

Soit Ψ ∈ E∗ : Pour tout x ∈ E, x =n∑i=1

e∗i (x)ei, donc Ψ(x) =n∑i=1

e∗i (x)Ψ(ei).

Ainsi, Ψ =n∑i=1

Ψ(ei)e∗i ∈ Vect(e∗1, . . . , e

∗n).

Ceci prouve que e∗ est une famille generatrice de E∗. De plusdim(L(E,K)) = dim(E)× dim(K) = n, donc e∗ est une base de E∗.

Remarque.Les hyperplans de E sont les sous-espaces vectoriels de E de dimension n− 1.

Definition. Soit e = (e1, . . . , en) une base de E et H un hyperplan de E.

Si H = Ker(ψ), ou ψ ∈ E∗, en notant ψ =n∑i=1

αie∗i , l’equation de l’hyperplan H

devient x =n∑i=1

xiei ∈ H ⇐⇒n∑i=1

αixi = 0 : (E). On dit que (E) est une equation

cartesienne de l’hyperplan H, c’est-a-dire une condition necessaire et suffisante portantsur les coordonnees de x dans la base e pour que x appartienne a H.

Demonstration.

x ∈ H ⇐⇒ ψ(x) = 0, or ψ(x) =[ n∑i=1

αie∗i

]( n∑j=1

xjej

)=∑1≤i≤n1≤j≤n

αixje∗i (ej), or e∗i (ej)

represente la i-eme coordonnee de ej, donc e∗i (ej) = δi,j, puis ψ(x) =n∑i=1

αixi, ce qu’il

fallait demontrer.

Exemple. Dans un plan vectoriel rapporte a une base (~ı,~), une droite vectorielle Da une equation cartesienne de la forme :−→v = x~ı+ y~ ∈ D ⇐⇒ ax+ by = 0, ou (a, b) ∈ R2 \ {0}.

Exemple. Dans un espace vectoriel de dimension 3 rapporte a une base (~ı,~,~k), unplan vectoriel P a une equation cartesienne de la forme :−→v = x~ı+ y~+ z~k ∈ P ⇐⇒ ax+ by + cz = 0, ou (a, b, c) ∈ R3 \ {0}.

6.3 Les hyperplans affines

Notation. Soit E un espace affine de direction E. On fixe un point O ∈ E .

Definition. On appelle hyperplan affine de E tout sous-espace affine de E dont ladirection est un hyperplan de E.

Propriete. Soit H une partie de E .H est un hyperplan affine de E si et seulement si il existe ϕ ∈ L(E,K) \ {0} et a ∈ Ktel que, pour tout M ∈ E , [M ∈ H ⇐⇒ ϕ(

−−→OM) = a].

c©Eric Merle 77 MPSI2, LLG

Page 79: Alg ebre lin eaire - Free

Algebre lineaire 6 Les hyperplans

Dans ce cas, la condition ϕ(−−→OM) = a est appelee une equation de H.

De plus, la direction de H est l’hyperplan Ker(ϕ), d’equation ϕ(x) = 0 en l’inconnuex ∈ E.

Demonstration.� Supposons que H est un hyperplan affine de direction H.On sait qu’il existe ϕ ∈ L(E,K) \ {0} tel que H = Ker(ϕ).Il existe A ∈ H. Ainsi, pour tout M ∈ E ,M ∈ H ⇐⇒ −−→AM ∈ H ⇐⇒ ϕ(

−−→AM) = 0⇐⇒ ϕ(

−−→OM) = ϕ(

−→OA).

� Reciproquement, supposons qu’il existe ϕ ∈ L(E,K) \ {0} et a ∈ K tel que, pour

tout M ∈ E , [M ∈ H ⇐⇒ ϕ(−−→OM) = a].

ϕ 6= 0, donc rg(ϕ) ≥ 1, mais Im(ϕ) ⊂ K, donc Im(ϕ) = K. Ceci prouve que ϕ estsurjective. En particulier, il existe −→x0 ∈ E tel que ϕ(−→x0) = a. De plus il existe A ∈ Etel que −→x0 =

−→OA.

Ainsi, M ∈ H ⇐⇒ ϕ(−−→OM) = ϕ(

−→OA) ⇐⇒ ϕ(

−−→AM) = 0 ⇐⇒ −−→AM ∈ Ker(ϕ), donc

H = A+ Ker(ϕ), ce qui prouve que H est un hyperplan affine de direction Ker(ϕ).

Remarque. Dans le cas particulier ou E = E et ou O =−→0 , l’equation devient

ϕ(M) = a, donc les hyperplans affines de E sont exactement les ϕ−1({a}), avecϕ ∈ L(E,K) \ {0} et a ∈ K.

Exemple. {M ∈Mn(K) / Tr(M) = 2} est un hyperplan affine de Mn(K).

Propriete. Supposons que E est de dimension finie egale a n ∈ N∗ et que E est munid’une base e = (e1, . . . , en), dont la base duale est notee e∗ = (e∗1, . . . , e

∗n).

Soit H un hyperplan affine de E , dont une equation est Ψ(−−→OM) = a.

Notons (α1, . . . , αn) les coordonnees de Ψ dans e∗. Si M a pour coordonnees (x1, . . . , xn)

dans le repere affine (O, e), alors M ∈ H ⇐⇒n∑i=1

αixi = a.

Cette derniere condition est donc la forme generale d’une equation cartesienne d’hy-perplan affine en dimension n.Pour n = 2, on obtient la forme generale d’une equation de droite, et pour n = 3, ils’agit de la forme generale d’une equation de plan.

6.4 Application aux systemes lineaires

Notation. On fixe (n, p) ∈ N∗2 et on considere un systeme lineaire de n equations ap inconnues de la forme :

(S) :

α1,1x1 + · · · + α1,pxp = b1...

...αi,1x1 + · · · + αi,pxp = bi

......

αn,1x1 + · · · + αn,pxp = bn

,

c©Eric Merle 78 MPSI2, LLG

Page 80: Alg ebre lin eaire - Free

Algebre lineaire 6 Les hyperplans

ou, pour tout (i, j) ∈ {1, . . . , n}×{1, . . . , p}, αi,j ∈ K, pour tout i ∈ {1, . . . , n}, bi ∈ K,les p inconnues etant x1, . . . , xp, elements de K.

Propriete. Notons M = (αi,j) 1≤i≤n1≤j≤p

∈MK(n, p) la matrice de (S).

Ainsi (S)⇐⇒MX = B, ou B = (bi)1≤i≤n ∈ Kn. Si (S) est compatible, l’ensemble dessolutions de (S) est un sous-espace affine de Kp de dimension p − r, ou r designe lerang de M et dont la direction est Ker(M).

Demonstration.Supposons que (S) est compatible. Il existe X0 ∈ Kp tel que MX0 = B.Ainsi, (S)⇐⇒MX = MX0 ⇐⇒ X −X0 ∈ Ker(M)⇐⇒ X ∈ (X0 + Ker(M)).

Notation. Soient E et F des K-espaces vectoriels de dimensions p et n munis de basese = (e1, . . . , ep) et f = (f1, . . . , fn). On note u l’unique application lineaire de L(E,F )telle que mat(u, e, f) = M , x le vecteur de E dont les coordonnees dans e sont X et ble vecteur de F dont les coordonnees dans f sont B. Alors (S)⇐⇒ u(x) = b.

Propriete. L’ensemble des solutions de (S) est soit vide, soit un sous-espace affinede E de direction Ker(u).

Quatrieme interpretation d’un systeme lineaire : A l’aide de formes lineaires.Notons e∗ = (e∗1, . . . , e

∗p) la base duale de e. Pour tout i ∈ {1, . . . , n}, posons

li =

p∑j=1

αi,je∗j . Ainsi, (l1, . . . , ln) est une famille de formes lineaires telles que

(S)⇐⇒ [∀i ∈ {1, . . . , n} li(x) = bi] et l’ensemble des solutions de (S) estn⋂i=1

li−1({bi}).

C’est donc une intersection d’hyperplans affines, si pour tout i ∈ Nn, li 6= 0.

Propriete. Si E est un K-espace vectoriel de dimension p, l’intersection de r hyper-plans vectoriels de E est un sous-espace vectoriel de dimension superieure a p− r.Reciproquement tout sous-espace vectoriel de E de dimension p − r ou r ≥ 1 est uneintersection de r hyperplans de E, donc est caracterise par un systeme de r equationslineaires.

Demonstration.� Considerons r (avec r ≥ 1) hyperplans de E, notes H1, . . . , Hr.Pour chaque i ∈ {1, . . . , r}, il existe une forme lineaire non nulle `i telle que

Hi = Ker(`i). Notons F =r⋂i=1

Hi. Fixons une base e = (e1, . . . , ep) de E et notons a

nouveau e∗ = (e∗1, . . . , e∗p) la base duale de e.

Pour tout i ∈ {1, . . . , r}, il existe (αi,j)1≤j≤p ∈ Kp telle que `i =

p∑j=1

αi,je∗j .

Ainsi, pour tout x ∈ E,

x =

p∑j=1

xjej ∈ F ⇐⇒ ∀i ∈ {1, . . . , r} li(x) = 0⇐⇒ ∀i ∈ {1, . . . , r}p∑j=1

αi,jxj = 0.

c©Eric Merle 79 MPSI2, LLG

Page 81: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Alors avec les notations precedentes, F = Ker(u) et dim(F ) = p − rg(u) ≥ p − r, carla matrice de u possede r lignes.� Pour la reciproque, soit F un sous-espace vectoriel de E de dimension p− ravec r ≥ 1. Notons (fr+1, . . . , fp) une base de F , que l’on complete en une basef = (f1, . . . , fp) de E. Notons f ∗ = (f ∗1 , . . . , f

∗p ) la base duale de f .

Si x =

p∑j=1

xjfj ∈ E, x ∈ F ⇐⇒ x1 = · · · = xr = 0⇐⇒ ∀i ∈ {1, . . . , r}, f ∗i (x) = 0.

Ainsi, F est caracterise par un systeme de r equations lineaires.De plus, en notant Hi = Ker(f ∗i ), [x ∈ F ⇐⇒ ∀i ∈ {1, . . . , r}, x ∈ Hi], donc F estl’intersection des r hyperplans H1, . . . , Hr.

Exemple. Dans un espace vectoriel de dimension 3 rapporte a une base (~ı,~,~k), unedroite vectorielle D est caracterisee par un systeme de 2 equations cartesiennes de laforme :

−→v = x~ı + y~ + z~k ∈ D ⇐⇒{ax+ by + cz = 0a′x+ b′y + c′z = 0

, ou

abc

,

a′

b′

c′

est une

famille libre dans K3.

Propriete. Soit E un espace affine de direction E et F un sous-espace affine deE dirige par F 6= E. On sait que F est l’intersection de r hyperplans vectoriels (our = dim(E)− dim(F )) H1, . . . , Hr, qui sont chacun le noyau d’une forme lineaire nonnulle, notee ϕ1, . . . , ϕr.Il existe A ∈ E tel que F = A+ F , doncM ∈ F ⇐⇒ −−→AM ∈ F ⇐⇒ (∀i ∈ {1, . . . , r} ϕi(

−−→OM) = ϕi(

−→OA)).

Cette derniere condition constitue un systeme d’equations de F .Ainsi, tout sous-espace affine de E peut etre caracterise par un systeme d’equationslineaires.

Corollaire. Tout sous-espace affine strictement inclus dans E est une intersectiond’un nombre fini d’hyperplans affines.

7 Determinants

7.1 Applications multilineaires

Definition. Soient p ∈ N∗ et (E1, . . . , Ep) une famille de p K-espaces vectoriels.Soient F un K-espace vectoriel et f une application de E1 × · · · × Ep dans F .f est une application p-lineaire si et seulement si, pour tout j ∈ Np

et pour tout (a1, . . . , aj−1, aj+1, . . . , ap) ∈ E1 × · · · × Ej−1 × Ej+1 × . . .× Ep,

l’applicationEj −→ Fxj 7−→ f(a1, . . . , aj−1, xj, aj+1, . . . , ap)

est lineaire.

Definition. Une application bilineaire est une application 2-lineaire.

Notation.

c©Eric Merle 80 MPSI2, LLG

Page 82: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

— Lp(E1, . . . , Ep;F ) designe l’ensemble des applications p-lineaires de E1×· · ·×Epdans F . C’est un sous-espace vectoriel de F(E1 × · · · × Ep, F ).

— On note Lp(E,F ) = Lp(E, . . . , E︸ ︷︷ ︸p fois

;F ).

— Enfin, on note Lp(E) = Lp(E,K).Les elements de Lp(E) sont appeles des formes p-lineaires sur E.

Exemple. L’application(R2)3 −→ R

((x, x′), (y, y′), (z, z′)) 7−→ xy′z′ − 2x′yz′ + 3x′yzest une forme trilineaire sur R2.

Notation. Pour la suite de ce paragraphe, on fixe p ∈ N∗et deux K-espaces vectoriels E et F .

Propriete. Soit u1, . . . , up p applications lineaires de E dans K.

Alors l’application

u : Ep −→ K

(x1, . . . , xp) 7−→p∏i=1

ui(xi)est une forme p-lineaire.

Demonstration.Soient j ∈ Np et (a1, . . . , aj−1, aj+1, . . . , ap) ∈ Ep−1.

Notonsv : E −→ K

x 7−→ u(x1, . . . , xj−1, x, xj+1, . . . , xp).

Pour tout x ∈ E, v(x) =

∏1≤i≤pi6=j

ui(xi)

uj(x), or uj est lineaire, donc v est lineaire.

Ainsi, u est une forme p-lineaire.

Propriete. On suppose que E est de dimension finie n ∈ N∗ et on notee = (e1, . . . , en) une base de E. Une application f de Ep dans F est p-lineaire siet seulement s’il existe une famille (αu)u∈Npn de vecteurs de F telle que, pour tout

(x1, . . . , xp) = (n∑i=1

ai,jei)1≤j≤p ∈ Ep, f(x1, . . . , xp) =∑

u=(i1,...,ip)∈Npn

ai1,1 . . . aip,pαu.

Demonstration.

• Supposons que f ∈ Lp(E,F ). Soit (x1, . . . , xp) = (n∑i=1

ai,jei)1≤j≤p ∈ Ep.

f(x1, . . . , xp) = f(n∑i=1

ai,1ei, x2, . . . , xp),

donc en utilisant la linearite selon la premiere variable,

f(x1, . . . , xp) =n∑i=1

ai,1f(ei, x2, . . . , xp), puis

f(x1, . . . xp) =n∑i=1

ai,1

n∑j=1

aj,2f(ei, ej, x3, . . . , xp).

c©Eric Merle 81 MPSI2, LLG

Page 83: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Le developpement de x1 a necessite l’utilisation d’une variable notee i, puis le developpementde x2 a necessite l’utilisation d’une seconde variable notee j. Pour developper x1, x2,. . ., xp, nous avons besoin de p variables. Nous allons les noter i1, i2, . . ., ip, ce quiimpose de renommer i et j en i1 et i2. Ainsi,

f(x1, . . . xp) =n∑

i1=1

n∑i2=1

ai1,1ai2,2f(ei1 , ei2 , x3, . . . , xp). En poursuivant ce calcul, on ob-

tient f(x1, . . . , xp) =∑

u=(i1,...,ip)∈Npn

ai1,1 . . . aip,pf(ei1 , . . . , eip).

• Reciproquement, Lp(E,F ) etant un K-espace vectoriel , il suffit de montrer que pour

tout u = (i1, . . . , ip) ∈ Npn, l’application

Ep −→ K

(n∑i=1

ai,jei)1≤j≤p 7−→ ai1,1 . . . aip,pest p-

lineaire, mais il s’agit de l’application

Ep −→ K

(x1, . . . , xp) 7−→p∏j=1

e∗ij(xj), or les applications

coordonnees e∗j sont des formes lineaires, donc d’apres une propriete precedente, cetteapplication est bien une forme p-lineaire.

Definition. Soient σ ∈ Sp et f ∈ Lp(E,F ).

On noteσ(f) : Ep −→ F

(x1, . . . , xp) 7−→ f(xσ(1), . . . , xσ(p)).

On verifie que σ(f) est une application p-lineaire de E dans F .

Propriete. L’applicationSp × Lp(E,F ) −→ Lp(E,F )

(σ, f) 7−→ σ(f), est une operation du groupe

(Sp, ◦) sur l’ensemble Lp(E,F ).

Demonstration.Soient (σ, σ′) ∈ S2

p , f ∈ Lp(E,F ) et (x1, . . . , xp) ∈ Ep.σ′(σ(f))(x1, . . . , xp) = σ(f)(xσ′(1), . . . , xσ′(p)).Notons (y1, . . . , yp) = (xσ′(1), . . . , xσ′(p)). Ainsi, pour tout i ∈ Np, yi = xσ′(i), doncσ′(σ(f))(x1, . . . , xp) = f(yσ(1), . . . , yσ(p)) = f(xσ′(σ(1)), . . . , xσ′(σ(p))), ce qui prouve que

∀(σ, σ′) ∈ S2p ∀f ∈ Lp(E,F ) σ′(σ(f)) = (σ′σ)(f).

De plus, IdNp(f) = f , donc (σ, f) 7−→ σ(f) est bien une operation de groupe.

Definition. Soit f ∈ Lp(E,F ). f est une application p-lineaire symetrique si etseulement si pour tout σ ∈ Sp, σ(f) = f .f est une application p-lineaire antisymetrique si et seulement si pour toutσ ∈ Sp, σ(f) = ε(σ)f , ou ε(σ) designe la signature de la permutation σ.

Propriete. Soit f ∈ Lp(E,F ).f est symetrique si et seulement si pour toute transposition τ de Sp, τ(f) = f .f est antisymetrique si et seulement si pour toute transposition τ de Sp, τ(f) = −f .

c©Eric Merle 82 MPSI2, LLG

Page 84: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Demonstration.Supposons que pour toute transposition τ de Sp, τ(f) = −f .Soit n ∈ N∗. Notons R(n) l’assertion suivante :pour toute famille de n transpositions (τ1, . . . , τn), (τ1 ◦ · · · ◦ τn)(f) = (−1)nf .Par recurrence sur n, il est simple de montrer que R(n) est vraie pour tout n ∈ N∗.Soit σ ∈ Sp. L’ensemble des transpositions engendre Sp, donc il existe un nombre finide transpositions, notees τ1, . . .,τn, telles que σ = τ1 ◦ · · · ◦ τn.D’apres R(n), σ(f) = (−1)nf = ε(σ)f .Ainsi, f est une application p-lineaire antisymetrique.La reciproque est simple a prouver.Pour demontrer que f est symetrique si et seulement si pour toute transposition τ deSp, τ(f) = f , il suffit d’adapter la demonstration precedente.

Exemples.

— L’applicationKp −→ K

(x1, . . . , xp) 7−→ x1 × · · · × xpest p-lineaire symetrique.

— L’application(K2)2 −→ K

(

(ab

),

(cd

)) 7−→ ad− bc = det(

(ab

),

(cd

))

est une forme

bilineaire antisymetrique.

Definition. Soit f ∈ Lp(E,F ). f est une application p-lineaire alternee si etseulement si elle annule tout p-uplet de vecteurs de E contenant au moins deux vecteursegaux.

Propriete. Soit f ∈ Lp(E,F ).Si f est alternee, alors elle est antisymetrique.Lorsque car(K) 6= 2, alternee⇐⇒ antisymetrique.

Demonstration.Pour simplifier, on se limite au cas ou p = 2, mais le principe de la demonstration estvalable dans le cas general : il suffit d’adapter au prix de notations plus lourdes.� Supposons que f est alternee. Soit x, y ∈ E.0 = f(x+ y, x+ y) = f(x, x) + f(y, y) + f(x, y) + f(y, x) = f(x, y) + f(y, x),donc f(x, y) = −f(y, x).� On suppose que f est antisymetrique et que car(K) 6= 2. Soit x ∈ E.f(x, x) = −f(x, x), donc (2.1K)f(x, x) = 0, or 2.1K 6= 0, donc f(x, x) = 0.

Remarque. Lorsque K est de caracteristique 2, l’equivalence n’est plus vraie. Parexemple l’application f : (Z/2Z)2 −→ Z/2Z definie par f(x, y) = xy est dansL2(Z/2Z), mais elle n’est pas alternee car f(1, 1) = 1 6= 0. Pourtant elle est symetrique,donc antisymetrique, car dans K = Z/2Z, 1K = −1K.

Propriete. f ∈ Lp(E,F ) est alternee si et seulement si pour tout (x1, . . . , xp) ∈ Ep,f(x1, . . . , xp) ne varie pas lorsque l’on ajoute a l’un des xi une combinaison lineaire desautres xj.

c©Eric Merle 83 MPSI2, LLG

Page 85: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Plus formellement, f est alternee si et seulement si

∀(x1, . . . , xp) ∈ E1 × · · · × Ep ∀i ∈ Np ∀(αj)j∈Np\{i} ∈ Kp−1

f(x1, . . . , xp) = f(x1, . . . , xi−1, xi +∑j 6=i

αjxj, xi+1, . . . , xp) .

Propriete. f ∈ Lp(E,F ) est alternee si et seulement si l’image par f de toute familleliee de vecteurs est nulle.

Demonstration.� Supposons que f est alternee.

Si (x1, . . . , xp) est lie, il existe (α1, . . . , αp) ∈ Kp tel que

p∑i=1

αixi = 0, avec

(α1, . . . , αp) 6= 0. Il existe j ∈ {1, . . . , p} tel que αj 6= 0. Ainsi, xj =−1

αj

∑1≤i≤pj 6=i

αixi, donc

f(x1, . . . , xp) = f(x1, . . . , xj−1, 0, xj+1, . . . , xp) = 0.� Reciproquement, supposons que l’image par f de toute famille liee de vecteurs estnulle. Tout p-uplet de vecteurs de E contenant au moins deux vecteurs egaux est lie,donc son image par f est nulle. Ceci prouve que f est alternee.

Corollaire. Si E est de dimension n ∈ N∗ et si p > n, toute forme p-lineaire alterneesur E est nulle.

7.2 Les trois notions de determinants

Au sein de ce paragraphe, E designera un K-espace vectoriel de dimension finie egalea n, avec n > 0.

7.2.1 Volume

Supposons temporairement que K = R.

Enonce du probleme :Pour tout x = (x1, . . . , xn) ∈ En, on note Hx l’hyperparallelepipede

Hx = {n∑i=1

tixi / t1, . . . , tn ∈ [0, 1]} : c’est l’unique hyperparallelepipede de E dont les

cotes issus de l’origine sont x1, . . . , xn.On souhaite definir une fonction vol : En −→ R telle que, pour toutx = (x1, . . . , xn) ∈ En, |vol(x)| soit egal au volume de Hx, en s’appuyant sur l’ideeintuitive que l’on a de la notion de volume d’une partie de E (vu comme un espaceaffine). On souhaite de plus que le signe de vol(x) corresponde a l’orientation du n-uplet x, en s’appuyant egalement sur une idee intuitive de la notion d’orientation. Ondira que vol(x) est le volume algebrique de Hx et par opposition, que |vol(x)| est sonvolume absolu.

c©Eric Merle 84 MPSI2, LLG

Page 86: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Cas d’un hyperparallelepipede plat :Si x est lie, Hx est “plat”, donc on impose vol(x) = 0 des que x est une famille liee den vecteurs.

Homogeneite de la fonction vol :Supposons maintenant que x est libre. Ainsi, x est une base de E.Si l’on remplace l’un des xi par λxi, ou λ ∈ R, le volume de Hx doit etre multipliepar ±λ, car le volume absolu de Hx est intuitivement proportionnel a la longueur dechacun de ses cotes. Plutot que de parler d’intuition, on peut dire que cette proprieteest un axiome que doit verifier toute notion de volume. De meme, nous conviendronsque l’orientation d’un n-uplet de vecteurs de E est positive ou negative (il n’y a quedeux valeurs possibles pour l’orientation) et que le fait de remplacer l’un des vecteursxi par λxi avec λ < 0 change l’orientation du n-uplet. Alors la fonction vol doit verifierla propriete suivante : pour tout x = (x1, . . . , xn) ∈ En, pour tout i ∈ Nn, pour toutλ ∈ R, vol(x1, . . . , xi−1, λxi , xi+1, . . . , xn) = λvol(x1, . . . , xi−1, xi , xi+1, . . . , xn).Lorsque x est lie, cette propriete est vraie car elle se reduit a 0 = 0.

n-linearite de vol :Fixons i, j ∈ Nn ainsi que (xk)k∈Nn\{i,j} une famille de n− 2 vecteurs (si n = 1, E estde dimension 1 et vol est clairement lineaire d’apres le point precedent, donc on peutsupposer que n ≥ 2). Pour tout xi, xj ∈ E2, posons f(xi, xj) = vol(xk)k∈Nn .

1◦) Soit a, b ∈ E2. Commencons par etablir que f(a+ b, b) = f(a, b).Notons egalement a = xi et b = xj.

Posons G = {∑

1≤k≤nk/∈{i,j}

tkxk / ∀k, tk ∈ [0, 1]}.

Alors Hx = {xa + yb / (x, y) ∈ [0, 1]2} + G. Il s’agit de montrer que Hx a le memevolume absolu que K = {x(a + b) + yb / (x, y) ∈ [0, 1]2} + G et que x a la memeorientation que le n-uplet x′ obtenu a partir de x en remplacant xi par xi + xj.

Figure

Conformement a la figure, posons A = {xa + yb / x, y ∈ [0, 1] ∧ y ≤ x} + G,B = {xa+ yb / x, y ∈ [0, 1] ∧ y ≥ x}+G et notons C l’image de A par la translationde vecteur b, c’est-a-dire C = b+ A.Selon la figure, Hx = A ∪B et vol(A ∩B) = 0, K = B ∪ C et vol(B ∩ C) = 0.On peut le demontrer formellement :1.1] A ∩ B = {x(a + b) / x ∈ [0, 1]} + G : c’est l’hyperparallelepipede associe a x′

deduit de x en remplacant xi et xj parxi + xj

2. x′ est lie, donc vol(A ∩B) = 0.

1.2] C = {xa+ (1 + y)b / x, y ∈ [0, 1] ∧ y ≤ x}+G,donc B ∩ C = {xa+ b / x ∈ [0, 1]} = b+ {xa / x ∈ [0, 1]}+G.Il est raisonnable d’imposer a la notion de volume d’etre invariante par translation.Alors |vol(B ∩ C)| = |vol(Hx′′)| ou x′′ se deduit de x en remplacant xi et xj par xi

2.

Ainsi, on a bien vol(B ∩ C) = 0.

c©Eric Merle 85 MPSI2, LLG

Page 87: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

1.3] Si x, y ∈ [0, 1], on a bien sur, x ≤ y ou bien y ≤ x, donc Hx = A ∪B.K = {xa+ (x+ y)b / (x, y) ∈ [0, 1]2 ∧ x+ y ≤ 1}+G⋃

{xa+ (x+ y)b / (x, y) ∈ [0, 1]2 ∧ x+ y ≥ 1}+G= {xa+ zb / x, z ∈ [0, 1] ∧ x ≤ z}+G⋃

[b+ {xa+ (x− z)b / x, z ∈ [0, 1] ∧ x− z ≥ 0}+G]= B ∪ (b+ A) = B ∪ C.

Ainsi, on a montre qu’on peut passer de l’hyperparallelepipede Hx a l’hyperparallele-pipede K en decoupant Hx en deux morceaux disjoints (au sens que l’intersection deces deux morceaux est de volume nul), en translatant l’un des deux morceaux puisen effectuant a nouveau la reunion disjointe des deux morceaux. Il est raisonnabled’imposer aux notions de volume absolu et d’orientation d’etre invariantes par cetteoperation. Alors Hx et K ont le meme volume algebrique, ce qui montre quef(a+ b, b) = f(a, b), pour tout a, b ∈ E2.

2◦) Soit maintenant λ ∈ R∗. Alors f(a+ λb, b) = 1λf(a+ λb, λb) = 1

λf(a, λb) = f(a, b).

Ainsi vol(x) n’est pas modifie si l’on ajoute a l’un des xi le vecteur λxj, ou λ ∈ R etj ∈ Nn \ {i}. Donc, pour tout x ∈ En, vol(x) n’est pas modifie si l’on ajoute a l’un desxi une combinaison lineaire des autres xj.

3◦) On reprend les notations du 1◦).a) pour tout λ ∈ R, f(a + λa, b) = (1 + λ)f(a, b) = f(a, b) + f(λa, b), donc lorsque cest colineaire a a, f(a+ c, b) = f(a, b) + f(c, b) (c’est evident lorsque a est nul).b) Si maintenant c est quelconque dans E, lorsque x est une base de E, on peut ecrirec = λa+ d, ou d est une combinaison lineaire des autres vecteurs xj.Alors d’apres 2◦), f(a+ c, b) = f(a+ λa, b) = f(a, b) + f(λa, b) = f(a, b) + f(c, b).c) Lorsque {b} ∪ {xk / k ∈ Nn \ {i, j}} est liee, alors f(a+ c, b) = 0 = f(a, b) + f(c, b).d) Il reste a etudier le cas ou x n’est pas une base mais ou les n− 1 vecteurs{b} ∪ {xk / k ∈ Nn \ {i, j}} sont libres. Alors a = xi est une combinaison lineaire desautres xj, donc f(a+ c, b) = f(c, b) = f(a, b) + f(c, b).

4◦) Ainsi, pour tout a, b, c ∈ E, f(a+ c, b) = f(a, b) + f(c, b), puis d’apres la proprieted’homogeneite de vol, pour tout a, b, c ∈ E et λ ∈ R, f(a + λc, b) = f(a, b) + λf(c, b).Ceci prouve que vol est bien n-lineaire. De plus elle est alternee, car elle s’annule surtout n-uplet lie de vecteurs de E.

Conclusion :Si vol est une application de En dans R telle que, pour tout x ∈ En, |vol(x)| representele volume de Hx et le signe de vol(x) represente l’orientation du n-uplet x, alors enimposant des contraintes raisonnables aux notions de volume absolu et d’orientation,l’application vol est necessairement une forme n-lineaire alternee.En particulier, il suffit d’appeler orientation toute application O definie sur l’en-semble B des bases de E a valeurs dans {1,−1} telle que, pour tout x ∈ En :

— si l’on change l’un des vecteurs de x par son oppose, alors O(x) est remplacepar son oppose.

c©Eric Merle 86 MPSI2, LLG

Page 88: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

— On ne change pas O(x) si l’on multiplie l’un des vecteurs de x par un reelstrictement positif, ou bien si l’on ajoute a l’un des vecteurs de x un autrevecteur de x.

7.2.2 Determinant d’un systeme de n vecteurs

Notation. Notons An(E) l’ensemble des formes n-lineaires alternees.

On choisit une base e de E. Soit f : En −→ K une forme n-lineaire alternee. Alors,d’apres un calcul presente page 82,

pour tout x = (x1, . . . , xn) = (n∑i=1

pi,jei)1≤j≤n ∈ En,

f(x1, . . . , xn) =∑

u=(i1,...,in)∈Nnn

pi1,1 . . . pin,nf(ei1 , . . . , ein), ou, avec d’autres notations,

f(x1, . . . , xn) =∑

u∈F(Nn,Nn)

pu(1),1 . . . pu(n),nf(eu(1), . . . , eu(n)).

Si u est une injection de Nn dans Nn, alors on sait que u est une bijection, donc lorsqueu ∈ F(Nn,Nn) \ Sn, u n’est pas injective : il existe (i, j) ∈ Nn

2 avec i 6= j tel queu(i) = u(j). Alors, eu(i) = eu(j), or f est alternee, donc f(eu(1), . . . , eu(n)) = 0.

Ainsi, f(x1, . . . , xn) =∑u∈Sn

pu(1),1 . . . pu(n),nf(eu(1), . . . , eu(n)). De plus, f etant alternee,

elle est antisymetrique, donc f(x1, . . . , xn) =∑u∈Sn

pu(1),1 . . . pu(n),nε(u)f(e1, . . . , en).

Posons,

dete : En −→ K

(x1, . . . , xn) = (n∑i=1

pi,jei)1≤j≤n 7−→∑σ∈Sn

pσ(1),1 . . . pσ(n),nε(σ) .

On a montre que, pour tout f ∈ An(E), (1) : f = f(e1, . . . , en)dete.

Definition. Soit e = (e1, . . . , en) une base de E et x = (x1, . . . , xn) un systeme de nvecteurs de E. On pose P = mate(x), de sorte que Pi,j designe la i-eme coordonneedans la base e de xj. On appelle determinant du systeme de vecteurs x dans labase e la quantite suivante :

dete(x1, . . . , xn)∆=∑σ∈Sn

ε(σ)n∏j=1

Pσ(j),j.

Exemple. Prenons E = K2 et x = (

(ab

),

(cd

)). Alors detc(x) = ad − bc. Ainsi,

cette definition est coherente avec nos precedentes definitions de determinants.

Theoreme. Soit e une base de E.

Si f est une forme n-lineaire alternee sur E, alors f = f(e)dete.

c©Eric Merle 87 MPSI2, LLG

Page 89: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Demonstration.Il s’agit de la formule (1).

Propriete. Avec les notations precedentes, on a aussi

dete(x1, . . . , xn) =∑σ∈Sn

ε(σ)n∏j=1

Pj,σ(j) =∑σ∈Sn

ε(σ)n∏j=1

e∗j(xσ(j)).

Demonstration.Posons x = (x1, . . . , xn).

dete(x) =∑σ∈Sn

ε(σ)n∏j=1

Pσ(j),σ−1(σ(j)), donc en posant k = σ(j) dans le produit,

dete(x) =∑σ∈Sn

ε(σ)n∏k=1

Pk,σ−1(k). De plus, l’application σ 7−→ σ−1 etant une bijection

de Sn dans lui-meme, on peut poser s = σ−1. Ainsi, dete(x) =∑s∈Sn

ε(s−1)n∏j=1

Pj,s(j).

Mais ε est un morphisme de groupes a valeurs dans {1,−1}, donc pour tout s ∈ Sn,

ε(s−1) = ε(s)−1 = ε(s). Ainsi, dete(x) =∑σ∈Sn

ε(σ)n∏j=1

Pj,σ(j).

Formule de Sarrus : En notant c la base canonique de K3,

detc(

p1,1

p2,1

p3,1

,

p1,2

p2,2

p3,2

,

p1,3

p2,3

p3,3

) = p1,1p2,2p3,3 + p2,1p3,2p1,3 + p3,1p1,2p2,3

−p1,3p2,2p3,1 − p2,3p3,2p1,1 − p3,3p1,2p2,1.

Demonstration.S3 = {IdN3 , (1 3 2), (1 2 3), (1 3), (2 3), (1 2)}.

Propriete. dete est une forme n-lineaire alternee.

Demonstration.� Soit σ ∈ Sn. Posons fσ l’application de En dans K definie par

fσ(x1, . . . , xn) =n∏j=1

e∗j(xσ(j)) =n∏j=1

e∗σ−1(j)(xj). D’apres une propriete du paragraphe

precedent, fσ est une forme n-lineaire, donc dete =∑σ∈Sn

ε(σ)fσ est aussi une forme

n-lineaire.� Soit x = (x1, . . . , xn) ∈ En. On suppose qu’il existe h, k ∈ {1, . . . , n} tels que h < ket xh = xk. Il s’agit de montrer que dete(x) = 0.Notons τ la transposition (h k) et An le groupe alterne de degre n, c’est-a-dire lesous-groupe des permutations paires de Sn. On sait que Sn = An t τAn.

Ainsi, dete(x) =∑σ∈Sn

ε(σ)n∏j=1

e∗j(xσ(j)) =∑σ∈An

n∏j=1

e∗j(xσ(j))−∑σ∈An

n∏j=1

e∗j(xτσ(j)),

c©Eric Merle 88 MPSI2, LLG

Page 90: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

ou encore dete(x) =∑σ∈An

n∏j=1

e∗σ−1(j)(xj)−∑σ∈An

n∏j=1

e∗σ−1(j)(xτ(j)).

Or, pour tout j ∈ Nn, xj = xτ(j), donc dete(x) = 0.

Propriete. dete(e) = 1.

Demonstration.

dete(e) =∑σ∈Sn

ε(σ)n∏j=1

δj,σ(j) = ε(IdNn) = 1.

Propriete. An(E) est une droite vectorielle dirigee par dete.

Demonstration.D’apres le theoreme precedent, tout element f de An(E) est colineaire a dete,donc An(E) ⊂ Vect(dete).De plus, dete ∈ An(E), donc Vect(dete) ⊂ An(E). Ainsi, An(E) = Vect(dete).Or dete 6= 0, car dete(e) = 1 6= 0, donc (dete) est un systeme libre qui engendre An(E).

Remarque. Ainsi, a un coefficient multiplicatif non nul pres, il n’y a qu’une formen-lineaire alternee sur un K-espace vectoriel de dimension n.Dans un R-espace vectoriel de dimension n, la seule facon raisonnable de definir levolume algebrique de l’hyperparallelepipede Hx associe a un n-uplet x de n vecteursest donc de choisir une base e et de convenir que ce volume est egal a dete(x). L’unitede volume est alors le volume de He. Changer le choix de la base e se limite a multipliercette notion de volume par un reel non nul, ce qui change l’orientation si et seulementsi ce reel est negatif.En resume, dete est la seule definition raisonnable du volume algebrique de Hx.

7.2.3 Determinant d’une matrice

Definition. Soit M ∈Mn(K). Le determinant de M , note det(M) est le determinantdes vecteurs colonnes de M dans la base canonique de Kn.

Representation tabulaire.Si M = (αi,j) ∈Mn(K). On note

det(M) =

∣∣∣∣∣∣α1,1 · · · α1,n

......

αn,1 · · · αn,n

∣∣∣∣∣∣ .

Propriete. Soit M = (mi,j) ∈Mn(K).

det(M) =∑σ∈Sn

ε(σ)n∏j=1

mj,σ(j) =∑σ∈Sn

ε(σ)n∏j=1

mσ(j),j = det(tM).

c©Eric Merle 89 MPSI2, LLG

Page 91: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Ainsi det(M) est aussi le determinant des vecteurs lignes de M dans la base canoniquede Kn.

Formule de Sarrus :∣∣∣∣∣∣p1,1 p1,2 p1,3

p2,1 p2,2 p2,3

p3,1 p3,2 p3,3

∣∣∣∣∣∣ = p1,1p2,2p3,3 + p2,1p3,2p1,3 + p3,1p1,2p2,3

−p1,3p2,2p3,1 − p2,3p3,2p1,1 − p3,3p1,2p2,1.

7.2.4 Determinant d’un endomorphisme

Definition. Soit u ∈ L(E). Le determinant de l’endomorphisme u est l’uniquescalaire, note det(u), verifiant ∀f ∈ An(E) ∀x ∈ En f(u(x)) = (det(u))f(x) .

Demonstration.Si f ∈ An(E), notons fu l’application de En dans K definie parf(x1, . . . , xn) = f(u(x1), . . . , u(xn)). On verifie que fu est n-lineaire et alternee. Ainsiϕu : f 7−→ fu est une application de An(E) dans lui-meme. On verifie que ϕu estlineaire. Mais An(E) est une droite vectorielle, donc dim(L(An(E)) = 1 etAn(E) = Vect{IdAn(E)} : il existe un unique scalaire, note det(u) tel queϕu = det(u).IdAn(E), c’est-a-dire tel que, pour tout f ∈ An(E), fu = det(u).f .

Propriete. Soient e une base de E et u ∈ L(E).Pour tout (x1, . . . , xn) ∈ En, dete(u(x1), . . . , u(xn)) = det(u)dete(x1, . . . , xn).En particulier, det(u) = dete(u(e1), . . . , u(en)) .Cependant, det(u) ne depend pas du choix de la base e.

Propriete. Pour toute base e de E et pour tout u ∈ L(E), det(u) = det(Mat(u, e)).

Demonstration.det(u) = dete(u(e1), . . . , u(en)), mais si l’on noteMat(u, e) = M = (mi,j), par definition

de dete, det(u) =∑σ∈Sn

ε(σ)n∏j=1

mσ(j),j, donc det(u) = det(M).

Exemple. Si σ ∈ Sn, on note Pσ = (δi,σ(j)) ∈Mn(K). Alors det(Pσ) = ε(σ).

Demonstration.Notons e = (e1, . . . , en) la base canonique de Kn. Si s ∈ Sn, notons us l’endomorphismecanoniquement associe a la matrice Ps : Pour tout j ∈ {1, . . . , n}, us(ej) = es(j).Alors det(Pσ) = dete(uσ(e1), . . . , uσ(en)) = ε(σ)dete(e) = ε(σ).

7.3 Proprietes du determinant

Notation.On fixe n ∈ N∗, E un K-espace vectoriel de dimension n et e une base de E.

Propriete. dete est n-lineaire alternee, donc antisymetrique. dete(e) = 1.

c©Eric Merle 90 MPSI2, LLG

Page 92: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

dete(x1, . . . , xn) n’est pas modifie si l’on ajoute a l’un des xi une combinaison lineairedes autres xj.

Propriete. Le determinant d’une matrice M de Mn(K) est modifie en :— det(M) pour une operation elementaire du type Li ←− Li + λLj

ou Ci ←− Ci + λCj ;— αdet(M) pour une operation elementaire du type Li ←− αLi ou Ci ←− αCi ;— −detM pour un echange entre deux lignes ou deux colonnes.

ATTENTION : En general, det(αM +N) 6= αdet(M) + det(N).

Methode : Pour calculer le determinant d’une matrice, on tente de modifier la matricepar des manipulations elementaires, afin de se ramener a une matrice dont on connaitle rang ou le determinant.

Propriete. det(IdE) = 1, det(In) = 1.Pour tout λ ∈ K et u ∈ L(E), det(λu) = λndet(u).Pour tout λ ∈ K et A ∈Mn(K), det(λA) = λndet(A).

Theoreme. Si f, g ∈ L(E), alors det(fg) = det(f)× det(g) .Pour tout A,B ∈Mn(K), det(AB) = det(A)det(B).

Demonstration.det(f ◦ g) = dete(f ◦ g(e1), . . . , f ◦ g(en))

= det(f)dete(g(e1), . . . , g(en))= det(f)det(g).

Formule de changement de base : Soient e et e′ deux bases de E, et soit x unefamille de n vecteurs de E. Alors, dete′(x) = dete′(e)dete(x) .

Demonstration.C’est la formule (1) appliquee avec f = dete′ .

Theoreme. x est une base si et seulement si dete(x) 6= 0.

Demonstration.Supposons que x est une base, alors 1 = detx(x) = detx(e)×dete(x), donc dete(x) 6= 0.Reciproquement, si x n’est pas une base, alors x est une famille liee de n vecteurs, ordete est alternee, donc dete(x) = 0.

Corollaire. Soit u ∈ L(E) et A ∈Mn(K).

u ∈ GL(E) si et seulement si det(u) 6= 0 et dans ce cas, det(u−1) =1

det(u).

A ∈ GLn(K) si et seulement si det(A) 6= 0 et dans ce cas, det(A−1) =1

det(A).

Demonstration.u ∈ GL(E) si et seulement si u(e) est une base de E, donc si et seulement sidet(u) = dete(u(e)) 6= 0.Lorsque u est inversible, det(u)× det(u−1) = det(u ◦ u−1) = det(IdE) = 1.

c©Eric Merle 91 MPSI2, LLG

Page 93: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Remarque. det est donc un morphisme du groupe GL(E) vers (K∗,×). Son noyauest un sous-groupe (distingue) de GL(E), note SL(E). C’est le groupe special lineairede E : SL(E) = {u ∈ L(E) / det(u) = 1}.On dispose en particulier de SLn(K) = {M ∈Mn(K) / det(M) = 1} : c’est le groupespecial lineaire de degre n.

Propriete. Deux matrices carrees semblables ont le meme determinant.Ainsi le determinant, comme la trace et le rang, est un invariant de similitude.

7.4 Calcul des determinants

Notation. c = (c1, . . . , cn) designe la base canonique de Kn.

Lemme. On suppose que n ≥ 2. Soit A une matrice deMn(K) dont la derniere colonneest cn. Alors det(A) est egal au determinant de la matrice extraite de A en otant laderniere colonne et la derniere ligne.

Demonstration.

det(A) =∑σ∈Sn

ε(σ)n∏j=1

Aσ(j),j, or Aσ(n),n = δσ(n),n, donc det(A) =∑σ∈Snσ(n)=n

ε(σ)n−1∏j=1

Aσ(j),j.

Or l’application ϕ : {σ ∈ Sn / σ(n) = n} −→ Sn−1 definie par ϕ(σ) = σ|Nn−1 estune bijection et pour tout σ ∈ Sn telle que σ(n) = n, ε(ϕ(σ)) = ε(σ) : en effet, ladecomposition de ϕ(σ) en produit de transpositions de Sn−1 donne immediatementune decompostion de σ en produit de transpositions de Sn. Ainsi, en posant s = ϕ(σ),

on obtient det(A) =∑

s∈Sn−1

ε(s)n−1∏j=1

As(j),j. Il s’agit bien du determinant de la matrice

extraite de A en otant la derniere colonne et la derniere ligne.

Remarque. Le lemme est encore vrai lorsque n = 1 si l’on convient que le determinantde la matrice vide est egal a 1.

Definition. Soit M = (mi,j) ∈Mn(K).Pour tout (i, j) ∈ N2

n, notons i,jM la matrice extraite de M en otant la ieme ligne et laj eme colonne. La quantite det(i,jM) s’appelle le (i, j)eme mineur de M

La quantite Ci,j = (−1)i+jdet(i,jM) s’appelle le (i, j)eme cofacteur de M .

Exemple. Pour A =

11 12 1321 22 2331 32 33

, les cofacteurs de la premiere colonne sont

C1,1 = 22× 33− 32× 23 = −10, C2,1 = −(12× 33− 32× 13) = 20et C3,1 = 12× 23− 22× 13 = −10.

Theoreme. Avec ces notations,

— Pour tout j ∈ Nn, det(M) =n∑i=1

mi,jCi,j : c’est le developpement de det(M)

selon sa j eme colonne.

c©Eric Merle 92 MPSI2, LLG

Page 94: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

— Pour tout i ∈ Nn, det(M) =n∑j=1

mi,jCi,j : c’est le developpement de det(M)

selon sa ieme ligne.

Demonstration.La seconde partie du theoreme s’obtient en appliquant la premiere partie a tM .

Notons M1, . . . ,Mn les colonnes de M et fixons j ∈ Nn. Mj =n∑i=1

Mi,jci, donc

det(M) = detc(M1, . . . ,Mn) = detc(M1, . . . ,Mj−1,

n∑i=1

Mi,jci,Mj+1, . . . ,Mn), puis

det(M) =n∑i=1

Mi,jdetc(M1, . . . ,Mj−1, ci,Mj+1, . . . ,Mn). Il reste donc a montrer que,

pour tout i ∈ Nn, detc(M1, . . . ,Mj−1, ci,Mj+1, . . . ,Mn) = Ci,j.Soit i ∈ Nn. En effectuant n− j echanges de colonnes, on obtientdetc(M1, . . . ,Mj−1, ci,Mj+1, . . . ,Mn) = (−1)n−jdetc(M1, . . . ,Mj−1,Mj+1, . . . ,Mn, ci),puis en effectuant n− i echanges de lignes, on obtient

detc(M1, . . . ,Mj−1, ci,Mj+1, . . . ,Mn) = (−1)i+j

∣∣∣∣∣∣∣ i,jM

0...0

∗ · · · ∗ 1

∣∣∣∣∣∣∣ et le lemme permet de

conclure.

Definition. On appelle comatrice de M la matrice (Ci,j) 1≤i≤n1≤j≤n

des cofacteurs de M .

On la notera Com(M) ou bien Cof(M).La transposee de la comatrice s’appelle la matrice complementaire de M .

Theoreme. ∀M ∈Mn(K) M tCof(M) = tCof(M)M = det(M)In .

Demonstration.

Soit i ∈ Nn. [M tCof(M)]i,i =n∑j=1

Mi,jCi,j = det(M) d’apres la formule de developpement

de det(M) selon sa i-eme ligne.

De meme [tCof(M)M ]i,i =n∑j=1

Cj,iMj,i = det(M) d’apres la formule de developpement

de det(M) selon sa i-eme colonne.

Soit i, j ∈ Nn avec i 6= j : [M tCof(M)]i,j =n∑k=1

Mi,kCj,k.

Notons L1, . . . , Ln les lignes de M et notons A la matrice dont les lignes sont

L1, . . . , Lj−1, Li, Lj+1, . . . , Ln. Alors [M tCof(M)]i,j =n∑k=1

Aj,kCj,k est le developpement

de det(A) selon sa j-eme ligne, car Cj,k est bien le cofacteur de A de position (j, k).Ainsi, [M tCof(M)]i,j = det(A) = 0, car A possede deux lignes egales.En raisonnant sur les colonnes, on montre de meme que [tCof(M)M ]i,j = 0.

c©Eric Merle 93 MPSI2, LLG

Page 95: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Corollaire. Lorsque M est inversible, M−1 =1

det(M)tCof(M).

Exemple. Avec n = 2, on retrouve que, lorsque ad− bc 6= 0,(a bc d

)−1

=1

ad− bc

(d −b−c a

).

Theoreme. Soit M = (Mi,j) 1≤i≤a1≤j≤a

une matrice decomposee en blocs, ou, pour tout

i, j ∈ Na, Mi,j ∈Mni,nj(K).

Si M est triangulaire superieure (ou inferieure) par blocs, alors, det(M) =a∏i=1

det(Mi,i)

Demonstration.Au prix d’une recurrence, il suffit de montrer que, pour tout p, q ∈ N∗, pour tout

A ∈MK(p, p), B ∈MK(p, q) et C ∈MK(q, q),

∣∣∣∣ A B0q,p C

∣∣∣∣ = det(A)det(C).

Si A n’est pas inversible, les colonnes de A sont liees, donc les colonnes de

(A B

0q,p C

)sont egalement liees. Ainsi,

∣∣∣∣ A B0q,p C

∣∣∣∣ = 0 = det(A)det(C).

Si A est inversible, alors

(A B

0q,p C

)=

(A 00 Iq

)×(Ip A−1B0 C

), donc∣∣∣∣ A B

0q,p C

∣∣∣∣ =

∣∣∣∣A 00 Iq

∣∣∣∣ × ∣∣∣∣ Ip A−1B0 C

∣∣∣∣, ce qui permet de conclure, car en developpant

plusieurs fois selon la premiere colonne, on montre que

∣∣∣∣ Ip A−1B0 C

∣∣∣∣ = det(C) et, en

developpant plusieurs fois selon la derniere colonne, que

∣∣∣∣A 00 Iq

∣∣∣∣ = det(A).

Exemple.

∣∣∣∣∣∣∣∣∣∣−3 −7 54 1 02 4 5 7 00 0 1 0 20 0 5 −3 40 0 0 1 5

∣∣∣∣∣∣∣∣∣∣=

∣∣∣∣−3 −72 4

∣∣∣∣×∣∣∣∣∣∣1 0 25 −3 40 1 5

∣∣∣∣∣∣ = 2× (−9) = −18.

Exemple. Posons ∆n = det((min(i, j))1≤i,j≤n). Si l’on effectue les operations elementaires

Li ←− Li − L1 pour tout i ≥ 2, on obtient ∆n =

∣∣∣∣∣∣∣1 1 · · · 10...0

[min(i, j)]1≤i,j≤n−1

∣∣∣∣∣∣∣, donc

∆n = ∆n−1 = D1 = 1.

Corollaire. Le determinant d’une matrice triangulaire superieure ou inferieure estegal au produit de ses elements diagonaux.

Remarque. On retrouve ainsi qu’une matrice triangulaire superieure est inversible siet seulement si ses coefficients diagonaux sont non nuls.

c©Eric Merle 94 MPSI2, LLG

Page 96: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Exemple. Supposons que E = F ⊕ G. Notons s la symetrie par rapport a F pa-

rallelement a G. Alors det(s) = (−1)dim(G).

Demonstration.Soit (e1, . . . , er) une base de F et (er+1, . . . , en) une base de G. Notons e = (e1, . . . , en).C’est une base de e et mat(u, e) est diagonale, les r premiers coefficients diagonauxetant egaux a 1 et les suivants a −1. On conclut facilement.

Conclusion : Pour calculer un determinant, le plus souvent, on ajoute a une ligne (oua une colonne) une combinaison lineaire des autres lignes (ou des autres colonnes), oubien on effectue un developpement selon une ligne (ou selon une colonne), dans le butde se ramener a un determinant que l’on sait calculer, ou dont la valeur est connue :determinants d’ordre 2 ou 3, determinants triangulaires, ou bien des determinantsclassiques etudies plus loin.

7.5 Formules de Cramer

Propriete. Considerons un systeme lineaire de Cramer (S) : MX = B,

ou M ∈ GLn(K), B ∈ Kn, dont l’unique solution est notee X =

x1...xn

∈ Kn.

Alors, pour tout j ∈ {1, . . . , n}, xj =det(jM)

det(M), ou jM est la matrice dont les colonnes

sont celles de M , sauf la j eme qui est egale a B.

Demonstration.Soit j ∈ {1, . . . , n}. Notons Mj la j-eme colonne de M .det(jM) = detc(M1, . . . ,Mj−1, B,Mj+1, . . . ,Mn)

= detc(M1, . . . ,Mj−1,n∑i=1

xiMi,Mj+1, . . . ,Mn)

=n∑i=1

xidetc(M1, . . . ,Mj−1,Mi,Mj+1, . . . ,Mn)

= xjdet(M),car detc est une application n-lineaire alternee.

Remarque. Ces formules de Cramer sont utiles sur le plan theorique. Pour resoudre unsysteme de Cramer, ces formules sont ideales lorsque n = 2, mais elles sont inadapteeslorsque n ≥ 3. En effet, l’utilisation de ces formules necessite n divisions et le calcul den+ 1 determinants d’ordre n.

Mais, pour A = (ai,j) ∈ Mn(K), det(A) =∑σ∈Sn

ε(σ)n∏j=1

aj,σ(j), donc le calcul d’un

determinant d’ordre n, en procedant de maniere naıve demande n! − 1 additions ousoustractions et n!(n− 1) multiplications.

c©Eric Merle 95 MPSI2, LLG

Page 97: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Ainsi, resoudre (S) par application directe des formules de Cramer demande a peu pres(n+ 2)! multiplications, (n+ 1)! additions et n divisions.Supposons que nous utilisons un ordinateur d’une puissance de 1GHz (= 109 cycles parseconde). Le nombre de multiplications qu’il peut effectuer pendant une duree egale al’age de l’univers est de l’ordre de 10× 109× 365× 24× 602× 109 ≈ 1027. La resolutiond’un systeme d’ordre 30 necessite environ 1035 multiplications. Ainsi, en supposant quenotre ordinateur travaille a cette tache depuis la creation de l’univers, il n’aura a notreepoque realise que 10 milliardiemes des calculs necessaires !Il faut donc se tourner vers des algorithmes plus efficaces : on peut montrer que l’al-

gorithme du pivot de Gauss necessite de l’ordre den3

3multiplications et additions et

de l’ordre den2

2divisions. La resolution d’un systeme d’ordre 30 ne demandera plus

qu’environ 18000 operations, ce qui sera effectue en 2× 10−5 secondes. . .

7.6 Exemples de determinants.

7.6.1 Determinant de Vandermonde

Definition. Soient n ∈ N et (a0, . . . , an) ∈ Kn+1.

La matrice de Vandermonde est V(a0, . . . , an) = (aj−1i−1 ) ∈Mn+1(K),

et le determinant de Vandermonde est V (a0, . . . , an) = det(V(a0, . . . , an)). Ainsi,

V (a0, . . . , an) =

∣∣∣∣∣∣∣∣∣∣

1 a0 a20 · · · an0

1 a1 a21 · · · an1

......

......

......

......

1 an a2n · · · ann

∣∣∣∣∣∣∣∣∣∣.

Propriete. Soient n ∈ N∗ et (a0, . . . , an) ∈ Kn+1.

V (a0, . . . , an) = V (a0, . . . , an−1)n−1∏i=0

(an − ai).

Demonstration.Afin d’illustrer les differentes techniques relatives au calcul des determinants, nousallons presenter 4 demonstrations de ce resultat.

Premiere demonstration. par combinaison lineaire de colonnes.Effectuons sur le determinant de Vandermonde de (a0, . . . , an) les operations elementairessuivantes : Cj ←− Cj − anCj−1 dans l’ordre suivant : j varie de n+ 1 a 2 (en effet, aurang j, on a besoin de Cj−1, donc, au rang j, la colonne d’indice j− 1 ne doit pas avoirete modifiee).On obtient

c©Eric Merle 96 MPSI2, LLG

Page 98: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

V (a0, . . . , an) =

∣∣∣∣∣∣∣∣∣∣∣∣

1 a0 − an · · · an−20 (a0 − an) an−1

0 (a0 − an)1 a1 − an · · · an−2

1 (a1 − an) an−11 (a1 − an)

......

......

......

......

1 an−1 − an · · · an−2n−1(an−1 − an) an−1

n−1(an−1 − an)1 0 · · · 0 0

∣∣∣∣∣∣∣∣∣∣∣∣.

Developpons selon sa derniere ligne ce determinant de taille n+ 1. On obtient

V (a0, . . . , an) = (−1)(n+1)+1

(n−1∏i=0

(ai − an)

)V (a0, . . . , an−1).

Deuxieme demonstration, utilisant des combinaisons lineaires de colonnes et des po-lynomes.

Soit P un polynome unitaire de degre n a coefficients dans K, note P = Xn+n∑j=1

bjXj−1.

Effectuons sur le determinant de Vandermonde de (a0, . . . , an) l’operation elementaire

suivante : Cn+1 ←− Cn+1 +n∑j=1

bjCj.

Le ieme coefficient de la derniere colonne devient alors ani +n∑j=1

bjaj−1i = P (ai).

En particulier, si l’on choisit P =n−1∏i=0

(X − ai) (qui est bien un polynome unitaire de

degre n), les coefficients de la derniere colonne sont tous nuls, sauf le dernier, qui vautn−1∏i=0

(an − ai). Ainsi, en developpant par rapport a la derniere colonne,

V (a0, . . . , an) = V (a0, . . . , an−1)n−1∏i=0

(an − ai).

Pour les deux demonstrations suivantes, on supposera que a0, . . . , an sont deux a deuxdistincts. Ce n’est pas restrictif car lorsque, parmi a0, . . . , an, deux scalaires au moinssont egaux, le determinant V (a0, . . . , an) contient au moins deux lignes egales, donc il

est nul, ainsi que la quantite V (a0, . . . , an−1)n−1∏i=0

(ai − an).

Troisieme demonstration, utilisant des polynomes.

Soit x ∈ K. V (a0, . . . , an−1, x) =

∣∣∣∣∣∣∣∣∣∣

1 a0 a20 · · · an0

1 a1 a21 · · · an1

......

......

1 an−1 a2n−1 · · · ann−1

1 x x2 · · · xn

∣∣∣∣∣∣∣∣∣∣.

Si l’on developpe ce determinant selon sa derniere ligne, on obtient un polynome en xde degre inferieur ou egal a n, dont le coefficient de degre n vaut V (a0, . . . , an−1).

c©Eric Merle 97 MPSI2, LLG

Page 99: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Soit i ∈ {0, . . . , n − 1}. La matrice V(a0, . . . , an−1, ai) possede deux lignes identiques,donc V (a0, . . . , an−1, ai) est nul. Ainsi, le polynome V (a0, . . . , an−1, x) admet au moinsn racines deux a deux distinctes, qui sont a0, . . . , an−1. C’est donc un multiple den−1∏i=0

(x− ai).

Il existe Q ∈ K[X] tel que V (a0, . . . , an−1, x) = Q(x)n−1∏i=0

(x− ai).

Necessairement, deg(Q) ≤ 0, donc Q est une constante, et, en egalant les coefficientsde degre n, on obtient que cette constante vaut V (a0, . . . , an−1).

Ainsi, V (a0, . . . , an−1, x) = V (a0, . . . , an−1)

(n−1∏i=0

(x− ai)

).

Quatrieme demonstration, utilisant les polynomes d’interpolation de Lagrange.Reprenons les notations de la page 24 et notons c = (1, X, . . . , Xn) la base canoniquede Kn[X]. Soit j ∈ {0, . . . , n}.Dans la base L = (L0, . . . , Ln) de Kn[X], les coordonnees du polynome Xj sontaj0, a

j1, . . . , a

jn, donc la matrice V(a0, . . . , an) est la matrice de passage de la base L

vers la base c, notee P cL.

Remarquons, meme si ce n’est pas exactement le but de la demonstration, que ce quiprecede montre sans calcul que la matrice V(a0, . . . , an) est inversible si et seulementsi a0, . . . , an sont deux a deux distincts.De plus, ce qui precede permet d’inverser rapidement V(a0, . . . , an). En effet,V−1(a0, . . . , an) = PL

c , donc le (i, j)eme coefficient de V−1(a0, . . . , an) est le coefficientde degre i− 1 du polynome Lj−1, que l’on pourrait exprimer en fonction de a0, . . . , anen utilisant les relations entre coefficients et racines d’un polynome.Cependant, pour le calcul du determinant de Vandermonde, on peut se contenter decalculer le coefficient de position (n+1, n+1) de V−1(a0, . . . , an). Il s’agit du coefficient

dominant de Ln+1 =n−1∏i=0

X − aian − ai

, donc il est egal an−1∏i=0

1

an − ai.

D’autre part, V−1(a0, . . . , an) =1

V (a0, . . . , an)tCof(V(a0, . . . , an)), donc le coefficient

de position de (n + 1, n + 1) de V−1(a0, . . . , an) est aussi egal aCn+1,n+1

V (a0, . . . , an), ou

Cn+1,n+1 designe le cofacteur de V(a0, . . . , an) de position de (n+ 1, n+ 1).

On en deduit quen−1∏i=0

1

an − ai=V (a0, . . . , an−1)

V (a0, . . . , an).

Propriete. Soient n ∈ N et (a0, . . . , an) ∈ Kn+1 : V (a0, . . . , an) =∏

0≤i<j≤n

(aj − ai) .

Ainsi V(a0, . . . , an) est inversible si et seulement si a0, . . . , an sont deux a deux distincts.

c©Eric Merle 98 MPSI2, LLG

Page 100: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Demonstration.Soit n ∈ N. Notons R(n) l’assertion suivante :

∀(a0, . . . , an) ∈ Kn+1 V (a0, . . . , an) =∏

0≤i<j≤n

(aj − ai).

Demontrons par recurrence sur n que R(n) est vraie pour tout n.

Pour n = 0, soit a0 ∈ K. V (a0) = det(1) = 1 =∏

0≤i<j≤0

(aj − ai), car l’ensemble des

indices de ce produit est l’ensemble vide.Pour n ≥ 1, supposons R(n− 1).Soit (a0, . . . , an) ∈ Kn+1. On a etabli que

V (a0, . . . , an) = V (a0, . . . , an−1)n−1∏i=0

(an − ai), donc, d’apres l’hypothese de recurrence,

V (a0, . . . , an) =

( ∏0≤i<j≤n−1

(aj − ai)

)(n−1∏i=0

(an − ai)

)=

∏0≤i<j≤n

(aj−ai), ce qui demontre

R(n).

7.6.2 Determinants tridiagonaux

Definition. Soient n un entier superieur ou egal a 2 et M = (mi,j) ∈Mn(K).M est une matrice tridiagonale si et seulement si , pour tout (i, j) ∈ N2

n,|i − j| ≥ 2 =⇒ mi,j = 0. Un determinant tridiagonal est le determinant d’unematrice tridiagonale.

Notation. Fixons un entier n superieur ou egal a 3 et M = (mi,j) ∈ Mn(K) unematrice tridiagonale.Pour tout k ∈ Nn, notons Mk = (mi,j) 1≤i≤k

1≤j≤k. Ainsi, pour tout k ∈ Nn, Mk est une

matrice de taille k, extraite de M en ne retenant que ses k premieres colonnes et ses kpremieres lignes. En particulier, M = Mn.Pour tout k ∈ Nn, notons ∆k le determinant de Mk.

Propriete. Pour tout k ≥ 3, ∆k = mk,k∆k−1 −mk−1,kmk,k−1∆k−2

Demonstration.Soit k ≥ 3.

∆k =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

m1,1 m1,2 0 · · · · · · · · · 0

m2,1. . . m2,3

. . ....

0 m3,2. . . . . . . . .

......

. . . . . . . . . . . . . . ....

.... . . . . . . . . . . . 0

.... . . . . . . . . mk−1,k

0 · · · · · · · · · 0 mk,k−1 mk,k

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣,

donc, en developpant selon la derniere colonne, on obtient

c©Eric Merle 99 MPSI2, LLG

Page 101: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

∆k = mk,k

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

m1,1 m1,2 0 · · · · · · · · · 0

m2,1. . . m2,3

. . ....

0 m3,2. . . . . . . . .

......

. . . . . . . . . . . . . . ....

.... . . . . . . . . . . . 0

.... . . . . . . . . mk−2,k−1

0 · · · · · · · · · 0 mk−1,k−2 mk−1,k−1

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

−mk−1,k

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

m1,1 m1,2 0 · · · · · · · · · 0

m2,1. . . m2,3

. . ....

0 m3,2. . . . . . . . .

......

. . . . . . . . . . . . . . ....

.... . . . . . . . . . . . 0

.... . . mk−2,k−3 mk−2,k−2 mk−2,k−1

0 · · · · · · · · · 0 0 mk,k−1

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣.

Dans le membre de droite, le premier determinant est ∆k−1 et, en developpant le seconddeterminant selon la derniere ligne, on montre que ce dernier est egal a mk,k−1∆k−2.On obtient ainsi la relation annoncee.

Remarque. (∆k) est ainsi une suite recurrente lineaire d’ordre 2.En particulier lorsque les suites (mk,k) et (mk−1,kmk,k−1) sont constantes, on sait endeduire une expression de ∆k en fonction de k.

Exemple. Pour n ≥ 2, notons Mn = (mi,j) la matrice de taille n dont les coefficientssont definis par les relations suivantes : pour tout i ∈ Nn, mi,i = 2, pour tout i ∈ Nn−1,mi,i+1 = 1 et mi+1,i = 3, et, pour tout (i, j) ∈ N2

n tel que |i− j| ≥ 2, mi,j = 0.D’apres la propriete precedente, si l’on note ∆n le determinant de Mn, pour tout n ≥ 4,∆n = 2∆n−1 − 3∆n−2.Ainsi, (∆n)n≥2 est une suite recurrente lineaire d’ordre 2 a coefficients constants. Lepolynome caracteristique associe a cette suite est P (X) = X2−2X+3, dont les racinessont 1 + i

√2 et 1− i

√2, donc il existe (λ, µ) ∈ C2 tel que,

pour tout n ≥ 2, (1) : ∆n = λ(1 + i√

2)n + µ(1− i√

2)n.Determinons λ et µ. On pourrait dans ce but calculer ∆2 et ∆3 et substituer leursvaleurs dans la relation (1), mais il y a plus simple. Nous allons prolonger la suite(∆n)n≥2 en l’unique suite (∆n)n≥0 qui verifie la meme relation de recurrence lineaired’ordre 2.

Or, en posant ∆1 = 2, ∆3 = 2∆2 − 3∆1, et ∆2 =

∣∣∣∣ 2 13 2

∣∣∣∣ = 2× 2− 3, donc il suffit de

poser ∆0 = 1.Substituons successivement n par 0 et par 1 dans la relation (1). On obtient : λ+µ = 1

et λ+ µ+ i√

2(λ− µ) = 2. Ainsi, λ− µ = −i√

2

2, donc λ =

1

2− i√

2

4et µ = λ.

c©Eric Merle 100 MPSI2, LLG

Page 102: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

On en deduit que, pour tout n ∈ N, ∆n = 2Re

((1

2− i√

2

4)(1 + i

√2)n

).

En developpant a l’aide de la formule du binome de Newton, on obtient :

∆n = Re

((1− i

√2

2)

n∑k=0

(n2k

)ik2

k2

)=

bn2c∑

k=0

(n2k

)(−1)k2k+

bn−12c∑

k=0

(n

2k + 1

)(−1)k2k.

7.6.3 Determinants circulants

Notation. Fixons un entier n strictement positif.Si σ ∈ Sn et x = (a1, . . . , an) ∈ Kn, on note σ(x) = (aσ(1), . . . , aσ(n)).Enfin, notons c le cycle de longueur n suivant : c = (n, n− 1, . . . , 2, 1).

Definition. Soit M ∈Mn(K) une matrice dont les lignes sont notees L1, . . . , Ln.On dit que M est circulante si et seulement si, pour tout i ∈ Nn, Li = ci−1(L1).Ainsi, on passe d’une ligne a la suivante selon la permutation circulaire c.

Remarque. On peut calculer le determinant d’une matrice circulante quelconque aumoyen de la theorie de la reduction des matrices. Cependant, dans des cas simples, iln’est pas utile de faire appel au calcul general. Il est souvent suffisant de commencerpar remplacer la premiere ligne par la somme de toutes les lignes. En effet, la sommede toutes les lignes est un vecteur de Kn colineaire a (1, 1, . . . , 1). Ainsi, apres mise enfacteur, la premiere ligne ne contient que des “1”. On peut alors, pour j variant de na 2, effectuer les operations Cj ←− Cj − Cj−1.

Exemple. Soit n ≥ 2. Calculez le determinant ∆ de la matrice d’ordre n dont lecoefficient de position (i, j) vaut j − i+ 1 si i ≤ j et n+ j − i+ 1 si i ≥ j.

∆ =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

1 2 3 · · · · · · · · · n

n 1 2. . . n− 1

.... . . . . . . . . . . .

......

. . . . . . . . . . . ....

.... . . . . . . . . 3

3 n. . . 2

2 · · · · · · · · · n 1

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣.

On verifie qu’il s’agit bien du determinant d’une matrice circulante.

L’operation L1 ←−n∑i=1

Li donne ∆ =n(n+ 1)

2

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

1 1 1 · · · · · · · · · 1n 1 2 3 n− 1...

. . . . . . . . . . . ....

.... . . . . . . . . . . .

......

. . . . . . . . . 3

3 n. . . 2

2 3 · · · · · · n 1

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣.

Pour j variant de n a 2, effectuons les operations Cj ←− Cj − Cj−1. Ainsi,

c©Eric Merle 101 MPSI2, LLG

Page 103: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

∆ =n(n+ 1)

2

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

1 0 0 · · · · · · · · · 0n 1− n 1 · · · · · · · · · 1... 1

. . . . . ....

......

. . . . . . . . ....

......

. . . . . . . . ....

3 1 1 1− n 12 1 · · · · · · 1 1 1− n

∣∣∣∣∣∣∣∣∣∣∣∣∣∣.

Developpons selon la premiere ligne et, sur le determinant de taille n− 1 ainsi obtenu,

effectuons l’operation L1 ←−n−1∑i=1

Li. On obtient :

∆ =n(n+ 1)

2

∣∣∣∣∣∣∣∣∣∣∣∣

−1 −1 · · · · · · · · · −11 1− n 1 · · · · · · 1...

. . . . . . . . ....

.... . . . . . . . .

...1 1 1− n 11 · · · · · · 1 1 1− n

∣∣∣∣∣∣∣∣∣∣∣∣.

Pour i variant de 2 a n− 1, effectuons Li ←− Li + L1. Ainsi,

∆ =n(n+ 1)

2

∣∣∣∣∣∣∣∣∣∣∣∣

−1 −1 · · · · · · · · · −10 −n 0 · · · · · · 0...

. . . . . . . . ....

.... . . . . . . . .

...0 0 −n 00 · · · · · · 0 0 −n

∣∣∣∣∣∣∣∣∣∣∣∣= −n(n+ 1)

2(−n)n−2.

7.7 Le polynome caracteristique

Notation. On fixe un K-espace vectoriel E de dimension n ∈ N∗ et u ∈ L(E).

7.7.1 Definition

Definition. Soit M ∈Mn(K). On appelle polynome caracteristique la quantiteχM = det(XIn−M). C’est le determinant d’une matrice dont les coefficients sont dansle corps K(X). χM est un element de K[X].De plus, pour tout λ ∈ K, χM(λ) = det(λIn −M).

Demonstration.

En posant M = (mi,j), χM =∑σ∈Sn

ε(σ)n∏j=1

(Xδj,σ(j) −mj,σ(j)).

On en deduit que, si λ ∈ K, χM(λ) =∑σ∈Sn

ε(σ)n∏j=1

(λδj,σ(j) −mj,σ(j)) = det(λIn −M).

Remarque.

c©Eric Merle 102 MPSI2, LLG

Page 104: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Vous rencontrerez parfois une definition legerement differente du polynome caracteristique.Il s’agit de det(M−XIn). On passe de cette derniere convention a celle que nous avonsadoptee en multipliant par (−1)n. Dans un probleme ou au sein d’un exercice, il estbon de se demander quelle est la convention (parfois implicitement) utilisee.

Representation tabulaire. Si M =

m1,1 · · · m1,n...

...mn,1 · · · mn,n

,

χM(λ) =

∣∣∣∣∣∣∣∣∣λ−m1,1 −m1,2 · · · −m1,n

−m2,1 λ−m2,2. . .

......

. . . . . . −mn−1,n

−mn,1 · · · −mn,n−1 λ−mn,n

∣∣∣∣∣∣∣∣∣ .Remarque. Souvent, le corps est de cardinal infini, ce qui permet d’identifier lepolynome χM avec l’application polynomiale λ 7−→ χM(λ) de K dans K.

Propriete. Pour tout M ∈Mn(K), χtM = χM .

Demonstration.χtM = det(XIn − tM) = det(t(XIn −M)) = det(XIn −M) = χM .

Propriete. Si M est une matrice triangulaire superieure (ou inferieure) dont les

coefficients diagonaux sont λ1, . . . , λn, alors χM(X) =n∏i=1

(X − λi).

Propriete. Deux matrices semblables ont le meme polynome caracteristique.

Demonstration.Soit M ∈Mn(K) et P ∈ GLn(K).χPMP−1 = det(XIn − PMP−1) = det(P (XIn −M)P−1) = det(XIn −M) = χM .

Remarque. La reciproque est fausse.

Demonstration.

Posons M =

(1 10 1

). χM(X) = (X − 1)2 = χI2(X).

Supposons que M et I2 sont semblables. Ainsi, il existe P ∈ GL2(R) tel queM = PI2P

−1 = PP−1 = I2. C’est faux, donc M et I2 ne sont pas semblables alorsqu’elles ont le meme polynome caracteristique.

Definition. On deduit de la propriete precedente que la quantite χmat(u,e) ne dependpas du choix de la base e de E. Cette quantite s’appelle le polynome caracteristiquede u.

Propriete. (λ ∈ Sp(u))⇐⇒ (λ ∈ K et χu(λ) = 0).

Demonstration.Soit λ ∈ K. λ ∈ Sp(u) si et seulement si λIdE−u n’est pas injectif, donc si et seulementsi det(λIdE − u) = 0.

Corollaire. Pour toute M ∈Mn(K), Sp(tM) = Sp(M).

c©Eric Merle 103 MPSI2, LLG

Page 105: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Corollaire. Le spectre d’une matrice triangulaire superieure est egal l’ensemble deses coefficients diagonaux.

Exemple. Choisissons M =

0 1 00 0 11 −1 1

∈M3(R).

Soit λ ∈ R. χM(λ) =

∣∣∣∣∣∣λ −1 00 λ −1−1 1 λ− 1

∣∣∣∣∣∣. On effectue L1 ← L1 + L3. On obtient

χM(λ) =

∣∣∣∣∣∣λ− 1 0 λ− 1

0 λ −1−1 1 λ− 1

∣∣∣∣∣∣. On effectue C3 ← C3 − C1. On obtient

χM(λ) = (λ− 1)

∣∣∣∣∣∣1 0 00 λ −1−1 1 λ

∣∣∣∣∣∣, donc

χM(λ) = (λ− 1)(λ2 + 1). Ainsi Sp(M) = {1}.Cependant, on peut aussi considerer M comme une matrice a coefficients complexes,auquel cas, Sp(M) = {1, i,−i}.Remarque. Si M ∈Mn(R), le spectre de M consideree comme matrice a coefficientsdans R (note SpR(M)) n’est pas en general egal au spectre de M consideree commematrice a coefficients complexes (note SpC(M)). On dispose seulement de la relationSpR(M) = SpC(M) ∩ R. Il est donc important de preciser de quel spectre de M onparle.De meme, si u ∈ E (ou E est un R-espace vectoriel), les valeurs propres de u sont dansR, mais parfois, on appelle valeurs propres de u toutes les racines de χu, meme cellesappartenant a C\R. Ici aussi, il est important de preciser quelle definition d’une valeurpropre on utilise.Par exemple, au sein d’un probleme ou d’un exercice, la question “toutes les valeurspropres de u sont-elles dans R ?” n’a d’interet que si l’on considere que les valeurspropres de u sont toutes les racines complexes de χu.

Definition. Soit λ ∈ Sp(u).

On appelle multiplicite de λ sa multiplicite en tant que racine de χu.

Elle est notee m(λ).Si m(λ) = 1, on dit que λ est une valeur propre simple de u.Si m(λ) = 2, on dit que λ est une valeur propre double de u.Si m(λ) = 3, on dit que λ est une valeur propre triple de u.

Remarque. Lorsque λ /∈ Sp(u), on convient que m(λ) = 0.

7.7.2 Proprietes du polynome caracteristique

Propriete. χu est un polynome unitaire de degre n tel que

χu(X) = Xn − Tr(u)Xn−1 + · · ·+ (−1)ndet(u).

c©Eric Merle 104 MPSI2, LLG

Page 106: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Remarque. Dans la formule ci-dessus, les “+ · · ·+” indiquent qu’il y a des termesintermediaires, mais il n’y a pas de formule simple donnant ces termes.

Demonstration.Fixons une base e de E et notons M = (mi,j) = mat(u, e).

χu = χM = det(XIn −M) =∑σ∈Sn

ε(σ)n∏j=1

(Xδj,σ(j) −mj,σ(j)).

• Soit σ ∈ Sn.n∏j=1

(Xδj,σ(j) −mj,σ(j)) est un polynome en X de degre inferieur a n.

De plus, son degre est egal a n si et seulement si , pour tout j ∈ Nn, σ(j) = j,c’est-a-dire si et seulement si σ = IdNn .Ainsi χu est un polynome de degre n dont le coefficient dominant vaut ε(IdNn) = 1.• Soit σ ∈ Sn \ {IdNn}. Il existe i ∈ Nn tel que σ(i) 6= i. Posons j = σ(i). Si σ(j) = j,σ etant injective, j = i, ce qui est faux. Ainsi {k ∈ Nn/σ(k) 6= k} est de cardinal

superieur ou egal a 2. Doncn∏j=1

(Xδj,σ(j) − mj,σ(j)) est un polynome en X de degre

inferieur a n− 2.

Ainsi χu(X) =n∏j=1

(X − mj,j) + Q(X) ou Q est un polynome de degre inferieur ou

egal a n− 2. On en deduit que χu(X) = Xn −

(n∑j=1

mj,j

)Xn−1 + R(X) ou R est un

polynome de degre inferieur ou egal a n− 2.D’autre part, le terme constant de χu est χu(0) = det(−u) = (−1)ndet(u).

Corollaire. Si K = C, u admet au moins un vecteur propre.

Demonstration.χu est un polynome de C[X] de degre superieur a 1, or C est algebriquement clos, doncχu admet au moins une racine dans C.

Exercice. Soit E un C-espace vectoriel de dimension n ≥ 1 et u, v ∈ L(E) telsque uv = vu. Montrer que u et v possedent au moins un vecteur propre commun.

Resolution. u possede au moins une valeur propre λ ∈ C. Euλ est un C-espace

vectoriel non nul et stable par v, donc v/Euλ possede un vecteur propre x ∈ Euλ .

Alors x est un vecteur propre commun a u et v.

Contrexemple en dimension quelconque.

Choisissons E = C[X] etu : E −→ E

P 7−→ XP (X).

Soit P ∈ E \ {0}. deg(u(P )) = 1 + deg(P ), donc il n’existe aucun λ ∈ K tel queu(P ) = λP .Ainsi le spectre de u est egal a l’ensemble vide.

c©Eric Merle 105 MPSI2, LLG

Page 107: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Corollaire. Si χu est scinde sur K (c’est toujours le cas lorsque K = C),

Tr(u) =∑

λ∈SpK(u)

m(λ)λ, et det(u) =∏

λ∈SpK(u)

λm(λ).

Demonstration.D’apres les relations entre coefficients et racines d’un polynome, Tr(u) est egal a lasomme des racines de χu, comptees avec multiplicite, or χu est scinde dans K, doncl’ensemble des racines de χu est SpK(u).

Ainsi, Tr(u) =∑

λ∈SpK(u)

m(λ)λ.

Le raisonnement est similaire pour la seconde formule.

Remarque. En pratique, pour determiner les elements propres d’une matrice M , onpeut commencer par calculer χM . On determine les racines de χM et, pour chacuned’entre elles, notee λ, on recherche une base du sous-espace propre en resolvant le

systeme lineaire (λIn −M)

x1...xn

= 0.

Parfois, on n’a pas besoin de determiner precisement les sous-espaces propres, maisseulement de calculer leurs dimensions. Dans ce cas, il est commode d’utiliser la formulesuivante :

∀λ ∈ Sp(M) dim(Eλ) = n− rg(λIn −M).

Demonstration.D’apres la formule du rang,dim(Eλ) = dim(Ker(λIn −M)) = n− dim(Im(λIn −M)) = n− rg(λIn −M).

Propriete. Soit F un sous-espace vectoriel de E stable par u.

Si u/F est l’endomorphisme induit par u sur F , alors χu/F |χu.Demonstration.Choisissons e′ = (e1, . . . , ep) une base de F que l’on complete en une basee = (e1, . . . , en) de E. Si l’on note M = Mat(u, e) et M ′ = Mat(u/F , e

′), il existe deux

matrices A ∈Mp,n−p(K) et B ∈Mn−p,n−p(K) telles que M =

(M ′ A

0n−p,p B

).

Soit λ ∈ K. χu(X) = det(XIn−M) = det

(XIp −M ′ −A

0n−p,p XIn−p −B

)= χu/F (X)χB(X).

Propriete. Soit (E1, . . . , Ep) une famille de sous-espaces vectoriels de E telle que

E =

p⊕i=1

Ei. On suppose que u stabilise la famille (E1, . . . , Ep). Pour tout i ∈ Np, on

note ui l’endomorphisme induit par u sur Ei. Alors χu =

p∏i=1

χui .

c©Eric Merle 106 MPSI2, LLG

Page 108: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Demonstration.Pour tout i ∈ Np, on choisit une base de Ei notee ei.Notons e la “reunion” des ei, pour i variant de 1 a p. e est une base de E.On sait que Mat(u, e) est diagonale par blocs, la “diagonale” etant constituee des pblocs suivants :M1 = mat(u1, e1), . . ., Mp = mat(up, ep).Le determinant d’une matrice diagonale par blocs etant egal au produit des determinantsdes blocs diagonaux, pour tout λ ∈ K,

χu(X) = det(XIn −M) =

p∏i=1

det(XIni −Mi), ou pour tout i ∈ Np, ni = dim(Ei).

Ainsi, χu(X) =

p∏i=1

χui(X).

Notation. Pour tout λ ∈ Eλ, on note q(λ) = dim(Eλ).

Propriete. ∀λ ∈ Sp(u) 1 ≤ q(λ) ≤ m(λ).

Demonstration.• Soit λ ∈ Sp(u). Eλ 6= {0}, donc 1 ≤ q(λ).• u commute avec lui-meme, donc Eλ est stable par u. Notons u′ l’endomorphismeinduit par u sur Eλ.Pour tout x ∈ Eλ, u(x) = λx, donc u′ = λIdEλ .Soit µ ∈ K. χu′(µ) = det(µIdEλ − u′) = det(µIq(λ) − λIq(λ)) = (µ− λ)q(λ).Ainsi, χu′(X) = (X − λ)q(λ). Or χu′|χu, donc m(λ) ≥ q(λ).

Cas particulier. Si λ est une valeur propre simple de u, 1 = q(λ) = m(λ).

7.7.3 Caracterisation des endomorphismes diagonalisables

Theoreme. u est diagonalisable si et seulement si χu est scinde sur K et, pour toutλ ∈ Sp(u), m(λ) = q(λ).

Demonstration.• Supposons que u est diagonalisable. Ainsi, il existe une base e de E dans laquellela matrice de u est diagonale. Notons λ1, . . . , λn les coefficients diagonaux de cettematrice.

� χu = χMat(u,e) =n∏i=1

(X − λi), donc χu est scinde sur K.

� Soit λ ∈ Sp(u). L’egalite precedente montre que m(λ) = Card({i ∈ Nn/λi = λ}).Or, pour tout i ∈ Nn, ei ∈ Eλi , donc V ect({ei/λi = λ}) ⊂ Eλ.Ainsi, m(λ) = dim(V ect({ei/λi = λ})) ≤ dim(Eλ) = q(λ).L’inegalite contraire etant vraie pour tout endomorphisme, on a montre que, pour toutλ ∈ Sp(u), m(λ) = q(λ).

• Reciproquement, supposons que χu est scinde sur K et que, pour tout λ ∈ Sp(u),m(λ) = q(λ).

c©Eric Merle 107 MPSI2, LLG

Page 109: Alg ebre lin eaire - Free

Algebre lineaire 7 Determinants

Alors,∑

λ∈SpK(u)

q(λ) =∑

λ∈SpK(u)

m(λ) = deg(χu) = n, car χu est scinde sur K, ce qui

prouve que u est diagonalisable.

Cas particulier.Si χu est scinde sur K et si toutes ses racines sont simples, alors u est diagonalisable.

Demonstration.Lorsqu’une valeur propre λ est simple, on a deja etabli que m(λ) = q(λ).

c©Eric Merle 108 MPSI2, LLG