algebra linear e geometria anal ¶ ¶itica (vers~ao de...

175
Ana Paula Santana Jo˜aoFilipeQueir´o ´ ALGEBRA LINEAR E GEOMETRIA ANAL ´ ITICA (vers˜ao de 2003) Departamento de Matem´atica - Universidade de Coimbra

Upload: lyhuong

Post on 03-Dec-2018

224 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Ana Paula SantanaJoao Filipe Queiro

ALGEBRA LINEAR E GEOMETRIA ANALITICA

(versao de 2003)

Departamento de Matematica - Universidade de Coimbra

Page 2: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Indice

0. Os numeros complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3Apendice: Historia dos numeros complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1. Matrizes1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.2 Operacoes com matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.3 Inversa de uma matriz quadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.4 Transposicao de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.5 Matrizes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2. Sistemas de equacoes lineares2.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.2 O algoritmo de eliminacao de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.3 O algoritmo de Gauss-Jordan para inversao de matrizes . . . . . . . . . . . . . . . . . . . . . 37

3. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4. O espaco Rn, subespacos, dimensao4.1 Subespacos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 584.2 Dependencia e independencia linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 644.3 Base e dimensao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 674.4 Mudanca de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 734.5 Caracterıstica e nulidade de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 744.6 Soma e soma directa de subespacos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

5. Angulos e distancias em Rn

5.1 Produto interno em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 825.2 Projeccao ortogonal sobre um subespaco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 865.3 Mınimos quadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 935.4 Complemento ortogonal de um subespaco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 995.5 Determinantes e volumes de paralelipıpedos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1005.6 Produto externo em R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

6. Planos em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

1

Page 3: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

7. Espacos vectoriais7.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1117.2 Espacos vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1127.3 Subespacos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1157.4 Dependencia e independencia linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1197.5 Base e dimensao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1217.6 Mudanca de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

8. Transformacoes lineares8.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1298.2 Representacao matricial de transformacoes lineares . . . . . . . . . . . . . . . . . . . . . . . . . 1358.3 Equacoes com transformacoes lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

9. Valores proprios e vectores proprios9.1 Valores proprios e vectores proprios de transformacoes lineares . . . . . . . . . . . . . 1449.2 Valores proprios e vectores proprios de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1459.3 Matrizes diagonalizaveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1489.4 O caso das matrizes simetricas reais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1549.5 Curvas e superfıcies do 2o grau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

10. Espacos vectoriais com produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174

2

Page 4: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

0 Os numeros complexos

Os conjuntos de numeros mais conhecidos e habituais sao os seguintes: o conjunto dosnumeros naturais

N = {1, 2, 3, . . .},o conjunto dos numeros inteiros

Z = {. . . ,−3,−2,−1, 0, 1, 2, 3, . . .},

o conjunto dos numeros racionais

Q ={m

n: m,n ∈ Z, n 6= 0

}

e o conjunto dos numeros reais, para o qual usaremos o sımbolo R.Tem-se a seguinte cadeia de inclusoes:

N ⊂ Z ⊂ Q ⊂ R .

Exemplos de numeros reais que nao sao racionais sao√

2 ,√

3 , e e π . A melhormaneira de “visualizar” o conjunto R e pensar nos pontos de uma recta, o “eixo real”.Marcando no eixo dois pontos para representar os numeros 0 e 1, obtem-se uma corres-pondencia perfeita entre R e o conjunto dos pontos do eixo.

0 1 α

R

Supor-se-ao conhecidas as propriedades basicas destes numeros.

No seculo XVI, a proposito da descoberta da formula resolvente das equacoes do 3o

grau, “descobriu-se” um novo conjunto de numeros contendo R. Essa historia e recordadaem apendice.

O novo conjunto de numeros e o conjunto dos numeros complexos

C = {a + ib : a, b ∈ R}

onde i satisfaz i2 = −1. As operacoes com numeros complexos realizam-se tratando-oscomo numeros como os outros e usando as propriedades habituais das operacoes, bemcomo a igualdade i2 = −1. Assim, por exemplo,

(a + ib) + (c + id) = (a + c) + i(b + d)

(a + ib)(c + id) = (ac− bd) + i(ad + bc) .

3

Page 5: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Estas operacoes gozam das mesmas propriedades algebricas que as correspondentesno conjunto dos numeros reais: comutatividade, associatividade, distributividade da mul-tiplicacao relativamente a adicao.1 Os numeros complexos 0 = 0 + i0 e 1 = 1 + i0 saoelementos neutros para, respectivamente, a adicao e a multiplicacao. O inverso do numerocomplexo a + ib 6= 0 e

a

a2 + b2+ i

−b

a2 + b2.

Note-se que todos os numeros reais sao tambem numeros complexos (sao aqueles emque b = 0), pelo que a cadeia de inclusoes acima referida pode ser completada:

N ⊂ Z ⊂ Q ⊂ R ⊂ C .

A melhor maneira de “visualizar” o conjunto C e pensar nos pontos de um plano,o “plano complexo”. Tracando no plano um sistema de dois eixos perpendiculares, eidentificando o numero complexo a+ ib com o ponto de coordenadas (a, b), obtem-se umacorrespondencia entre C e o conjunto dos pontos do plano.

C

.a + ib

0 a

ib

Se pensarmos na formula resolvente para equacoes do 2o grau, vemos que, com aintroducao dos numeros complexos, qualquer equacao do 2o grau com coeficientes reaistem solucao em C: o aparecimento de raızes quadradas de numeros negativos deixa deser problema. Por exemplo, a equacao x2 − 2x + 5 = 0 tem as solucoes 1 + 2i e 1− 2i.

Mas pode dizer-se muito mais: com a introducao dos numeros complexos, qualquerequacao de qualquer grau, com coeficientes reais ou mesmo complexos, tem solucao em

1 Uma diferenca basica entre R e C e que no conjunto dos numeros complexos nao existe uma relacaode ordem < compatıvel com as operacoes, isto e, satisfazendo, para quaisquer z1, z2, w ∈ C, as implicacoesz1 < z2 ∧ w > 0 ⇒ z1w < z2w e z1 < z2 ⇒ z1 + w < z2 + w.

4

Page 6: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

C. Este e o conteudo do chamado Teorema Fundamental da Algebra, demonstrado pelaprimeira vez de forma completa por Gauss em 1799.2

Do Teorema Fundamental da Algebra tira-se uma importante conclusao: um polinomiocom coeficientes reais ou complexos pode sempre escrever-se como produto de factores degrau 1:

anxn + an−1x

n−1 + · · ·+ a1x + a0 = an(x− α1)(x− α2) . . . (x− αn)

(α1, α2, . . . , αn sao as raızes do polinomio).

O conjunto C e portanto muito rico do ponto de vista algebrico. Vamos ilustrar essariqueza mostrando que, dado n ∈ N, qualquer numero complexo nao nulo tem n raızes deındice n em C. Antes disso, introduzimos mais alguma terminologia.

Seja z = x+ iy ∈ C. Chamamos a x parte real de z e escrevemos x = Re z. Chamamosa y parte imaginaria de z e escrevemos y = Im z. Se x = 0 dizemos que z e imaginariopuro. O conjugado de z e z = x − iy. O modulo de z e o numero real nao negativo|z| =

√x2 + y2. (A funcao modulo em C estende a funcao modulo conhecida em R.)

Geometricamente, |z| e a distancia do ponto z do plano complexo a origem (isto e, aoponto 0).3

Seja z um numero complexo nao nulo, identificado com um ponto do plano. A medidado angulo que a semi-recta que vai de 0 para z faz com a parte positiva do eixo realchamamos argumento de z (notacao: arg z). Cada numero complexo z 6= 0 tem umainfinidade de argumentos, diferindo uns dos outros por multiplos inteiros de 2π.

©©©©©©©©©©©*z

0

θ

Ponhamos |z| = r. Seja θ um argumento de z. Entao Re z = r cos θ e Im z = r sen θe podemos escrever

z = r(cos θ + i sen θ).

2 Para provar este teorema, sao necessarios conhecimentos de Analise que estao para alem do 1o anoda Universidade. Note-se que o teorema apenas afirma a existencia de solucoes. A determinacao delaspara cada equacao e um problema diferente.

3 Mais geralmente, |z − w| e a distancia entre os pontos z e w.

5

Page 7: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Esta e a chamada forma polar ou trigonometrica de z, por oposicao a forma algebricaz = x + iy. Para cos θ + i sen θ usa-se por vezes a abreviatura cis θ.4

Calculando o produto de dois numeros complexos escritos na forma trigonometricatem-se

(r1 cis θ1)(r2 cis θ2) = r1r2 cis(θ1 + θ2)

(verifique). Segue-se a seguinte formula para as potencias de um numero complexo:

(r cis θ)n = rncis(nθ) , n ∈ N

(“formula de De Moivre”).Daqui tira-se que, sendo z = r cis θ e n ∈ N, z tem n raızes de ındice n. O raciocınio

e o seguinte. Vamos procurar os numeros complexos w que satisfazem wn = z. Escreva--se w na forma trigonometrica, w = ρ cis φ. Entao, pela formula de De Moivre, tem-seρncis(nφ) = r cis θ donde

ρn = r e nφ− θ = 2kπ, k ∈ Z

o que e equivalente a

ρ = r1/n e φ =θ + 2kπ

n, k ∈ Z .

Entao w pode tomar exactamente os seguintes valores:

r1/ncis

(θ + 2kπ

n

), k = 0, 1, . . . , n− 1.

(Em princıpio deverıamos escrever k ∈ Z mas facilmente se ve que as raızes so tem nvalores distintos, que se obtem dando a k os valores indicados.)

4 Note-se que, se se tiver r cis θ = r′ cis θ′, entao r = r′ mas, quanto aos argumentos, so se podeconcluir que θ − θ′ e um multiplo inteiro de 2π.

6

Page 8: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Apendice: Historia dos numeros complexos

Como se disse, foi no seculo XVI, a proposito da descoberta da formula resolvente dasequacoes do 3o grau, que se “descobriram” os numeros complexos. Recorda-se aqui essahistoria.

A equacao a resolver e a seguinte:5

x3 + bx + c = 0.

Os matematicos italianos do seculo XVI que trataram deste assunto tiveram a ideiade escrever a incognita x na forma x = u + v, com u e v numeros a determinar. Ora,como

(u + v)3 = u3 + 3u2v + 3uv2 + v3,

tem-se, passando tudo para o primeiro membro,

(u + v)3 − 3uv(u + v)− (u3 + v3) = 0.

Comparando com a equacao proposta, ve-se que, se se encontrarem numeros u e v satis-fazendo as condicoes

−3uv = b e − (u3 + v3) = c ,

entao x = u + v sera uma solucao da equacao.

Da primeira condicao tira-se v = − b

3u. Substituindo v por este valor na segunda

condicao obtem-se

−u3 +b3

27u3= c ,

o que e o mesmo que

u6 + cu3 − b3

27= 0 .

Ora isto, que e uma equacao do 6o grau em u, e de facto uma equacao do 2o grau em u3,que se sabe resolver:

u3 =−c±

√c2 + 4

b3

272

= − c

√c2

4+

b3

27.

Escolhendo para u3 por exemplo o valor

u3 = − c

2+

√c2

4+

b3

27,

5 Se se conseguir resolver uma equacao desta forma consegue-se resolver qualquer equacao do 3o grau:primeiro, se o coeficiente de x3 nao for 1, podemos dividir ambos os membros por esse coeficiente o quenao altera as solucoes da equacao; segundo, se o coeficiente de x2, chamemos-lhe a, nao for 0, procede-sea uma mudanca de incognita substituindo x por y − a

3 . Nao e difıcil ver que na nova equacao assimobtida, em que a incognita e y, e que continua a ser de grau 3, o coeficiente de y3 e 1 e o coeficiente dey2 e 0. As solucoes da primeira equacao podem obter-se das da segunda simplesmente subtraindo-lhes a

3 .

7

Page 9: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

de −(u3 + v3) = c tira-se

v3 = − c

2−

√c2

4+

b3

27.

E vem, finalmente,

x =3

√− c

2+

√c2

4+

b3

27+

3

√− c

2−

√c2

4+

b3

27

o que e o mesmo que

x =3

√√√√− c

2+

√( c

2

)2

+

(b

3

)3

+3

√√√√− c

2−

√( c

2

)2

+

(b

3

)3

.

Esta e a formula resolvente encontrada no seculo XVI por del Ferro, Cardano eTartaglia.

Algum tempo depois da descoberta da formula, outro italiano, Bombelli, aplicou-a aequacao

x3 − 15x− 4 = 0.

Note-se que esta equacao tem a solucao x = 4, como se ve imediatamente. Mas a formularesolvente da

x =3

√2 +

√−121 +3

√2−√−121 .

Aparece aqui a raiz quadrada de um numero negativo, o que torna a expressao semsentido. Mas Bombelli teve um “pensamento louco” (nas suas proprias palavras) e fezcontas com essas raızes como se elas existissem, e usando as propriedades habituais dasoperacoes com numeros.

Como 121 = 112, devera ser√−121 = 11

√−1, pelo que

3

√2 +

√−121 =3

√2 + 11

√−1 e3

√2−√−121 =

3

√2− 11

√−1 .

Como entre os radicandos das raızes cubicas 3√

2 + 11√−1 e 3

√2− 11

√−1 so ha umadiferenca de sinal, ocorreu a Bombelli que essas raızes cubicas se possam tambem escreverna forma

3

√2 + 11

√−1 = a + b√−1 e

3

√2− 11

√−1 = a− b√−1

com a e b numeros reais. E, de facto, das condicoes

(a + b

√−1)3

= 2 + 11√−1 e

(a− b

√−1)3

= 2− 11√−1

tira-se, fazendo os calculos usando as propriedades habituais das operacoes com numeros(e tambem (

√−1)2 = −1), que a = 2 e b = 1 sao solucoes possıveis, isto e,

(2 +

√−1)3

= 2 + 11√−1 e

(2−√−1

)3= 2− 11

√−1 .

8

Page 10: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

(Exercıcio: faca os calculos que comprovam isto.)Entao

3

√2 + 11

√−1 = 2 +√−1 e

3

√2− 11

√−1 = 2−√−1

e vem, para a solucao da equacao,

x = 2 +√−1 + 2−√−1 = 4 .

Portanto, trabalhando com estas quantidades imaginarias — as raızes quadradas denumeros negativos — Bombelli chegou a um resultado real correcto.

A partir deste episodio, os numeros da forma a+ b√−1, com a e b reais — designados

por numeros imaginarios, nome que continuou ate hoje, embora seja mais vulgar chamar--lhes numeros complexos — passaram a ser usados nas mais variadas questoes e aplicacoesda Matematica, e foram-se impondo pela sua utilidade.

Durante mais de dois seculos, a questao da natureza dos numeros complexos — quenumeros sao estes ao certo? — permaneceu um pouco misteriosa. (A partir do seculoXVIII, com Euler, tornou-se habitual usar a letra i para designar

√−1.) So durante oseculo XIX foram apresentadas respostas satisfatorias para essa questao e foram justifi-cadas as propriedades destes numeros. Como? Definindo os numeros complexos a custa deentidades conhecidas — por exemplo, como pontos num plano ou, o que e quase a mesmacoisa, como pares ordenados de numeros reais — sendo as operacoes definidas da maneiraconveniente. Depois mostra-se que as operacoes gozam das propriedades desejadas e queno conjunto ha um subconjunto que e uma “copia” dos numeros reais.

9

Page 11: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

1 Matrizes

1.1 Generalidades

Ao longo dos primeiros capıtulos deste texto, trabalharemos com numeros reais. Prati-camente tudo o que veremos e tambem valido, sem alteracao, para numeros complexos,mas em geral so faremos referencia ao caso dos numeros reais. Por vezes, em vez dapalavra “numeros”, tambem se usa “escalares”.

Definicao 1.1 Chama-se matriz do tipo m × n sobre R (ou C) a todo o quadroque se obtem dispondo mn numeros segundo m linhas e n colunas

A =

a11 a12 . . . a1n

a21 a22 . . . a2n...

.... . .

...am1 am2 . . . amn

.

Os numeros aij dizem-se os elementos da matriz.

Para cada i e j, aij e o elemento de A situado na linha i e coluna j. Tal elementoe tambem referido como o elemento de A na posicao (i, j), ou apenas por elemento(i, j) de A.

Uma matriz diz-se real ou complexa consoante os seus elementos forem numerosreais ou complexos.

O conjunto de todas as matrizes do tipo m×n sobre R representa-se por Mm×n(R).

Usamos a notacao Rm para Mm×1(R).

E costume usarem-se letras maiusculas para designar matrizes. Exceptua-se o caso dasmatrizes-coluna, isto e, matrizes so com uma coluna, para as quais, frequentemente, seutilizam letras minusculas.

A matriz A da definicao pode tambem ser apresentada na forma A = [aij]m×n, ousimplesmente A = [aij] se o tipo for conhecido do contexto ou nao for importante naquestao que esteja em estudo.

Exemplo 1.1 Sejam A =

[1 2 7

−5 3 8

]; B =

0 −2 71 2 3

12 5 8

e u =

249

.

A matriz A e uma matriz real do tipo 2× 3. Dizemos, portanto, que A ∈ M2×3(R).O elemento de A na posicao (2, 1) e −5 . B e uma matriz real 3 × 3 e u e umamatriz-coluna pertencente a R3.

10

Page 12: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Na definicao seguinte registamos terminologia e notacoes basicas relativas a matrizes.

Definicao 1.2 1. Duas matrizes A = [aij] e B = [bij] ∈ Mm×n(R) sao iguais seaij = bij, para i = 1, . . . ,m, j = 1, . . . , n.

2. A ∈ Mm×n(R) diz-se quadrada de ordem n se m = n, e rectangular sem 6= n.

3. Os elementos diagonais de A = [aij] ∈ Mn×n(R) sao a11, a22, . . . , ann.A sequencia ordenada (ou n-uplo) constituıda por estes elementosdiz-se diagonal principal de A. O n-uplo constituıdo pelos elementos daoutra diagonal recebe o nome de diagonal secundaria.

4. Seja A = [aij] quadrada. A diz-se triangular superior se aij = 0 quandoi > j, triangular inferior se aij = 0 quando i < j, e diagonal se aij = 0quando i 6= j.

5. A matriz identidade de ordem n, In, e a matriz diagonal, de ordem n, comos elementos diagonais iguais a 1.

In =

1 0 . . . 00 1 . . . 0...

.... . .

...0 0 . . . 1

.

E usual denotar-se o elemento (i, j) de In por δij. Assim, δij toma o valor 1se i = j, e 0 se i 6= j. Chamaremos “sımbolo de Kronecker” a δij.

6. A matriz nula m × n e a matriz m × n cujos elementos sao todos iguais azero. Representa-se por 0m×n, ou simplesmente por 0 se o tipo estiver clarodo contexto.

7. Sendo A = [aij]m×n, define-se −A = [− aij]m×n.

8. Sendo A uma matriz, uma submatriz de A e uma matriz que se obtem porsupressao de linhas e/ou colunas de A.

11

Page 13: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 1.2 As matrizes

[1 2 7

−5 3 8

]e

[a 2 7

−5 b 8

]sao iguais se a = 1 e b = 3.

Estas duas matrizes sao rectangulares, enquanto a matriz A =

10 5 −78 2 3

15 6 5

e quadrada

de ordem 3. Os elementos diagonais de A sao 10, 2 e 5, a sua diagonal principal e (10, 2, 5)e a sua diagonal secundaria e (−7, 2, 15) .

As matrizes

1 2 −70 2 10 0 −2

,

1 0 07 3 05 0 5

e

2 0 00 2 00 0 7

sao, respectivamente, triangular superior, triangular inferior e diagonal.

As matrizes

[10 −715 5

]e

5 −72 36 5

sao exemplos de submatrizes de A=

10 5 −78 2 3

15 6 5

.

1.2 Operacoes com matrizes

Definicao 1.3 Sendo A = [aij] , B = [bij] ∈ Mm×n(R) e α ∈ R, define-se:

1. A + B como sendo a matriz do tipo m × n cujo elemento (i, j) e aij + bij.Assim A + B = [aij + bij]m×n.

2. αA como sendo a matriz do tipo m × n cujo elemento (i, j) e α aij. Tem-seentao αA = [α aij]m×n.

Exemplo 1.3 Sendo A =

[1 0 −6

−2 1 8

]e B =

[10 3 81 6 4

], tem-se

A + B =

[11 3 2−1 7 12

]e

1

2A =

[12

0 −3−1 1

24

].

Teorema 1.1 Sejam A, B e C matrizes em Mm×n(R). Entao verifica-se:

1. (A + B) + C = A + (B + C) (associatividade da adicao).

2. A + B = B + A (comutatividade da adicao).

3. A + 0 = 0 + A = A (0 e elemento neutro da adicao).

4. A + (−A) = (−A) + A = 0 (−A e o elemento simetrico ou oposto de A).

12

Page 14: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Demonstracao. Apenas demonstramos a primeira destas propriedades, deixando asrestantes como exercıcio.

Sejam A = [aij] , B = [bij] , C = [cij] ∈ Mm×n(R) . Sejam D = (A + B) + C = [dij]e E = A + (B + C) = [eij] . Note-se que D e E sao matrizes m × n. Por outro lado, dadefinicao de adicao de matrizes, tem-se dij = (aij + bij)+ cij e eij = aij +(bij + cij). Masa associatividade da adicao em R diz-nos que estas duas somas sao iguais. Logo, dij = eij

para i = 1, . . . , m, j = 1, . . . , n, e portanto D = E.

Teorema 1.2 Sejam A e B matrizes em Mm×n(R) e α, β ∈ R. Entao verifica-se:

1. α(A + B) = αA + αB.

2. (α + β)A = αA + βA.

3. (αβ)A = α(βA).

4. 1A = A.

Demonstracao. Demonstremos a propriedade 3, sendo as restantes deixadas comoexercıcio. Seja A = [aij] ∈ Mm×n(R) e α, β ∈ R. Entao (αβ)A e α(βA) sao matrizesdo mesmo tipo e o elemento (i, j) de (αβ)A e (αβ)aij. Como α, β e aij sao elementosde R, da associatividade da multiplicacao em R, sabemos que (αβ)aij = α(βaij). Mas osegundo membro desta igualdade nao e mais que o elemento (i, j) de α(βA). Como i e jsao quaisquer, obtemos a igualdade das matrizes consideradas.

Definicao 1.4 Sendo A = [aij] ∈ Mm×n(R) e B = [bij] ∈ Mn×p(R), define-se ABcomo sendo a matriz do tipo m×p cujo elemento (i, j) e ai1b1j +ai2b2j + · · ·+ainbnj.Assim

AB =

[n∑

k=1

aikbkj

]

m×p

.

Como se pode ver pela definicao, o produto AB da matriz A pela matriz B apenasesta definido se o numero de colunas de A for igual ao numero de linhas de B. Neste casoo numero de linhas da matriz AB e igual ao numero de linhas de A e o numero de colunase igual ao de B. O elemento de AB situado na linha i e coluna j obtem-se a partir dalinha i de A e da coluna j de B:

. . . . . . . . . . . .ai1 ai2 . . . ain

. . . . . . . . . . . .

. . . b1j . . .

. . . b2j . . ....

......

. . . bnj . . .

=

. . . . . . . . .

. . . ai1b1j + ai2b2j + . . . + ainbnj . . .

. . . . . . . . .

.

13

Page 15: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Vemos assim que:

1. a linha i de AB se obtem multiplicando a linha i de A pela matriz B;

2. a coluna j de AB se obtem multiplicando a matriz A pela coluna j de B;

3. AB obtem-se multiplicando a matriz A pelas colunas de B, ou multiplicando aslinhas de A pela matriz B.

Exemplo 1.4 1. Sejam A =

[1 2 79 3 8

]e B =

5 4 38 0 61 2 9

. Entao

AB =

[1× 5 + 2× 8 + 7× 1 1× 4 + 2× 0 + 7× 2 1× 3 + 2× 6 + 7× 99× 5 + 3× 8 + 8× 1 9× 4 + 3× 0 + 8× 2 9× 3 + 3× 6 + 8× 9

]

=

[28 18 7877 52 117

]

Note-se que neste caso o produto BA nao esta definido, visto o numero de colunasde B ser diferente do numero de linhas de A.

2. Sejam A =[

3 1 5]

e B =

274

. Entao

AB =[

3× 2 + 1× 7 + 5× 4]

=[

33];

e

BA =

2× 3 2× 1 2× 57× 3 7× 1 7× 54× 3 4× 1 4× 5

=

6 2 1021 7 3512 4 20

.

3. Sendo A =

[1 2

−1 −2

]e B =

[4 −6

−2 3

], tem-se

AB =

[0 00 0

]; BA =

[10 20−5 −10

].

Exercıcio 1.1 Designe-se por cj a coluna j de Am×n, j = 1, . . . , n. Dada a matriz-coluna

x =

x1

x2

...xn

,

verifique que Ax = x1c1 + x2c2 + . . . + xncn. Dizemos que Ax e uma combinacao lineardas colunas de A.

Note-se que, uma vez que AB se obtem multiplicando A pelas colunas de B, podemosconcluir que as colunas de AB sao combinacoes lineares das colunas de A.

Veja se algo de semelhante se passa com as linhas de AB.

14

Page 16: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 1.3 Sejam A,A′∈Mm×n(R), B,B′∈Mn×p(R), C∈Mp×q(R) e α∈R.Entao tem-se:

1. A0 = 0, 0A = 0 , AIn = ImA = A.

2. (AB)C = A(BC) (associatividade da multiplicacao).

3. A(B + B′) = AB + AB′ , (A + A′)B = AB + A′B (distributividades do produtoem relacao a adicao).

4. α(AB) = (αA)B = A(αB).

5. AB = 0 6⇒ (A = 0 ou B = 0).

6. (AB = AB′ e A 6= 0) 6⇒ B = B′, e tambem (AB = A′B e B 6= 0) 6⇒ A = A′.

7. A multiplicacao de matrizes nao e comutativa.

Demonstracao. Demonstremos a propriedade 2. As outras ficam como exercıcio (noteque as propriedades 5 e 7 seguem do exemplo 1.4).

Sejam A = [aij] ∈ Mm×n(R), B = [bij] ∈ Mn×p(R) e C = [cij] ∈ Mp×q(R). Entao(AB)C e A(BC) sao ambas matrizes do tipo m × q. Da definicao de produto sabemos

que o elemento (i, j) de AB en∑

k=1

aikbkj . Assim, o elemento (i, l) de (AB)C sera

p∑t=1

(n∑

k=1

aikbkt

)ctl.

De modo analogo, o elemento (i, l) de A(BC) e

n∑

k=1

aik

(p∑

t=1

bktctl

).

Utilizando as propriedades distributiva da multiplicacao em relacao a adicao, associativada multiplicacao e da adicao e comutativa da adicao em R, tem-se

n∑

k=1

aik

(p∑

t=1

bktctl

)=

n∑

k=1

p∑t=1

aik(bktctl) =

p∑t=1

n∑

k=1

(aikbkt)ctl =

p∑t=1

(n∑

k=1

aikbkt

)ctl.

Observacao. Da associatividade do produto de matrizes concluımos que nao temos quenos preocupar com parenteses quando lidarmos com mais de dois factores. Em particular,fica bem definido o significado da expressao Ak, onde A e uma matriz quadrada e k ∈ N.

Exercıcio 1.2 Prove que o produto de duas matrizes triangulares superiores (resp. infe-riores) da mesma ordem e ainda uma matriz triangular superior (resp. inferior).A que sao iguais os elementos diagonais do produto neste caso?

15

Page 17: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exercıcio 1.3 Sejam A e B matrizes m × n. Prove que, se Av = Bv para todo o vectorcoluna n× 1 v, entao A = B.(Sugestao: O que conclui se v for uma das colunas da matriz In?)

Exercıcio 1.4 (Produto por blocos.) Sejam A m×n e B n×p duas matrizes. Suponhamosque as particionamos em “blocos” (ou submatrizes) assim

A =

A11 A12 . . . A1s

A21 A22 . . . A2s

......

. . ....

Ar1 Ar2 . . . Ars

, B =

B11 B12 . . . B1t

B21 B22 . . . B2t

......

. . ....

Bs1 Bs2 . . . Bst

,

de forma que, para todos os possıveis valores de i, j, e k, o numero de colunas de Aik sejaigual ao numero de linhas de Bkj . Mostre que, entao, o produto AB se pode calcular doseguinte modo (note-se que o numero de colunas de blocos de A e igual ao numero de linhasde blocos de B):

AB =

∑sk=1 A1kBk1

∑sk=1 A1kBk2 . . .

∑sk=1 A1kBkt∑s

k=1 A2kBk1

∑sk=1 A2kBk2 . . .

∑sk=1 A2kBkt

......

. . ....∑s

k=1 ArkBk1

∑sk=1 ArkBk2 . . .

∑sk=1 ArkBkt

.

( Sugestao: Talvez ajude comecar por considerar o caso s = 2, r = t = 1.)

1.3 Inversa de uma matriz quadrada

Dado um numero nao nulo, real ou complexo, podemos falar do seu inverso multiplica-tivo. O que se passara com matrizes?

Definicao 1.5 Seja A uma matriz quadrada de ordem n. Dizemos que A e invertıvelse existir uma matriz X, quadrada de ordem n, tal que AX = XA = In.

Teorema 1.4 Seja A uma matriz quadrada de ordem n. Entao existe no maximo umamatriz X quadrada de ordem n tal que AX = XA = In. (Nestas condicoes X diz-se ainversa de A e representa-se por A−1.)

Demonstracao. Sejam X e Y matrizes quadradas de ordem n tais que AX = XA = In

e AY = Y A = In. Entao Y = Y In = Y (AX) = (Y A)X = InX = X. Logo, existe nomaximo uma matriz X nas condicoes referidas.

16

Page 18: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 1.5 A matriz

[1 21 1

]e invertıvel, sendo a sua inversa a matriz

[ −1 21 −1

].

De facto tem-se[

1 21 1

] [ −1 21 −1

]= I2 e

[ −1 21 −1

] [1 21 1

]= I2.

Teorema 1.5 Sejam A e B matrizes quadradas de ordem n invertıveis. Entao AB einvertıvel e (AB)−1 = B−1A−1.

Demonstracao. (AB)(B−1A−1) = A(BB−1)A−1 = AInA−1 = AA−1 = In. De modoanalogo, (B−1A−1)(AB) = B−1(A−1A)B = B−1InB = B−1B = In. Podemos assimconcluir que AB e invertıvel e a sua inversa e B−1A−1.

Exercıcio 1.5 Generalize o resultado do teorema anterior para mais do que duas matrizes.

Adiante estudaremos metodos para determinar se uma matriz quadrada e ou naoinvertıvel, e, no caso afirmativo, calcular a sua inversa.

1.4 Transposicao de matrizes

Definicao 1.6 Dada uma matriz A = [aij] do tipo m × n, define-se a trans-posta de A como sendo a matriz AT = [bij], do tipo n ×m, onde bij = aji, parai = 1, . . . , n, j = 1, . . . , m. A matriz A diz-se simetrica se A = AT .

Observacoes. 1. Os elementos da coluna i de AT sao precisamente os da linha i de A,para i = 1, . . . , m.2. Uma matriz e simetrica se e so se for quadrada e forem iguais os elementos situadosem posicoes simetricas relativamente a diagonal principal.

17

Page 19: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 1.6 A transposta da matriz A =

[1 2 01 5 3

]e a matriz AT =

1 12 50 3

.

A matriz

3 2 52 1 75 7 9

e simetrica, mas a matriz

3 1 52 1 75 7 9

ja o nao e, uma vez que os elementos nas posicoes (1, 2) e (2, 1) nao sao iguais.

Proposicao 1.1 A transposicao de matrizes goza das seguintes propriedades:

1. (AT )T = A;

2. (A + B)T = AT + BT ;

3. (αA)T = αAT , sendo α um numero;

4. (AB)T = BT AT ;

5. (Ak)T = (AT )k, sendo k um numero natural;

6. Se A for invertıvel, AT tambem e, tendo-se (AT )−1 = (A−1)T .

Demonstracao. As propriedades 1, 2, 3 e 5 ficam como exercıcio. Provemos 4 e 6. SejamA = [aij] e B = [bij] , dos tipos m× n e n× p , respectivamente. Entao BT AT e (AB)T

sao do tipo p×m. Sendo bki e ajk os elementos (i, k) e (k, j) de BT e AT , respectivamente,

tem-se que o elemento (i, j) de BT AT en∑

k=1

bkiajk =n∑

k=1

ajkbki, que e o elemento

(i, j) de (AB)T , para i = 1, . . . , p, j = 1, . . . , m.Seja agora A = [aij] invertıvel de ordem n. Entao, usando a propriedade 4, tem-se

AT (A−1)T = (A−1A)T = ITn = In e (A−1)T AT = (AA−1)T = IT

n = In.

Logo (AT )−1 = (A−1)T .

Exercıcio 1.6 Seja A uma matriz m×n. Prove que as matrizes ATA e AAT sao simetricas.De um exemplo que mostre que estes dois produtos podem ser diferentes, mesmo que A sejaquadrada.

18

Page 20: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exercıcio 1.7 Prove o seguinte:

1. A soma de duas matrizes simetricas da mesma ordem e ainda uma matriz simetrica.

2. O produto de duas matrizes simetricas da mesma ordem e uma matriz simetrica se eso se as duas matrizes comutarem.

3. A inversa de uma matriz simetrica invertıvel e tambem simetrica.

Exercıcio 1.8 Seja M =[

A BC D

]uma matriz particionada em blocos. Mostre que

MT =[

AT CT

BT DT

].

Definicao 1.7 Uma matriz quadrada diz-se ortogonal se for invertıvel e a suainversa coincidir com a sua transposta.

Exemplo 1.7 A matriz AT =

[ √2

2−√

22√

22

√2

2

]e ortogonal.

Exercıcio 1.9 Mostre que:

1. O produto de duas matrizes ortogonais e ainda uma matriz ortogonal.

2. A inversa de uma matriz ortogonal e tambem uma matriz ortogonal.

3. Uma matriz real 2× 2 e ortogonal se e so se for de uma das duas seguintes formas:[

cos θ −sen θsen θ cos θ

],

[cos θ sen θsen θ − cos θ

], θ ∈ R.

Exercıcio 1.10 Seja A n× n e designemos por v1, . . . , vn as suas colunas. Prove que A eortogonal se e so se, para i, j = 1, . . . , n, se tiver vT

i vj = δij .

Definicao 1.8 Uma matriz n× n diz-se uma matriz de permutacao se tiver asmesmas linhas que a matriz identidade In mas nao necessariamente pela mesmaordem.

19

Page 21: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 1.8 As matrizes

0 1 00 0 11 0 0

e

0 1 01 0 00 0 1

sao matrizes de permutacao.

Que trocas se efectuaram sobre as linhas de I3 para as obter?

Exercıcio 1.11 Mostre que toda a matriz de permutacao e ortogonal.

Exercıcio 1.12 Seja A =[

B C0 D

]uma matriz particionada em blocos com B e D

quadradas. Mostre que, se A for ortogonal, entao B e D tambem sao ortogonais e C = 0.

Definicao 1.9 Sendo A = [aij]m×n uma matriz complexa, define-se a conjugada

de A como sendo A = [aij]m×n. Escrevemos A∗ = A T . A matriz A diz-se hermıticase A = A∗.

Observacoes. 1. Os elementos da coluna i de A∗ sao precisamente os conjugados dos dalinha i de A, para i = 1, . . . , m.2. Uma matriz e hermıtica se e so se for quadrada e forem conjugados os elementossituados em posicoes simetricas relativamente a diagonal principal.

Exemplo 1.9 A conjugada de A =

[1 2 + i

5 + 3i 4i

]e a matriz A =

[1 2− i

5− 3i −4i

].

Tem-se A∗=[

1 5− 3i2− i −4i

]. Esta matriz nao e hermıtica, mas a matriz

[1 3−i

3+i 7

]ja o e.

Proposicao 1.2 As matrizes complexas gozam das seguintes propriedades:

1. (A∗)∗ = A;

2. (A + B)∗ = A∗ + B∗;

3. (αA)∗ = αA∗, sendo α um numero complexo;

4. (AB)∗ = B∗A∗;

5. (Ak)∗ = (A∗)k, sendo k um numero natural;

6. Se A for invertıvel, A∗ tambem e, tendo-se (A∗)−1 = (A−1)∗.

Demonstracao. Exercıcio.

20

Page 22: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

1.5 Matrizes elementares

Dedicamos agora a nossa atencao a uma classe especial de matrizes, as matrizes ele-mentares, que aparecerao no estudo dos sistemas de equacoes lineares. Para estudarmosesta classe de matrizes e util conhecer certo tipo de operacoes sobre as linhas de umamatriz, ditas operacoes elementares, que passamos a definir:

1. Substituicao de uma linha da matriz pela sua soma com um multiplo de outra.

2. Troca entre si de duas linhas da matriz.

3. Multiplicacao de uma linha da matriz por um numero diferente de zero.

Definicao 1.10 Chama-se matriz elementar de ordem n a toda a matriz que seobtem de In por aplicacao de uma operacao elementar as suas linhas.

Obtemos assim tres tipos de matrizes elementares de ordem n:

1. Para i 6= j e α ∈ R temos a matriz

Eij(α) =

1 0 . . . 0 . . . 0 . . . 00 1 . . . 0 . . . 0 . . . 0...

.... . .

.... . .

.... . .

...0 0 . . . 1 . . . α . . . 0...

.... . .

.... . .

.... . .

...0 0 . . . 0 . . . 1 . . . 0...

.... . .

.... . .

.... . .

...0 0 . . . 0 . . . 0 . . . 1

.

Eij(α) obtem-se de In adicionando a linha i a linha j previamente multiplicada porα. Assim Eij(α) difere da matriz identidade apenas pelo elemento (i, j), que e α(se α = 0, tem-se Eij(α) = In).

2. Para i 6= j, temos a matriz

Pij =

1 0 . . . 0 . . . 0 . . . 00 1 . . . 0 . . . 0 . . . 0...

.... . .

.... . .

.... . .

...0 0 . . . 0 . . . 1 . . . 0...

.... . .

.... . .

.... . .

...0 0 . . . 1 . . . 0 . . . 0...

.... . .

.... . .

.... . .

...0 0 . . . 0 . . . 0 . . . 1

.

Pij obtem-se de In trocando a linha i com a linha j.

21

Page 23: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

3. Finalmente, para α ∈ R nao nulo e 1 ≤ i ≤ n, temos a matriz

Di(α) =

1 0 . . . 0 . . . 00 1 . . . 0 . . . 0...

.... . .

.... . .

...0 0 . . . α . . . 0...

.... . .

.... . .

...0 0 . . . 0 . . . 1

.

Di(α) obtem-se de In multiplicando a linha i por α.

As matrizes Pij sao matrizes de permutacao especiais (obtidas de In pela troca deduas linhas).

Exemplo 1.10 As matrizes seguintes sao exemplos de matrizes elementares de ordem 3 :

E21(5) =

1 0 05 1 00 0 1

; P13 =

0 0 10 1 01 0 0

; D2(8) =

1 0 00 8 00 0 1

.

Exercıcio 1.13 Seja A ∈ Mm×n(R), i 6= j e α ∈ R. Mostre que:

1. Eij(α)A e a matriz que se obtem de A adicionando a linha i a linha j previamentemultiplicada por α.

2. Pij(α)A e a matriz que se obtem de A trocando a linha i com a linha j.

3. Di(α)A e a matriz que se obtem de A multiplicando a linha i por α.

Em resumo, se E for uma matriz elementar, EA e a matriz que se obtem de Aaplicando-lhe as linhas as mesmas operacoes elementares que foram aplicadas as linhasde Im para obter E. Mostre ainda que um resultado analogo e valido para o produtoAE, reflectindo-se agora o efeito da multiplicacao nas colunas de A: AE e a matrizobtida de A aplicando-lhe as colunas as mesmas operacoes elementares que foramaplicadas as colunas de In para obter E.

Exercıcio 1.14 Generalize 2. e 3. do exercıcio anterior provando que, se A for uma matrizm× n, se tem o seguinte:

1. Multiplicar A a esquerda por uma matriz de permutacao P equivale a efectuar em A asmesmas trocas de linhas feitas em Im para obter P . Qual sera o efeito de multiplicarA a direita por uma matriz de permutacao?

2. Multiplicar A a esquerda por uma matriz diagonal de elementos diagonais µ1, . . . , µm

equivale a multiplicar a primeira linha de A por µ1, a segunda linha por µ2, etc.Multiplicar A a direita por uma matriz diagonal de elementos diagonais µ1, . . . , µn

equivale a multiplicar a primeira coluna de A por µ1, a segunda coluna por µ2, etc.

22

Page 24: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exercıcio 1.15 Seja 1 ≤ j ≤ n − 1, e defina-se Ej como sendo o seguinte produto dematrizes elementares Ej+1,j(αj+1,j)Ej+2,j(αj+2,j) · · ·En,j(αn,j).

1. Mostre que se tem

Ej =

1 0 . . . 0 0 0 . . . 00 1 . . . 0 0 0 . . . 0...

.... . .

......

. . ....

0 0 . . . 1 0 0 . . . 00 0 . . . αj+1,j 1 0 . . . 00 0 . . . αj+2,j 0 1 . . . 0...

.... . .

......

.... . .

...

0 0 . . . αnj

...... . . . 1

.

2. Mostre que se tem

E1E2 · · ·En−1 =

1 0 0 . . . 0α21 1 0 . . . 0α31 α32 1 . . . 0...

......

. . ....

αn1 αn2 αn3 . . . 1

.

3. Como pode observar, a matriz E1E2 · · ·En−1 obtem-se imediatamente das matrizesE1, E2, · · · , En−1, sem necessidade de calculos. Verifique que o mesmo nao se passacom En−1 · · ·E2E1, matriz para cujos elementos nao existe uma expressao simples apartir dos elementos das matrizes Ej .

Exercıcio 1.16 Prove que as matrizes elementares Eij(α), Pij e Di(β), onde β 6= 0, saoinvertıveis e tem-se

(Eij(α))−1 = Eij(−α), P−1ij = Pij e (Di(β))−1 = Di(1/β).

23

Page 25: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

2 Sistemas de equacoes lineares

2.1 Generalidades

Os sistemas de equacoes lineares constituem hoje um relevante tema de estudo devidoa sua importancia em Matematica Aplicada. Muitos problemas, por exemplo, nas areasde Engenharia conduzem a necessidade de resolver sistemas de equacoes lineares.

Os sistemas de equacoes lineares ligados a questoes de Matematica Aplicada podem terum elevado numero de equacoes e incognitas. Nao se pode portanto pensar em resolve-los“a mao”. O que se faz e usar computadores para esse efeito, nao aplicando “formulas”mas sim utilizando algoritmos, isto e, sequencias organizadas de passos que conduzem asolucao ou solucoes.

Neste capıtulo estudaremos o mais importante algoritmo geral para resolver sistemasde equacoes lineares, o algoritmo de eliminacao de Gauss, e veremos como a linguagemdas matrizes permite descreve-lo de forma muito simples e abreviada.

Para sistemas muito grandes e de tipos especiais ha outros algoritmos mais economicosdo que o algoritmo de eliminacao de Gauss. Esses algoritmos tem em geral um numeroinfinito de passos e sao estudados em disciplinas mais avancadas.

Definicao 2.1 Uma equacao linear nas incognitas x1, . . . , xn e uma equacao dotipo

a1x1 + . . . + anxn = b

onde a1, . . . , an e b sao numeros. A b costuma chamar-se segundo membro outermo independente da equacao.Um sistema de equacoes lineares e uma coleccao finita de equacoes lineares(todas nas mesmas incognitas) consideradas em conjunto. Um sistema genericocom m equacoes e n incognitas

a11x1 + . . . + a1nxn = b1

a21x1 + . . . + a2nxn = b2

. . .am1x1 + . . . + amnxn = bm

apresenta-se abreviadamente na forma

Ax = b

onde

A =

a11 a12 . . . a1n

a21 a22 . . . a2n...

.... . .

...am1 am2 . . . amn

, x =

x1

x2...

xn

, b =

b1

b2...

bm

.

A e a matriz do sistema, x e a matriz-coluna das incognitas e b e a matriz-colunados segundos membros ou, abreviadamente, o segundo membro do sistema.

24

Page 26: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Definicao 2.2 Uma solucao de um sistema de equacoes lineares nas incognitasx1, . . . , xn e uma sequencia ordenada (α1, . . . , αn) de numeros tais que as substi-tuicoes xi = αi, i = 1, ..., n, transformam todas as equacoes do sistema em iden-tidades verdadeiras. Uma solucao tambem se pode apresentar na forma de umamatriz-coluna n× 1:

α1

α2...

αn

.

Resolver um sistema de equacoes lineares e determinar todas as suas solucoes ouprovar que nao existe nenhuma.Um sistema de equacoes lineares que tenha pelo menos uma solucao diz-se possıvel(determinado se so tiver uma, indeterminado se tiver mais do que uma). Umsistema de equacoes lineares que nao tenha nenhuma solucao diz-se impossıvel.

Exemplo 2.1 Considere o sistema de equacoes lineares

{2x1 + 5x2 = 34x1 + 9x2 = 7

.

A matriz do sistema e

[2 54 9

], enquanto que x =

[x1

x2

]e b =

[37

]sao, respec-

tivamente, as matrizes-coluna das incognitas e dos segundos membros. Este sistema e

possıvel determinado, sendo a sua solucao

[4

−1

].

O exemplo seguinte e de novo de um sistema possıvel determinado. Qual a sua solucao?

x1 + 2x2 = 14x1 + 3x2 = 35x1 + 5x2 = 4

.

O sistema {2x1 + 4x2 = 124x1 + 8x2 = 24

e possıvel indeterminado, com solucao

[6− 2α

α

], para qualquer α ∈ R ; mas

{2x1 + 4x2 = 54x1 + 8x2 = 7

ja e um sistema impossıvel.Qual a interpretacao geometrica destes sistemas?

25

Page 27: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Definicao 2.3 Um sistema em que os segundos membros das equacoes sao todosiguais a 0 diz-se homogeneo. Note-se que um sistema homogeneo e sempre possıvel(possui sempre, pelo menos, a chamada solucao nula).

Definicao 2.4 Dois sistemas com o mesmo numero de equacoes e de incognitasdizem-se equivalentes se tiverem exactamente as mesmas solucoes.

Teorema 2.1 Seja Ax = b um sistema de equacoes lineares, com A m× n. Seja E umamatriz m×m invertıvel. Entao, o sistema EAx = Eb e equivalente ao sistema Ax = b.

Demonstracao. Claramente, qualquer solucao do sistema Ax = b e tambem solucao dosistema EAx = Eb. Reciprocamente, seja u uma solucao do sistema EAx = Eb. Tem-se EAu = Eb. Multiplicando a esquerda ambos os membros desta igualdade por E−1,obtemos Au = b, isto e, u e solucao do sistema Ax = b.

2.2 O algoritmo de eliminacao de Gauss

Um metodo geral de resolver sistemas de equacoes lineares e o chamado algoritmo deeliminacao de Gauss. Este algoritmo consiste numa sequencia de passos “elementares”que transformam o sistema dado num sistema muito facil de resolver.

Um passo elementar do metodo de eliminacao de Gauss consiste na adicao membro amembro a uma equacao de um multiplo de outra, de forma que, na equacao obtida, sejanulo o coeficiente de certa incognita. Com isto dizemos que se “eliminou” essa incognitada equacao.

Para exemplificar, consideremos o sistema Ax = b com A = [aij] m × n. Entao,

supondo a11 6= 0, a adicao a segunda equacao da primeira multiplicada por −a21

a11

elimina

a incognita x1 da segunda equacao (verifique).Os passos elementares sao conduzidos de maneira a eliminar a incognita x1 de todas

as equacoes a partir da segunda — para o que e necessario ter-se a11 nao nulo —, depoiseliminar a incognita x2 de todas as equacoes a partir da terceira — para o que e necessarioter-se a′22 (o novo coeficiente de x2 na segunda equacao) nao nulo —, etc. Este processorepete-se ate nao ser possıvel continua-lo mais. Os numeros a11, a′22, ... chamam-se ospivots da eliminacao.

Teorema 2.2 Cada um destes passos elementares do metodo de eliminacao de Gausstransforma um sistema noutro equivalente.

Demonstracao. Basta observar que cada passo elementar do tipo descrito correspondea multiplicar ambos os membros do sistema (escrito na forma matricial) por uma matrizelementar do tipo Eij(α) e que estas matrizes sao invertıveis.

26

Page 28: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Sempre que surja um zero na posicao em que devia estar um pivot, procura-se resolvero problema mediante a troca dessa equacao com a que se lhe segue. Se tambem essativer um zero na posicao em causa tenta-se a seguinte, etc. Se nenhuma troca resolver oproblema, o pivot passa a ser procurado entre os coeficientes da incognita seguinte.

E obvio que uma troca na ordem das equacoes transforma um sistema noutro equiva-lente. Isso tambem se pode concluir observando que uma troca de duas equacoes entre sicorresponde a multiplicar ambos os membros do sistema (escrito na forma matricial) poruma matriz elementar do tipo Pij e que estas matrizes sao invertıveis.

Deste processo resulta um novo sistema, digamos Ux = c, equivalente ao sistemaoriginal, e cuja matriz U , que e ainda m× n, tem uma forma especial, a que se costumachamar matriz em escada:

Definicao 2.5 Uma matriz diz-se uma matriz em escada se satisfizer as seguintescondicoes:i) Se o primeiro elemento nao nulo numa linha esta na coluna j, entao a linhaseguinte comeca com pelo menos j elementos nulos.ii) Se houver linhas totalmente constituıdas por zeros, elas aparecem depois dasoutras.

Exemplo 2.2 Exemplos do aspecto de uma matriz em escada (os sımbolos • representamos pivots):

• ∗ ∗0 • ∗0 0 •

,

• ∗ ∗ ∗ ∗ ∗ ∗0 0 • ∗ ∗ ∗ ∗0 0 0 • ∗ ∗ ∗0 0 0 0 0 0 •0 0 0 0 0 0 0

,

• ∗ ∗0 • ∗0 0 00 0 0

.

As matrizes

A =

[2 5 00 0 6

], B =

1 50 20 0

e C =

3 7 0 40 1 5 20 0 0 60 0 0 00 0 0 0

sao matrizes em escada. A matriz A tem pivots 2 e 6, os pivots de B sao 1 e 2 e os deC sao 3, 1 e 6.

As matrizes

1 5 00 0 60 0 2

,

1 0 5 70 0 6 20 0 2 4

e

2 3 00 0 00 0 1

nao sao em escada. Porque?

27

Page 29: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Com a obtencao de uma matriz em escada U termina a parte “descendente” do metodode eliminacao de Gauss. Neste momento verifica-se se o sistema obtido, Ux = c, e possıvel,isto e, se nao ha equacoes com o primeiro membro nulo e o segundo nao nulo.

Se o sistema for possıvel, resolve-se “de baixo para cima” (parte “ascendente” doalgoritmo), se necessario obtendo algumas incognitas — aquelas que estao a multiplicarpor pivots — em funcao das outras.

As primeiras incognitas chamamos incognitas basicas, e as outras, que podem tomarqualquer valor em R, chamamos incognitas livres. Se houver incognitas livres, o sistemae indeterminado. Se so houver incognitas basicas, o sistema e determinado.

O que governa o metodo de eliminacao e a matriz A do sistema, e podemos olhar paraos sucessivos passos do algoritmo como respeitando apenas a matriz: o primeiro passo

consiste em adicionar a segunda linha a primeira multiplicada por −a21

a11

, etc.

Definicao 2.6 A caracterıstica de A — abreviadamente, car(A) — e o numero depivots que aparecem quando se aplica a A o metodo de eliminacao. Equivalente-mente, car(A) e o numero de linhas nao nulas da matriz em escada U produzidapelo algoritmo de eliminacao aplicado a A. Uma matriz quadrada A n × n diz-senao-singular se tiver caracterıstica n. Se car(A) < n, a matriz A diz-se singular.

Exemplo 2.3 Considere as matrizes A, B e C do exemplo anterior. Tem-se car(A) = 2,car(B) = 2 e car(C) = 3.

Exemplo 2.4 Considere a matriz A =

1 1 21 3 32 8 12

. Apliquemos a A o metodo de

eliminacao de Gauss. Comecamos por adicionar a segunda e terceira linhas de A aprimeira linha multiplicada por −1 e −2, respectivamente. A matriz resultante sera

A′ =

1 1 20 2 10 6 8

. Esta matriz nao e ainda uma matriz em escada. Prosseguimos adicio-

nando a terceira linha de A′ a segunda linha multiplicada por −3. A matriz que obtemos

e a matriz em escada U =

1 1 20 2 10 0 5

. Tem-se car(A) = 3 (pois ha tres pivots : 1, 2 e

5) e A e nao-singular.

Considere-se agora B =

1 1 22 6 62 2 4

. Adicionando a segunda e terceira linhas de B

a primeira linha multiplicada por −2 obtemos a matriz em escada U =

1 1 20 4 20 0 0

. Ha

apenas dois pivots, 1 e 4. Logo car(B) = 2 e B e singular.

28

Page 30: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

O algoritmo de eliminacao de Gauss pode ser descrito de forma muito abreviada usandoa linguagem das matrizes:

Consideremos o sistema Ax = b, e denotemos por Ux = c o sistema obtido apos aparte descendente do algoritmo. Suponhamos primeiro que nao houve necessidade detrocas de linhas.

O efeito das sucessivas operacoes elementares aplicadas a A pode ser descrito pelamultiplicacao sucessiva de A, a esquerda, por matrizes elementares do tipo Eij(α), onde osnumeros α sao os “multiplicadores” usados na eliminacao. Designemos por M o produtode todas essas matrizes elementares. Entao M e uma matriz triangular inferior comelementos diagonais iguais a 1 (ex. 1.2), e tem-se MA = U . Como as operacoes levadas acabo com o segundo membro do sistema foram precisamente as mesmas, tem-se Mb = c.

Designemos M−1 por L (donde A = LU e b = Lc). Sendo a inversa de M , a matrizL e igual ao produto das matrizes Eij(−α) pela ordem inversa aquela em que as matrizesEij(α) figuram em M . Entao, dos exercıcios 1.15 e 1.16 (primeira igualdade), sabe-se queL e uma matriz triangular inferior com elementos diagonais iguais a 1 e os elementos sob adiagonal de L sao precisamente os simetricos dos “multiplicadores” usados na eliminacao,cada um na posicao em que figura na respectiva matriz elementar. (E, portanto, a matrizL e muito facil de escrever.)

Exemplo 2.5 Considere-se o sistema Ax = b, onde A =

1 1 21 3 32 8 12

e a matriz

considerada no Exemplo 2.4, e b =

1−2−12

. Ja vimos como obter uma matriz triangular

superior U por aplicacao do metodo de eliminacao de Gauss a A. Utilizando matrizeselementares, este processo pode ser descrito do seguinte modo:

U = E32(−3)E31(−2)E21(−1)A =

1 1 20 2 10 0 5

.

Efectuando as mesmas operacoes ao segundo membro do sistema, obtemos

c = E32(−3)E31(−2)E21(−1)b =

1−3−5

.

A matriz L sera

L = [E32(−3)E31(−2)E21(−1)]−1 = E21(1)E31(2)E32(3) =

1 0 01 1 02 3 1

,

e tem-se A = LU e b = Lc.

29

Page 31: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Se houver necessidade de trocas de linhas, a unica diferenca e que o algoritmo deveser visto como aplicado, nao a A, mas a PA, onde P e uma matriz de permutacao (P e oproduto das matrizes de permutacao correspondentes as varias trocas de linhas feitas namatriz durante o algoritmo), e ao segundo membro Pb.

Exemplo 2.6 Aplique-se o algoritmo de eliminacao de Gauss ao sistema Ax = b, onde

A =

2 6 24 12 −2

−6 −12 −10

.

Ao adicionarmos a segunda e terceira linhas de A a primeira multiplicada por −2 e 3,respectivamente, obtemos a matriz

E31(3)E21(−2)A =

2 6 20 0 −60 6 −4

.

O passo seguinte seria utilizar o elemento (2, 2) como pivot, mas este elemento e zero.Temos que trocar entre si as linhas 2 e 3 desta matriz. Este passo e equivalente a trocarestas linhas em A antes de termos iniciado o processo de eliminacao, isto e, a fazer aeliminacao nao em A mas na matriz P2,3A. Teremos entao (atencao as novas matrizesEij(α) )

E31(−2)E21(3)P2,3A =

2 6 20 6 −40 0 −6

.

Esta ja e uma matriz em escada, a matriz U desejada. Tomando L = [E31(−2)E21(3)]−1=E21(−3)E31(2), temos P2,3A = LU.

Regressando ao sistema Ax = b, teremos que efectuar no segundo membro as mesmastrocas de linhas que foram efectuadas em A, ou seja, iremos trabalhar nao com Ax = bmas com o sistema equivalente P2,3Ax = P2,3b.

Note que nao e necessario iniciar o processo de eliminacao de cada vez que precisarde efectuar uma troca de linhas. Pense quais serao as alteracoes que tais trocas implicamna matriz L que esta a ser construıda.

Resumindo, temos:

Teorema 2.3 (Factorizacao LU .) Sendo A m× n arbitraria, existe uma matriz de per-mutacao P tal que PA se pode factorizar na forma LU , onde L e triangular inferior comelementos diagonais iguais a 1 e U e uma matriz em escada. Os elementos sob a diagonalde L sao os simetricos dos “multiplicadores” usados no metodo de eliminacao aplicado aA, e U e a matriz produzida pelo algoritmo (e portanto o primeiro elemento nao nulo emcada linha nao nula de U e um pivot).

30

Page 32: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

No caso quadrado n × n nao-singular, U e triangular superior, com os elementosdiagonais nao nulos (sao os n pivots).6

Podemos agora apresentar a descricao matricial do algoritmo de eliminacao de Gauss.

Comecemos pelo caso de sistemas com matrizes quadradas nao-singulares.

Algoritmo. Resolucao do sistema Ax = b com A n× n nao singular:

1o passo) Factorizacao PA = LU .

2o passo) Resolucao do sistema Lc = Pb (para achar o novo segundo membro c).

3o passo) Resolucao do sistema Ux = c.

Exemplo 2.7 Retomemos o sistema Ax = b considerado no Exemplo 2.5. Temos A =

1 1 21 3 32 8 12

e b =

1−2−12

. Ja conhecemos a decomposicao LU de A:

A =

1 0 01 1 02 3 1

1 1 20 2 10 0 5

.

Passemos entao ao segundo passo do algoritmo: resolucao do sistema triangular inferiorLc = b.

c1 = 1c1 + c2 = −2

2c1 + 3c2 + c3 = −12

Este e um sistema possıvel determinado com solucao c =

1−3−5

.

6No caso nao-singular, uma variante desta factorizacao LU e a chamada factorizacao LDU , que seobtem da outra escrevendo U como produto de uma matriz diagonal — onde os elementos diagonais saoos pivots — e uma matriz triangular superior com os elementos diagonais iguais a 1. Exemplo:

[2 34 11

]=

[1 02 1

] [2 30 5

]=

[1 02 1

] [2 00 5

] [1 3

20 1

].

31

Page 33: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Resta-nos agora resolver, por substituicao ascendente, o sistema triangular superiorUx = c:

x1 + x2 + 2x3 = 12x2 + x3 = −3

5x3 = −5⇐⇒

x1 = 4x2 = −1x3 = −1

A solucao do sistema inicial Ax = b e entao x =

4−1−1

.

Exemplo 2.8 Seja agora A =

2 6 24 12 −2

−6 −12 −10

, a matriz da matriz considerada no

Exemplo 2.6. Pretendemos resolver o sistema Ax = b, onde b =

−10

2258

.

Sabemos que P2,3A tem a decomposicao LU

P2,3A =

1 0 0−3 1 0

2 0 1

2 6 20 6 −40 0 −6

.

Para calcular o novo segundo membro c temos de resolver o sistema Lc = P2,3b. Ora

P2,3b =

−10

5822

, logo

Lc = P2,3b ⇐⇒

c1 = −10−3c1 + c2 = 58

2c1 + c3 = 22⇐⇒ c =

−10

2842

.

Agora

Ux = c ⇐⇒

2x1 + 6x2 + 2x3 = −106x2 − 4x3 = 28

− 6x3 = 42⇐⇒ x =

20

−7

.

A solucao de Ax = b e entao x =

20

−7

.

32

Page 34: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exercıcio 2.1 O objectivo deste exercıcio e avaliar o custo computacional do metodo deeliminacao de Gauss. Seja dada uma matriz A n × n nao-singular. Vai-se aplicar a A ometodo de eliminacao de Gauss com o objectivo de resolver o sistema Ax = b mediante asua transformacao num sistema triangular Ux = c.

1. Quantas adicoes, multiplicacoes e divisoes e necessario efectuar para passar de A paraU? (R.: n(n2−1)

3 , n(n2−1)3 , n(n−1)

2 .)

2. E para passar de b para c? (R.: n(n−1)2 , n(n−1)

2 , 0.)

3. E para resolver o sistema Ux = c? (R.: n(n−1)2 , n(n−1)

2 , n.)

Exercıcio 2.2 Suponha que dispoe de um computador cujo processador consegue fazer,num segundo, 100000 operacoes (uma “operacao” = uma adicao + uma multiplicacao +uma divisao). Quanto tempo de calculo do processador exigiria a resolucao, pelo metodode eliminacao de Gauss, de um sistema 100× 100? E de um 1000× 1000?

Passemos agora a sistemas com matrizes quaisquer. Vale a pena estudar separada-mente o caso dos sistemas homogeneos, que, recorde-se, sao sempre possıveis.

Definicao 2.7 Sendo A ∈ Mm×n(R), o conjunto das solucoes do sistema Ax = 0,designado por N(A), diz-se o nucleo ou espaco nulo de A.

Algoritmo. Resolucao do sistema Ax = 0 com A m× n:

1o passo) Determinacao da matriz em escada U . Seja car(A) = r.

2o passo) No sistema Ux = 0, que e equivalente ao primeiro, separam-se as incognitasem basicas (correspondentes as colunas com pivots, que sao em numero de r) elivres. Se nao houver incognitas livres, o sistema e determinado: so tem a solucaonula.

3o passo) Para cada incognita livre, da-se o valor 1 a essa incognita livre e 0 as restantes,e resolve-se o sistema (com r equacoes) resultante. As n − r colunas n × 1 assimobtidas geram o conjunto N(A) das solucoes (isto e, qualquer solucao e combinacaolinear dessas n− r).

Da analise deste algoritmo segue-se imediatamente a seguinte observacao:

33

Page 35: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 2.4 Um sistema homogeneo com mais incognitas do que equacoes e indetermi-nado.

Demonstracao. Seja o sistema Ax = 0, onde A e m × n e m < n. Seja car(A) = r.Como r ≤ m (porque o numero de pivots nao pode exceder o numero de linhas), tem-ser < n e portanto ha necessariamente incognitas livres (em numero de n− r).

Exemplo 2.9 Apliquemos este algoritmo a resolucao do sistema homogeneo

A =

2 4 6 8−2 −2 −4 −6

4 8 12 8

x1

x2

x3

x4

=

000

.

Adicionando a segunda e terceira linhas de A a primeira linha multiplicada por 1 e −2,respectivamente, obtemos a matriz em escada

U =

2 4 6 80 2 2 20 0 0 −8

.

Tem-se car(A) = 3. As colunas de U com pivot correspondem as incognitas x1, x2 e x4.Serao portanto estas as incognitas basicas, ficando x3 como incognita livre.

Da-se o valor 1 a incognita x3 e resolve-se, por substituicao ascendente, o sistema3× 3 resultante:

2x1 + 4x2 + 8x4 = −62x2 + 2x4 = −2

− 8x4 = 0⇐⇒

x1 = −1x2 = −1x4 = 0

.

Assim

−1−1

10

sera uma solucao de Ax = 0 . As restantes solucoes serao combinacoes

lineares desta, isto e,

N(A) =

−α−α

α0

: α ∈ R

.

Para o estudo de sistemas quaisquer, interessa o seguinte resultado, que diz que oconjunto completo das solucoes de um sistema possıvel Ax = b se pode obter a partir deuma solucao particular e do conjunto N(A) das solucoes do sistema homogeneo Ax = 0:

34

Page 36: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 2.5 Se o sistema Ax = b e possıvel e y e uma solucao dele, entao o conjuntodas suas solucoes e {y + u : u ∈ N(A)}.

Demonstracao. E evidente que qualquer elemento da forma y + u, com u ∈ N(A), esolucao do sistema Ax = b, porque A(y + u) = Ay + Au = b + 0 = b. Reciprocamente,seja z uma solucao qualquer do sistema Ax = b. Ponhamos u = z − y. Entao Au =A(z − y) = Az − Ay = b− b = 0, o que significa que u ∈ N(A). E, claro, z = y + u.

E temos finalmente o algoritmo para sistemas arbitrarios.

Algoritmo. Resolucao do sistema Ax = b com A m× n:

1o passo) Factorizacao PA = LU . Seja car(A) = r.

2o passo) Resolucao do sistema Lc = Pb (para achar o novo segundo membro c). Seos ultimos m − r elementos da coluna c nao forem todos 0, o sistema inicial eimpossıvel.

3o passo) No sistema Ux = c, que e equivalente ao primeiro, separam-se as incognitasem basicas e livres.

4o passo) Da-se o valor 0 as incognitas livres e resolve-se o sistema (com r equacoes)resultante. A coluna n× 1 x′ assim obtida e uma solucao de Ax = b (sera a unicase nao houver incognitas livres).

5o passo) Resolve-se o sistema Ax = 0, obtendo-se o conjunto N(A).

6o passo) O conjunto das solucoes de Ax = b e {x′ + u : u ∈ N(A)}.

Exemplo 2.10 Pretendemos resolver o sistema Ax = b, sendo

A =

2 4 6 8−2 −2 −4 −6

4 8 12 8

e b =

−4

40

.

Do Exemplo 2.9, sabemos que car(A) = 3 e A = LU, onde

L =

1 0 0−1 1 0

2 0 1

e U =

2 4 6 80 2 2 20 0 0 −8

.

Resolvendo Lc = b obtemos c =

−4

08

(verifique!). Como car(A) = 3 = numero de

linhas de A, o sistema inicial e possıvel.

35

Page 37: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

No sistema Ux = c as incognitas basicas sao x1, x2 e x4 (correspondem as colunas deU com pivot), sendo x3 incognita livre. Faca-se x3 = 0 e resolva-se o sistema resultante

2x1 + 4x2 + 8x4 = −42x2 + 2x4 = 0

− 8x4 = 8⇐⇒

x1 = 0x2 = 1x4 = −1

.

Obtemos assim

010

−1

uma solucao particular de Ax = b.

Do Exemplo 2.9, temos

N(A) =

−α−α

α0

: α ∈ R

.

Logo, o conjunto das solucoes de Ax = b e

010

−1

+

−α−α

α0

: α ∈ R

=

−α1− α

α−1

: α ∈ R

.

Da analise deste algoritmo seguem-se as seguintes observacoes:

Teorema 2.6 Seja A m× n.1) Sendo Ax = b possıvel, e determinado se e so se car(A) = n.2) Ax = b e possıvel para todo o b se e so se car(A) = m.

Demonstracao. 1) O sistema Ax = b e determinado se nao houver incognitas livres, istoe, se todas as n incognitas forem basicas, e isto e equivalente a dizer que car(A) = n.

2) O sistema Ax = b so pode ser possıvel qualquer que seja o segundo membro b se, apos afase descendente do algoritmo de eliminacao, conduzindo a matriz U , nunca houver linhasnulas em U , o que quer dizer precisamente que car(A) = m.

36

Page 38: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

2.3 O algoritmo de Gauss-Jordan para inversao de matrizes

Teorema 2.7 Uma matriz quadrada A e invertıvel se e so se for nao-singular.

Demonstracao. Seja A n×n. Suponhamos primeiro que A e invertıvel. Entao qualquersistema Ax = b cuja matriz seja A e possıvel e determinado (tem a solucao unica A−1b)e portanto A tem de certeza n pivots, ou seja e nao-singular.

Reciprocamente, suponhamos que A e nao-singular. Como vimos na seccao anterior,multiplicando A a esquerda por matrizes elementares da forma Eij(α) e Pij, obtem-seuma matriz triangular superior U com elementos diagonais nao nulos (que sao os n pivotsde A). Continue-se agora o processo de “criacao de zeros”, de baixo para cima: usa-se oultimo pivot para “anular” o ultimo elemento das linhas 1, 2, . . . , n−1, depois o penultimopivot para anular o penultimo elemento das linhas 1, 2, . . . , n − 2, etc. Estas operacoeselementares correspondem a multiplicar U a esquerda por matrizes elementares da formaEij(α), onde agora i < j. No fim disto chega-se a uma matriz diagonal D com elementosdiagonais nao nulos.

Resumindo, o que se mostrou foi que existe uma sequencia de matrizes elementaresque, multiplicadas a esquerda de A, produzem D. Designemos o produto de todas essasmatrizes elementares por E. Tem-se portanto

EA = D.

Mas a matriz E e invertıvel, porque e um produto de matrizes elementares, que sao todasinvertıveis. Logo, podemos multiplicar a igualdade anterior a esquerda por E−1, obtendo

A = E−1D.

Entao A e invertıvel, porque e igual a E−1D, que e invertıvel.

Como sabe, o produto de duas matrizes invertıveis e tambem invertıvel. Seguidamentedemonstramos a afirmacao recıproca.

Corolario 2.1 Sejam A e B matrizes quadradas da mesma ordem. Se o produto ABfor invertıvel, entao A e B sao ambas invertıveis. Em particular, se AB = In, entaoB = A−1.

Demonstracao. Suponhamos AB invertıvel, mas B nao-invertıvel. Pelo teorema ante-rior, B e singular e, portanto, o sistema Bx = 0 e possıvel indeterminado. Mas entao osistema ABx = 0 tambem e indeterminado (uma vez que qualquer solucao do primeirosistema e tambem solucao do segundo). Tal nao pode acontecer, pois sendo AB invertıveltem-se AB nao-singular e, consequentemente, ABx = 0 e possıvel determinado. Conclui-se assim que B e invertıvel. Note que agora podemos escrever A = (AB)B−1, isto e, Ae o produto de duas matrizes invertıveis. Logo A e invertıvel.

Suponhamos agora AB = In. Pela primeira parte do corolario, sabemos que A e B saoambas invertıveis. Tem-se entao A−1 = A−1In = A−1(AB) = (A−1A)B = InB = B.

37

Page 39: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

O teorema e corolario anteriores sugerem um processo para achar a inversa de umamatriz quadrada (se essa inversa existir). O processo baseia-se no facto de que, se Afor nao-singular, a sua inversa vai ser a matriz X que satisfaz AX = I. Designando ascolunas de X por x1,x2, . . . ,xn e as colunas da matriz identidade por e1, e2, . . . , en, istoe,

e1 =

10...0

, e2 =

01...0

, . . . , en =

00...1

devera ter-se

A [x1 x2 . . . xn] = [e1 e2 . . . en]

o que (pela maneira como se calcula o produto de matrizes) e o mesmo que ter as nigualdades

Ax1 = e1 , Ax2 = e2 , . . . , Axn = en.

Temos portanto, para achar as colunas da inversa de A, de resolver n sistemas, todoscom a mesma matriz A. A ideia do chamado algoritmo de Gauss-Jordan e levar a caboa eliminacao em todos os n sistemas ao mesmo tempo e nao parar na matriz triangularU , continuando com a “eliminacao ascendente”, usando os pivots para “criar” zeros porcima da diagonal, e finalmente, para achar os valores das incognitas, dividindo cada linhapelo correspondente pivot. Os sucessivos passos sao aplicados ao quadro n× 2n que tema matriz do(s) sistema(s) a esquerda e todos os segundos membros a direita.

Algoritmo. Calculo da inversa de uma matriz: Seja dada A n × n. Para calcular ainversa de A (se existir) leva-se a cabo com a matriz n × 2n [A|I] a parte descendentedo metodo de eliminacao de Gauss aplicado a A. Se houver menos de n pivots, A nao einvertıvel. Se houver n pivots, usando-os pela ordem contraria, anulam-se com operacoeselementares todos os elementos por cima da diagonal da matriz a esquerda. Finalmente,divide-se cada linha pelo respectivo pivot. No fim deste processo, a matriz obtida e [I|A−1].

Exemplo 2.11 Seja A =

1 1 42 5 41 4 −2

. Pretendemos verificar se A e invertıvel e, em

caso afirmativo, calcular a sua inversa.

Para tal, comecamos por aplicar a parte descendente do metodo de eliminacao de

38

Page 40: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Gauss a matriz

[A|I] =

1 1 4 | 1 0 02 5 4 | 0 1 01 4 −2 | 0 0 1

.

O primeiro passo consiste em adicionarmos a segunda e terceira linhas de [A|I] a primeiralinha multiplicada por −2 e −1, respectivamente. Na matriz obtida, adiciona-se a terceiralinha a segunda multiplicada por −1 :

[A|I] −→

1 1 4 | 1 0 00 3 −4 | −2 1 00 3 −6 | −1 0 1

−→

1 1 4 | 1 0 00 3 −4 | −2 1 00 0 −2 | 1 −1 1

.

Como podemos observar, ha tres pivots, 1, 3 e −2, logo A e invertıvel. Iniciamos agoraa eliminacao ascendente. Obtemos uma nova matriz, usando o pivot −2 para anular osrestantes elementos da terceira coluna (adiciona-se a segunda e primeira linhas a terceiramultiplicada por −2 e 2, respectivamente). Nesta nova matriz, adicionamos a primeiralinha a segunda multiplicada por −1

3:

1 1 0 | 3 −2 20 3 0 | −4 3 −20 0 −2 | 1 −1 1

−→

1 0 0 | 133

−3 83

0 3 0 | −4 3 −20 0 −2 | 1 −1 1

.

Ja temos do lado esquerdo uma matriz diagonal. Resta-nos dividir a segunda linha por 3e a terceira por −2:

[I|A−1] =

1 0 0 | 133

−3 83

0 1 0 | −43

1 −23

0 0 1 | −12

12−1

2

.

Concluımos assim que A e invertıvel e a sua inversa e A−1 =

133

−3 83

−43

1 −23

−12

12−1

2

.

Exercıcio 2.3 (Inversas de matrizes triangulares.) Se A for uma matriz triangular superior(resp. inferior) de elementos diagonais nao nulos, mostre que entao A e invertıvel, A−1

tambem e triangular superior (resp. inferior) e os elementos diagonais de A−1 sao os inversosdos elementos diagonais de A.

Observacao. Poderia pensar-se que, de posse deste algoritmo para calcular a inversa deuma matriz, o caminho mais rapido para resolver um sistema Ax = b com A nao-singulare simplesmente escrever x = A−1b. Nao e assim: nao e necessario conhecer A−1 pararesolver o sistema e o algoritmo baseado na factorizacao LU e computacionalmente maiseconomico. De facto, o algoritmo de Gauss-Jordan e apenas um processo comodo e su-gestivo de inverter “a mao” pequenas matrizes que aparecam. Na pratica computacional

39

Page 41: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

real, se por qualquer razao for necessario conhecer a inversa de uma matriz A, o que se faze tambem usar a factorizacao LU : escreve-se PA = LU , calcula-se L−1 e U−1 (inversasfaceis de encontrar — pelo algoritmo de Gauss-Jordan! — porque se trata de matrizestriangulares) e tira-se A−1 = U−1L−1P .

Mas geralmente nao e A−1 que se procura, e sim um produto da forma A−1b. Nestescasos nao e necessario o calculo da inversa de A pois o vector A−1b pode ser obtido atravesda resolucao do sistema de equacoes lineares Ax = b.

Uma aplicacao interessante do exercıcio 2.3 e o seguinte resultado:

Teorema 2.8 (Unicidade da factorizacao LU no caso quadrado nao-singular.) Se A enao-singular, entao a factorizacao LU de A (ou de PA) e unica.

Demonstracao. Suponhamos que PA = LU e tambem PA = L1U1, com L e L1

triangulares inferiores com elementos diagonais iguais a 1 e U e U1 matrizes triangularessuperiores com elementos diagonais nao nulos. Entao LU = L1U1, donde L−1

1 L = U1U−1.

Nesta igualdade tem-se, no primeiro membro, uma matriz triangular inferior com elemen-tos diagonais a 1, e no segundo membro uma matriz triangular superior. Como estas duasmatrizes sao iguais, tem que ser diagonais, e os elementos diagonais tem que ser iguais a1 (porque o sao os do primeiro membro). Logo

L−11 L = I , U1U

−1 = I

ou sejaL1 = L , U1 = U .

40

Page 42: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

3 Determinantes

Um numero e invertıvel se e so se for nao nulo. Portanto uma matriz 1× 1 e invertıvel see so se for nao nula. No entanto, para matrizes de ordem superior tal ja nao se verifica.

Por exemplo, a matriz A =

[1 22 4

]nao e invertıvel: basta notar que

[1 22 4

] [2 6

−1 −3

]=

[0 00 0

];

se A fosse invertıvel, poderıamos multiplicar ambos os membros desta igualdade a esquerda

por A−1 e viria

[2 6

−1 −3

]=

[0 00 0

], o que e falso.

Sera possıvel associar a cada matriz quadrada um numero, que dependa apenas doselementos da matriz, e que nos permita decidir da sua invertibilidade? A resposta a estaquestao e afirmativa.

Antes de estudarmos o assunto, vale a pena analisar em pormenor o caso 2× 2.

Consideremos a matriz A =

[a11 a12

a21 a22

]. Como vimos atras, A e invertıvel se e so

se for nao-singular. Vejamos que condicoes devem satisfazer os numeros a11, a12, a21, a22

para que isso aconteca. Apliquemos portanto o metodo de eliminacao a A, supondo paraja que a11 e diferente de 0:

[a11 a12

a21 a22

]−→

[a11 a12

0 a22 − a21

a11a12

]=

[a11 a12

0 a11a22−a12a21

a11

].

Concluımos assim que A e invertıvel se e so se o numero a11a22−a12a21 for diferente de 0.Facilmente se ve que a mesma conclusao e valida no caso de a11 ser igual a 0.

Existe assim um numero, construıdo a partir dos elementos da matriz, que nos diz seela e ou nao invertıvel. A este numero chamamos o determinante de A e escrevemos

det(A) = a11a22 − a12a21 .

Propriedades imediatas desta funcao sao as seguintes:

det

[a11+a′11 a12+a′12

a21 a22

]=det

[a11 a12

a21 a22

]+det

[a′11 a′12

a21 a22

](e analogamente para a 2a linha);

Sendo α ∈ R, det

[αa11 αa12

a21 a22

]= α det

[a11 a12

a21 a22

](e analogamente para a 2a linha);

Se as duas linhas de A forem iguais, det(A) = 0;

det(I2) = 1 .

Usamos estas propriedades como motivacao para a definicao no caso geral.

41

Page 43: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Definicao 3.1 Determinante de ordem n e uma funcao

det : Mn×n(R) −→ RA = [aij] 7−→ det(A)

que a cada matriz quadrada A de ordem n sobre R faz corresponder um numero real,det(A), de tal modo que as seguintes condicoes sejam satisfeitas:

(d1) Para i = 1, . . . , n, e α ∈ R tem-se:

det

a11 . . . a1n...

. . ....

ai1 + a′i1 . . . ain + a′in...

. . ....

an1 . . . ann

= det

a11 . . . a1n...

. . ....

ai1 . . . ain...

. . ....

an1 . . . ann

+ det

a11 . . . a1n...

. . ....

a′i1 . . . a′in...

. . ....

an1 . . . ann

;

det

a11 . . . a1n...

. . ....

αai1 . . . αain...

. . ....

an1 . . . ann

= α det

a11 . . . a1n...

. . ....

ai1 . . . ain...

. . ....

an1 . . . ann

.

(d2) Se A tiver duas linhas iguais, tem-se det(A) = 0.

(d3) det(In) = 1.

Outra notacao para det(A) e |A|.

Duas questoes surgem imediatamente: Existira alguma funcao nestas condicoes? Casoexista, sera unica? Ver-se-a que a resposta e afirmativa em ambos os casos. Antes, porem,provemos algumas propriedades que decorrem imediatamente da definicao de funcaodeterminante.

Teorema 3.1 Seja A ∈ Mn×n(R). Entao tem-se:

1. Se uma linha de A for multipla de outra linha de A entao det(A) = 0. Em particular,det(A) = 0 se A tiver uma linha nula.

2. O determinante muda de sinal quando se trocam entre si duas linhas de A.

3. Se P for uma matriz de permutacao, tem-se det(P ) = ±1.

4. O determinante nao se altera se a uma linha de A adicionarmos um multiplo deoutra linha de A.

42

Page 44: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Demonstracao. Designe-se por Lk a linha k da matriz A, k = 1, . . . , n. Suponha-se,sem perda de generalidade, 1 ≤ i < j ≤ n.

1. Seja Li = α Lj, para algum α ∈ R. Entao, por (d1) e (d2), tem-se

det(A) = det

L1...

α Lj...

Lj...

Ln

= α det

L1...

Lj...

Lj...

Ln

= α0 = 0.

2. Usando repetidamente (d1) e (d2), obtem-se

0 = det

L1...

Li + Lj...

Li + Lj...

Ln

= det

L1...

Li...

Li...

Ln

+ det

L1...

Li...

Lj...

Ln

+ det

L1...

Lj...

Li...

Ln

+ det

L1...

Lj...

Lj...

Ln

=

= 0 + det

L1...

Li...

Lj...

Ln

+ det

L1...

Lj...

Li...

Ln

+ 0.

Logo, pode concluir-se que

det

L1...

Li...

Lj...

Ln

= − det

L1...

Lj...

Li...

Ln

.

43

Page 45: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

3. Seja P uma matriz de permutacao de ordem n. Entao P obtem-se de In por trocade linhas. Como, por (d3), det(In) = 1, da propriedade anterior conclui-se quedet(P ) = 1 ou −1, consoante P for obtida de In atraves de, respectivamente, umnumero par ou ımpar de trocas de linhas.

4. Seja α ∈ R. Entao, por (d1), tem-se

det

L1...

Li + αLj...

Lj...

Ln

= det

L1...

Li...

Lj...

Ln

+ α det

L1...

Lj...

Lj...

Ln

= det(A),

uma vez que, por (d2), a segunda parcela desta soma e nula.

Temos usado a palavra “permutacao” com o seu significado usual de “troca”. EmMatematica este termo tem um significado preciso que passamos a definir.

Definicao 3.2 Uma permutacao do conjunto {1, . . . , n} e uma funcao bijectivadeste conjunto nele proprio. Designa-se por Sn o conjunto de todas as permutacoesdo conjunto {1, . . . , n}. A permutacao identidade designa-se por id.

Dada σ ∈ Sn, e usual representa-la da seguinte forma:

σ =

(1 2 3 . . . nσ1 σ2 σ3 . . . σn

)ou, simplesmente, σ = (σ1, σ2, σ3, . . . , σn),

onde σ1 = σ(1), σ2 = σ(2), σ3 = σ(3), . . . , σn = σ(n).

Como e facil de ver, o cardinal de Sn e n!.

Dada uma matriz de permutacao P , sabemos que P pode ser obtida de In por trocasde linhas. Existem, possivelmente, varias estrategias de trocas para o fazer. E no entantopossıvel provar7 que P nao pode ser simultaneamente obtida de In por um numero par eımpar de trocas de linhas. Podemos entao apresentar a seguinte definicao:

7A demonstracao deste facto esta fora do ambito deste curso.

44

Page 46: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Definicao 3.3 Dada uma permutacao σ = (σ1, . . . , σn) ∈ Sn, seja P(σ1,...,σn) a ma-triz de permutacao obtida por aplicacao da permutacao σ as linhas de In. Dizemosque σ tem sinal 1 ou −1 (abreviadamente, sgn(σ) = ±1) consoante P for obtida deIn por um numero par ou ımpar de trocas de linhas, respectivamente.

Exemplo 3.1 Seja σ a permutacao de {1, 2, 3} definida por σ(1)=2, σ(2)=3 e σ(3)=1.Na nossa notacao, σ = (2, 3, 1). A matriz de permutacao que lhe corresponde e

P(2,3,1) =

0 1 00 0 11 0 0

.

O sinal de σ e +1, porque P(2,3,1) se pode obter de I3 atraves de duas trocas de linhas.

Regressemos aos determinantes. Usando apenas a definicao e as propriedades ime-diatas dela resultantes, vamos mostrar que, se a funcao determinante de ordem n existir,e unica e dada por

det([aij]) =∑

σ=(σ1,...,σn)∈Sn

sgn(σ) a1σ1a2σ2 . . . anσn .

Ilustremos o caso geral com o caso n = 2. Seja f : M2×2(R) −→ R uma funcao

determinante de ordem 2 (isto e, satisfazendo (d1), (d2) e (d3)). Dada A =

[a11 a12

a21 a22

],

tem-se, por (d1),

f(A) = f

[a11 + 0 0 + a12

a21 + 0 0 + a22

]= f

[a11 0

a21 + 0 0 + a22

]+ f

[0 a12

a21 + 0 0 + a22

]=

f

[a11 0a21 0

]+ f

[a11 00 a22

]+ f

[0 a12

a21 0

]+ f

[0 a12

0 a22

].

Agora, temos f

[a11 0a21 0

]= 0, uma vez que uma linha da matriz e multipla da outra.

O mesmo sucede com f

[0 a12

0 a22

]. Assim tem-se

f(A) = f

[a11 00 a22

]+ f

[0 a12

a21 0

].

45

Page 47: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Mas, por (d1) e (d3),

f

[a11 00 a22

]= a11a22 f

[1 00 1

]= a11a21.

De modo analogo,

f

[0 a12

a21 0

]= a12a21 f

[0 11 0

]= −a12a21,

uma vez que

[0 11 0

]se obteve de I2 por uma troca de duas linhas. Conclui-se assim

que

det(A) = a11a22 − a12a21 =∑

σ=(σ1,σ2)∈S2

sgn(σ) a1σ1a2σ2 .

Generalizemos esta demonstracao para o caso do determinante de ordem n.

Seja f : Mn×n(R) −→ R uma funcao determinante. Entao, por (d1), tem-se, paraqualquer matriz quadrada A = [aij]n×n,

f(A) = f

a11 + 0 + . . . + 0 0 + a12 + . . . + 0 . . . 0 + 0 + . . . + a1n

a21 + 0 + . . . + 0 0 + a22 + . . . + 0 . . . 0 + 0 + . . . + a2n...

.... . .

...an1 + 0 + . . . + 0 0 + an2 + . . . + 0 . . . 0 + 0 + . . . + ann

=

f

a11 0 . . . 0a21 + 0 + . . . + 0 0 + a22 + . . . + 0 . . . 0 + 0 + . . . + a2n

......

. . ....

an1 + 0 + . . . + 0 0 + an2 + . . . + 0 . . . 0 + 0 + . . . + ann

+

f

0 a12 . . . 0a21 + 0 + . . . + 0 0 + a22 + . . . + 0 . . . 0 + 0 + . . . + a2n

......

. . ....

an1 + 0 + . . . + 0 0 + an2 + . . . + 0 . . . 0 + 0 + . . . + ann

+ . . . +

f

0 0 . . . a1n

a21 + 0 + . . . + 0 0 + a22 + . . . + 0 . . . 0 + 0 + . . . + a2n...

.... . .

...an1 + 0 + . . . + 0 0 + an2 + . . . + 0 . . . 0 + 0 + . . . + ann

.

46

Page 48: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Efectuando o mesmo tipo de manobra para as outras linhas, obtemos ao todo nn parce-las. As matrizes envolvidas tem em cada linha no maximo um elemento nao nulo. Umavez que f(X) = 0 se duas linhas de X forem multiplas uma da outra, todas as parcelasdo tipo

f

. . . . . . . . . . . . . . . . . . . . ....

. . ....

......

. . ....

0 . . . 0 aij 0 . . . 0...

. . ....

......

. . ....

0 . . . 0 akj 0 . . . 0...

. . ....

......

. . ....

. . . . . . . . . . . . . . . . . . . . .

vao ser nulas. Restam-nos entao as n! parcelas correspondentes as matrizes que em cadalinha e em cada coluna tem no maximo um elemento nao nulo. Ha uma dessas matrizespara cada permutacao σ = (σ1, . . . , σn) ∈ Sn. A matriz, de entre as n!, que correspondea σ e a matriz cuja linha i, para i = 1, . . . , n, tem todos os elementos nulos excepto oelemento da coluna σi que e igual a aiσi

. Pela segunda parte de (d1), o valor de f nestamatriz e a1σ1a2σ2 . . . anσnf(Pσ). Podemos entao escrever

f(A) =∑

σ=(σ1,...,σn)∈Sn

a1σ1a2σ2 . . . anσnf(Pσ).

Mas, como ja foi visto, f(Pσ) = 1 ou −1 consoante P for obtida de In por um numeropar ou ımpar de trocas de linhas, isto e, f(Pσ) = sgn(σ). Temos entao

f([aij]) =∑

σ=(σ1,...,σn)∈Sn

sgn(σ) a1σ1a2σ2 . . . anσn .

Este resultado permite-nos concluir que, caso exista, a funcao determinante e unica,pois qualquer outra funcao nas condicoes da definicao de determinante teria o mesmovalor na matriz A.

Teorema 3.2 A funcao determinante de ordem n existe, e unica e e dada por

det : Mn×n(R) −→ RA = [aij] −→ det(A) =

σ=(σ1,...,σn)∈Sn

sgn(σ) a1σ1a2σ2 . . . anσn.

47

Page 49: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Demonstracao. Como ja provamos a unicidade, resta mostrar que esta funcao, quedesignamos por det, satisfaz (d1), (d2) e (d3). A demonstracao deste facto e simples,embora (d2) necessite de algum cuidado.

Comecemos com (d1) e (d3). Seja

A =

a11 . . . a1n...

. . ....

ai1 + a′i1 . . . ain + a′in...

. . ....

an1 . . . ann

.

Entao

det (A) =∑

σ=(σ1,...,σn)∈Sn

sgn(σ) a1σ1 . . . (aiσi+ a′iσi

) . . . anσn =

=∑

σ=(σ1,...,σn)∈Sn

sgn(σ) a1σ1 . . . aiσi. . . anσn +

σ=(σ1,...,σn)∈Sn

sgn(σ) a1σ1 . . . a′iσi. . . anσn =

= det

a11 . . . a1n...

. . ....

ai1 . . . ain...

. . ....

an1 . . . ann

+ det

a11 . . . a1n...

. . ....

a′i1 . . . a′in...

. . ....

an1 . . . ann

.

De modo analogo se demonstra a segunda condicao de (d1).

Para mostrarmos que (d3) se verifica, considere-se In = [δij], onde δij e o sımbolo deKronecker. Entao, para i = 1, . . . , n e para qualquer permutacao σ=(σ1, . . . , σn)∈Sn,tem-se δiσi

= 0, a nao ser que σi = i. Logo, a parcela sgn(σ) δ1σ1δ2σ2 . . . δnσn sera nuladesde que σ nao seja a permutacao identidade. Assim

det(In) = sgn(id) δ11δ22 . . . δnn = 1.

Para terminar, provemos (d2).Suponhamos que A = [aij] tem as linhas k e ` iguais, isto e, akj = a`j, j = 1, . . . , n.

E nosso objectivo mostrar que, dada uma qualquer parcela de

det(A) =∑

σ=(σ1,...,σn)∈Sn

sgn(σ) a1σ1 . . . akσk. . . a`σ`

. . . anσn ,

podemos-lhe associar uma outra parcela, bem determinada pela primeira, que somadacom ela da zero.

48

Page 50: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Seja τ a permutacao de Sn que troca entre si k e `, e fixa os restantes inteiros.Dada uma qualquer permutacao ϕ=(ϕ1, ϕ2, . . . , ϕk, . . . , ϕ`, . . . , ϕn)∈Sn, podemos consi-derar a permutacao composicao ψ = ϕ ◦ τ = (ϕ1, ϕ2, . . . , ϕ`, . . . , ϕk, . . . , ϕn). Claramentesgn(ψ) = −sgn(ϕ) (pense como obtem Pψ de Pϕ.) A parcela do somatorio correspondentea ψ e

sgn(ψ) a1ψ1 . . . akψk. . . a`ψ`

. . . anψn = −sgn(ϕ) a1ϕ1 . . . akϕ`. . . a`ϕk

. . . anϕn =

(uma vez que akϕ`= a`ϕ`

e akϕk= a`ϕk

)

= −sgn(ϕ) a1ϕ1 . . . a`ϕ`. . . akϕk

. . . anϕn =

(pela comutatividade da multiplicacao em R)

= −sgn(ϕ) a1ϕ1 . . . akϕk. . . a`ϕ`

. . . anϕn ,

que e o simetrico da parcela do somatorio correspondente a ϕ. Conclui-se assim quedet(A) = 0.

Atendendo a que ha n! permutacoes em Sn, e obvio que para n ≥ 4 nao e facil calcularo determinante de uma matriz usando a definicao. Teremos entao que encontrar processosalternativos. Antes, porem, analisemos os casos n = 2 e n = 3. Se n = 2, ja vimos que

det

[a11 a12

a21 a22

]= a11a22 − a12a21.

No caso n = 3, a formula do determinante envolve seis parcelas, tres das quais afectadasdo sinal 1 e as outras tres do sinal −1. Assim, se A = [aij] for uma matriz de ordem 3,tem-se

det(A) = a11a22a33 + a13a21a32 + a12a23a31 − a13a22a31 − a12a21a33 − a11a23a32.

Existe uma regra pratica, conhecida por Regra de Sarrus, que nos ajuda a recordar estaformula. As parcelas do determinante afectadas do sinal 1 sao constituıdas: uma peloproduto dos elementos diagonais de A, e as duas outras pelos produtos dos elementos queconstituem os triangulos de bases paralelas a diagonal principal. As parcelas afectadas dosinal −1 sao obtidas de modo semelhante, desempenhando agora a diagonal secundariaum papel semelhante ao desempenhado pela diagonal principal no outro caso:

+ :

a11

a22

a33

· a13

a21 ·a32 ·

· a12

· a23

a31 ·

;

− :

a13

a22

a31

a12 ·a21 ·· a33

a11 ·· a23

· a32

.

49

Page 51: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 3.2 Tem-se

det

[1 93 7

]= 1× 7− 9× 3 = −20 ;

det

2 5 36 15 47 8 1

= 2×15×1+3×6×8+5×4×7−(3×15×7+2×4×8+5×6×1) = −95.

Como ja foi referido, para n ≥ 4 nao e, em geral, facil o calculo de um determinante.Uma excepcao e o caso das matrizes triangulares.

Proposicao 3.1 Seja A uma matriz triangular, superior ou inferior. Entao o determi-nante de A e igual ao produto dos seus elementos diagonais.

Demonstracao. Consideremos o caso de uma matriz triangular superior (o outro caso eem tudo semelhante).

A =

a11 a12 . . . a1,n−1 a1n

0 a22 . . . a2,n−1 a2n...

.... . .

......

0 0 . . . an−1,n−1 an−1,n

0 0 . . . 0 ann

.

Vejamos quais dos produtos a1σ1a2σ2 . . . an−1σn−1anσn , com σ ∈ Sn, que aparecem naformula de det(A) podem ser nao nulos. Como ain = 0 se i 6= n, este produto seranulo a nao ser que σn = n. Obviamente, agora tem-se σn−1 ≤ n− 1, uma vez que ja naopode tomar o valor n, pelo facto de σ ser uma permutacao. Por outro lado, qualquer valorde σn−1 inferior a n− 1 tornaria o produto nulo. Assim σn−1 = n− 1. Prosseguindo destemodo, concluımos que o unico produto eventualmente nao nulo e a11a22 . . . ann. Assimtemos det(A) = sgn(id) a11a22 . . . ann = a11a22 . . . ann, como querıamos demonstrar.

Exercıcio 3.1 1. Sendo A=

a b 0 0c d 0 0∗ ∗ e f∗ ∗ g h

, mostre que det(A)=det

[a bc d

]det

[e fg h

].

2. Generalize o resultado da alınea anterior para matrizes quadradas da forma[

B 0C D

],

onde B e D sao quadradas.

50

Page 52: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Vamos em seguida alcancar o objectivo de mostrar que o nao anulamento do determi-nante de uma matriz e equivalente a invertibilidade dessa matriz.

Teorema 3.3 Seja A quadrada. Seja U a matriz que se obtem de A aplicando-lhe oalgoritmo de eliminacao de Gauss. Entao det(A) = ± det(U).

Demonstracao. Viu-se atras que o determinante de uma matriz nao se altera se a umalinha adicionarmos um multiplo de outra linha. Mas isso significa que o determinantede uma matriz nao se altera com a “parte descendente” do algoritmo de eliminacao deGauss (suponhamos por um momento que nao ha troca de linhas). Entao, se o algoritmotransforma A na matriz triangular superior U , tem-se det(A) = det(U).

Se houver necessidade de troca de linhas no algoritmo de eliminacao aplicado a A,tem-se det(A) = det(U) se o numero de trocas for par e det(A) = − det(U) se o numerode trocas for ımpar.

Este teorema fornece um processo de calculo de determinantes que ecomputacionalmente muito mais economico do que a formula que da o determinante.

Exemplo 3.3 Usemos o algoritmo de eliminacao de Gauss para o calculo do seguintedeterminante.

det

1 1 2 22 2 3 50 1 2 30 0 1 2

= det

1 1 2 20 0 −1 10 1 2 30 0 1 2

=

= − det

1 1 2 20 1 2 30 0 −1 10 0 1 2

= − det

1 1 2 20 1 2 30 0 −1 10 0 0 3

=

= −(1× 1× (−1)× 3) = 3.

Corolario 3.1 Seja A quadrada. Entao A e invertıvel se e so se det(A) 6= 0.

Demonstracao. Pelo teorema anterior, tem-se det(A) = ± det(U). Como U e trian-gular, det(U) e igual ao produto dos seus elementos diagonais. Se A for nao-singular (oque e equivalente a ser invertıvel), esses elementos diagonais de U sao os n pivots quese encontram quando se aplica o metodo de eliminacao a A, e portanto det(U) 6= 0.Se A for singular, U tem pelo menos um elemento diagonal nulo e portanto det(U) = 0.

51

Page 53: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

O teorema seguinte contem uma importante propriedade do determinante.

Teorema 3.4 Sejam A e B n× n. Entao det(AB) = det(A) det(B).

Demonstracao. Distinguimos dois casos, conforme a matriz B.

1o caso: det(B) = 0. Entao B e singular e, pelo Corolario 2.1, a matriz AB e singular.Logo det(AB) = 0. Neste caso, tem-se entao det(AB) = det(A) det(B).

2o caso: det(B) 6= 0. Definamos a seguinte funcao:

g : Mn×n(R) −→ R

A 7−→ det(AB)

det(B)

Esta funcao g satisfaz as tres propriedades da definicao de determinante. (Exercıcio:Comprove esta afirmacao.) Mas, como vimos atras, so existe uma funcao que satisfazessas propriedades, que e a funcao determinante. Entao, tem que se ter g = det, isto e,

det(AB)

det(B)= det(A)

o que e o mesmo que det(AB) = det(A) det(B).

Corolario 3.2 Seja A quadrada invertıvel. Entao

det(A−1) =1

det(A).

Demonstracao. De AA−1 = I tira-se, pelo teorema anterior,

det(A) det(A−1) = 1

de onde se segue a conclusao do corolario.

Vemos portanto que o determinante se relaciona bem com o produto de matrizes. Omesmo nao se passa com a soma de matrizes: para n ≥ 2, nao existe nenhuma relacaosimples entre det(A + B), por um lado, e det(A) e det(B), por outro.

52

Page 54: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Para o teorema seguinte, precisamos de um pequeno resultado preparatorio:

Lema 3.1 Seja P uma matriz de permutacao. Entao

det(P T ) = det(P ) .

Demonstracao. Como P e P T sao matrizes de permutacao, o determinante de cada umadelas e 1 ou −1. Mas como a inversa de uma matriz de permutacao e a sua transposta,tem-se PP T = I, donde det(P ) det(P T ) = 1. Logo det(P ) e det(P T ) ou sao ambos iguaisa 1 ou sao ambos iguais a −1.

Teorema 3.5 Seja A quadrada. Entao

det(AT ) = det(A) .

Demonstracao. Apliquemos a A o algoritmo de eliminacao de Gauss. Suponhamos paraja que nao ha necessidade de trocar linhas. Entao tem-se A = LU e det(A) = det(U).Quanto a transposta, vem AT = UT LT , donde det(AT ) = det(LT ) det(UT ) = det(UT )(det(LT ) = 1 porque LT e triangular com elementos diagonais iguais a 1). Mas U e UT

tem os mesmos elementos diagonais, e portanto det(UT ) = det(U).Se houver necessidade de trocar linhas, temos PA = LU . Aplicando determinantes a

ambos os membros desta igualdade e tambem da igualdade AT P T = UT LT , e usando olema anterior, chegamos de novo a conclusao pretendida.

Deste teorema tiramos a conclusao de que todas as propriedades dos determinantesque sao validas para linhas sao tambem validas para colunas. Por exemplo: se uma colunade uma matriz quadrada A for multipla de outra, entao det(A) = 0; se se trocarem entresi duas colunas de A, entao det(A) muda de sinal; etc.

Exercıcio 3.2 Prove que o determinante de uma matriz ortogonal real ou e 1 ou e −1.

Exercıcio 3.3 Duas matrizes A e B dizem-se semelhantes se existir T invertıvel tal queA = TBT−1. Prove que se A e B forem semelhantes entao det(A) = det(B).

Exercıcio 3.4 Sem calcular os determinantes indicados, mostre que

det

ax a2 + x2 1ay a2 + y2 1az a2 + z2 1

= det

ax y zax2 y2 z2

a 1 1

.

53

Page 55: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

O Teorema de Laplace

Vamos agora estudar uma formula que nos permite reduzir o calculo de um determi-nante de ordem n ao calculo de n determinantes de ordem n− 1. Esta formula pode serparticularmente util se uma das linhas ou das colunas da matriz tiver muitos zeros.

Comecemos com o caso n = 3. Dada A = [aij]3×3, tem-se, pela definicao,

det(A) = a11a22a33 + a13a21a32 + a12a23a31 − a13a22a31 − a12a21a33 − a11a23a32.

Agrupemos as parcelas que contem a11, as que contem a12 e as que contem a13:

det(A) = a11(a22a33 − a23a32)− a12(a21a33 − a23a31) + a13(a21a32 − a22a31),

ou seja

det(A) = a11 det

[a22 a23

a32 a33

]− a12 det

[a21 a23

a31 a33

]+ a13 det

[a21 a22

a31 a32

].

Definicao 3.4 Seja A = [aij]n×n. Chama-se complemento algebrico de um ele-mento aij de A a (−1)i+j det(Aij), onde Aij designa a submatriz de A obtida porsupressao da linha i e da coluna j.

No caso 3 × 3, acabamos de provar que det(A) se obtem multiplicando os elementosda primeira linha de A pelos respectivos complementos algebricos. E facil de ver que umresultado analogo seria obtido se em vez da primeira linha tivessemos utilizado uma dasoutras duas, ou mesmo uma qualquer coluna de A.

Esta formula pode ser generalizada para matrizes n×n obtendo-se o seguinte teorema,cuja demonstracao omitimos.

Teorema 3.6 (Teorema de Laplace) O determinante de uma matriz quadrada e igual asoma dos produtos dos elementos de uma linha pelos respectivos complementos algebricos,isto e, sendo A = [aij] n× n, tem-se

det(A) =n∑

j=1

aij (−1)i+j det(Aij),

para qualquer i ∈ {1, . . . , n}. O mesmo vale para colunas, ou seja,

det(A) =n∑

i=1

aij (−1)i+j det(Aij),

para qualquer j ∈ {j, . . . , n}.

54

Page 56: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 3.4 Calculemos o seguinte determinante, usando o Teorema de Laplace.Utilizaremos a primeira linha da matriz, visto conter um maior numero de zeros.

det

5 0 0 22 1 −3 00 −1 2 12 0 −1 −1

=

= 5(−1)1+1 det

1 −3 0−1 2 1

0 −1 −1

+ 0(−1)1+2 det

2 −3 00 2 12 −1 −1

+

+ 0(−1)1+3 det

2 1 00 −1 12 0 −1

+ 2(−1)1+4 det

2 1 −30 −1 22 0 −1

=

(desenvolvendo o primeiro e o quarto destes determinantes pela primeira linha e primeiracoluna, respectivamente)

= 5 [1(−1)1+1 det

[2 1

−1 −1

]− 3(−1)1+2 det

[ −1 10 −1

]] +

+(−2) [2(−1)1+1 det

[ −1 20 −1

]+ 2(−1)3+1 det

[1 −3

−1 2

]] = 10.

Como aplicacao do Teorema de Laplace, vamos agora ver formulas para a inversa deuma matriz e para a solucao de um sistema Ax = b com A invertıvel.

A regra de Cramer

Definicao 3.5 Dada A=[aij]n×n, a matriz dos complementos algebricos de Ae a matriz n× n A cujo elemento (i, j) e (−1)i+j det(Aij).

A matriz AT chama-se adjunta de A.

Exemplos. 1. A adjunta de

[a11 a12

a21 a22

]e

[a22 −a12

−a21 a11

].

55

Page 57: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

2. A adjunta de

a11 a12 a13

a21 a22 a23

a31 a32 a33

e

a22a33−a23a32 −(a12a33−a13a32) a12a23−a13a22

−(a21a33−a23a31) a11a33−a13a31 −(a11a23−a13a21)a21a32−a22a31 −(a11a32−a12a31) a11a22−a12a21

.

Teorema 3.7 O produto de A pela sua adjunta e a matriz diagonal

det(A) 0 . . . 00 det(A) . . . 0...

.... . .

...0 0 . . . det(A)

.

Demonstracao. Calcule-se o produto AAT pela definicao. Para qualquer i, o elemento(i, i) deste produto e

n∑

k=1

aik (−1)i+k det(Aik)

o que, pelo Teorema de Laplace, e igual a det(A). Para i 6= j, o elemento (i, j) e

n∑

k=1

aik (−1)j+k det(Ajk) .

Pelo Teorema de Laplace, isto e igual ao determinante da matriz que se obtem de A substi-tuindo a linha j pela linha i. Como tal matriz tem duas linhas iguais, o seu determinantee igual a 0.

Corolario 3.3 Seja A quadrada invertıvel. Entao

A−1 =1

det(A)AT .

Demonstracao. Pelo teorema, tem-se AAT = det(A)In. Se A for invertıvel, tem-se

det(A) 6= 0 e podemos escrever A1

det(A)AT = In .

Este corolario apresenta uma formula para a inversa de uma matriz quadrada. Salvoem casos especiais, esta formula nao tem muito interesse na pratica como processo decalculo da inversa de uma matriz (sendo preferıvel o algoritmo de Gauss-Jordan). Mastem importancia teorica, para alem de ser interessante em si.

56

Page 58: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

De posse de uma formula para a inversa de uma matriz, e agora natural que consigamosobter uma formula para a solucao de um sistema Ax = b com A quadrada invertıvel. Eesse o conteudo do teorema seguinte.

Teorema 3.8 (Regra de Cramer.) Dado o sistema Ax = b, com A n × n invertıvel,

a solucao (unica) do sistema e a coluna cujos elementos sao os quocientesdet(A(i))

det(A),

i = 1, . . . , n, onde A(i) e a matriz que se obtem de A substituindo a coluna i por b.

Demonstracao. A solucao unica do sistema Ax=b e A−1b. Usemos a formula para A−1

obtida no corolario anterior. Vem entao que a solucao do sistema e1

det(A)AT b .

O elemento i da coluna AT b e n∑j=1

bj (−1)i+j det(Aji)

o que pelo Teorema de Laplace e precisamente o determinante da matriz que no enunciadodo teorema denotamos por A(i).

Exemplo. Sendo A =

[a11 a12

a21 a22

]invertıvel e b =

[b1

b2

], a solucao do sistema Ax = b

e a coluna 2× 1 cujos elementos sao

det

[b1 a12

b2 a22

]

det

[a11 a12

a21 a22

] =b1a22 − a12b2

a11a22 − a12a21

e

det

[a11 b1

a21 b2

]

det

[a11 a12

a21 a22

] =a11b2 − b1a21

a11a22 − a12a21

.

Assim, por exemplo, a solucao unica do sistema de equacoes lineares{2x1 + 5x2 = 34x1 + 9x2 = 7

e a coluna 2× 1 cujos elementos sao

det

[3 57 9

]

det

[2 54 9

] =−8

−2e

det

[2 34 7

]

det

[2 54 9

] =2

−2

ou seja e a coluna

[4

−1

].

A regra de Cramer, embora de uma formula para a solucao de sistemas Ax = b comA invertıvel, nao tem interesse computacional (salvo para valores pequenos de n), devidoa necessidade de calcular os determinantes que nela figuram.

57

Page 59: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

4 O espaco Rn, subespacos, dimensao

4.1 Subespacos

Neste capıtulo vamos precisar o conceito de “dimensao” usado na liguagem corrente,quando dizemos que um plano tem “dimensao 2”, ou que o espaco em que nos movemostem “dimensao 3”.

Sendo n um numero natural, o nosso estudo vai ser feito dentro de Rn, que sera onosso “espaco”.8 Definiremos com rigor o que se entende por dimensao de certo tipo desubconjuntos de Rn.

No estudo que vamos fazer, usaremos apenas as operacoes de adicao de elementos deRn e multiplicacao de numeros por elementos de Rn. Um estudo completamente analogopode fazer-se num contexto abstracto, em que se trabalha com conjuntos cujos elementosse possam somar e multiplicar por numeros, exigindo-se apenas que essas duas operacoessatisfacam algumas propriedades naturais. Conjuntos desse tipo chamam-se espacosvectoriais, e serao estudados mais adiante.

Recorde-se que Rn e o conjunto das matrizes n×1 com elementos reais. Aos elementosde Rn chamaremos vectores e aos numeros chamamos por vezes escalares.

Frequentemente identificaremos o vector

a1

a2...

an

com a sequencia ordenada (a1, a2, . . . , an). Ao vector (0, 0, . . . , 0) chamamos zero, origemou vector nulo de Rn, e denotamo-lo por 0.

R2 e identificado, da forma habitual, com o conjunto dos pontos de um plano em quese fixou um sistema de eixos:

R2

.a =

[a1

a2

]

0 a1

a2

8Tudo o que se vai dizer vale da mesma forma para Cn, usando numeros complexos em vez de numerosreais.

58

Page 60: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Como se sabe, a adicao de vectores de R2 corresponde geometricamente a chamada“regra do paralelogramo”:

.

©©©©©©©©©©a

.

@@

@@b ©©©©©©©©©©

@@

@@.a + b

0

Tambem a multiplicacao de numeros reais por vectores de R2 tem uma traducaogeometrica conhecida:

.

©©©©©©©©©©a

©©©©©©©©©©©©©©.32a

0

O elemento a ∈ R2 e por vezes identificado com o segmento orientado que vai daorigem para a:

©©©©©©©©©©*a

0

59

Page 61: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Identificamos segmentos orientados com a mesma direccao, sentido e grandeza. Assim,por exemplo, os dois segmentos orientados da figura seguinte sao considerados o mesmo.

©©©©©©©©©©*©©©©©©©©©©*

0

Isto corresponde a dizer que, se os pontos inicial e final de um segmento orientadoforem, respectivamente, a e b, entao esse segmento orientado e igual ao elemento b− a.

De forma inteiramente analoga a de R2, R3 e identificado, da forma habitual, com oconjunto dos pontos do espaco usual em que se fixou um sistema de tres eixos perpendi-culares. A adicao de vectores de R3 e a multiplicacao de numeros reais por vectores deR3 tem interpretacoes geometricas analogas as de R2.

R2 e R3 sao a nossa inspiracao para o estudo de Rn. Claro que, para n ≥ 4, nao hafiguras, e o estudo e exclusivamente algebrico.

Definicao 4.1 Um subespaco de Rn e um subconjunto F de Rn que satisfaz asseguintes condicoes:

1. F 6= ∅;2. u, v ∈ F ⇒ u + v ∈ F ;

3. v ∈ F, α ∈ R ⇒ αv ∈ F .

A condicao 2 costuma descrever-se dizendo que F e “fechado para a adicao de vec-tores”. A condicao 3 costuma descrever-se dizendo que F e “fechado para o produto denumeros reais por vectores”.

60

Page 62: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exercıcio 4.1 Seja F um subespaco de Rn, sejam v1, . . . , vk vectores de F e sejam α1, . . . , αk

numeros reais quaisquer. Prove que, entao, o vector α1v1 + . . . + αkvk pertence a F .

Se F for um subespaco de Rn, a origem de Rn pertence necessariamente a F , porque,sendo v um vector qualquer de F (existe pelo menos um porque F 6= ∅), a terceiracondicao da definicao de subespaco obriga a que 0v = 0 ∈ F .

Exemplo 4.1 1. {0} e Rn sao subespacos de Rn (os chamados subespacos triviais).

2. Em R2 (identificado da forma atras referida com o conjunto dos pontos de um planoem que se fixou um sistema de eixos) as rectas passando pela origem sao subespacos. Asrectas que nao passam pela origem nao sao subespacos.

3. Os quadrantes de R2 nao sao subespacos.

4. Em R3 (identificado com o conjunto dos pontos do espaco usual em que se fixou umsistema de eixos) as rectas e os planos passando pela origem sao subespacos. As rectas eos planos que nao passam pela origem nao sao subespacos.

4. Sendo A ∈ Mm×n(R), o nucleo ou espaco nulo de A (isto e, o conjunto N(A) dassolucoes do sistema Ax = 0) e um subespaco de Rn. Se b ∈ Rm nao for o vector nulo, oconjunto das solucoes do sistema Ax = b nao e um subespaco.

5. A interseccao de dois (ou mais) subespacos de Rn e ainda um subespaco de Rn.

6. O conjunto F =

x1

x2

x3

x4

∈ R4 : x1 + x2 = x3 − x4

e um subespaco de R4.

De facto, 0 ∈ F . Logo, F 6= ∅. Sejam

x1

x2

x3

x4

e

y1

y2

y3

y4

vectores arbitrarios de F e α ∈ R.

Temos x1 + x2 = x3 − x4 e y1 + y2 = y3 − y4. Entao

(x1 + y1)+ (x2 + y2) = (x1 +x2)+ (y1 + y2) = (x3−x4)+ (y3− y4) = (x3 + y3)− (x4 + y4) .

Logo,

x1 + y1

x2 + y2

x3 + y3

x4 + y4

∈ F e F e fechado para a adicao.

61

Page 63: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Finalmente, temos αx1 + αx2 = α(x1 + x2) = α(x3 − x4) = αx3 − αx4. Assim,

α

x1

x2

x3

x4

=

αx1

αx2

αx3

αx4

∈ F

e F e fechado para a adicao. Conclui-se assim que F e um subespaco de R4.

7. O conjunto

x1

x2

x3

x4

∈ R4 : x1 + x2 = 1, x3 − x4 = 0

nao e um subespaco de R4.

Basta notar que o vector nulo nao pertence a F .

Exercıcio 4.2 Sejam Am×n e Bp×m duas matrizes reais quaisquer. Prove que:

1. O espaco nulo de A esta contido no espaco nulo de BA.

2. O espaco nulo de A coincide com o de AT A.

Exercıcio 4.3 Mostre que a reuniao de dois subespacos de Rn so e um subespaco se umdeles contiver o outro.

Definicao 4.2 Sejam v1, . . . , vk vectores de Rn. Uma combinacao linear dev1, . . . , vk e um vector da forma α1v1 + . . . + αkvk, com α1, . . . , αk numeros reais(os coeficientes da combinacao linear). Denotamos por L{v1, . . . , vk} o conjuntode todas as possıveis combinacoes lineares dos vectores v1, . . . , vk.

Teorema 4.1 Sendo v1, . . . , vk ∈ Rn, o conjunto L{v1, . . . , vk} e um subespaco de Rn.

Demonstracao. Exercıcio.

Definicao 4.3 A L{v1, . . . , vk} chama-se subespaco gerado pelos vectoresv1, . . . , vk. Se F = L{v1, . . . , vk}, diz-se que e {v1, . . . , vk} e um conjuntogerador de F .

62

Page 64: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 4.2 1. Considere o vector v =

[13

]de R2. O subespaco gerado por v,

L{v} = {αv : α ∈ R}, e a recta de equacao y = 3x.

2. Seja de novo v =

[13

]e tome-se w =

[01

]. Entao L{v, w} = R2. De facto, qualquer

vector de R2 e combinacao linear de v e w:[x1

x2

]= x1

[13

]+ (x2 − 3x1)

[01

].

3. Seja F =

x1

x2

x3

x4

∈ R4 : x1 + x2 = x3 − x4

o subespaco de R4 referido no exemplo

4.1.6. Notemos que os elementos de F sao os vectores de R4 da forma

x1

x2

x3

−x1 − x2 + x3

.

Assim, qualquer vector de F pode escrever-se na forma

x1

100

−1

+ x2

010

−1

+ x3

0011

.

Conclui-se assim que os vectores

100

−1

,

010

−1

,

0011

geram o subespaco F .

Exercıcio 4.4 Mostre que L{v1, . . . , vk} e o menor subespaco de Rn que contem os vec-tores v1, . . . , vk, isto e, que, se G for um subespaco de Rn que contem v1, . . . , vk, entaonecessariamente L{v1, . . . , vk} ⊆ G.

Definicao 4.4 Sendo A ∈ Mm×n(R), o espaco das colunas de A e o subespacoC(A) de Rm gerado pelas n colunas de A. O espaco das linhas de A e R(A) =C(AT ), isto e, o espaco gerado pelas linhas de A consideradas como vectores de Rn.

63

Page 65: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 4.3 Seja A =

1 02 1

−1 3

. Entao

C(A) = L

12

−1

,

013

e R(A) = L

{[10

],

[21

],

[−13

]}= R2 .

C(A) desempenha um papel importante no estudo dos sistemas de equacoes lineares.

Teorema 4.2 O sistema Ax = b e possıvel se e so se b ∈ C(A).

Demonstracao. Basta observar que, sendo v1, . . . , vn as colunas de A e x = [x1 . . . xn]T ,se tem, pela definicao de produto de matrizes,

Ax = x1v1 + . . . + xnvn .

Isto quer dizer que existe x tal que Ax = b se e so se for possıvel escrever b comocombinacao linear de v1, . . . , vn, isto e, se e so se b ∈ C(A).

Exercıcio 4.5 Sejam Am×n e Bp×m duas matrizes reais quaisquer. Prove que o espacodas colunas de BA esta contido no de B.

O conceito de subespaco gerado por um conjunto de vectores pode apresentar-se paraconjuntos nao necessariamente finitos.

Definicao 4.5 Seja S um subconjunto qualquer de Rn. O subespaco gerado porS, designado por L(S), e o menor subespaco de Rn que contem S. Isto e, se G forum subespaco de Rn que contem S, entao necessariamente L(S) ⊆ G.

Exercıcio 4.6 Mostre que L(S) e constituıdo por todas as possıveis combinacoes linearesde vectores de S.

4.2 Dependencia e independencia linear

Dado um subespaco F de Rn, o nosso objectivo e encontrar um conjunto gerador deF com tao poucos elementos quanto possıvel. Neste contexto, tem interesse o resultadoseguinte.

64

Page 66: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Lema 4.1 Se os vectores v1, . . . , vk geram F e se um deles for uma combinacao lineardos restantes k − 1, entao esses outros k − 1 ainda geram F .

Demonstracao. Suponhamos que e o vector vj que e uma combinacao linear dosrestantes k−1. Tomemos um vector qualquer de F , digamos v. Como v1, . . . , vk geram F ,v e combinacao linear deles. Nessa combinacao linear, substitua-se vj pela sua expressao

como combinacao linear dos outros k−1. E obvio que entao ficamos com uma combinacaolinear so desses k − 1 vectores, e portanto v e igual a uma combinacao linear so dessesk− 1 vectores. Como v e um vector arbitrario de F , fica provado que esses k− 1 vectoresgeram F .

Este Lema mostra que nos interessam conjuntos de vectores em que nenhum sejacombinacao linear dos restantes.

Definicao 4.6 Sejam v1, . . . , vk ∈ Rn (k ≥ 2). Os vectores v1, . . . , vk dizem-selinearmente independentes se nenhum deles for igual a uma combinacao lineardos outros k − 1. Um vector v1 e linearmente independente se v1 6= 0. Se v1, . . . , vk

nao forem linearmente independentes dizem-se linearmente dependentes.

Observacao. A propriedade de uns tantos vectores serem linearmente independentes euma propriedade do conjunto e nao de cada vector individualmente. Por isso se diz asvezes que e o conjunto que e linearmente independente.

Exemplo 4.4 1. Os vectores

[13

]e

[01

]sao linearmente independentes, enquanto

que os vectores

[13

]e

[26

]sao linearmente dependentes.

2. Qualquer conjunto de vectores que contenha o vector nulo e linearmente dependente.

3. Subconjuntos de conjuntos linearmente independentes sao linearmente independentes,e portanto um conjunto que contenha um subconjunto linearmente dependente e tambemlinearmente dependente.

Usando a definicao, e em geral moroso verificar na pratica se um conjunto de vectorese ou nao linearmente independente. O criterio que se segue facilita-nos essa tarefa.

Teorema 4.3 (Criterio de independencia linear.) Os vectores v1, . . . , vk sao linearmenteindependentes se e so se for impossıvel escrever o vector nulo como combinacao linear dev1, . . . , vk, excepto da forma trivial (isto e, com todos os coeficientes iguais a 0).

65

Page 67: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Demonstracao. Suponhamos que v1, . . . , vk sao linearmente independentes e que epossıvel escrever o vector nulo como combinacao linear de v1, . . . , vk de forma nao trivial,digamos

α1v1 + · · ·+ αkvk = 0

com os numeros α1, . . . , αk nao todos nulos. Seja por exemplo αj 6= 0. Entao vem

vj = −α1

αj

v1 − · · · − αj−1

αj

vj−1 − αj+1

αj

vj+1 − · · · − αk

αj

vk

e v1, . . . , vk seriam linearmente dependentes, contra o que supusemos.Reciprocamente, suponhamos que e impossıvel escrever o vector nulo como combinacao

linear de v1, . . . , vk, excepto da forma trivial, e que esses vectores sao linearmente depen-dentes. Entao pelo menos um deles, digamos vj, e igual a uma combinacao linear dosoutros k − 1:

vj = β1v1 + · · ·+ βj−1vj−1 + βj+1vj+1 + · · ·+ βkvk .

Mas entao tem-se

β1v1 + · · ·+ βj−1vj−1 − 1.vj + βj+1vj+1 + · · ·+ βkvk = 0

e conseguimos escrever o vector nulo como combinacao linear de v1, . . . , vk com pelo menosum coeficiente nao nulo, contra o que supusemos.

Exemplo 4.5 Considerem-se os vectores

121

,

011

e

−3−5β

de R3, onde β e um

parametro real. Para estudar a dependencia ou independencia linear destes vectores,determinam-se os numeros α1, α2, α3 que verificam a igualdade vectorial

(∗) α1

121

+ α2

011

+ α3

−3−5β

=

000

.

Para tal, basta-nos resolver o sistema homogeneo Ax = 0, onde

A =

1 0 −32 1 −51 1 β

e x =

α1

α2

α3

.

Usando a eliminacao de Gauss, obtemos de A a matriz em escada U =

1 0 −30 1 10 0 β + 2

.

Segue-se que, se β+2 6= 0, o sistema Ax = 0 e possıvel e determinado. Assim, neste caso,α1, α2 e α3 satisfazem a igualdade (∗) se e so se α1 = 0, α2 = 0 e α3 = 0. Concluımosque, se β 6= −2, os vectores sao linearmente independentes.No caso de β + 2 = 0, o sistema Ax = 0 sera possıvel indeterminado. Existem portantomuitos valores de α1, α2, α3 para os quais (∗) se verifica. Assim, se β = −2, os tresvectores sao linearmente dependentes.

66

Page 68: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Corolario 4.1 Designemos por A a matriz cujas colunas sao v1, . . . , vk. Entao os vectoresv1, . . . , vk sao linearmente independentes se e so se o sistema Ax = 0 for determinado.

Demonstracao. De novo basta observar que se tem

Ax = x1v1 + . . . + xnvn .

Corolario 4.2 Se k > n, quaisquer k vectores de Rn sao linearmente dependentes.

Demonstracao. Esta afirmacao segue imediatamente do Corolario anterior, porque umsistema homogeneo cuja matriz tem mais colunas do que linhas e indeterminado.

4.3 Base e dimensao

Teorema 4.4 Seja F um subespaco de Rn. Sejam v1, . . . , vp vectores de F que geram Fe sejam w1, . . . , wq vectores de F linearmente independentes. Entao tem-se, necessaria-mente, p ≥ q. Por outras palavras, num subespaco, um conjunto gerador nunca pode termenos elementos do que um conjunto linearmente independente.

Demonstracao. Como v1, . . . , vp geram F , cada um dos wj, por pertencer a F , escreve-secomo combinacao linear de v1, . . . , vp :

wj = α1jv1 + · · ·+ αpjvp , j = 1, . . . , q .

Designemos por A a matriz cujos elementos sao os coeficientes de todas estas combinacoeslineares: A = [αij]p×q.

Suponhamos que p < q. Entao a matriz A tem mais colunas do que linhas e, portanto,o sistema homogeneo Ax = 0 e indeterminado. Seja [β1 . . . βq]

T uma solucao nao nuladesse sistema, isto e, tem-se A[β1 . . . βq]

T = 0, ou seja

αi1β1 + · · ·+ αiqβq = 0 , i = 1, . . . , p.

Vamos ver a que e igual a combinacao linear β1w1 + · · ·+βqwq, substituindo cada wj pelasua expressao como combinacao linear de v1, . . . , vp :

β1w1 + · · ·+ βqwq = β1

(p∑

i=1

αi1vi

)+ · · ·+ βq

(p∑

i=1

αiqvi

)

=

(q∑

j=1

α1jβj

)v1 + · · ·+

(q∑

j=1

αpjβj

)vp

= 0v1 + · · ·+ 0vp = 0 .

Mas os numeros β1, . . . , βq nao sao todos iguais a zero, e portanto chegamos a uma con-tradicao com a hipotese de os vectores w1, . . . , wq serem linearmente independentes. Logo,nao pode ter-se p < q.

67

Page 69: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Definicao 4.7 Seja F um subespaco de Rn. Um conjunto de vectores de F linear-mente independentes e que gerem F diz-se uma base de F .

Exemplo 4.6 1. O exemplo mais simples de uma base para o proprio Rn e o conjunto

100...0

,

010...0

, . . . ,

000...1

.

A esta base chama-se base canonica de Rn.

2. Em R2 e em R3 uma recta passando pela origem tem como base um qualquer vector naonulo que lhe pertenca. Em R3 um plano passando pela origem tem como base quaisquerdois seus vectores linearmente independentes.

3. Os vectores

[13

]e

[01

]formam uma base de R2. O mesmo sucede com os vectores

[25

]e

[79

]. Conhece outras bases de R2?

4. Uma base do subespaco de R4 referido no exemplo 4.1.6 e constituıda pelos vectores

100

−1

,

010

−1

,

0011

.

Em R2 (e analogamente em R3) a base canonica subjaz ao sistema de eixos vulgar. Oconceito de base pretende generalizar a nocao de “sistema de eixos”, ou referencial, paraum subespaco qualquer.

Observacao. Ao indicar os vectores de uma base de um subespaco, interessa tambema ordem pela qual eles aparecem. Para nao sobrecarregar a exposicao, nao estaremossempre a repetir isso, e falaremos de uma base simplesmente como um conjunto.

68

Page 70: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 4.5 Seja {v1, . . . , vk} uma base de F . Para cada v ∈ F , os coeficientes de vquando escrito como combinacao linear de v1, . . . , vk sao univocamente determinados porv. (A esses coeficientes chama-se componentes ou coordenadas de v relativamente abase {v1, . . . , vk}.)

Demonstracao. Seja

v = α1v1 + · · ·+ αkvk

e tambemv = β1v1 + · · ·+ βkvk .

Entao(α1 − β1)v1 + · · ·+ (αk − βk)vk = 0 .

Assim, se nao se tivesse αi = βi , i = 1, . . . , k, os vectores v1, . . . , vk nao seriam linear-mente independentes.

Dado um subespaco F de Rn, se conhecermos uma base de F , qualquer vector de Ffica conhecido se conhecermos as suas coordenadas relativamente a essa base.

Exemplo 4.7 1. As coordenadas do vector

a1

a2...

an

relativamente a base canonica de Rn

sao a1, a2, . . . , an.

2. As coordenadas do vector

[x1

x2

]relativamente a base

{[13

],

[01

]}de R2 sao x1

e x2 − 3x1, uma vez que

[x1

x2

]= x1

[13

]+ (x2 − 3x1)

[01

].

O teorema seguinte conduz directamente a definicao de dimensao de um subespaco.

Teorema 4.6 Se uma base de um subespaco F e constituıda por k vectores, todas sao.

Demonstracao. O resultado e consequencia imediata do teorema 4.4.

69

Page 71: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Definicao 4.8 Seja F um subespaco de Rn. Se uma base de F (e portanto todas)tiver k elementos, dizemos que F tem dimensao k, e escrevemos dimF = k. SeF = {0}, pomos por definicao dimF = 0.

Exemplo 4.8 1. Tem-se dimRn = n.

2. Em R2 as rectas passando pela origem tem dimensao 1.

3. Em R3 as rectas passando pela origem tem dimensao 1.

4. Em R3 os planos passando pela origem tem dimensao 2.

5. O subespaco de R4 referido no exemplo 4.1.6 tem dimensao 3.

Suponhamos que dim F = k, com k > 0. Entao e obvio (pelo teorema do inıcio destaseccao) que k e o numero maximo de elementos que pode ter um conjunto linearmenteindependente de vectores de F , e e o numero mınimo de elementos que pode ter umconjunto gerador de V.

O nosso proximo objectivo e obter processos de construcao de bases de subespacosdados.

Lema 4.2 Sejam v1, . . . , vq vectores linearmente independentes. Se um vector w naopertencer a L{v1, . . . , vq} entao os vectores v1, . . . , vq, w sao tambem linearmente inde-pendentes.

Demonstracao. Olhemos para uma combinacao linear dos vectores v1, . . . , vq, w que sejaigual ao vector nulo:

α1v1 + · · ·+ αqvq + αq+1w = 0 .

Se αq+1 fosse diferente de 0, ter-se-ia

w = − α1

αq+1

v1 − · · · − αq

αq+1

vq

e entao w ∈ L{v1, . . . , vq}, contra o que supusemos. Logo, αq+1 = 0. Mas entao ficamoscom

α1v1 + · · ·+ αqvq = 0 .

Como v1, . . . , vq sao linearmente independentes isto implica que tambem α1 = 0, . . . , αq =0, e fica provado que e impossıvel escrever o vector nulo como combinacao linear dosvectores v1, . . . , vq, w sem ser com todos os coeficientes iguais a zero.

70

Page 72: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 4.7 Suponhamos que dimF = k, com k > 0. Entao:

1. Dado um conjunto de vectores linearmente independentes de F , se esse conjuntonao for uma base de F e possıvel acrescentar-lhe vectores de forma a obter umabase de F .

2. Qualquer conjunto de k vectores de F linearmente independentes e uma base de F .

3. Dado um conjunto de vectores que gerem F , se esse conjunto nao for uma base deF e possıvel retirar-lhe vectores de forma a obter uma base de F .

4. Qualquer conjunto de k vectores de F que gerem F e uma base de F .

Demonstracao.

1. Sejam v1, . . . , vq esses vectores linearmente independentes. Se eles nao constituemuma base de F e porque nao geram F , ou seja existe em F pelo menos um vector,chamemos-lhe w, que nao e combinacao linear de v1, . . . , vq, isto e, que nao pertencea L{v1, . . . , vq}. Pelo Lema 4.2, os vectores v1, . . . , vq, w sao linearmente indepen-dentes. Agora repetimos o raciocınio para estes q + 1 vectores. Este processo naopode continuar indefinidamente, porque em F nao pode haver conjuntos de vectoreslinearmente independentes com mais de k elementos. Isto e, em determinada alturao conjunto de vectores que obtemos gera necessariamente F , ou seja e uma base deF .

2. Exercıcio.

3. Sejam v1, . . . , vp esses vectores que geram F . Se eles nao constituem uma basede F e porque nao sao linearmente independentes, ou seja pelo menos um deles ecombinacao linear dos restantes p−1. Pelo Lema 4.1, esses outros p−1 ainda geramF . Agora repetimos o raciocınio para estes p− 1 vectores. Este processo nao podecontinuar indefinidamente, porque em F nao pode haver conjuntos geradores commenos de k elementos. Isto e, em determinada altura os vectores que obtemos saonecessariamente linearmente independentes, ou seja constituem uma base de F .

4. Exercıcio.

Exemplo 4.9 1. Os vectores de R3 v1 =

120

e v2 =

0−1

1

sao linearmente inde-

pendentes. Pretende-se determinar uma base de R3 que os contenha. Para tal, note-seque

L{v1, v2} =

α1

2α1−α2

α2

: α1, α2 ∈ R

.

71

Page 73: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Escolhendo v3 ∈ R3 tal que v3 ∈/ L{v1, v2}, entao, pelo Lema anterior, sabemos que v1,

v2 e v3 sao linearmente independentes. Tome-se, por exemplo, v3 =

101

. Obviamente

v3 ∈/ L{v1, v2} e, portanto, v1, v2 e v3 sao linearmente independentes. A condicao 2 doultimo Teorema garante-nos que, entao, {v1, v2, v3} e uma base de R3.

2. Considerem-se os vectores de R2

v1 =

[12

], v2 =

[57

], v3 =

[24

], v4 =

[03

].

Eles geram R2 (verifique), mas nao sao linearmente independentes. Como obter a partirdeles uma base de R2? Observe-se que v3 = 2v1 + 0v2 + 0v4. Pelo Lema 4.1, tem-se L{v1, v2, v3, v4} = L{v1, v2, v4}. Por outro lado, v1, v2, v4, sendo tres vectores de umespaco de dimensao 2, nao podem ser linearmente independentes. De facto, tem-se v2 =5v1−v4. Pelo Lema 4.1, tem-se L{v1, v2, v4} = L{v1, v4}. Assim, os vectores v1, v4 geramR2. Como dimR2 = 2, dois vectores geradores formam uma base. Logo, {v1, v4} e umabase de R2 contida no conjunto gerador inicialmente dado.

Corolario 4.3 Seja F um subespaco de Rn. Entao:

1. F tem dimensao.

2. dimF ≤ n.

3. A dimensao de F e n se e so se F = Rn.

Demonstracao.

1. Se F = {0}, tem-se dim F = 0. Se em F existir pelo menos um vector nao nulo,entao ele e linearmente independente e podemos, de modo semelhante a demons-tracao do ponto 1 do teorema anterior (notando que em F , por estar contido emRn, nao pode haver mais de n vectores linearmente independentes), acrescentar-lhevectores ate obter uma base de F . O numero de elementos desta base e a dimensaode F .

2. Se existisse um subespaco de Rn com dimensao superior a n, seria possıvel encontrarem Rn um conjunto de vectores linearmente independentes com mais de n elementos,o que e impossıvel.

3. Se F = Rn entao dim F = n, claro. Reciprocamente, suponhamos que dim F = n.Se F nao fosse igual a Rn, existiria em Rn pelo menos um vector nao pertencente a F .Juntando esse vector a uma base de F obter-se-ia (pelo Lema 4.2) um conjunto den+1 vectores linearmente independentes, o que nao pode ser, porque eles pertencema Rn.

72

Page 74: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

4.4 Mudanca de base

Sejam {v1, . . . , vk} e {v′1, . . . , v′k} duas bases de F . Seja v ∈ F . Como se relacionamas coordenadas de v relativamente as duas bases de F?

Definicao 4.9 Chama-se matriz de mudanca da base {v1, . . . , vk} para a base{v′1, . . . , v′k} a matriz k×k cuja coluna j contem as coordenadas de v′j relativamentea base {v1, . . . , vk}.Isto e, se tivermos

v′1 = s11v1 + s21v2 + . . . + sk1vk

v′2 = s12v1 + s22v2 + . . . + sk2vk

· · ·v′k = s1kv1 + s2kv2 + . . . + skkvk

entao a matriz de mudanca da base {v1, . . . , vk} para a base {v′1, . . . , v′k} e a matriz

s11 s12 . . . s1k

s21 s22 . . . s2k...

.... . .

...sk1 sk2 . . . skk

.

Teorema 4.8 Seja F um subespaco de Rn. Sejam {v1, . . . , vk} e {v′1, . . . , v′k} duas basesde F e seja S a matriz de mudanca da primeira para a segunda. Se x for a colunadas coordenadas de um vector v ∈ F relativamente a base {v1, . . . , vk} e y a coluna dascoordenadas de v relativamente a base {v′1, . . . , v′k}, entao x = Sy.

Demonstracao. Por definicao da matriz S = [sij] tem-se

v′j =k∑

i=1

sijvi , j = 1, . . . , k .

Suponhamos entao que v =k∑

i=1

xivi =k∑

j=1

yjv′j. Tem-se que

k∑i=1

xivi =k∑

j=1

yj

(k∑

i=1

sijvi

)=

k∑i=1

(k∑

j=1

sijyj

)vi .

Como as coordenadas de v relativamente a base {v1, . . . , vk} sao unicas, segue-se que

xi =k∑

j=1

sijyj , i = 1, . . . , k

isto e, x = Sy.

73

Page 75: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 4.10 Considerem-se as bases de R2

{v1 =

[13

], v2 =

[01

]}e

{v′1 =

[25

], v′2 =

[79

]}.

Temos [25

]= 2

[13

]−

[01

]e

[79

]= 7

[13

]− 12

[01

].

A matriz de mudanca da base {v1, v2} para a base {v′1, v′2} e entao S =

[2 7

−1 −12

].

Dado o vector v =

[111

], tem-se v = v1 + 8v2. Pelo Teorema 4.8, as coordenadas de

v relativamente a base {v′1, v′2} sao a solucao de Sy =

[18

]. Resolvendo este sistema,

obtem-se y =

[4−1

]. Logo, tem-se v = 4v′1 − v′2.

Note-se que uma matriz de mudanca de base e invertıvel. De facto, a inversa damatriz de mudanca da base {v1, . . . , vk} para a base {v′1, . . . , v′k} e a matriz de mudancada segunda base para a primeira (verifique).

4.5 Caracterıstica e nulidade de uma matriz

Nesta seccao vamos determinar a dimensao de tres subespacos, anteriormente definidos,que estao associados a qualquer matriz A: o espaco nulo N(A), o espaco das colunas C(A)e o espaco das linhas R(A).

Seja A m × n. O espaco nulo de A — que, recordemos, e o conjunto das solucoes dosistema homogeneo Ax = 0 — e um subespaco de Rn. A sua dimensao costuma chamar-senulidade de A. (Notacao: nul(A).)

Teorema 4.9 Seja A m × n. Entao, tem-se nul(A) = n − car(A), sendo uma base deN(A) obtida pelo algoritmo descrito na seccao 2.2.

Demonstracao. Ponhamos car(A) = r. O algoritmo descrito na seccao 2.2 produz n− rcolunas n × 1 que geram N(A). Resta mostrar que essas n − r colunas sao linearmenteindependentes. Recorde-se que cada uma delas e obtida dando o valor 1 a uma dasincognitas livres e 0 as restantes e resolvendo o sistema (com r equacoes) resultante.Entao, em cada uma das posicoes correspondentes as incognitas livres, uma dessas colunastem o respectivo elemento igual a 1 e as outras tem esse elemento igual a 0. E obvio entaoque nenhuma destas n − r colunas pode ser combinacao linear das restantes n − r − 1,o que significa que elas sao linearmente independentes.

74

Page 76: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 4.11 Considere-se a matriz A =

1 2 0 −1−1 −2 1 0

3 6 0 −3

. Para determinar uma

base de N(A), comeca-se por se determinar a matriz em escada U , aplicando o metodo

de eliminacao de Gauss a A. A matriz U obtida e U =

1 2 0 −10 0 1 −10 0 0 0

. No sistema

Ux = 0 temos duas incognitas livres, x2 e x4. Dando a x2 o valor 1 e a x4 o valor 0,

resolve-se o sistema resultante. A solucao e o vector

−2100

. Agora atribui-se a x2 o valor

0 e a x4 o valor 1. O sistema resultante tem solucao

1011

. O teorema anterior diz-nos

que

−2100

,

1011

e uma base de N(A). Assim, nul(A) = 2.

Teorema 4.10 Designando por U a matriz em escada obtida de A no final da partedescendente do processo de eliminacao de Gauss, tem-se dim C(A) = dimC(U) = car(A),e uma base de C(A) e constituıda pelas colunas de A correspondentes as colunas de U quecontem os pivots.

Demonstracao. Como C(A) e, por definicao, o subespaco (de Rm) gerado pelas colunasde A, ja temos um conjunto gerador de C(A). Se as n colunas de A forem linearmenteindependentes, constituem uma base de C(A). Se nao forem, para encontrar uma basede C(A) sera preciso excluir colunas que sejam combinacoes lineares das outras.

Temos portanto de estudar a dependencia ou independencia das colunas de A. Deno-temos por v1, . . . , vn as colunas de A e por u1, . . . , un as de U .

Recorde-se que, sendo x = [x1 . . . xn]T , se tem, pela definicao de produto de matrizes,

Ax = x1v1 + . . . + xnvn

e analogamenteUx = x1u1 + . . . + xnun .

Ora os sistemas Ax = 0 e Ux = 0 sao equivalentes, isto e, tem as mesmas solucoes. Logo,as dependencias que existem entre as colunas de A sao exactamente as mesmas que as queexistem entre as colunas de U . Portanto, o numero maximo de colunas de A linearmenteindependentes e igual ao numero maximo de colunas de U linearmente independentes.Segue-se que dim C(A) = dim C(U).

75

Page 77: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Ponhamos car(A) = r. Note-se que as r colunas de U onde aparecem os pivots saolinearmente independentes, porque o sistema homogeneo com a matriz m× r constituıdapor essas r colunas e determinado (uma vez que o numero de pivots e igual ao numerode colunas). Observemos em seguida que nao pode haver em U mais do que r colunasindependentes, porque o sistema homogeneo correspondente a um conjunto de colunasde U com mais de r colunas e necessariamente indeterminado (tem mais colunas do quepivots). Entao dim C(U) = r, e uma base de C(U) e constituıda pelas colunas de U emque aparecem os pivots.

Logo, tambem dim C(A) = r, e uma base de C(A) e constituıda pelas r colunas de Acorrespondentes as colunas de U em que aparecem os pivots (porque essas colunas de A saolinearmente independentes e nao pode haver em A mais do que r colunas independentes— se houvesse, o mesmo aconteceria em U).

A definicao de caracterıstica de uma matriz e “computacional”. Este teorema forneceuma descricao “geometrica” da caracterıstica.

Exemplo 4.12 Seja A =

1 2 0 −1−1 −2 1 0

3 6 0 −3

a matriz considerada no exemplo ante-

rior. Sabemos que a matriz em escada U obtida de A e U =

1 2 0 −10 0 1 −10 0 0 0

. Como as

colunas de U que contem pivots sao a primeira e a terceira, conclui-se que uma base de

C(A) e constituıda pelas primeira e terceira colunas de A, isto e,

1−13

,

010

e

uma base de C(A).Este exemplo ilustra o facto de que, em geral, C(A) 6= C(U). Basta notar que qualquervector de C(U) tem a ultima componente nula, enquanto que tal nao se verifica paramuitos dos vectores de C(A).

Para o estudo de R(A) necessitamos do resultado seguinte.

Lema 4.3 A dependencia ou independencia de um conjunto de vectores nao se altera se:1. Somarmos a um dos vectores do conjunto um multiplo de outro vector do conjunto.2. Multiplicarmos um dos vectores do conjunto por um numero diferente de zero.Apos cada uma destas operacoes, o subespaco gerado pelo conjunto continua a ser omesmo.

Demonstracao. Exercıcio.

Pelo Lema anterior, a aplicacao as linhas de A de operacoes elementares nao altera osubespaco gerado pelas linhas. Portanto temos R(A) = R(U).

76

Page 78: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Determinemos agora uma base de R(U). A ultima linha nao nula de U e linearmenteindependente. A linha que a antecede nao e combinacao linear dela, uma vez que tem umelemento nao nulo (na posicao do pivot) onde ela tem um zero. Entao estas duas linhas saolinearmente independentes. Por um raciocınio analogo vemos que a antepenultima linhanao nula nao pertence ao subespaco gerado pelas outras duas (onde esta tem um pivotas outras duas tem zeros). Logo as tres ultimas linhas nao nulas de U sao linearmenteindependentes. Prosseguindo deste modo, concluımos que as linhas nao nulas de U formamuma base de R(U). Podemos entao resumir as nossas conclusoes da seguinte forma:

Teorema 4.11 Uma base de R(A) e constituida pelas linhas nao nulas de U . Em par-ticular, dimR(A) = car(A).

Exemplo 4.13 Considere-se de novo a matriz A =

1 2 0 −1−1 −2 1 0

3 6 0 −3

usada nos dois

exemplos anteriores. Ja foi visto que a matriz em escada U obtida de A e

U =

1 2 0 −10 0 1 −10 0 0 0

. As suas linhas nao nulas sao a primeira e a segunda.

Logo, uma base de R(A) e

120−1

,

001−1

.

Dos dois ultimos teoremas conclui-se que a dimensao do espaco dascolunas de uma matriz A e igual a dimensao do espaco das linhas dessa matriz — isto e,car(A) = car(AT ) — o que e surpreendente.

Uma consequencia interessante dos resultados anteriores e uma descricao da carac-terıstica de uma matriz em termos de determinantes de submatrizes. Para abreviar,chamamos “subdeterminante” de A ao determinante de uma submatriz de A.

Teorema 4.12 Sendo A uma matriz, tem-se que car(A) e igual a ordem do maior sub-determinante de A que e 6= 0.

Demonstracao. Designemos a caracterıstica de A por r. O que pretendemos mostrar eque todos os subdeterminantes de A de ordem > r sao nulos, e que existe pelo menos umsubdeterminante r × r de A que e 6= 0.

A primeira observacao e a seguinte. Suponhamos que A tem um subdeterminante k×kque e 6= 0. Entao a submatriz correspondente e nao-singular (isto e, tem caracterıstica k), eportanto as suas colunas sao linearmente independentes. Segue-se que as colunas de A quecontem essa submatriz sao tambem linearmente independentes (porque se houvesse umadependencia entre elas, essa dependencia existiria tambem entre as colunas da submatriz)e, portanto, car(A) ≥ k. Desta observacao concluımos que qualquer subdeterminante deA de ordem > r e nulo.

77

Page 79: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Mostremos agora que existe pelo menos um subdeterminante r × r de A que e 6= 0.Como A tem caracterıstica r, e possıvel encontrar em A r colunas linearmente indepen-dentes. Designemos por B a submatriz de A constituıda por essas r colunas. Claramentetem-se car(B) = r. Entao e possıvel encontrar em B r linhas linearmente independentes.Designemos por C a submatriz de B constituıda por essas r linhas. C e uma matrizr × r que tem caracterıstica r, logo e nao-singular, e portanto tem determinante 6= 0.Encontramos assim um subdeterminante r × r de A que e 6= 0.

Exercıcio 4.7 Sendo A m× n e B p×m, prove que:

1. car(BA) ≤ car(B);

2. nul(A) ≤ nul(BA);

3. car(BA) ≤ car(A) (por dois processos: (i) usando 2.;(ii) usando 1).

Exercıcio 4.8 Sendo A ∈ Mm×n(R), prove que:

1. nul(AT A) = nul(A);

2. car(AT A) = car(AAT ) = car(A).

Exercıcio 4.9 Seja A m× n qualquer. Sejam B m×m e C n× n invertıveis. Prove que:

1. car(BA) = car(A);

2. car(AC) = car(A);

3. car(BAC) = car(A).

Exercıcio 4.10 Seja A uma matriz particionada em blocos da seguinte forma:

A =[

B 00 C

]. Prove que car(A) = car(B) + car(C).

Exercıcio 4.11 Sendo A n× n, diga se e verdadeira ou falsa a seguinte afirmacao: “Se ascolunas de A sao linearmente independentes, o mesmo acontece as colunas de A2”.

Exercıcio 4.12 1. Sendo u m× 1 e v n× 1, prove que a matriz uvT tem caracterıstica0 ou 1 (excepto se u = 0 ou v = 0, casos em que uvT = 0).

2. Reciprocamente, prove que, se uma matriz A m×n tem caracterıstica 1, entao existemvectores u m× 1 e v n× 1 tais que A = uvT .

?

78

Page 80: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Vamos agora fazer um apanhado de varios factos sobre sistemas de equacoes lineares.

Seja A ∈ Mm×n(R) e b ∈ Rm. Tem-se que:

1. O sistema Ax = b e impossıvel se e so se b /∈ C(A);

2. O sistema Ax = b e possıvel determinado se e so se b ∈ C(A) e

(i) car(A) = n, ou, equivalentemente,

(ii) nul(A) = 0, ou, equivalentemente,

(iii) as colunas de A forem linearmente independentes;

3. O sistema Ax = b e possıvel indeterminado se e so se b ∈ C(A) e

(i) car(A) < n, ou, equivalentemente,

(ii) nul(A) > 0, ou, equivalentemente,

(iii) as colunas de A forem linearmente dependentes.

Tem-se ainda que

1. Ax = b e possıvel para todo o b ∈ Rm se e so se C(A) = Rm ou, equivalentemente,car(A) = m;

2. Ax = b tem no maximo uma solucao para cada b ∈ Rm se e so se car(A) = n ou,equivalentemente, nul(A) = 0.

Finalmente, se A for quadrada n× n, as seguintes condicoes sao equivalentes:

1. A e nao-singular;

2. A e invertıvel;

3. car(A) = n;

4. nul(A) = 0;

5. as linhas de A sao linearmente independentes e, portanto, formam uma base de Rn;

6. as colunas de A sao linearmente independentes e, portanto, formam uma base deRn;

7. R(A) = Rn;

8. C(A) = Rn;

9. Qualquer que seja b ∈ Rn, o sistema Ax = b e possıvel determinado.

79

Page 81: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

4.6 Soma e soma directa de subespacos

Ja vimos atras que a interseccao de dois subespacos de Rn e ainda um subespaco deRn. Vamos agora ver um outro processo de construir um subespaco a partir de outrosdois.

Definicao 4.10 Sejam F e G subespacos de Rn. Chama-se soma dos subespacosF e G ao conjunto F + G = {v + w : v ∈ F e w ∈ G}.

Teorema 4.13 F + G e ainda um subespaco de Rn.

Demonstracao. Exercıcio.

Exemplo 4.14 Sejam F e G dois subespacos de R2 representados geometricamente porduas rectas diferentes passando pela origem. Verifique geometricamente que qualquer vec-tor de R2 e soma de um vector de F com um vector de G. Logo, tem-se F + G = R2.

Exercıcio 4.13 Sendo F e G subespacos de Rn, prove que F + G = L(F ∪G).

O resultado seguinte contem uma formula para a dimensao do subespaco soma de doissubespacos.

Teorema 4.14 Tem-se dim(F + G) = dimF + dimG− dim(F ∩G).

Demonstracao. Ponhamos dim F = k, dim G = m e dim(F ∩ G) = s. Pretendemosentao mostrar que dim(F + G) = k + m− s.

Seja {u1, . . . , us} uma base de F ∩ G. Estendamo-la a uma base de F , digamos{u1, . . . , us, v1, . . . , vk−s}. Estendamo-la tambem a uma base de G, digamos{u1, . . . , us, w1, . . . , wm−s}.

Fica agora como exercıcio mostrar que o conjunto

{u1, . . . , us, v1, . . . , vk−s, w1, . . . , wm−s}e uma base de F + G, o que prova o teorema.

Definicao 4.11 Sejam F e G subespacos de Rn. Se se tiver F ∩ G = {0}, diz-seque a soma de F com G e directa e escreve-se F ⊕G em vez de F + G.

80

Page 82: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 4.15 R2 e soma directa de duas rectas F e G como as indicadas no exemploanterior.

Exemplo 4.16 Em R4 considere os subespacos

F =

x1

x1

x2

x2

: x1, x2 ∈ R

e G =

x1

−x1

x2

−x2

: x1, x2 ∈ R

.

Tem-se F ∩G = {0}. Logo, a soma de F com G e directa. Mostremos que F ⊕G = R4.Claro que F ⊕ G ⊆ R4. Provemos agora que R4 ⊆ F ⊕ G. Para tal, consideremos

um vector arbitrario y =

y1

y2

y3

y4

de R4. Existirao valores x1, x2, x

′1, x

′2 ∈ R tais que y =

x1

x1

x2

x2

+

x′1−x′1x′2−x′2

? Resolvendo o sistema de equacoes lineares resultante desta igualdade,

conclui-se que os valores x1 = 12y1 + 1

2y2, x2 = 1

2y3 + 1

2y4, x′1 = 1

2y1− 1

2y2 e x′2 = 1

2y3− 1

2y4

satisfazem a condicao requerida.

Logo, y ∈ F ⊕G e R4 ⊆ F ⊕G.

Teorema 4.15 Sejam F e G subespacos de Rn satisfazendo F ∩ G = {0}. Entaodim(F ⊕G) = dimF + dimG, e uma base de F ⊕G obtem-se reunindo uma base de Fcom uma base de G.

Demonstracao. Exercıcio.

Exercıcio 4.14 Sejam F, G e H subespacos de Rn.

1. Prove que, se F = G ⊕H, entao todo o vector de F se escreve de modo unico comosoma de um vector de G com um vector de H.

2. Reciprocamente, prove que, se todo o vector de F se escreve de modo unico comosoma de um vector de G com um vector de H, entao F = G⊕H.

Definicao 4.12 Sejam F e G subespacos de Rn. Se F ⊕ G = Rn, dizemos queF e G sao subespacos complementares ou que F e um complemento de G(e vice-versa).

81

Page 83: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

5 Angulos e distancias em Rn

5.1 Produto interno em Rn

Em R2 e R3 as nocoes habituais de angulo e distancia podem ser apresentadas a custado chamado produto interno (ou produto escalar). O produto interno dos elementos(x1, x2) e (y1, y2) de R2 e o numero

x1y1 + x2y2.

Em R3 o produto interno dos elementos (x1, x2, x3) e (y1, y2, y3) e o numero

x1y1 + x2y2 + x3y3.

O objectivo deste capıtulo e definir um conceito analogo em Rn, para qualquer n ∈ N,e utiliza-lo para generalizar aquelas e outras nocoes geometricas.

Definicao 5.1 O produto interno (ou produto escalar) de dois vectores de Rn,x = (x1, . . . , xn) e y = (y1, . . . , yn), e o numero real

〈x, y〉 = x1y1 + · · ·+ xnyn .

Observacao. Note-se que, escrevendo x e y como matrizes-coluna, se tem 〈x, y〉 = xT y(o que e o mesmo que yT x). Esta expressao concisa e util em varios raciocınios.9

Exemplo 5.1 Sendo x = (1, 2, 3, 5), y = (0,−2, 4, 1) e z = (3, 7, 3, 2), tem-se

〈x, y〉 = 13 e 〈x, z〉 = 36 .

A custa do produto interno podem definir-se varios conceitos “geometricos” em Rn.

Definicao 5.2 1. A norma ou comprimento de x e ‖x‖ =√〈x, x〉 .

2. A distancia entre x e y e ‖x− y‖ .

3. x e y sao ortogonais (ou perpendiculares) se 〈x, y〉 = 0.

9Tambem e possıvel definir produto interno em Cn. Nesse caso o produto interno e um numerocomplexo cuja expressao e 〈x, y〉 = x1y1 + · · ·+ xnyn = y∗x. O desenvolvimento da teoria nessa situacaoe analogo ao de Rn.

82

Page 84: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 5.2 Sendo x, y e z os vectores do exemplo anterior, tem-se ‖x‖ =√

39e ‖y‖ =

√21. A distancia entre x e y e

√34. Os vectores x e y nao sao ortogonais,

mas y e z ja o sao, pois 〈y, z〉 = 0.

A demonstracao das propriedades seguintes e deixada como exercıcio.

Teorema 5.1 1. 〈x, y〉 = 〈y, x〉 ;

2. 〈x + x′, y〉 = 〈x, y〉+ 〈x′, y〉 (e analogamente para mais de duas parcelas) ;

3. Se α ∈ R, 〈αx, y〉 = α〈x, y〉 ;

4. 〈0, y〉 = 0 ;

5. Se 〈x, y〉 = 0 para todo o y, entao x = 0 ;

6. Se 〈x, y〉 = 〈x′, y〉 para todo o y, entao x = x′ .

Teorema 5.2 1. Se x 6= 0, ‖x‖ > 0 ;

2. ‖αx‖ = |α| · ‖x‖ .

O resultado seguinte vai permitir-nos definir angulo entre dois vectores nao nulosquaisquer de Rn.

Teorema 5.3 (Desigualdade de Cauchy-Schwarz.) Sejam x e y vectores quaisquer deRn. Entao tem-se

|〈x, y〉| ≤ ‖x‖‖y‖havendo igualdade se e so se x e y forem linearmente dependentes.

Demonstracao. Se y for o vector nulo, o resultado e verdadeiro. Suponhamos entao quese tem y 6= 0. Como ambos os membros da desigualdade sao nao-negativos, basta provara desigualdade entre os respectivos quadrados. Seja t um numero real arbitrario. Para ovector x− ty tem-se

〈x− ty, x− ty〉 ≥ 0

donde〈x, x〉 − 2t〈x, y〉+ t2〈y, y〉 ≥ 0 .

Como 〈y, y〉 6= 0, no primeiro membro tem-se um polinomio do 2o grau em t. Uma vezque ele e nao-negativo qualquer que seja o valor de t, este polinomio nao pode ter duasraızes reais distintas, e portanto o seu discriminante nao pode ser positivo. Isto e, tem-se

〈x, y〉2 − ‖x‖2‖y‖2 ≤ 0

o que prova a desigualdade.

83

Page 85: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Vejamos agora o caso de igualdade.Analisando a demonstracao, vemos que ha igualdade se e so se o discriminante do

referido polinomio do 2o grau for nulo. Isto significa que esse polinomio tem uma raizreal, isto e, existe um valor de t ∈ R tal que 〈x− ty, x− ty〉 = 0 ou seja x = ty, o que e omesmo que dizer que x e y sao linearmente dependentes.

Se y for 0, claro que x e y sao linearmente dependentes.

Observacao. Escrevendo o produto interno e as normas por extenso, o que a desigualdadede Cauchy-Schwarz diz e que, para x1, . . . , xn, y1, . . . , yn numeros reais quaisquer, se tem

(x1y1 + · · ·+ xnyn)2 ≤ (x21 + · · ·+ x2

n)(y21 + · · ·+ y2

n) .

Sendo x, y ∈ Rn nao nulos, a desigualdade de Cauchy-Schwarz garante que o quociente

〈x, y〉‖x‖‖y‖

esta entre −1 e 1, o que permite apresentar a primeira das definicoes seguintes.

Definicao 5.3 1. Sendo x, y ∈ Rn nao nulos, o angulo entre x e y e o numero(entre 0 e π)

arccos〈x, y〉‖x‖‖y‖ .

2. Sendo x 6= 0, a projeccao ortogonal de y sobre x e o vector

projxy =〈x, y〉‖x‖2

x .

Note-se que da primeira destas definicoes decorre que, sendo θ o angulo entre x e y,se tem

〈x, y〉 = ‖x‖‖y‖ cos θ .

Exemplo 5.3 Dados x = (1,−1, 1,−1) e y = (1, 0, 0, 0), o angulo entre x e y e

arccos1

2=

π

3,

uma vez que 〈x, y〉 = 1, ‖x‖ = 2 e ‖y‖ = 1. Tem-se tambem

projxy =1

4x =

(1

4,−1

4,1

4,−1

4

).

84

Page 86: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 5.4 (Desigualdade triangular.) Quaisquer que sejam x, y ∈ Rn, tem-se

‖x + y‖ ≤ ‖x‖+ ‖y‖havendo igualdade se e so se x = ty ou y = tx, com t ≥ 0.

Demonstracao. Tem-se

‖x+y‖2 = 〈x+y, x+y〉 = 〈x, x〉+2〈x, y〉+〈y, y〉 ≤ ‖x‖2 +2‖x‖‖y‖+‖y‖2 = (‖x‖+‖y‖)2

onde utilizamos a desigualdade de Cauchy-Schwarz. Como ambos os membros da desigual-dade sao nao-negativos, segue-se o resultado desejado. O caso de igualdade e consequenciado caso de igualdade na desigualdade de Cauchy-Schwarz.

Teorema 5.5 (Teorema de Pitagoras) Se x e y forem ortogonais tem-se

‖x− y‖2 = ‖x‖2 + ‖y‖2 .

Demonstracao. Tem-se

‖x− y‖2 = 〈x− y, x− y〉 = 〈x, x〉 − 2〈x, y〉+ 〈y, y〉 = ‖x‖2 + ‖y‖2

uma vez que 〈x, y〉 = 0.

Exercıcio 5.1 O conceito de norma em Rn foi definido a partir do produto interno. Cu-riosamente, tambem e possıvel obter o produto interno a partir da norma, utilizando aigualdade 〈x, y〉 = 1

2 (‖x + y‖2 − ‖x‖2 − ‖y‖2). Demonstre esta igualdade.

Exercıcio 5.2 1. Mostre que, se a matriz Q n×n for ortogonal, entao ‖Qx‖ = ‖x‖ paratodo o vector x n×1.

2. Mostre que, reciprocamente, se ‖Qx‖ = ‖x‖ para todo o x, entao Q e ortogonal.

Observacao. Note-se que deste ultimo exercıcio concluımos que uma matriz n×n eortogonal se e so se, quando multiplicada por vectores de Rn, nao lhes altera a norma.

Exercıcio 5.3 1. Mostre que, se Q n×n for ortogonal, entao 〈Qx, Qy〉 = 〈x, y〉 paraquaisquer vectores n×1 x e y.

2. Conclua que uma matriz n×n ortogonal nao altera os angulos entre vectores de Rn.

85

Page 87: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

5.2 Projeccao ortogonal sobre um subespaco

Teorema 5.6 Se v1, . . . , vk ∈ Rn sao nao nulos e dois a dois ortogonais, entao sao li-nearmente independentes.

Demonstracao. Tomemos uma combinacao linear de v1, . . . , vk que e igual ao vectornulo:

α1v1 + α2v2 · · ·+ αkvk = 0 .

Calculemos o produto interno de ambos os membros por v1:

〈α1v1 + α2v2 · · ·+ αkvk, v1〉 = 〈0, v1〉o que e o mesmo que

α1〈v1, v1〉+ α2〈v2, v1〉 · · ·+ αk〈vk, v1〉 = 0 .

Como v1, . . . , vk sao dois a dois ortogonais, todos os produtos internos que figuram noprimeiro membro sao iguais a zero excepto o primeiro, vindo α1‖v1‖2 = 0 o que, por v1

ser nao nulo, implica que α1 = 0.Agora repetimos o mesmo raciocınio com v2, v3, ..., vk, concluindo sucessivamente que

α2 = 0, α3 = 0, ..., αk = 0, o que significa que os vectores v1, . . . , vk sao linearmenteindependentes.

Definicao 5.4 Seja F um subespaco de Rn. Uma base de F constituıda por vectoresdois a dois ortogonais diz-se uma base ortogonal de F . Uma base ortogonal cujosvectores tem todos norma 1 diz-se uma base ortonormada de F .

Exemplo 5.4 1. A base canonica de Rn e uma base ortonormada.

2. {(2, 0), (0, 3)} e {(2, 1), (3,−6)} sao bases ortogonais, mas nao ortonormadas, de R2.

As coordenadas de um vector relativamente a uma base ortogonal ou ortonormadatem uma expressao simples:

Teorema 5.7 Seja F um subespaco de Rn e seja {v1, . . . , vk} uma base ortogonal de F .Entao, para qualquer vector v de F , tem-se

v =k∑

i=1

projviv =

k∑i=1

〈v, vi〉‖vi‖2

vi .

Em particular, se a base for ortonormada, tem-se v =k∑

i=1

〈v, vi〉 vi =k∑

i=1

‖v‖ cos θi vi,

onde θ1, . . . , θk sao os angulos de v com v1, . . . , vk.

86

Page 88: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Demonstracao. Seja v =k∑

i=1

αivi, com α1, . . . , αk ∈ R. Entao, para j = 1, . . . , k,

tem-se

〈v, vj〉 =

⟨k∑

i=1

αivi, vj

⟩=

k∑i=1

αi〈vi, vj〉 = αj‖vj‖2,

uma vez que os vectores v1, . . . , vk sao ortogonais dois a dois. Como vj 6= 0, vem

αj =〈v, vj〉‖vj‖2

.

Corolario 5.1 (Formula de Parseval.) Seja F um subespaco de Rn e seja {v1, . . . , vk}uma base ortonormada de F . Entao, para qualquer vector v de F , tem-se

‖v‖2 =k∑

i=1

〈v, vi〉2 .

Vamos agora ver o conceito central desta seccao.

Definicao 5.5 Seja F um subespaco de Rn. Seja v ∈ Rn. Um vector vF ∈ F diz-seprojeccao ortogonal de v sobre F se v− vF for ortogonal a todos os vectores deF .

»»»»»»»»»»»»»»»»

££££££££»»»»»»»»»»»»»»»»

££££££££

AA

AAK

·······

AA

AA

©©©©©©©*

0

vF

v−vF

v

F

Observacao. Tambem se usa a notacao projF (v) em vez de vF .

87

Page 89: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 5.8 Seja F um subespaco de Rn e seja v ∈ Rn. Entao:

1. Se existe um vector vF projeccao ortogonal de v sobre F , ele e unico e satisfaz apropriedade de minimizar a distancia a v de entre os elementos de F , isto e,

‖v − vF‖ = min {‖v − u‖ : u ∈ F} .

2. Sendo {v1, . . . , vk} uma base ortogonal de F , a soma das projeccoes ortogonais de vsobre os vi, isto e,

〈v, v1〉‖v1‖2

v1 + · · ·+ 〈v, vk〉‖vk‖2

vk

e a projeccao ortogonal de v sobre F .

Demonstracao. 1. Seja vF projeccao ortogonal de v sobre F . Seja u ∈ F arbitrario.Como v− vF e ortogonal a todos os vectores de F , e ortogonal a u− vF . Pelo teorema dePitagoras tem-se entao que

‖v − u‖2 = ‖v − vF‖2 + ‖u− vF‖2 .

Segue-se que, qualquer que seja u ∈ F , se tem

‖v − vF‖ ≤ ‖v − u‖ ,

com igualdade se e so se u = vF (o que prova a unicidade).2. Ponhamos

w =〈v, v1〉‖v1‖2

v1 + · · ·+ 〈v, vk〉‖vk‖2

vk .

E evidente que w ∈ F . Vejamos agora que v − w e ortogonal a todos os vectores de F .Seja u ∈ F arbitrario, digamos u = α1v1 + · · ·+ αkvk. Tem-se

〈v − w, u〉 = 〈v, u〉 − 〈w, u〉

=

⟨v,

k∑j=1

αjvj

⟩−

⟨k∑

i=1

〈v, vi〉‖vi‖2

vi,

k∑j=1

αjvj

=k∑

j=1

αj〈v, vj〉 −k∑

i=1

k∑j=1

〈v, vi〉‖vi‖2

αj〈vi, vj〉 .

Como v1, . . . , vk sao dois a dois ortogonais, tem-se 〈vi, vj〉 = 0 se i 6= j, pelo que sao nulastodas as parcelas em que i 6= j no somatorio duplo. Vem entao

〈v − w, u〉 =k∑

j=1

αj〈v, vj〉 −k∑

j=1

〈v, vj〉‖vj‖2

αj〈vj, vj〉 =k∑

j=1

αj〈v, vj〉 −k∑

j=1

αj〈v, vj〉 = 0 .

88

Page 90: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Se F tiver dimensao 1, qualquer vector nao nulo w de F constitui uma base ortogonalde F . A expressao para a projeccao ortogonal de um vector qualquer v sobre F e entao

〈v, w〉‖w‖2

w

o que coincide com a projeccao ortogonal de v sobre w. Isto e, a projeccao ortogonal deum vector v sobre um subespaco unidimensional F e igual a projeccao ortogonal de vsobre qualquer vector nao nulo de F .

Exemplo 5.5 Seja F o subespaco de R3 gerado pelos vectores v1 = (1,−1, 0) e v2 =(1, 1, 1). Pretendemos calcular a projeccao ortogonal de v = (2, 0, 3) sobre F .

Como v1 e v2 geram F e sao ortogonais e nao-nulos, constituem uma base ortogonalde F . Pelo teorema anterior, temos entao

vF =〈v, v1〉‖v1‖2

v1 +〈v, v2〉‖v2‖2

v2 =2

2v1 +

5

3v2 =

(8

3,2

3,5

3

).

Como se conclui do teorema anterior, o conhecimento de uma base ortogonal de umsubespaco F e fundamental para o calculo da projeccao ortogonal de um vector sobre F .

O resultado seguinte mostra como, a partir de uma base qualquer de um subespaco,se pode obter uma base ortogonal do mesmo subespaco.

Teorema 5.9 (Processo de ortogonalizacao de Gram-Schmidt.) Seja F um subespaco deRn. Seja {v1, . . . , vk} uma base de F . Ponhamos

u1 = v1

e depois, sucessivamente,u2 = v2 − proju1

v2

u3 = v3 − proju1v3 − proju2

v3

...

uk = vk − proju1vk − proju2

vk − · · · − projuk−1vk .

Entao {u1, . . . , uk} e uma base ortogonal de F .

Demonstracao. Note-se que cada uj se obtem de vj subtraindo-lhe uma combinacao li-near de v1, . . . , vj−1. Como v1, . . . , vk sao linearmente independentes, os vectores u1, . . . , uk

sao todos nao nulos.

89

Page 91: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Vamos agora mostrar que u1, . . . , uk sao dois a dois ortogonais. Vamos provar isso porinducao, comecando por u1 e u2:

〈u2, u1〉 =

⟨v2 − 〈v2, u1〉

‖u1‖2u1, u1

⟩= 〈v2, u1〉 − 〈v2, u1〉

‖u1‖2〈u1, u1〉 = 0 .

Seja agora j > 2 e suponhamos que u1, . . . , uj−1 sao dois a dois ortogonais. Vamos verque uj e ortogonal a cada um desses vectores. Seja p < j. Calculando o produto interno〈uj, up〉 vem

⟨vj −

j−1∑i=1

〈vj, ui〉‖ui‖2

ui, up

⟩= 〈vj, up〉−

j−1∑i=1

〈vj, ui〉‖ui‖2

〈ui, up〉 = 〈vj, up〉− 〈vj, up〉‖up‖2

〈up, up〉 = 0 .

Como u1, . . . , uk sao nao nulos e dois a dois ortogonais, sao linearmente independentes.Como sao k e pertencem a F (que tem dimensao k), constituem uma base de F .

Corolario 5.2 Todo o subespaco de Rn possui pelo menos uma base ortogonal.

Note-se que, conhecida uma base ortogonal {u1, . . . , uk} de F , e imediato obter umabase ortonormada para o mesmo subespaco. Basta dividir cada vector pela sua normapara ele ficar com norma 1: {

u1

‖u1‖ , . . . ,uk

‖uk‖}

.

Exemplo 5.6 Consideremos o subespaco de R3 F = L{v1, v2}, onde v1 = (1,−1, 0),v2 = (2, 0, 1). Pretendemos determinar uma base ortonormada deste subespaco, usandoo processo de ortogonalizacao de Gram-Schmidt. Como v1 e v2 sao linearmente indepen-dentes (verifique) e geram F , constituem uma base de F . Faca-se entao

u1 = v1 = (1,−1, 0)

e

u2 = v2−proju1v2 = v2−〈v2, u1

‖u1‖2= (2, 0, 1)− 2

2(1,−1, 0) = (1, 1, 1) .

O teorema anterior garante-nos que u1 e u2 constituem uma base ortogonal de F . Di-vidindo cada um destes vectores pela sua norma obtemos

{(√2

2,−√

2

2, 0

),

(√3

3,

√3

3,

√3

3

)},

que e uma base ortonormada de F .

90

Page 92: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Corolario 5.3 (Factorizacao QR.) Se A ∈ Mn×k(R) tem as colunas linearmente inde-pendentes (isto e, car(A) = k), entao A pode decompor-se na forma A = QR onde Q en× k e tem colunas ortonormadas e R e k × k triangular superior nao-singular.

Demonstracao. Isto e apenas uma outra forma de descrever o processo de ortogona-lizacao de Gram-Schmidt. Designemos as colunas de A por v1, . . . , vk, e designemos poru1, . . . , uk as colunas duas a duas ortogonais que se obtem das de A aplicando-lhes oprocesso de ortogonalizacao de Gram-Schmidt. As relacoes entre os dois conjuntos decolunas sao do tipo

u1 = v1

u2 = v2 − α12u1

u3 = v3 − α13u1 − α23u2

...

uk = vk − α1ku1 − α2ku2 − · · · − αk−1,kuk−1

onde os αij sao certos numeros. Estas relacoes podem escrever-se assim:

v1 = u1

v2 = α12u1 + u2

v3 = α13u1 + α23u2 + u3

...

vk = α1ku1 + α2ku2 + · · · + αk−1,kuk−1 + uk

Designando por U a matriz cujas colunas sao u1, . . . , uk, estas igualdades podemresumir-se pela igualdade matricial A = UT , onde

T =

1 α12 α13 . . . α1k

0 1 α23 . . . α2k

0 0 1 . . . α3k...

......

. . ....

0 0 0 . . . 1

.

Temos aqui A factorizada como o produto de uma matriz n×k com colunas ortogonaispor uma matriz k×k triangular superior com elementos diagonais iguais a 1. Para chegara factorizacao do teorema resta uma pequena modificacao. Designemos por D a matrizdiagonal k × k cujos elementos diagonais sao ‖u1‖, ‖u2‖, . . . , ‖uk‖. Entao D e invertıvel,porque os vectores uj sao nao nulos. Escrevendo Q = UD−1 e R = DT , estas matrizessatisfazem as condicoes enunciadas no teorema e tem-se A = QR.

91

Page 93: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 5.7 Consideremos a matriz A =

1 2−1 0

0 1

. Pretendemos factorizar A na

forma QR como descrito no corolario anterior. Sabemos do exemplo 5.6 que, aplicando oprocesso de ortogonalizacao de Gram-Schmidt as colunas de A, designadas nesse exemplo

por v1 e v2, obtemos os vectores u1 = v1 e u2 = v2 − u1 =

111

. Como v1 = u1 e

v2 = u1 + u2, tem-se A = UT , onde U =

1 1−1 1

0 1

e T =

[1 10 1

]. Faca-se agora

D=

[‖u1‖ 00 ‖u2‖

]=

[√2 0

0√

3

], Q=UD−1 =

√2

2

√3

3

−√

22

√3

3

0√

33

e R=DT =

[√2√

2

0√

3

].

Verifique que as colunas de Q sao ortonormadas e que A = QR.

Os resultados que vimos mostram como, dado um subespaco F de Rn e um vectorv ∈ Rn, se pode determinar a projeccao ortogonal de v sobre F . Comecamos por en-contrar uma base {v1, . . . , vk} de F . Depois, usando o processo de ortogonalizacao deGram-Schmidt, obtemos a partir dessa uma base ortogonal {u1, . . . , uk} de F . E temosfinalmente a expressao para a projeccao ortogonal de v sobre F :

vF =〈v, u1〉‖u1‖2

u1 + · · ·+ 〈v, uk〉‖uk‖2

uk .

Se a base {u1, . . . , uk} for ortonormada, a expressao de vF fica mais simples:

vF = 〈v, u1〉u1 + · · ·+ 〈v, uk〉uk .

Esta ultima expressao pode ser apresentada de forma concisa usando matrizes. De-signemos por Q a matriz n × k cujas colunas (ortonormadas) sao u1, . . . , uk. Entao,como se ve pela definicao de produto de matrizes, vF e o produto de Q pela coluna[uT

1 v . . . uTk v]T , e esta coluna, por sua vez, e o produto de QT por v. Segue-se que

vF = QQT v .

Em termos da base original {v1, . . . , vk} de F obtem-se outra forma para vF . Seja Aa matriz n × k cujas colunas sao os vectores dessa base. Entao, como ja vimos, temosA = QR, donde Q = AR−1. Note-se que QT Q = Ik, donde AT A = RT R. Vem entao

QQT = AR−1RT−1

AT = A(RT R)−1AT = A(AT A)−1AT

dondevF = A(AT A)−1AT v .

92

Page 94: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

5.3 Mınimos quadrados

Se um sistema Ax = b for impossıvel, nao existe nenhum vector x que satisfaca aigualdade Ax = b. Mas os sistemas impossıveis ocorrem frequentemente na pratica, e teminteresse estuda-los. Nesta seccao vamos ver como, usando a nocao de projeccao ortogonalsobre um subespaco, se pode aprofundar o estudo de um sistema impossıvel e encontrarvectores que, sem serem solucoes de tal sistema (que nao tem nenhuma), sao, num sentidopreciso, o mais proximo possıvel de uma solucao que se pode encontrar.

Seja entao A m× n e b m× 1. Recorde-se que o sistema Ax = b e possıvel se e so seb ∈ C(A), onde C(A) designa o espaco das colunas de A: C(A) = {Ax : x ∈ Rn} . Se osistema for impossıvel, tem-se que b /∈ C(A), isto e, nao existe nenhum vector x ∈ Rn talque Ax = b, ou, equivalentemente, tal que Ax− b = 0. A ideia entao e procurar vectoresx ∈ Rn que tornem mınima a distancia entre Ax e b, isto e, a norma ‖Ax− b‖.

Definicao 5.6 Seja A ∈ Mm×n(R) e b ∈ Rm. Uma coluna x ∈ Rn tal que

‖Ax− b‖ = min{‖Ax− b‖ : x ∈ Rn}

diz-se uma solucao no sentido dos mınimos quadrados do sistema Ax = b.

A expressao “mınimos quadrados” tem que ver com o facto de que queremos minimizaruma norma, e a norma e a raiz de uma soma de quadrados.

Teorema 5.10 As solucoes no sentido dos mınimos quadrados do sistema Ax = b saoas solucoes do sistema Ax = bC onde bC = projC(A)b.

Demonstracao. Basta recordar que bC e, de entre os vectores de C(A), o que esta maisproximo de b. Portanto, os vectores x que minimizam ‖Ax− b‖ sao aqueles para os quaisse tem Ax = bC .

Observacao. Se o sistema Ax = b for possıvel tem-se bC = b e as solucoes no sentido dosmınimos quadrados do sistema Ax = b sao as suas solucoes no sentido usual.

Corolario 5.4 Seja A ∈ Mm×n(R) e b ∈ Rm. Existe uma unica solucao no sentido dosmınimos quadrados do sistema Ax = b se e so se car(A) = n.

93

Page 95: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Podemos organizar os passos para achar as solucoes no sentido dos mınimos quadradosde um sistema impossıvel Ax = b no seguinte algoritmo.

Algoritmo. 1o passo) Determinar uma base de C(A).

2o passo) A partir da base anterior, determinar uma base ortogonal de C(A).

3o passo) Calcular a projeccao ortogonal bC de b sobre C(A).

4o passo) Resolver o sistema Ax = bC, que e de certeza possıvel (porque?).

Exemplo 5.8 Pretendemos resolver no sentido dos mınimos quadrados o sistema im-

possıvel Ax = b, onde A =

1 2 3−1 0 −1

0 1 1

e b =

1−1

1

.

1o passo) Comecemos por determinar uma base de C(A). Para tal aplicamos a elim-

inacao de Gauss a matriz A, obtendo a matriz U =

1 2 30 2 20 0 0

. As colunas de U com

pivot sao a primeira e a segunda e, portanto, uma base de C(A) e

1−1

0

,

201

.

2o passo) Para determinar uma base ortogonal de C(A), aplica-se o processo de ortog-

onalizacao de Gram-Schmidt, obtendo-se (ver o exemplo 5.6) os vectores u1 =

1−1

0

e

u2 =

111

.

3o passo) A projeccao ortogonal bC de b sobre C(A) e dada por

bC =〈b, u1〉‖u1‖2

u1 +〈b, u2〉‖u2‖2

u2 = u1 +1

3u2 =

4/3−2/3

1/3

.

4o passo) Para resolver o sistema Ax = bC podemos usar o trabalho ja feito no 1o passo.O sistema e indeterminado, sendo a solucao geral

2/3− x3

1/3− x3

x3

: x3 ∈ R

.

94

Page 96: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Um processo alternativo para achar as solucoes no sentido dos mınimos quadrados deum sistema impossıvel Ax = b baseia-se no resultado seguinte.

Teorema 5.11 Seja A ∈ Mm×n(R) e b ∈ Rm. Uma coluna x ∈ Rn e uma solucao nosentido dos mınimos quadrados do sistema Ax = b se e so se satisfizer AT Ax = AT b.

Demonstracao. Uma coluna x ∈ Rn e uma solucao no sentido dos mınimos quadradosde Ax = b se e so se Ax for igual a projeccao ortogonal de b sobre C(A), o que e equivalentea b− Ax ser ortogonal a todos os vectores de C(A) = {Ay : y ∈ Rn}, isto e,

〈Ay, b− Ax〉 = 0 qualquer que seja y ∈ Rn

ou, em notacao matricial,

(Ay)T (b− Ax) = 0 qualquer que seja y ∈ Rn .

Mas (Ay)T = yT AT , e portanto a condicao que temos e equivalente a

yT AT (b− Ax) = 0 qualquer que seja y ∈ Rn

o que significa que

〈y, AT (b− Ax)〉 = 0 qualquer que seja y ∈ Rn

isto e, que o vector AT (b− Ax) e ortogonal a todos os vectores de Rn, ou seja e o vectornulo, donde finalmente

AT Ax = AT b .

Entao, para encontrar as solucoes no sentido dos mınimos quadrados do sistema Ax = bresolve-se o sistema AT Ax = AT b (as equacoes deste sistema chama-se por vezes equacoesnormais). Se AT A for invertıvel, a solucao e unica, o que e coerente com a condicao deunicidade apresentada no corolario de ha pouco, ja que car(AT A) = car(A) (note-se queAT A e n× n). Se AT A for invertıvel, tem-se

x = (AT A)−1AT b .

Quanto a bC , e igual a Ax, ou seja tem-se

bC = A(AT A)−1AT b

e obtemos por um processo diferente a formula vista no fim da seccao anterior.

95

Page 97: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 5.9 Vamos resolver no sentido dos mınimos quadrados o sistema Ax = b doexemplo anterior.

Sendo A =

1 2 3−1 0 −1

0 1 1

e b =

1−1

1

, tem-se

AT =

1 −1 02 0 13 −1 1

, AT A =

2 2 42 5 74 7 11

e AT b =

235

.

Vamos resolver o sistema AT Ax = AT b. A matriz AT A tem a seguinte factorizacao LU :

1 0 01 1 02 1 1

2 2 40 3 30 0 0

.

Da resolucao de Ly = AT b e Ux = y obtem-se, respectivamente,

y =

210

e x =

2/3− x3

1/3− x3

x3

(verifique).

Assim, o conjunto das solucoes no sentido dos mınimos quadrados do sistema Ax = b e

2/3− x3

1/3− x3

x3

: x3 ∈ R

.

Exercıcio 5.4 Dado um sistema impossıvel Ax = b, com A n × k e car(A) = k, se seconhecer a factorizacao A = QR, considerada no corolario 5.3, fica simplificado o calculo dasolucao no sentido dos mınimos quadrados. Verifique que, de facto, o sistema AT Ax = AT bse pode substituir pelo sistema Rx = QT b, que, sendo triangular, e muito simples. Obtem-seassim o algoritmo que seguidamente se descreve para o calculo da referida solucao.

Algoritmo. 1o passo) Factorizacao A = QR.

2o passo) Resolucao do sistema Rx = QT b.

96

Page 98: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Uma aplicacao da resolucao de sistemas no sentido dos mınimos quadrados e a seguinte.Suponhamos que temos n pontos em R2, digamos (α1, β1), (α2, β2), . . . , (αn, βn), e queprocuramos uma recta y = dx + h que passe por eles. Em geral uma tal recta nao existe,o que e o mesmo que dizer que o sistema

dα1 + h = β1

dα2 + h = β2

. . .dαn + h = βn

(em que as incognitas sao d e h) nao tem solucao.

A recta y = dx+h obtida a partir da solucao (d, h) no sentido dos mınimos quadradosdeste sistema e a recta que melhor se ajusta, no sentido dos mınimos quadrados,aos n pontos dados.

Efectuando os calculos (usando as equacoes normais), vemos que se tem

d =

n

n∑i=1

αiβi −n∑

i=1

αi

n∑i=1

βi

n

n∑i=1

α2i −

(n∑

i=1

αi

)2 , h =

n∑i=1

α2i βi −

n∑i=1

αi

n∑i=1

αiβi

n

n∑i=1

α2i −

(n∑

i=1

αi

)2

Uma utilizacao corrente deste tipo de analise e nos casos em que os pontos dados corres-pondem a observacoes de uma quantidade variavel em momentos sucessivos. A recta quemelhor se ajusta, no sentido dos mınimos quadrados, aos pontos dados pode entao serusada para prever ou estimar a evolucao dessa quantidade em momentos posteriores.

Exemplo. Na tabela seguinte apresenta-se, para os recenseamentos efectuados em Por-tugal no seculo XX, a percentagem da populacao residente em aglomerados com mais de10000 habitantes.

1911 13%1920 15%1930 18%1940 19%1950 21%1960 24%1970 28%1981 30%1991 33%

97

Page 99: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Na figura estao representados os pontos correspondentes a estas observacoes, bemcomo a recta que melhor se lhes ajusta no sentido dos mınimos quadrados.

• •• • •

•• •

»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»

Note-se que a solucao do sistema

dα1 + h = β1

dα2 + h = β2

. . .dαn + h = βn

e unica, porque a matriz do sistema

α1 1α2 1...

...αn 1

tem caracterıstica 2 (excepto se os αi forem todos iguais, caso em que os pontos estariamalinhados verticalmente).

Exactamente da mesma forma, poderıamos procurar, por exemplo, a parabolay = cx2+dx+h que melhor se ajusta aos pontos dados, no sentido dos mınimos quadrados.E analogamente para outras funcoes.

Se os pontos dados estivessem em R3, poderıamos procurar o plano z = cx + dy + hque melhor se ajusta a eles no sentido dos mınimos quadrados. E assim por diante: asaplicacoes da resolucao no sentido dos mınimos quadrados de sistemas impossıveis saovariadas.

98

Page 100: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

5.4 Complemento ortogonal de um subespaco

Definicao 5.7 Seja F um subespaco de Rn. Ao conjunto dos vectores de Rn quesao ortogonais a todos os vectores de F chama-se complemento ortogonal de F .A notacao habitual e F⊥. Simbolicamente

F⊥ = {v ∈ Rn : 〈v, u〉 = 0 para todo o u ∈ F}.

Exercıcio 5.5 Seja F um subespaco de Rn.

1. Prove que F⊥ e tambem um subespaco de Rn.

2. F ∩ F⊥ = {0}.3. F ⊂ (F⊥)⊥.

4. F1 ⊂ F2 ⇒ F⊥2 ⊂ F⊥1 .

5. Se {v1, . . . , vk} for uma base de F , entao F⊥ = {v ∈ Rn : 〈v, vi〉 = 0, i = 1, . . . , k}.

Exercıcio 5.6 Seja A uma matriz real. Prove que N(AT ) = C(A)⊥.

Teorema 5.12 Sendo F um subespaco de Rn, tem-se F = (F⊥)⊥.

Demonstracao. No exercıcio 5.5 foi visto que F ⊂ (F⊥)⊥. Vamos agora ver que(F⊥)⊥ ⊂ F .

Seja v ∈ (F⊥)⊥ arbitrario (portanto v e ortogonal a todos os vectores de F⊥).

Seja vF a projeccao ortogonal de v sobre F .

Por definicao de projeccao ortogonal, sabemos que v− vF e ortogonal a todos os vectoresde F , isto e, tem-se v − vF ∈ F⊥.

Logo,

0 = 〈v, v − vF 〉 = 〈vF + v − vF , v − vF 〉 = 〈vF , v − vF 〉+ 〈v − vF , v − vF 〉 = ‖v − vF‖2.

Concluımos assim que v = vF , o que significa que v ∈ F , como pretendido.

Exercıcio 5.7 Sendo F um subespaco de Rn, mostre que Rn = F ⊕ F⊥.

(Logo, se dimF = k, tem-se dimF⊥ = n− k.)

99

Page 101: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

5.5 Determinantes e medidas de paralelipıpedos

Definicao 5.8 Sendo v1, . . . , vn ∈ Rn, o paralelipıpedo definido por v1, . . . , vn eo conjunto

P [v1, . . . , vn] = {α1v1 + · · ·+ αnvn : 0 ≤ α1 ≤ 1, . . . , 0 ≤ αn ≤ 1} .

Teorema 5.13 Sejam v1, v2 ∈ R2, e A a matriz 2× 2 cujas colunas sao v1, v2. Entao, aarea de P [v1, v2] e igual a | det(A)|.

Demonstracao. Primeiro caso: v1 e v2 sao ortogonais, isto e, 〈v1, v2〉 = 0. Entao P [v1, v2]e um rectangulo, e a sua area e igual a ‖v1‖‖v2‖. Por outro lado, na mesma hipotese,tem-se que AT A e a matriz diagonal 2 × 2 cujos elementos diagonais sao ‖v1‖2 e ‖v2‖2,donde det(AT A) = ‖v1‖2‖v2‖2 . Mas det(AT A) = det(A)2, donde | det(A)| = ‖v1‖.‖v2‖.

Sejam agora v1 e v2 quaisquer, com v1 6= 0 (se v1 = 0, o resultado a provar e trivial).Seja w a projeccao ortogonal de v2 sobre v1.

©©©©©©©©©*v1

0££££££±

©©©©*A

AA

AK

v2

w

v2 − w

Entao tem-se: 1) v1 e v2 − w sao ortogonais; 2) a area de P [v1, v2] e igual a area dorectangulo definido por v1 e v2 − w; 3) esta ultima area, pelo primeiro caso, e igual a| det(B)| onde B e a matriz cujas colunas sao v1 e v2−w; 4) finalmente, det(B) = det(A),porque B se obtem de A adicionando a segunda coluna um multiplo da primeira, o quenao altera o determinante.

Teorema 5.14 Sejam v1, v2, v3 ∈ R3, e A a matriz 3 × 3 cujas colunas sao v1, v2, v3.Entao, o volume de P [v1, v2, v3] e igual a | det(A)|.

Demonstracao. Exercıcio. (Sugestao: Proceder como em R2.)

Definicao 5.9 Sejam v1, . . . , vn ∈ Rn (onde n ≥ 4), e A a matriz n × n cujascolunas sao v1, . . . , vn. Entao, define-se a medida de P [v1, . . . , vn] como sendo| det(A)|.

100

Page 102: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

5.6 Produto externo em R3

Em muitas aplicacoes dos vectores de R3 a questoes de geometria, fısica e engenharia,tem interesse construir um vector que e perpendicular a dois vectores dados. Nesta seccaovamos ver uma “operacao” entre vectores que facilita essa construcao.

Suponhamos dados dois vectores u = (a, b, c) e v = (a′, b′, c′) em R3. Pretendemosencontrar vectores perpendiculares a u e a v.

Suponhamos que u e v sao linearmente independentes. Entao tem-se dimL{u, v} = 2,donde dimL{u, v}⊥ = 1, pelo que a direccao dos vectores procurados e univocamentedeterminada por u e v.

Os vectores (x1, x2, x3) perpendiculares a u e a v sao os que satisfazem as condicoes

{ax1 + bx2 + cx3 = 0

a′x1 + b′x2 + c′x3 = 0

Como estamos a supor (a, b, c) e (a′, b′, c′) linearmente independentes, a matriz do sistematem caracterıstica 2, pelo que pelo menos um dos tres determinantes

∣∣∣∣a ba′ b′

∣∣∣∣ ,

∣∣∣∣a ca′ c′

∣∣∣∣ ,

∣∣∣∣b cb′ c′

∣∣∣∣

e diferente de zero. Suponhamos que o primeiro destes tres determinantes e nao nulo (sefor outro o caso, o raciocınio sera analogo). Escrevemos o sistema acima de outra forma

{ax1 + bx2 = −cx3

a′x1 + b′x2 = −c′x3

e obtemos o valor das incognitas x1 e x2 usando a regra de Cramer:

x1 =

∣∣∣∣−cx3 b−c′x3 b′

∣∣∣∣∣∣∣∣

a ba′ b′

∣∣∣∣, x2 =

∣∣∣∣a −cx3

a′ −c′x3

∣∣∣∣∣∣∣∣

a ba′ b′

∣∣∣∣ou

x1 =

x3

∣∣∣∣−c b−c′ b′

∣∣∣∣∣∣∣∣

a ba′ b′

∣∣∣∣, x2 =

x3

∣∣∣∣a −ca′ −c′

∣∣∣∣∣∣∣∣

a ba′ b′

∣∣∣∣.

Aqui x3 pode tomar qualquer valor. Escolhendo, por exemplo, x3 =

∣∣∣∣a ba′ b′

∣∣∣∣, vem para

x1 e x2 os valores ∣∣∣∣−c b−c′ b′

∣∣∣∣ ,

∣∣∣∣a −ca′ −c′

∣∣∣∣ ,

respectivamente. Isto motiva a seguinte definicao:

101

Page 103: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Definicao 5.10 Sendo u = (a, b, c) e v = (a′, b′, c′), define-se produto externo(ou produto vectorial) de u por v como sendo o vector

u ∧ v =

(∣∣∣∣b cb′ c′

∣∣∣∣ ,−∣∣∣∣

a ca′ c′

∣∣∣∣ ,

∣∣∣∣a ba′ b′

∣∣∣∣)

ou seja

u ∧ v = (bc′ − b′c,−(ac′ − a′c), ab′ − a′b) .

Outra notacao habitual e u× v.

Como mnemonica para a expressao de u∧v, usa-se o seguinte “determinante simbolico”,onde e1, e2 e e3 sao os vectores da base canonica de R3:

∣∣∣∣∣∣

e1 e2 e3

a b ca′ b′ c′

∣∣∣∣∣∣

calculado pelo Teorema de Laplace aplicado a primeira linha. Nao se trata de umverdadeiro determinante, ja que na primeira linha temos vectores e nao numeros.

Note-se que o produto externo de dois vectores de R3 e um vector (enquanto que oproduto interno e um numero).

Exemplo. Sendo u = (1, 2, 2) e v = (3, 0,−1), tem-se u ∧ v = (−2, 7,−6).

A demonstracao das propriedades seguintes e deixada como exercıcio.

Teorema 5.15 1. u ∧ u = 0 ;

2. u ∧ 0 = 0 ;

3. Mais geralmente, se u e v forem linearmente dependentes, tem-se u ∧ v = 0 ;

4. Reciprocamente, se u ∧ v = 0 entao u e v sao linearmente dependentes ;

5. v ∧ u = −u ∧ v ;

6. 〈u, u ∧ v〉 = 0 ;

7. (u1 + u2) ∧ v = u1 ∧ v + u2 ∧ v , u ∧ (v1 + v2) = u ∧ v1 + u ∧ v2 ;

8. (αu) ∧ v = u ∧ (αv) = α(u ∧ v) , α ∈ R.

102

Page 104: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Sendo e1, e2 e e3 os vectores da base canonica de R3, tem-se

e1 ∧ e2 = e3 , e2 ∧ e3 = e1 , e3 ∧ e1 = e2 .

Estas igualdades podem servir para “reconstituir” a expressao de u ∧ v. Como

u = (a, b, c) = ae1 + be2 + ce3 , v = (a′, b′, c′) = a′e1 + b′e2 + c′e3 ,

tem-se, usando as propriedades do produto externo,

u ∧ v = (ae1 + be2 + ce3) ∧ (a′e1 + b′e2 + c′e3)

= ab′e3 − ac′e2 − ba′e3 + bc′e1 + ca′e2 − cb′e1

= (bc′ − b′c)e1 − (ac′ − a′c)e2 + (ab′ − a′b)e3

= (bc′ − b′c,−(ac′ − a′c), ab′ − a′b) .

Vamos agora ver uma formula simples para o comprimento de u ∧ v.

Teorema 5.16 Tem-se

‖u ∧ v‖ =√‖u‖2‖v‖2 − 〈u, v〉2 = ‖u‖‖v‖sen θ ,

onde θ e o angulo entre u e v.

Demonstracao. Pondo u = (a, b, c) e v = (a′, b′, c′), tem-se

‖u ∧ v‖2 = (bc′ − b′c)2 + (ac′ − a′c)2 + (ab′ − a′b)2

e

‖u‖2‖v‖2 − 〈u, v〉2 = (a2 + b2 + c2)(a′2 + b′2 + c′2)− (aa′ + bb′ + cc′)2 .

Desenvolvendo estes quadrados e simplificando, vemos que as duas quantidades sao iguais.

Quanto a segunda parte: como 〈u, v〉 = ‖u‖‖v‖ cos θ, tem-se

‖u‖2‖v‖2−〈u, v〉2 = ‖u‖2‖v‖2−‖u‖2‖v‖2 cos2 θ = ‖u‖2‖v‖2(1−cos2 θ) = ‖u‖2‖v‖2sen2θ .

Da igualdade ‖u ∧ v‖ = ‖u‖‖v‖sen θ concluımos que o comprimento de u ∧ v e iguala area do paralelogramo definido por u e v.

103

Page 105: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Dados u, v ∈ R3, ja conhecemos a direccao e o comprimento do vector u ∧ v. Vamosagora ver uma descricao “fısica” do sentido desse vector. Evidentemente, so interessa ocaso em que u e v sao linearmente independentes.

Lema. Dados u, v ∈ R3 linearmente independentes, o determinante da matriz 3×3 cujascolunas sao u, v e u ∧ v e positivo.

Demonstracao. Ponhamos u = (a, b, c) e v = (a′, b′, c′). Pela definicao de produtoexterno, o determinante em causa e

∣∣∣∣∣∣

a a′ bc′ − b′cb b′ −(ac′ − a′c)c c′ ab′ − a′b

∣∣∣∣∣∣.

Calculando-o pelo teorema de Laplace aplicado a terceira coluna, vemos que e igual a

(bc′ − b′c)2 + (ac′ − a′c)2 + (ab′ − a′b)2,

sendo portanto positivo. (Note-se que esta quantidade nao e nula porque u e v saolinearmente independentes.)

Definicao 5.11 Sejam u, v, w ∈ R3 vectores linearmente independentes, represen-tados por segmentos orientados a partir da origem. Dizemos que estes tres vectores(por esta ordem) formam um triedro directo se a rotacao mais curta do vectoru que o leva a sobrepor-se ao vector v e feita, para um observador com os pes naorigem e a cabeca na extremidade de w, no sentido contrario ao dos ponteiros dorelogio (ver a figura).

0´´+

HHHHj

6

v

w

Exemplo 5.10 Os vectores e1, e2, e3 da base canonica de R3 formam um triedro directo.

104

Page 106: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 5.17 Sendo u, v ∈ R3 linearmente independentes, os vectores u, v, u∧v formamum triedro directo.

Demonstracao. Das propriedades 7 e 8 do Teorema 5.15 concluımos que substituir upor um vector obtido de u subtraindo-lhe um multiplo de v nao altera u∧v. Substituindoentao u pelo vector que se obtem subtraindo a u a sua projeccao ortogonal sobre v, vemosque podemos supor que u e v sao ortogonais, sem alterar a propriedade de o triedro quenos interessa ser directo ou nao.

Da propriedade 8 do Teorema 5.15 concluımos que a multiplicacao de u e v por constantespositivas nao altera o sentido de u∧ v. Consequentemente, nao ha perda de generalidadeem supor que ‖u‖=‖v‖=1.

Com u e v ortogonais e de norma 1, u, v, u ∧ v constituem uma base ortonormada.Pretendemos mostrar que os vectores desta base ortonormada formam um triedro directo.

Consideremos agora a base canonica e1, e2, e3 de R3 e desloquemos esse sistema de vectoresnum movimento contınuo, ate o par dos dois primeiros vectores coincidir com o par u, v,o que e evidentemente possıvel. No fim do movimento o terceiro vector ou e u ∧ v ou e−u ∧ v.

Designemos por u(t), v(t), w(t) a base ortonormada que temos no instante t do movimento,e designemos por d(t) o determinante da matriz 3× 3 cujas colunas sao u(t), v(t), w(t).

Entao d(t) e positivo no inıcio do movimento, porque e1 ∧ e2 = e3 (de facto, no inıcio domovimento d(t) e igual a 1).

Ora d(t) e uma funcao contınua de t, porque as coordenadas de u(t), v(t), w(t) sao funcoescontınuas de t e o determinante d(t) e calculado por produtos de somas dessas coordenadas.Logo, por continuidade, o determinante d(t) tambem tem que ser positivo no fim domovimento (porque nunca se anulou durante o movimento).

Mas no fim do movimento ou temos w(t) = u ∧ v ou temos w(t) = −u ∧ v.

Se ocorresse este segundo caso, no fim do movimento ter-se-ia d(t) < 0 (pelo Lema), oque, como ja vimos, nao acontece.

Logo, no fim do movimento tem-se w(t) = u ∧ v.

Como a base canonica e um triedro directo, e como o movimento foi contınuo, tambemu, v, u ∧ v e um triedro directo.

105

Page 107: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

6 Planos em Rn

Nesta seccao vamos ver varias formas de descrever certos objectos “geometricos” em Rn

por analogia com as rectas em R2 e as rectas e os planos em R3.

Em R2 — identificado com um plano em que se fixou um sistema de eixos da formahabitual — uma recta passando pela origem e simplesmente um subespaco de dimensao 1.Para descrever algebricamente uma recta S qualquer (nao necessariamente passando pelaorigem), podemos olhar para ela como tendo sido obtida por translacao da recta paralelaa S que passa pela origem. Chamemos F a esta outra recta. A operacao de translacaoconsiste em adicionar a todos os elementos de F um elemento p arbitrariamente escolhidoem S. Em sımbolos,

S = {p + v : v ∈ F} .

Exactamente da mesma forma podemos descrever uma recta qualquer em R3 (sendoentao F um subespaco de dimensao 1 de R3) e um plano qualquer em R3 (sendo F umsubespaco de dimensao 2 de R3). Com esta motivacao apresentamos a seguinte definicaopara Rn.

Definicao 6.1 Um plano (ou variedade linear) de dimensao k em Rn e umconjunto do tipo

S = {p + v : v ∈ F}onde p ∈ Rn e F e um subespaco de Rn com dimensao k. (Uma notacao habituale S = {p} + F .) Diz-se que S foi obtido de F por uma translacao segundo ovector p. A F chama-se subespaco director de S e a p chama-se vector detranslacao. (Note-se que o vector de translacao pertence ao plano.) Um planode dimensao 1 diz-se uma recta. Um plano de dimensao n − 1 em Rn diz-se umhiperplano.

Observacao. Os hiperplanos em R2 sao as rectas. Os hiperplanos em R3 sao os planosvulgares.

Definicao 6.2 Dois planos da mesma dimensao S1 = {p1} + F1 e S2 = {p2} + F2

dizem-se paralelos se F1 = F2. Se S1 e S2 nao tiverem a mesma dimensao acondicao de paralelismo e F1 ⊂ F2 ou F2 ⊂ F1.

106

Page 108: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Seja S = {p}+ F um plano de dimensao k em Rn, e seja {v1, . . . , vk} uma base de F .Entao a expressao geral dos elementos x de S e

x = p + α1v1 + · · ·+ αkvk , α1, . . . , αk ∈ R .

A uma expressao deste tipo chama-se equacao vectorial de S. Esta igualdade en-tre vectores pode separar-se em n igualdades entre numeros, que se chamam equacoesparametricas do plano S. Diz-se que S passa por p e e paralelo a F , ou tambem paraleloaos vectores v1, . . . , vk.

Sejam p = (p1, p2, . . . , pn), w = (w1, w2, . . . , wn) ∈ Rn. Suponhamos que wi 6= 0,i = 1, . . . , n. Se x pertencer a recta em Rn que passa por p e tem a direccao de w, entaox− p e w sao linearmente dependentes, donde

x1 − p1

w1

=x2 − p2

w2

= · · · =xn − pn

wn

.

A estas igualdades chama-se equacoes normais ou canonicas da recta que passa por pe tem a direccao de w.

Um processo alternativo de descrever planos em Rn usa o produto interno. A ideiae generalizar o que se faz em R2 com a chamada equacao cartesiana de uma recta. Porexemplo, dado u ∈ R2 nao nulo, a condicao 〈u, x〉 = 0 define uma recta passando pelaorigem, a recta constituıda pelos vectores x perpendiculares a u. Mais geralmente, acondicao 〈u, x − p〉 = 0 define a recta passando por p e paralela a anterior. Comecamospor ver que, em Rn, este tipo de condicao define um hiperplano.

Teorema 6.1 Sendo u, p ∈ Rn, com u nao nulo, o conjunto {x : 〈u, x − p〉 = 0} e umhiperplano. Reciprocamente, sendo S um hiperplano, existem u, p ∈ Rn, com u nao nulo,tais que S = {x : 〈u, x− p〉 = 0}.Demonstracao. Suponhamos primeiro que p = 0. O conjunto {x : 〈u, x〉 = 0} e igual a(L{u})⊥ e portanto e um subespaco de dimensao n−1, ou seja e um hiperplano passandopela origem.

Seja agora p ∈ Rn qualquer. Observemos que um vector y pertence ao conjuntoS = {x : 〈u, x − p〉 = 0} se e so se y − p pertencer ao subespaco F = {x : 〈u, x〉 = 0}.Entao S = {p}+ F e, como F tem dimensao n− 1, S e um hiperplano.

Reciprocamente, seja S um hiperplano. Entao S = {p}+ F , com F um subespaco dedimensao n− 1. Como Rn = F ⊕ F⊥, tem-se dim F⊥ = 1. Seja u ∈ F⊥ nao nulo. EntaoF⊥ = L{u} e vem F = (F⊥)⊥ = {x : 〈u, x〉 = 0}. Como S = {p}+ F , segue-se que

S = {x : 〈u, x− p〉 = 0} .

Definicao 6.3 A condicao 〈u, x − p〉 = 0 chama-se uma equacao cartesiana dohiperplano. O vector u diz-se um “vector ortogonal ao hiperplano” (na realidade eortogonal aos vectores do subespaco director).

107

Page 109: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Em R2 a equacao cartesiana de um hiperplano, que nesse caso e uma recta, e da forma

a1(x1 − p1) + a2(x2 − p2) = 0 ,

onde u = (a1, a2), x = (x1, x2) e p = (p1, p2). Pondo 〈u, p〉 = b, a equacao fica

a1x1 + a2x2 = b .

Em R3 a equacao cartesiana de um hiperplano, que nesse caso e um plano, e da forma

a1(x1 − p1) + a2(x2 − p2) + a3(x3 − p3) = 0 ,

onde u = (a1, a2, a3), x = (x1, x2, x3) e p = (p1, p2, p3). Pondo 〈u, p〉 = b, a equacao fica

a1x1 + a2x2 + a3x3 = b .

O vector ortogonal a um hiperplano e essencialmente unico, no sentido de que doisvectores ortogonais a um mesmo hiperplano sao multiplos um do outro. Porque? Seja Fo subespaco de Rn director do hiperplano. Como vimos na demonstracao do Teorema 6.1,tem-se dim F⊥ = 1, pelo que nao pode haver dois vectores linearmente independentes emF⊥, isto e, ortogonais a todos os vectores de F .

A apresentacao de um hiperplano por uma equacao cartesiana e conveniente para ocalculo da distancia de um ponto a esse hiperplano:

Teorema 6.2 Sendo v ∈ Rn, a distancia de v ao hiperplano de equacao cartesiana〈u, x− p〉 = 0 e igual a norma da projeccao ortogonal de v − p sobre u, isto e, e igual a

|〈v − p, u〉|‖u‖ .

Demonstracao. Suponhamos primeiro que p = 0 e ponhamos F = {x : 〈u, x〉 = 0}.A distancia de v a F e (por definicao) a distancia de v ao vector de F que lhe estamais proximo. Como sabemos, esse vector e vF , a projeccao ortogonal de v sobre F .Pretendemos portanto mostrar que

‖v − vF‖ =|〈v, u〉|‖u‖ .

Note-se que v− vF , por definicao de projeccao ortogonal sobre um subespaco, e ortogonala todos os vectores de F . Entao v− vF tem que ser multiplo de u, digamos v− vF = βu.

108

Page 110: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

»»»»»»»»»»»»»»»»

££££££££»»»»»»»»»»»»»»»»

££££££££

•AA

AA

AAA

•AA

AA••

0

vF

u v

F

Para determinar o valor de β, calculemos o produto interno de ambos os membros poru. Vem

〈v, u〉 = β‖u‖2

uma vez que 〈vF , u〉 = 0. Entao

β =〈v, u〉‖u‖2

donde

v − vF =〈v, u〉‖u‖2

u

e concluımos que

‖v − vF‖ =|〈v, u〉|‖u‖

como pretendido.Seja agora p qualquer e ponhamos S = {p} + F = {x : 〈u, x − p〉 = 0}. Para provar

que a distancia de v a S e igual a|〈v − p, u〉|

‖u‖basta mostrar (pelo primeiro caso) que essa distancia e igual a distancia de v − p a F .Mas isso segue-se imediatamente do facto de que a distancia de v a um elemento qualquery de S e igual a distancia de v − p a y − p (que pertence a F ).

No caso particular de R2, este teorema da uma formula para a distancia de um pontoa uma recta. Se o ponto for (q1, q2) e a recta tiver equacao cartesiana a1x1 + a2x2 = b, aformula para a distancia e

|a1q1 + a2q2 − b|√a2

1 + a22

.

No caso de R3, a distancia do ponto (q1, q2, q3) ao plano de equacao cartesianaa1x1 + a2x2 + a3x3 = b e

|a1q1 + a2q2 + a3q3 − b|√a2

1 + a22 + a2

3

.

109

Page 111: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exercıcio 6.1 Em Rn, a distancia de um ponto v a uma recta x = p + αu, α ∈ R, e adistancia de v − p a sua projeccao ortogonal sobre u. Mostre que uma formula para essadistancia e √

‖v − p‖2‖u‖2 − 〈v − p, u〉2‖u‖ .

Um plano em Rn de dimensao qualquer, nao necessariamente n− 1, pode ser descritocomo uma interseccao de hiperplanos. Concretamente, se a dimensao do plano S for k,ele e igual a interseccao de n−k hiperplanos com vectores ortogonais independentes, pois,sendo S = {p}+ F , com F subespaco de dimensao k, tem-se

F = (F⊥)⊥ = {x : 〈u, x〉 = 0 para todo o u ∈ F⊥}

e portanto, se {u1, . . . , un−k} for uma base de F⊥, tem-se

F = {x : 〈ui, x〉 = 0, i = 1, . . . , n− k}

donde

S = {x : 〈ui, x− p〉 = 0, i = 1, . . . , n− k} .

S e, assim, descrito por um sistema de equacoes lineares cuja matriz e (n − k) × ne tem caracterıstica n− k.

110

Page 112: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

7 Espacos vectoriais

7.1 Corpos

Definicao 7.1 Seja K um conjunto qualquer. Suponhamos que em K estaodefinidas duas operacoes, uma adicao, denotada pelo sımbolo +, e uma multi-plicacao, denotada pelo sımbolo · ou por simples justaposicao (operacoes em ambosos casos produzindo novos elementos de K, isto e, formalmente, aplicacoes de K×Kem K), que satisfazem as seguintes propriedades:

1. A adicao e comutativa: ∀α,β∈K α + β = β + α;

2. A adicao e associativa: ∀α,β,γ∈K (α + β) + γ = α + (β + γ);

3. Em K existe um elemento neutro para a adicao: ∃e∈K ∀α∈K α + e = α;

4. Para cada elemento α de K existe em K um simetrico de α:∀α∈K ∃α′∈K α + α′ = e;

5. A multiplicacao e comutativa: ∀α,β∈K αβ = βα;

6. A multiplicacao e associativa: ∀α,β,γ∈K (αβ)γ = α(βγ);

7. Em K existe um elemento neutro para a multiplicacao:∃u∈K ∀α∈K αu = α (supomos u 6= e);

8. Para cada elemento α de K, diferente de e, existe em K um inverso de α:∀α∈K,α6=e ∃α∗∈K αα∗ = u;

9. A multiplicacao e distributiva em relacao a adicao:∀α,β,γ∈K α(β + γ) = αβ + αγ.

Nestas condicoes dizemos que K, com essas duas operacoes, e um corpo.

Observe-se que um corpo e um conjunto com as duas operacoes referidas. Por estemotivo, a maneira rigorosa de apresentar um corpo e com uma notacao do tipo (K, +, ·).Mas frequentemente, e com algum abuso de linguagem, falamos apenas num corpo K,devendo estar claro do contexto quais sao as operacoes.

Exemplos de corpos.

1. Q, R e C sao corpos para as operacoes usuais de adicao e multiplicacao.

111

Page 113: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

2. Sendo p um numero primo, designemos por Zp o conjunto das classes de equivalenciaem que a relacao de congruencia modulo p divide o conjunto Z dos inteiros. Des-ignando por a a classe de congruencia do inteiro a, tem-se Zp = {0, 1, . . . , p− 1}.Defina-se a + b = a + b e a · b = ab. (Exercıcio: Mostre que estas operacoes estaobem definidas, isto e, nao dependem dos representantes escolhidos para cada classede congruencia.) Para estas duas operacoes, Zp e um corpo.

Exercıcio 7.1 Seja K um corpo qualquer. Prove que:

1. O elemento neutro para a adicao e unico. A notacao para esse elemento e 0.

2. Para cada elemento a ∈ K, o simetrico de a e unico. A notacao para esse elemento e−a.

3. O elemento neutro para a multiplicacao e unico. A notacao para esse elemento e 1.

4. Para cada elemento a ∈ K, a 6= 0, o inverso de a e unico. A notacao para esse elementoe a−1.

5. Sendo a, b ∈ K, se ab = 0 entao tem-se a = 0 ou b = 0.

Um subconjunto de um corpo K diz-se um subcorpo de K se for ele proprio um corpopara as operacoes de K. Por exemplo, Q e um subcorpo de R, e este por sua vez e umsubcorpo de C.

Podemos trabalhar com os elementos de um corpo como com os numeros reais no quese refere as operacoes vulgares. Assim, tudo o que estudamos nos Capıtulos 1, 2 e 3,respectivamente sobre matrizes, sistemas e determinantes, permanece valido para corposarbitrarios.

7.2 Espacos vectoriais

No capıtulo 4 estudamos Rn e os seus subespacos, analisando conceitos como subespacogerado por um conjunto de vectores, independencia linear de um conjunto de vectores,dimensao de um subespaco.

Acontece que, com o mesmo tipo de estudo e de raciocınios, se conseguem abarcaroutras situacoes muito diferentes de Rn. O que essas situacoes tem de comum e que setrata de conjuntos em que faz sentido falar da soma de elementos e do produto deum numero por um elemento.

Na presenca destas duas operacoes, e desde que sejam satisfeitas algumas propriedadessimples e naturais, podem definir-se conceitos e demonstrar-se factos analogos aos estu-dados para Rn.

Surge entao, com toda a naturalidade, a ideia de definir uma estrutura abstracta queabarque simultaneamente todas essas situacoes. Esse impulso no sentido da abstraccaorevela-se fecundo, ao permitir desenvolver, praticamente sem esforco adicional, uma teoriacom muitas concretizacoes e exemplificacoes uteis.

112

Page 114: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Definicao 7.2 Seja V um conjunto e seja K um corpo. Diz-se que V e um espacovectorial sobre K se estiverem definidas duas operacoes, uma adicao de elemen-tos de V , denotada pelo sımbolo +, e uma multiplicacao de elementos de K porelementos de V , denotada pelo sımbolo · ou por simples justaposicao (operacoesem ambos os casos produzindo novos elementos de V , isto e, aplicacoes de V × Vem V e de K×V em V , respectivamente), que satisfacam as seguintes propriedades:

1. A adicao e comutativa: ∀u,v∈V u + v = v + u;

2. A adicao e associativa: ∀u,v,w∈V (u + v) + w = u + (v + w);

3. Em V existe um elemento neutro para a adicao: ∃z∈V ∀v∈V v + z = v;

4. Para cada elemento v de V existe em V um simetrico de v:∀v∈V ∃v′∈V v + v′ = z;

5. O produto de elementos de K por elementos de V e distributivo em relacao aadicao de elementos de V : ∀u,v∈V ∀α∈K α(u + v) = αu + αv;

6. O produto de elementos de K por elementos de V e distributivo em relacao aadicao de elementos de K: ∀v∈V ∀α,β∈K (α + β)v = αv + βv;

7. ∀v∈V 1v = v;

8. ∀v∈V ∀α,β∈K α(βv) = (αβ)v.

Se K = R diz-se que se tem um espaco vectorial real. Se K = C diz-se que se tem umespaco vectorial complexo.

Aos elementos de um espaco vectorial V chamamos genericamente “vectores”, e aoselementos do corpo K “escalares”.

Observe-se que para se ter um espaco vectorial tem que se ter, alem do conjuntodos vectores, tambem o corpo dos escalares. Frequentemente, para simplificar, falaremosapenas num espaco vectorial V sem referir o corpo K.

Exercıcio 7.2 Seja V um espaco vectorial qualquer. Prove que:

1. O elemento neutro para a adicao e unico. A notacao para esse elemento e 0.

2. Para cada elemento v ∈ V , o simetrico de v e unico. A notacao para esse elemento e−v.

Ao elemento neutro para a adicao chamamos zero, origem ou vector nulo de V .Para dois vectores v e w define-se a diferenca deles da maneira obvia: v−w = v + (−w).

113

Page 115: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exercıcio 7.3 Sendo v e w vectores quaisquer de um espaco vectorial V sobre K e α e βnumeros de K, prove que:

1. α(v − w) = αv − αw (Sugestao: Calcule α(v − w) + αw)

2. (α− β)v = αv − βv

3. α0 = 0

4. 0v = 0

5. α(−w) = −αw

6. (−β)v = −βv

7. (−α)(−v) = αv

8. αv = 0 ⇒ α = 0 ou v = 0

9. (αv = αw e α 6= 0) ⇒ v = w

10. (αv = βv e v 6= 0) ⇒ α = β

Exercıcio 7.4 Demonstre, por inducao, que num espaco vectorial valem as seguintes gene-ralizacoes das propriedades distributivas:

a) α(v1 + v2 + . . . + vk) = αv1 + αv2 + . . . + αvk

b) (α1 + α2 + . . . + αk)v = α1v + α2v + . . . + αkv

Exemplo 7.1 1. O primeiro exemplo, naturalmente, e o que ja estudamos atras: Rn,com as operacoes vistas de adicao de matrizes-coluna e produto de um numero realpor uma matriz-coluna, e um espaco vectorial real. Em particular, R e um espacovectorial sobre si proprio.

2. Mais geralmente, sendo K um corpo, o conjunto Kn das matrizes-coluna n× 1 comelementos em K e um espaco vectorial sobre K, com as operacoes naturais. Emparticular, K e um espaco vectorial sobre si proprio.

3. Se K for um subcorpo de um corpo L, L e um espaco vectorial sobre K.

4. O exemplo que se segue e importante por dois motivos: primeiro, porque se tratade um espaco muito abstracto, em que os vectores sao funcoes; segundo, porque amaior parte dos espacos vectoriais que estudamos aqui e do tipo deste exemplo.

Seja V um espaco vectorial sobre um corpo K e seja S um conjunto qualquer. Oconjunto de todas as funcoes de S para V e um espaco vectorial sobre K para asoperacoes definidas por

(f + g)(x) := f(x) + g(x) , (αf)(x) := α.f(x) , x ∈ S , α ∈ K .

O vector nulo e a funcao nula. Uma notacao comum para este conjunto e V S.

Note-se que Kn pode ser visto como o conjunto das funcoes do conjunto {1, 2, . . . , n}em K (porque?).

114

Page 116: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

5. Para m e n dados, o conjunto de todas as matrizes m × n com elementos em Ke um espaco vectorial sobre K, para as operacoes naturais. Este conjunto, que nocapıtulo 1 denotamos por Mm×n(K), pode ser visto como o conjunto das funcoes doconjunto {1, 2, . . . ,m} × {1, 2, . . . , n} em K.

6. O conjunto de todas as sucessoes reais e um espaco vectorial real para as operacoeshabituais de soma de duas sucessoes e produto de um numero real por uma sucessao.Este conjunto e o conjunto das funcoes de N em R.

7. Dado um intervalo real [a, b], o conjunto de todas as funcoes reais contınuas em[a, b] e um espaco vectorial real para as operacoes habituais com funcoes. A notacaocomum para este espaco e C[a, b]. Se admitirmos funcoes com valores complexosficamos com um espaco vectorial sobre C.

8. O conjunto Ck[a, b] das funcoes reais (resp. complexas) com derivadas contınuasate a ordem k no intervalo [a, b] e um espaco vectorial real (resp. complexo).

9. O conjunto C∞[a, b] das funcoes reais (resp. complexas) infinitamente diferenciaveisno intervalo [a, b] e um espaco vectorial real (resp. complexo).

10. O conjunto K[λ] de todos os polinomios numa indeterminada λ e com coeficientesnum corpo K e um espaco vectorial sobre K para as operacoes habituais de soma dedois polinomios e produto de um elemento de K por um polinomio.

7.3 Subespacos

Definicao 7.3 Seja V um espaco vectorial sobre um corpo K. Um subconjunto Fde V diz-se um subespaco de V se for ele proprio um espaco vectorial para asoperacoes nele naturalmente definidas (por ser um subconjunto de V ).

Teorema 7.1 F e um subespaco de V se e so se satisfizer as seguintes condicoes:

1. F 6= ∅;2. F e fechado para a adicao, isto e, u, v ∈ F ⇒ u + v ∈ F ;

3. F e fechado para o produto por elementos de K, isto e, v ∈ F, α ∈ K ⇒ αv ∈ F .

Demonstracao. A condicao necessaria e evidente, dada a definicao de espaco vectorial.Vejamos a condicao suficiente. As propriedades 1, 2, 5, 6 e 7 da definicao de espacovectorial sao satisfeitas em F porque o sao em V , e F esta contido em V . Em seguida,a origem de V pertence necessariamente a F , porque, sendo v um vector qualquer deF (existe pelo menos um porque F 6= ∅), a terceira condicao do teorema obriga a que0v = 0 ∈ F . Finalmente, sendo v ∈ F , tem-se −v = (−1)v e portanto, pela terceiracondicao do teorema, −v ∈ F .

115

Page 117: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo 7.2 1. Sendo V um espaco vectorial qualquer, {0} e V sao subespacos deV (os chamados subespacos triviais).

2. O conjunto das matrizes triangulares superiores e um subespaco de Mn×n(K).

3. O conjunto das funcoes reais integraveis num intervalo [a, b] e um subespaco doespaco de todas as funcoes de [a, b] em R.

4. Qualquer que seja k, C∞[a, b] e um subespaco de Ck[a, b], que por sua vez e umsubespaco de C[a, b].

5. O conjunto das solucoes de uma equacao diferencial linear homogenea de ordem kcom coeficientes constantes

f (k)(t) + a1f(k−1)(t) + · · ·+ ak−1f

′(t) + akf(t) = 0

e um subespaco de Ck[a, b].

6. O conjunto das sucessoes reais convergentes e um subespaco do espaco vectorial realde todas as sucessoes reais.

7. O conjunto das sucessoes reais com limite 1 nao e um subespaco do espaco vectorialreal de todas as sucessoes reais.

8. O conjunto das solucoes de uma “equacao as diferencas” linear homogenea de ordemk com coeficientes constantes

un+k + a1un+k−1 + · · ·+ ak−1un+1 + akun = 0

e um subespaco do espaco vectorial real de todas as sucessoes reais.

9. Para n dado, o conjunto Kn[λ] dos polinomios numa indeterminada λ, com coefi-cientes em K e grau menor ou igual a n, e um subespaco de K[λ].

10. Para n dado, o conjunto dos polinomios numa indeterminada λ, com coeficientesem K e de grau igual a n, nao e um subespaco de K[λ].

Exercıcio 7.5 Seja F um subespaco de um espaco vectorial V , sejam v1, . . . , vk vectoresde F e sejam α1, . . . , αk escalares quaisquer. Prove que, entao, o vector α1v1 + . . . + αkvk

pertence a F .

116

Page 118: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 7.2 Seja V um espaco vectorial. A interseccao de dois (ou mais) subespacosde V e ainda um subespaco de V .

Demonstracao. Exercıcio.

Exercıcio 7.6 Seja V um espaco vectorial. Mostre que a reuniao de dois subespacos de V

so e um subespaco se um deles contiver o outro.

Vamos ver um outro processo de construir um subespaco a partir de outros dois.

Definicao 7.4 Sejam F e G subespacos de um espaco vectorial V . Chama-se somados subespacos F e G ao conjunto F + G = {v + w : v ∈ F e w ∈ G}.

Teorema 7.3 F + G e ainda um subespaco de V .

Demonstracao. Exercıcio.

Definicao 7.5 Sejam F e G subespacos de um espaco vectorial V . Se se tiverF ∩G = {0}, diz-se que a soma de F com G e directa e escreve-se F ⊕G em vezde F + G.

Exercıcio 7.7 Sejam F,G e H subespacos de um espaco vectorial V .

1. Prove que, se H = F ⊕G, entao todo o vector de H se escreve de modo unico comosoma de um vector de F com um vector de G.

2. Reciprocamente, prove que, se todo o vector de H se escreve de modo unico comosoma de um vector de F com um vector de G, entao H = F ⊕G.

Definicao 7.6 Sejam F e G subespacos de um espaco vectorial V . Se F ⊕G = V ,dizemos que F e G sao subespacos complementares ou que F e um comple-mento de G (e G e um complemento de F ).

117

Page 119: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

O nosso objectivo e estudar o conceito de dimensao de um espaco vectorial arbitrario,que pode ou nao ser subespaco de um espaco maior.

Definicao 7.7 Seja V um espaco vectorial sobre K. Sejam v1, . . . , vn vectores deV . Uma combinacao linear de v1, . . . , vn e um vector da forma

α1v1 + · · · + αnvn ,

com α1, . . . , αn ∈ K (os coeficientes da combinacao linear). Denotamos porL{v1, . . . , vn} o conjunto de todas as possıveis combinacoes lineares dos vectoresv1, . . . , vn.

Teorema 7.4 Sendo v1, . . . , vn ∈ V , o conjunto L{v1, . . . , vn} e um subespaco de V .

Demonstracao. Exercıcio.

Definicao 7.8 A L{v1, . . . , vn} chama-se subespaco gerado pelos vectoresv1, . . . , vn. Se V = L{v1, . . . , vn}, diz-se que e {v1, . . . , vn} e um conjuntogerador de V .

Exercıcio 7.8 Mostre que L{v1, . . . , vn} e o menor subespaco de V que contem os vec-tores v1, . . . , vn, isto e, que, se G for um subespaco de V que contem v1, . . . , vn, entaonecessariamente L{v1, . . . , vn} ⊆ G.

O espaco das colunas de uma matriz sobre um corpo K define-se tal como para matrizesreais: sendo A ∈ Mm×n(K), o espaco das colunas de A e o subespaco C(A) deKm geradopelas n colunas de A. Um sistema Ax = b e possıvel se e so se b ∈ C(A).

118

Page 120: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

O conceito de subespaco gerado por um conjunto de vectores pode apresentar-se paraconjuntos nao necessariamente finitos.

Definicao 7.9 Seja S um subconjunto qualquer de um espaco vectorial V . O sube-spaco gerado por S, designado por L(S), e o menor subespaco de V que contem S.Isto e, se G for um subespaco de V que contem S, entao necessariamente L(S) ⊆ G.

Exercıcio 7.9 Mostre que L(S) e constituıdo por todas as possıveis combinacoes linearesde vectores de S.

Exercıcio 7.10 Sendo F e G subespacos de um espaco vectorial V , prove que F + G =L(F ∪G).

7.4 Dependencia e independencia linear

Dado um espaco vectorial V , o nosso objectivo e encontrar um conjunto gerador deV com tao poucos elementos quanto possıvel. Neste contexto, tem interesse o resultadoseguinte.

Lema 7.1 Se os vectores v1, . . . , vn geram V e se um deles for uma combinacao lineardos restantes n− 1, entao esses outros n− 1 ainda geram V .

Demonstracao. Suponhamos que e o vector vj que e uma combinacao linear dosrestantes n−1. Tomemos um vector qualquer de V , digamos v. Como v1, . . . , vn geram V ,v e combinacao linear deles. Nessa combinacao linear, substitua-se vj pela sua expressao

como combinacao linear dos outros n−1. E obvio que entao ficamos com uma combinacaolinear so desses n − 1 vectores, e portanto v e igual a uma combinacao linear so dessesn− 1 vectores. Como v e um vector arbitrario de V , fica provado que esses n− 1 vectoresgeram V .

Este Lema mostra que nos interessam conjuntos de vectores em que nenhum sejacombinacao linear dos restantes.

Definicao 7.10 Seja V um espaco vectorial. Sejam v1, . . . , vn ∈ V (n ≥ 2). Osvectores v1, . . . , vn dizem-se linearmente independentes se nenhum deles for iguala uma combinacao linear dos outros n−1. Um vector v1 e linearmente independentese v1 6= 0. Se v1, . . . , vn nao forem linearmente independentes dizem-se linearmentedependentes.

119

Page 121: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Observacoes. 1. A propriedade de uns tantos vectores serem linearmente independentese uma propriedade do conjunto e nao de cada vector individualmente. Por isso se diz asvezes que e o conjunto que e linearmente independente.

2. Qualquer conjunto de vectores que contenha o vector nulo e linearmente dependente.

3. Subconjuntos de conjuntos linearmente independentes sao linearmente independentes,e portanto um conjunto que contenha um subconjunto linearmente dependente e tambemlinearmente dependente.

Usando a definicao, e em geral moroso verificar na pratica se um conjunto de vectorese ou nao linearmente independente. O criterio que se segue facilita-nos essa tarefa.

Teorema 7.5 (Criterio de independencia linear.) Seja V um espaco vectorial. Os vec-tores v1, . . . , vn ∈ V sao linearmente independentes se e so se for impossıvel escrever ovector nulo como combinacao linear de v1, . . . , vn, excepto da forma trivial (isto e, comtodos os coeficientes iguais a 0).

Demonstracao. Suponhamos que v1, . . . , vn sao linearmente independentes e que epossıvel escrever o vector nulo como combinacao linear de v1, . . . , vn de forma nao trivial,digamos

α1v1 + · · ·+ αnvn = 0

com os escalares α1, . . . , αn nao todos nulos. Seja por exemplo αj 6= 0. Entao vem

vj = −α1

αj

v1 − · · · − αj−1

αj

vj−1 − αj+1

αj

vj+1 − · · · − αn

αj

vn

e v1, . . . , vn seriam linearmente dependentes, contra o que supusemos.Reciprocamente, suponhamos que e impossıvel escrever o vector nulo como combinacao

linear de v1, . . . , vn, excepto da forma trivial, e que esses vectores sao linearmente depen-dentes. Entao pelo menos um deles, digamos vj, e igual a uma combinacao linear dosoutros n− 1:

vj = β1v1 + · · ·+ βj−1vj−1 + βj+1vj+1 + · · ·+ βnvn .

Mas entao tem-se

β1v1 + · · ·+ βj−1vj−1 − 1.vj + βj+1vj+1 + · · ·+ βnvn = 0

e conseguimos escrever o vector nulo como combinacao linear de v1, . . . , vn com pelo menosum coeficiente nao nulo, contra o que supusemos.

120

Page 122: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

7.5 Base e dimensao

Teorema 7.6 Seja V um espaco vectorial. Sejam v1, . . . , vp vectores que geram V e sejamw1, . . . , wq vectores de V linearmente independentes. Entao tem-se, necessariamente, p ≥q. Por outras palavras, num espaco vectorial, um conjunto gerador nunca pode ter menoselementos do que um conjunto linearmente independente.

Demonstracao. Como v1, . . . , vp geram V , cada um dos wj, por pertencer a V , escreve-secomo combinacao linear de v1, . . . , vp :

wj = α1jv1 + · · ·+ αpjvp , j = 1, . . . , q .

Designemos por A a matriz cujos elementos sao os coeficientes de todas estas combinacoeslineares: A = [αij]p×q.

Suponhamos que p < q. Entao a matriz A tem mais colunas do que linhas e, portanto,o sistema homogeneo Ax = 0 e indeterminado. Seja [β1 . . . βq]

T uma solucao nao nuladesse sistema, isto e, tem-se A[β1 . . . βq]

T = 0, ou seja

αi1β1 + · · ·+ αiqβq = 0 , i = 1, . . . , p.

Vamos ver a que e igual a combinacao linear β1w1 + · · ·+βqwq, substituindo cada wj pelasua expressao como combinacao linear de v1, . . . , vp :

β1w1 + · · ·+ βqwq = β1

(p∑

i=1

αi1vi

)+ · · ·+ βq

(p∑

i=1

αiqvi

)

=

(q∑

j=1

α1jβj

)v1 + · · ·+

(q∑

j=1

αpjβj

)vp

= 0v1 + · · ·+ 0vp = 0 .

Mas os escalares β1, . . . , βq nao sao todos iguais a zero, e portanto chegamos a umacontradicao com a hipotese de os vectores w1, . . . , wq serem linearmente independentes.Logo, nao pode ter-se p < q.

Definicao 7.11 Seja V um espaco vectorial. Um conjunto de vectores de V linear-mente independentes e que gerem V diz-se uma base de V .

Exemplo 7.3 Os vectores

100...0

,

010...0

, . . . ,

000...1

constituem a chamada base

canonica de Kn.

121

Page 123: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Observacao. Ao indicar os vectores de uma base de um subespaco, interessa tambema ordem pela qual eles aparecem. Para nao sobrecarregar a exposicao, nao estaremossempre a repetir isso, e falaremos de uma base simplesmente como um conjunto.

Teorema 7.7 Seja {v1, . . . , vn} uma base de um espaco vectorial V . Para cada v ∈ V , oscoeficientes de v quando escrito como combinacao linear de v1, . . . , vn sao univocamentedeterminados por v. (A esses coeficientes chama-se componentes ou coordenadas dev relativamente a base {v1, . . . , vn}.)

Demonstracao. Seja

v = α1v1 + · · ·+ αnvn

e tambemv = β1v1 + · · ·+ βnvn .

Entao(α1 − β1)v1 + · · ·+ (αn − βn)vn = 0 .

Assim, se nao se tivesse αi = βi , i = 1, . . . , n, os vectores v1, . . . , vn nao seriam linear-mente independentes.

Dado um espaco vectorial V , se conhecermos uma base de V , qualquer vector de Vfica conhecido se conhecermos as suas coordenadas relativamente a essa base.

Exemplo 7.4 As coordenadas do vector

a1

a2...

an

relativamente a base canonica de Kn sao

a1, a2, . . . , an.

O teorema seguinte conduz a definicao de dimensao de um espaco vectorial.

Teorema 7.8 Se uma base de um espaco vectorial V e constituıda por n vectores, todassao.

Demonstracao. O resultado e consequencia imediata do teorema 7.6.

122

Page 124: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Definicao 7.12 Seja V um espaco vectorial. Se uma base de V (e portanto todas)tiver n elementos, dizemos que V tem dimensao n, e escrevemos dimV = n.Se F = {0}, pomos por definicao dimF = 0.

Exemplo 7.5 1. Tem-se dimKn = n. Em particular, K e um espaco vectorial de di-mensao 1 sobre si proprio.

2. Mais geralmente, tem-se dimMm×n(K) = mn.

3. A dimensao do espaco das matrizes n× n triangulares superiores e n(n+1)2

.

4. Tem-se dimKn[λ] = n + 1.

5. Sendo A uma matriz com elementos num corpo K, a dimensao de C(A), o espaco dascolunas de A, e igual a caracterıstica de A (o numero de pivots encontrado quando seaplica a A o algoritmo de eliminacao de Gauss).

Suponhamos que dim V = n, com n > 0. Entao, pelo teorema 7.6, n e o numeromaximo de elementos que pode ter um conjunto linearmente independente de vectores deV , e e o numero mınimo de elementos que pode ter um conjunto gerador de V .

O nosso proximo objectivo e obter processos de construcao de bases de subespacosdados.

Lema 7.2 Sejam v1, . . . , vq vectores linearmente independentes de um espaco vectorial.Se um vector w nao pertencer a L{v1, . . . , vq} entao os vectores v1, . . . , vq, w sao tambemlinearmente independentes.

Demonstracao. Olhemos para uma combinacao linear dos vectores v1, . . . , vq, w que sejaigual ao vector nulo:

α1v1 + · · ·+ αqvq + αq+1w = 0 .

Se αq+1 fosse diferente de 0, ter-se-ia

w = − α1

αq+1

v1 − · · · − αq

αq+1

vq

e entao w ∈ L{v1, . . . , vq}, contra o que supusemos. Logo, αq+1 = 0. Mas entao ficamoscom

α1v1 + · · ·+ αqvq = 0 .

Como v1, . . . , vq sao linearmente independentes isto implica que tambem α1 = 0, . . . , αq =0, e fica provado que e impossıvel escrever o vector nulo como combinacao linear dosvectores v1, . . . , vq, w sem ser com todos os coeficientes iguais a zero.

123

Page 125: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 7.9 Suponhamos que dimV = n, com n > 0. Entao:

1. Dado um conjunto de vectores linearmente independentes de V , se esse conjuntonao for uma base de V e possıvel acrescentar-lhe vectores de forma a obter umabase de V .

2. Qualquer conjunto de n vectores de V linearmente independentes e uma base de V .

3. Dado um conjunto de vectores que gerem V , se esse conjunto nao for uma base deV e possıvel retirar-lhe vectores de forma a obter uma base de V .

4. Qualquer conjunto de n vectores de V que gerem V e uma base de V .

Demonstracao.

1. Sejam v1, . . . , vq esses vectores linearmente independentes. Se eles nao constituemuma base de V e porque nao geram V , ou seja existe em V pelo menos um vector,chamemos-lhe w, que nao e combinacao linear de v1, . . . , vq, isto e, que nao pertencea L{v1, . . . , vq}. Pelo Lema 7.2, os vectores v1, . . . , vq, w sao linearmente indepen-dentes. Agora repetimos o raciocınio para estes q + 1 vectores. Este processo naopode continuar indefinidamente, porque em V nao pode haver conjuntos de vectoreslinearmente independentes com mais de n elementos. Isto e, em determinada alturao conjunto de vectores que obtemos gera necessariamente V , ou seja e uma base deV .

2. Exercıcio.

3. Sejam v1, . . . , vp esses vectores que geram V . Se eles nao constituem uma basede V e porque nao sao linearmente independentes, ou seja pelo menos um deles ecombinacao linear dos restantes p−1. Pelo Lema 7.1, esses outros p−1 ainda geramV . Agora repetimos o raciocınio para estes p− 1 vectores. Este processo nao podecontinuar indefinidamente, porque em V nao pode haver conjuntos geradores commenos de n elementos. Isto e, em determinada altura os vectores que obtemos saonecessariamente linearmente independentes, ou seja constituem uma base de V .

4. Exercıcio.

Corolario 7.1 Seja V um espaco vectorial com dimensao n e seja F um subespaco deV . Entao:

1. F tem dimensao.

2. dimF ≤ n.

3. A dimensao de F e n se e so se F = V .

124

Page 126: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Demonstracao.

1. Se F = {0}, tem-se dim F = 0. Se em F existir pelo menos um vector nao nulo,entao ele e linearmente independente e podemos, de modo semelhante a demons-tracao do ponto 1 do teorema anterior (notando que em F , por estar contido emV , nao pode haver mais de n vectores linearmente independentes), acrescentar-lhevectores ate obter uma base de F . O numero de elementos desta base e a dimensaode F .

2. Se existisse um subespaco de V com dimensao superior a n, seria possıvel encontrarem V um conjunto de vectores linearmente independentes com mais de n elementos,o que e impossıvel.

3. Se F = V entao dim F = n, claro. Reciprocamente, suponhamos que dim F = n.Se F nao fosse igual a V , existiria em V pelo menos um vector nao pertencente a F .Juntando esse vector a uma base de F obter-se-ia (pelo Lema 7.2) um conjunto den+1 vectores linearmente independentes, o que nao pode ser, porque eles pertencema V e este tem dimensao n .

Exemplos.

1. Seja V o subespaco de C[0, 2π] gerado pelas funcoes cos e sen. Como estas duasfuncoes sao vectores linearmente independentes desse espaco (porque?), a dimensaode V e 2.

2. O espaco das solucoes de uma equacao diferencial linear homogenea de ordem kcom coeficientes constantes tem dimensao k. Este facto estuda-se em disciplinas deAnalise ou de Equacoes Diferenciais.

3. O espaco das solucoes de uma equacao as diferencas linear de ordem k com coefi-cientes constantes

un+k + a1un+k−1 + · · ·+ ak−1un+1 + akun = 0

tem dimensao k. Uma base e constituıda por exemplo pelas sucessoes que satisfazema relacao indicada e cujos primeiros k termos sao, respectivamente,

1, 0, 0, . . . , 0, 00, 1, 0, . . . , 0, 0

. . .0, 0, 0, . . . , 0, 1

4. O espaco Kn[λ] dos polinomios numa indeterminada λ, com coeficientes em K egrau menor ou igual a n, tem dimensao n + 1. Uma base e constituıda por exemplopelos polinomios 1, λ, λ2, . . . , λn.

125

Page 127: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Num espaco arbitrario pode dar-se um fenomeno estranho, que nao acontece em Rn.

Exemplo. Seja V = C[a, b]. Fixemos um numero natural m qualquer e consideremos asm + 1 funcoes (vectores de V ) fk(t) = tk , k = 0, 1, . . . , m. Vamos ver que essas m + 1funcoes sao vectores linearmente independentes do espaco V . Tomemos uma combinacaolinear dessas funcoes que seja igual ao vector nulo de V :

α0f0 + α1f1 + · · ·+ αmfm = 0

onde 0 designa a funcao nula em [a, b]. Entao tem-se, para todo o t ∈ [a, b],

α0 + α1t + · · ·+ αmtm = 0 .

Ora um polinomio de grau ≤ m nao pode ter mais de m raızes, e portanto nao podeanular-se em todos os pontos de um intervalo, a menos que seja o polinomio nulo. Assim,tem que ter-se

α0 = 0 , α1 = 0 , . . . , αm = 0 .

Isto significa que as m + 1 funcoes f0, f1, . . . , fm sao vectores linearmente independentesdo espaco C[a, b].

Mas o numero m era arbitrario. Ou seja: neste espaco vectorial, qualquer que sejam, e possıvel encontrar conjuntos linearmente independentes com mais de m vectores.Por outras palavras, nao existe maximo para o numero de elementos que pode ter umconjunto linearmente independente de vectores do espaco.

Definicao 7.13 Seja V um espaco vectorial. Se em V , qualquer que seja m ∈ N,existem conjuntos linearmente independentes com mais de m vectores, dizemos queV tem dimensao infinita. Se V nao tiver dimensao infinita, dizemos que temdimensao finita.

Exemplos. 1. C[a, b], como acabamos de ver, tem dimensao infinita.

2. O espaco constituıdo pelas sucessoes reais que tem apenas um numero finito determos diferentes de zero tem dimensao infinita. (Pense-se nas sucessoes (1, 0, 0, 0, . . .),(0, 1, 0, 0, . . .), (0, 0, 1, 0, . . .), etc.)

3. O espaco vectorial de todas as sucessoes de termos reais tambem tem dimensao infinita(basta observar que contem o conjunto do exemplo anterior como subespaco).

Observacao. Num espaco de dimensao infinita, nao e evidentemente possıvel encontrarum conjunto gerador com um numero finito de elementos. Num tal espaco, a questao daexistencia de “bases” — num sentido a precisar — conduz a estudos que estao fora doambito deste curso.

126

Page 128: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

O resultado seguinte contem uma formula para a dimensao do subespaco soma de doissubespacos de dimensao finita.

Teorema 7.10 Sejam F e G dois subespacos de dimensao finita de um espaco vectorialV . Entao tem-se dim(F + G) = dimF + dimG− dim(F ∩G).

Demonstracao. Ponhamos dim F = k, dim G = m e dim(F ∩ G) = s. Pretendemosentao mostrar que dim(F + G) = k + m− s.

Seja {u1, . . . , us} uma base de F ∩ G. Estendamo-la a uma base de F , digamos{u1, . . . , us, v1, . . . , vk−s}. Estendamo-la tambem a uma base de G, digamos{u1, . . . , us, w1, . . . , wm−s}.

Fica agora como exercıcio mostrar que o conjunto

{u1, . . . , us, v1, . . . , vk−s, w1, . . . , wm−s}e uma base de F + G, o que prova o teorema.

Corolario 7.2 Sejam F e G dois subespacos de dimensao finita de um espaco vectorialV . Se F ∩G = {0}, entao dim(F ⊕G) = dimF + dimG, e uma base de F ⊕G obtem-sereunindo uma base de F com uma base de G.

Demonstracao. Exercıcio.

7.6 Mudanca de base

Sejam {v1, . . . , vn} e {v′1, . . . , v′n} duas bases de um espaco vectorial V de dimensaofinita. Seja v ∈ V . Como se relacionam as coordenadas de v relativamente as duas bases?

Definicao 7.14 Chama-se matriz de mudanca da base {v1, . . . , vn} para a base{v′1, . . . , v′n} a matriz n×n cuja coluna j contem as coordenadas de v′j relativamentea base {v1, . . . , vn}.Isto e, se tivermos

v′1 = s11v1 + s21v2 + . . . + sn1vn

v′2 = s12v1 + s22v2 + . . . + sn2vn

· · ·v′n = s1nv1 + s2nv2 + . . . + snnvn

entao a matriz de mudanca da base {v1, . . . , vn} para a base {v′1, . . . , v′n} e a matriz

s11 s12 . . . s1n

s21 s22 . . . s2n...

.... . .

...sn1 sn2 . . . snn

.

127

Page 129: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 7.11 Seja V um espaco vectorial com dimensao n. Sejam {v1, . . . , vn} e{v′1, . . . , v′n} duas bases de V e seja S a matriz de mudanca da primeira para a segunda.Se x for a coluna das coordenadas de um vector v ∈ V relativamente a base {v1, . . . , vn}e y a coluna das coordenadas de v relativamente a base {v′1, . . . , v′n}, entao x = Sy.

Demonstracao. Exercıcio.

Note-se que uma matriz de mudanca de base e invertıvel. De facto, a inversa damatriz de mudanca da base {v1, . . . , vn} para a base {v′1, . . . , v′n} e a matriz de mudancada segunda base para a primeira (verifique).

128

Page 130: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

8 Transformacoes lineares

8.1 Generalidades

Definicao 8.1 Sejam V e W dois espacos vectoriais sobre o mesmo corpo K.Uma aplicacao T : V −→ W satisfazendo as condicoes

1. T (u + v) = T (u) + T (v),

2. T (αv) = αT (v),

para quaisquer u, v ∈ V e α ∈ K, diz-se uma transformacao linear. Tambem seusa a designacao operador linear.

Exemplos.

1. A aplicacao T : R→ R definida por T (x) = x2 nao e linear. (Verifique.)

2. Seja A uma matriz m×n com elementos num corpo K. A aplicacao T : Kn −→ Km

definida por T (x) = Ax e uma transformacao linear.

3. Sendo V um espaco vectorial, a aplicacao T : V −→ V definida por T (v) = 0, paratodo o v ∈ V , e uma transformacao linear, chamada transformacao nula.

4. Sendo V um espaco vectorial, a aplicacao T : V −→ V definida por T (v) = v, paratodo o v ∈ V , e uma transformacao linear, chamada transformacao identidade.Notacao: IV . (Tambem se usa idV .)

5. Sendo V um espaco vectorial e ρ um escalar fixo, a aplicacao T : V −→ V definidapor T (v) = ρv, para todo o v ∈ V , e uma transformacao linear, chamada homotetiade razao ρ.

6. A aplicacao de R2 em R2 definida geometricamente como a rotacao de um angulo θem torno da origem e uma transformacao linear.

7. A aplicacao T : C1[a, b] −→ C[a, b] definida por T (f) = f ′ e uma transformacaolinear.

8. Mais geralmente, dados numeros reais a1, . . . , ak, a aplicacao T : Ck[a, b]→ C[a, b]definida por

T (f) = f (k) + a1f(k−1) + · · ·+ ak−1f

′ + akf

e uma transformacao linear.

129

Page 131: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

9. Seja W o espaco vectorial das funcoes reais definidas em intervalos do tipo [a, +∞).Designemos por V o subespaco de C[0, +∞) constituıdo pelas funcoes f tais que ointegral

F (s) =

∫ +∞

0

f(t)e−st dt

converge qualquer que seja s pertencente a um intervalo do tipo [a, +∞). Entao aaplicacao T : V −→ W definida por T (f) = F e uma transformacao linear, chamadatransformada de Laplace.

10. Seja W o espaco das funcoes de R em C. Designemos por V o subespaco deC(−∞, +∞) constituıdo pelas funcoes complexas f tais que o integral

ϕ(ω) =

∫ +∞

−∞f(t)e−iωtdt

converge qualquer que seja ω ∈ R. Entao a aplicacao T : V → W definida porT (f) = ϕ e uma transformacao linear, chamada transformada de Fourier.

Exercıcio 8.1 Seja T : V −→ W uma transformacao linear. Prove que:

1. T (0) = 0, onde o primeiro 0 representa a origem de V e o segundo a origem de W .

2. Qualquer que seja v ∈ V , tem-se T (−v) = −T (v).

A partir de transformacoes lineares dadas podem construir-se outras:

Teorema 8.1 1. A soma de transformacoes lineares e ainda uma transformacao linear.2. O produto de um escalar por uma transformacao linear e ainda uma transformacao linear.3. A composicao de transformacoes lineares e ainda uma transformacao linear.4. A inversa de uma transformacao linear invertıvel e ainda uma transformacao linear.

Demonstracao. Demonstramos apenas a ultima afirmacao, ficando as restantes comoexercıcio.

Sejam V e W espacos vectoriais e seja T : V −→ W uma transformacao linearinvertıvel. Vamos ver que T−1 e tambem uma transformacao linear.

Sejam w e z vectores arbitrarios de W . Entao w = T (u) e z = T (v), para certosvectores u e v de V , vindo

w + z = T (u) + T (v) = T (u + v)

por T ser linear. Segue-se que

T−1(w + z) = u + v = T−1(w) + T−1(z) .

130

Page 132: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Seja agora w arbitrario em W e α um escalar qualquer. De novo tem-se w = T (u), paracerto vector u de V . Usando a linearidade de T vemos que

αw = αT (u) = T (αu)

pelo queT−1(αw) = αu = αT−1(w).

Exemplos. 1. Seja T : Kn → Kn definida por T (x) = Ax, com A matriz n×n invertıvel.Entao T e invertıvel, tendo-se T−1(x) = A−1x.

2. Seja T : Rn−1[λ] → Rn[λ] definida por T (p(λ)) =∫ λ

0p(t)dt. Entao T , como trans-

formacao linear de Rn−1[λ] no subespaco de Rn[λ] constituıdo pelos polinomios com termoindependente igual a 0, e invertıvel, tendo-se T−1(p(λ)) = p′(λ).

Definicao 8.2 Sendo T : V −→ W uma transformacao linear, o nucleo de T e oconjunto Ker(T ) = {v ∈ V : T (v) = 0}. (Tambem se usa a notacao N(T ).)A imagem de T e o conjunto Im(T ) = {T (v) : v ∈ V }. (Tambem se usa a notacaoC(T ).)

Exercıcio 8.2 Seja T : V −→ W uma transformacao linear.

1. Prove que Ker(T ) e um subespaco de V .

2. Prove que Im(T ) e um subespaco de W .

Definicao 8.3 A dimensao de Im(T ) chama-se a caracterıstica de T . (Notacao:car(T ).)

Dada uma transformacao linear T , o subespaco Im(T ) diz-nos, claro, se T e sobrejec-tiva. Curiosamente, Ker(T ) diz-nos se T e injectiva:

Teorema 8.2 Sejam V e W espacos vectoriais e seja T : V −→ W uma transformacaolinear. Entao T e injectiva se e so se Ker(T ) = {0}.Demonstracao. Suponhamos primeiro que T e injectiva e provemos que Ker(T ) = {0}.Seja v ∈ Ker(T ), isto e, T (v) = 0. Como T (0) = 0 e T e injectiva, tem que se ter v = 0.

Suponhamos agora que Ker(T ) = {0} e provemos que T e injectiva. Sejam u e vvectores quaisquer de V tais que T (u) = T (v). Entao T (u)− T (v) = 0, donde, por T serlinear, T (u − v) = 0, isto e, u − v ∈ Ker(T ). Mas, por hipotese, tem-se Ker(T ) = {0}.Logo, vem u− v = 0, ou seja u = v. Concluımos assim que T e injectiva.

131

Page 133: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Dada uma transformacao linear T definida num espaco de dimensao finita, existe umarelacao muito simples entre as dimensoes de Im(T ) e Ker(T ):

Teorema 8.3 Sejam V e W espacos vectoriais, com V de dimensao finita, e sejaT : V −→ W uma transformacao linear. Entao tem-se

car(T ) = dimV − dimKer(T ) .

Demonstracao. Seja dim V = n. Seja {v1, . . . , vk} uma base de Ker(T ). Acrescentemosa estes k vectores n−k vectores vk+1, . . . , vn de forma a obter uma base de V . Vamos verque os n − k vectores T (vk+1), . . . , T (vn) constituem uma base de Im(T ). Isso provara oteorema.

Primeiro, T (vk+1), . . . , T (vn) sao linearmente independentes: se

α1T (vk+1) + · · ·+ αn−kT (vn) = 0

vemT (α1vk+1 + · · ·+ αn−kvn) = 0

e tem-seα1vk+1 + · · ·+ αn−kvn ∈ Ker(T ) .

Entao, como {v1, . . . , vk} e uma base de Ker(T ), tem-se

α1vk+1 + · · ·+ αn−kvn = β1v1 + · · ·+ βkvk

para certos escalares β1, . . . , βk, o que e o mesmo que

β1v1 + · · ·+ βkvk − α1vk+1 − · · · − αn−kvn = 0 ;

como os n vectores v1, . . . , vn sao linearmente independentes, todos os coeficientes nestacombinacao linear, em particular α1, . . . , αn−k, sao nulos.

Segundo, T (vk+1), . . . , T (vn) geram Im(T ): seja w um vector qualquer de Im(T ); entaow = T (v) para algum v ∈ V ; como v1, . . . , vn constituem uma base de V , tem-se

v = γ1v1 + · · ·+ γnvn

para certos escalares γ1, . . . , γn; entao, como v1, . . . , vk ∈ Ker(T ), tem-se

T (v) = γk+1T (vk+1) + · · ·+ γnT (vn)

e w e uma combinacao linear de T (vk+1), . . . , T (vn).

132

Page 134: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 8.4 Sejam V e W espacos vectoriais, e seja T : V −→ W uma transformacaolinear.

1. Se T for injectiva transforma conjuntos de vectores linearmente independentes deV em conjuntos de vectores linearmente independentes de W .

2. Se T for sobrejectiva transforma conjuntos geradores de V em conjuntos geradoresde W .

Demonstracao.

1. Suponhamos que T e injectiva e sejam v1, v2, . . . , vq vectores de V linearmente inde-pendentes. Vamos provar que os vectores (de W , claro) T (v1), T (v2), . . . , T (vq) saolinearmente independentes. Para isso, suponhamos que se tem

α1T (v1) + α2T (v2) + · · ·+ αqT (vq) = 0,

onde α1, α2, . . . , αq sao escalares quaisquer. Como T e linear, segue-se que

T (α1v1 + α2v2 + · · ·+ αqvq) = 0,

isto e,α1v1 + α2v2 + · · ·+ αqvq ∈ Ker(T ) .

Como T , por hipotese, e injectiva, vem, pelo Teorema 8.2, que

α1v1 + α2v2 + · · ·+ αqvq = 0 .

Mas os vectores v1, v2, . . . , vq sao linearmente independentes, pelo que se tem, ne-cessariamente,

α1 = α2 = · · · = αq = 0 .

Concluımos assim que os vectores T (v1), T (v2), . . . , T (vq) sao linearmente indepen-dentes.

2. Suponhamos agora que T e sobrejectiva e sejam v1, v2, . . . , vp vectores geradores deV (o caso de se ter um conjunto gerador infinito fica como exercıcio). Vamos provarque os vectores T (v1), T (v2), . . . , T (vp) geram W .

Seja w um vector arbitrario de W . Como T , por hipotese, e sobrejectiva, existev ∈ V tal que T (v) = w. Como v1, v2, . . . , vp geram V , podemos afirmar queexistem escalares β1, β2, . . . , βp tais que

v = β1v1 + β2v2 + · · ·+ βpvp .

Segue-se quew = T (β1v1 + β2v2 + · · ·+ βpvp)

ou seja, por T ser linear,

w = β1T (v1) + β2T (v2) + · · ·+ βpT (vp)

e w e uma combinacao linear de T (v1), T (v2), . . . , T (vp), como desejado.

133

Page 135: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 8.5 Sejam V e W espacos vectoriais, e seja T : V −→ W uma transformacaolinear. Seja {v1, v2, . . . , vn} uma base de V .

1. Se os vectores T (v1), T (v2), . . . , T (vn) forem linearmente independentes, entao T einjectiva.

2. Se os vectores T (v1), T (v2), . . . , T (vn) gerarem W , entao T e sobrejectiva.

Demonstracao.

1. Seja v um vector qualquer de Ker(T ). Como v ∈ V , v e combinacao linear dev1, v2, . . . , vn, digamos v = α1v1 + α2v2 + · · ·+ αnvn. Como T (v) = 0, tem-se

T (α1v1 + α2v2 + · · ·+ αnvn) = 0

ou sejaα1T (v1) + α2T (v2) + · · ·+ αnT (vn) = 0 .

Mas, por hipotese, T (v1), T (v2), . . . , T (vn) sao linearmente independentes. Logo, osescalares α1, α2, . . . , αn tem que ser todos nulos, o que significa que v = 0. Con-cluımos assim que Ker(T ) = {0}, ou seja T e injectiva.

2. Seja w um vector de W . Como T (v1), T (v2), . . . , T (vn) geram W , w e combinacaolinear deles, digamos

w = γ1T (v1) + γ2T (v2) + · · ·+ γnT (vn)

ou sejaw = T (γ1v1 + γ2v2 + · · ·+ γnvn)

e w e imagem por T do vector γ1v1 + γ2v2 + · · ·+ γnvn.

Definicao 8.4 Uma transformacao linear T : V −→ W bijectiva diz-se umisomorfismo entre V e W .Os espacos V e W dizem-se isomorfos se existir um isomorfismo entre eles.

Teorema 8.6 Sejam V e W espacos vectoriais, com V de dimensao finita, e sejaT : V −→ W uma transformacao linear. Se T for um isomorfismo, transforma basesde V em bases de W .

Corolario 8.1 Sejam V e W espacos vectoriais de dimensao finita. Se V e W foremisomorfos entao tem a mesma dimensao.

Observacao. Se T : V −→ W for injectiva, e invertıvel como transformacao linear de Vem Im(T ), isto e, e um isomorfismo entre V e Im(T ).

134

Page 136: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

8.2 Representacao matricial de transformacoes lineares

Transformacoes lineares entre espacos de dimensao finita podem ser representadasusando matrizes. Vejamos como, comecando com um caso particular. Como vimos noexemplo 2, toda a matriz A ∈ Mm×n(K) permite definir uma transformacao linear de Kn

em Km. O recıproco e tambem valido.

Teorema 8.7 Dada uma transformacao linear T : Kn −→ Km, existe uma e uma somatriz A ∈ Mm×n(K) tal que T (x) = Ax, para todo o x ∈ Kn.

Demonstracao. Considere-se a base canonica de Kn, {e1, . . . , en}, e defina-se A comosendo a matriz m × n cuja coluna j e T (ej), j = 1, . . . , n. Dado um vector arbitrario

x =[

α1 . . . αn

]Tem Kn, como x = α1e1 + . . . αnen, pela linearidade de T podemos

concluir que T (x) = α1T (e1) + . . . + αnT (en). Mas, sendo as colunas de A os vectoresT (e1), . . . , T (en), esta e tambem a expressao que se obtem para Ax. Logo T (x) = Ax.

Para provarmos a unicidade de A, note-se que Aej = coluna j de A. Assim se B foruma outra matriz satisfazendo T (v) = Bv, para qualquer v em Kn, ter-se-a que a colunaj de A e Aej = T (ej) = Bej que e a coluna j de B, para j = 1, . . . , n. Logo A = B.

Note-se que classificamos assim todas as possıveis transformacoes lineares de Kn em Km.

Exemplo. Para achar a matriz correspondente a rotacao T de um angulo θ em torno daorigem em R2, basta achar as imagens dos vectores da base canonica. Geometricamente,e facil ver que

T (e1) =

[cos θsen θ

]e T (e2) =

[ −sen θcos θ

]

pelo que a matriz correspondente a esta transformacao linear e A =

[cos θ −sen θsen θ cos θ

].

Esta ideia pode ser adaptada a situacao geral. Comecemos com um resultado preparatorio.

Teorema 8.8 Sejam V e W espacos vectoriais, com V de dimensao finita, e sejaT : V −→ W uma transformacao linear. Entao T e determinada pelos valores quetoma numa base de V . Isto e, para conhecer T (ou seja para conhecer a imagem por T dequalquer vector de V ) basta conhecer as imagens por T dos vectores de uma base de V .

Demonstracao. Seja {v1, v2, . . . , vn} uma base de V e suponhamos que conhecemosT (v1), T (v2), . . . , T (vn). Seja v um vector arbitrario do espaco V , com coordenadasα1, α2, . . . , αn em relacao a base {v1, v2, . . . , vn}, isto e:

v = α1v1 + α2v2 + · · ·+ αnvn .

Vem entao, usando a linearidade de T ,

T (v) = α1T (v1) + α2T (v2) + · · ·+ αnT (vn) .

135

Page 137: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplo. Pensemos de novo na rotacao T de um angulo θ em torno da origem em R2.Como

T (e1) =

[cos θsen θ

]e T (e2) =

[ −sen θcos θ

],

tem-se, para um vector arbitrario de R2,

T

([xy

])= T (xe1 + ye2) =

[x cos θ−ysenθxsenθ+y cos θ

].

As imagens dos vectores de uma base por uma transformacao linear podem ser quais-quer? A resposta e dada pelo teorema seguinte, que fornece um processo de contrucao detransformacoes lineares:

Teorema 8.9 Sejam V e W espacos vectoriais, com V de dimensao finita. Seja{v1, v2, . . . , vn} uma base de V e sejam z1, z2, . . . , zn vectores quaisquer de W . Entao,existe uma e uma so transformacao linear T : V −→ W que satisfaz T (v1) = z1,T (v2) = z2, . . . , T (vn) = zn.

Demonstracao. Comecemos pela existencia. Qualquer vector de V se escreve de modounico como combinacao dos vectores da base {v1, v2, . . . , vn}. Definamos entao

T : V −→ Wn∑

j=1

αjvj 7−→n∑

j=1

αjzj

Claramente todos os elementos de V tem imagem e essa imagem e unica. E simplesver que a transformacao T assim definida e linear. E e evidente que T (v1) = z1,T (v2) = z2, . . . , T (vn) = zn.

Quanto a unicidade, e garantida pelo Teorema 8.8.

Exemplo. Existe uma e uma so transformacao linear T : R2 −→ R2 que satisfaz

T

([10

])=

[ −34

]e T

([01

])=

[52

].

Essa transformacao e dada por

T

([xy

])=

[ −3x + 5y4x + 2y

].

136

Page 138: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

O Teorema 8.9 tem uma consequencia interessante, que e a afirmacao recıproca doCorolario 8.1:

Teorema 8.10 Sejam V e W espacos vectoriais de dimensao finita sobre o mesmo corpoK. Se V e W tiverem a mesma dimensao, entao sao isomorfos.

Demonstracao. Designemos por n a dimensao comum de V e W e escolhamos bases{v1, v2, . . . , vn} de V e {w1, w2, . . . , wn} de W . Pelo Teorema 8.9 existe uma e uma sotransformacao linear T : V −→ W que satisfaz T (v1) = w1, T (v2) = w2, . . . , T (vn) = wn.Vamos ver que esta transformacao linear e um isomorfismo.

T e injectiva porque transforma uma base num conjunto de vectores linearmente in-dependentes (recorde-se o teorema 8.5, alınea 1).

T e sobrejectiva porque transforma uma base num conjunto gerador de W (recorde-seo teorema 8.5, alınea 2).

Corolario 8.2 Seja V um espaco vectorial sobre o corpo K. Se V tiver dimensao n,entao V e isomorfo a Kn.

Estes resultados mostram que, para espacos vectoriais de dimensao finita, a dimensaoe a unica coisa que verdadeiramente interessa para os distinguir, ja que todos os espacoscom igual dimensao sao isomorfos, ou seja essencialmente identicos.

Mas voltemos ao teorema 8.8. Como vimos nesse teorema, uma transformacao lineardefinida num espaco vectorial de dimensao finita fica conhecida se conhecermos os valoresque toma numa base desse espaco. Vamos agora ver que, se o espaco de chegada tambemtiver dimensao finita, a transformacao linear fica conhecida se conhecermos uma certamatriz.

Sejam V e W dois espacos vectoriais sobre K com dimensoes n e m, respectivamente.Seja T : V → W uma transformacao linear. Fixemos uma base (v1, . . . , vn) em V e umabase (w1, . . . , wm) em W . (Usamos parenteses em vez de chavetas para sublinhar a ordemdos vectores nas bases.)

Ja sabemos que, para conhecer T , basta conhecer T (v1), T (v2), . . . , T (vn). Estes nvectores, por sua vez, como pertencem a W , sao determinados pelas suas coordenadas emrelacao a base (w1, . . . , wm). Isto e, para conhecer T basta, fixadas aquelas duas bases,conhecer mn escalares.

137

Page 139: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Definicao 8.5 Seja A = [aij] a matriz m× n cuja coluna j contem as coordenadasde T (vj) relativamente a base (w1, . . . , wm), isto e, tem-se

T (vj) = a1jw1 + · · ·+ amjwm , j = 1, . . . , n .

Dizemos que A representa a transformacao linear T relativamente as bases(v1, . . . , vn) e (w1, . . . , wm). A notacao e A = M(T ; (vj), (wi)).

Se as bases forem conhecidas do contexto, escrevemos, abreviadamente, A = M(T ).

Exemplos. 1. A matriz que representa a rotacao de um angulo θ em torno da origemem R2, em relacao a base canonica de R2 (tanto a partida como a chegada), e

[cos θ −sen θsen θ cos θ

].

2. Seja T : R3 → R3 a transformacao linear definida por T (x, y, z) = (x + y, y + z).Relativamente as bases ((1, 0, 0), (1, 1, 0), (1, 1, 1)) e ((1, 1), (2, 1)), respectivamente, T erepresentada pela matriz [ −1 0 2

1 1 0

].

3. Seja T : R2[λ] → R1[λ] a transformacao linear definida por T (p(λ)) = p′(λ). Relativa-mente as bases (1, λ, λ2) e (1, λ), respectivamente, T e representada pela matriz

[0 1 00 0 2

].

4. Seja T : Kn → Kn definida por T (x) = Ax, com A matriz n × n. Entao, como se veanalisando a demonstracao do teorema 8.7, a matriz que representa T em relacao as basescanonicas de Kn e Km e precisamente A.

Observacao. Se V = W , e habitual representar uma transformacao linear de V em Vusando a mesma base em V tanto como espaco de partida como espaco de chegada.

Vamos agora ver propriedades da representacao matricial de transformacoes lineares.

Para a primeira destas propriedades precisamos de introduzir mais uma notacao.Seja V um espaco vectorial de dimensao n e seja (v1, . . . , vn) uma base de V . Sendov ∈ V , denotamos por [v](vj) a matriz-coluna das coordenadas de v relativamente a base(v1, . . . , vn). Se a base for conhecida do contexto, escrevemos simplesmente [v].

138

Page 140: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 8.11 Sejam V e W espacos vectoriais de dimensao finita sobre K. SejaT : V → W uma transformacao linear. Fixemos uma base (v1, . . . , vn) em V e umabase (w1, . . . , wm) em W . Entao, qualquer que seja v ∈ V , tem-se

[T (v)](wi) = M(T ; (vj), (wi)) · [v](vj)

ou, omitindo a referencia as bases,

[T (v)] = M(T ) · [v] .

Por outras palavras: a coluna das coordenadas de T (v) relativamente a base (w1, . . . , wm)obtem-se multiplicando a matriz de T relativamente as bases (v1, . . . , vn) e (w1, . . . , wm)pela coluna das coordenadas de v relativamente a base (v1, . . . , vn).

Demonstracao. Designemos por A = [aij] a matriz que representa a transformacaolinear T relativamente as bases (v1, . . . , vn) e (w1, . . . , wm).

Dado um vector arbitrario v ∈ V , digamos v = α1v1 + · · · + αnvn, vejamos quais saoas coordenadas da sua imagem T (v) relativamente a base (w1, . . . , wm). Tem-se

T (v) = T (α1v1 + · · ·+ αnvn) = α1T (v1) + · · ·+ αnT (vn) .

Mas, para j = 1, . . . , n, tem-se T (vj) = a1jw1 + · · ·+ amjwm, pelo que

T (v) = α1

m∑i=1

ai1wi + · · ·+ αn

m∑i=1

ainwi

=

(n∑

j=1

αja1j

)w1 + · · ·+

(n∑

j=1

αjamj

)wm

,

ou seja a coluna das coordenadas de T (v) relativamente a base (w1, . . . , wm) e precisamente

∑αja1j∑αja2j...∑

αjamj

=

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

·

α1

α2...

αn

.

Exemplo. Seja de novo T : R2[λ] → R1[λ] a transformacao linear definida porT (p(λ)) = p′(λ). Como e evidente, tem-se T (3− 5λ + 8λ2) = −5 + 16λ.

Matricialmente, isto corresponde a

[0 1 00 0 2

3−5

8

=

[ −516

].

139

Page 141: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exercıcio 8.3 Prove que, se a matriz A representa a transformacao linear T , entao tem-secar(T ) = car(A) e dimKer(T ) = nul(A).

As propriedades seguintes dizem respeito a representacao matricial das operacoes comtransformacoes lineares.

Teorema 8.12 Sejam V e W espacos vectoriais de dimensao finita em que fixamos asbases (v1, . . . , vn) e (w1, . . . , wm), respectivamente. Sejam T : V → W e L : V → Wtransformacoes lineares. Entao tem-se

M(T + L; (vj), (wi)) = M(T ; (vj), (wi)) + M(L; (vj), (wi))

ou, omitindo a referencia as bases,

M(T + L) = M(T ) + M(L) .

Demonstracao. Designemos por A = [aij] a matriz que representa T e por B = [aij]a matriz que representa L, em ambos os casos relativamente as bases (v1, . . . , vn) e(w1, . . . , wm).

Para determinar a matriz que representa T +L relativamente a essas bases, calculemos(T + L)(vj):

(T + L)(vj) = T (vj) + L(vj) =m∑

i=1

aijwi +m∑

i=1

bijwi =m∑

i=1

(aij + bij)wi .

A i-esima coordenada de (T + L)(vj) relativamente a base (w1, . . . , wm) e portantoaij + bij, o que prova o teorema.

Teorema 8.13 Sejam V e W espacos vectoriais de dimensao finita em que fixamos asbases (v1, . . . , vn) e (w1, . . . , wm), respectivamente. Seja T : V → W uma transformacaolinear e seja α um escalar qualquer. Entao tem-se

M(αT ; (vj), (wi)) = αM(T ; (vj), (wi))

ou, omitindo a referencia as bases,

M(αT ) = αM(T ) .

Demonstracao. Exercıcio.

140

Page 142: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 8.14 Sejam U , V e W espacos vectoriais de dimensao finita em que fixamosas bases (u1, . . . , up), (v1, . . . , vn) e (w1, . . . , wm), respectivamente. Sejam T : V → W eL : U → V transformacoes lineares. Entao tem-se

M(T ◦ L; (uk), (wi)) = M(T ; (vj), (wi)) ·M(L; (uk), (vj))

ou, omitindo a referencia as bases,

M(T ◦ L) = M(T )M(L) .

Demonstracao. Designemos por A = [aij] a matriz que representa T relativamente asbases (v1, . . . , vn) e (w1, . . . , wm) e por B = [bjk] a matriz que representa L relativamenteas bases (u1, . . . , up) e (v1, . . . , vn).

Para determinar a matriz que representa T ◦ L relativamente as bases (u1, . . . , up) e(w1, . . . , wm), calculemos (T ◦ L)(uk):

(T ◦ L)(uk) = T (L(uk)) = T

(n∑

j=1

bjkvj

)=

=n∑

j=1

bjkT (vj) =n∑

j=1

bjk

(m∑

i=1

aijwi

)=

=m∑

i=1

(n∑

j=1

aijbjk

)wi .

A i-esima coordenada de (T ◦ L)(uk) relativamente a base (w1, . . . , wm) e portanton∑

j=1

aijbjk, o que prova o teorema.

Ainda a respeito da representacao matricial de transformacoes lineares, ha uma questaointeressante, que e a seguinte. Suponhamos que temos em V duas bases, (v1, . . . , vn) e(v′1, . . . , v

′n), e em W outras duas bases, (w1, . . . , wm) e (w′

1, . . . , w′m). Dada uma trans-

formacao linear T : V → W , qual sera a relacao entre a matriz de T relativamente asbases (v1, . . . , vn) e (w1, . . . , wm) e a matriz de T relativamente as bases (v′1, . . . , v

′n) e

(w′1, . . . , w

′m)?

Para analisar esta questao recordemos a nocao de matriz de mudanca de base, referidano fim do capıtulo anterior. A matriz de mudanca da base (v1, . . . , vn) para a base(v′1, . . . , v

′n) relaciona as coordenadas de qualquer vector de V relativamente as duas bases.

141

Page 143: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

O teorema 8.11 permite ver isso de uma maneira muito simples. Usando esse teorema,vemos que se tem, sendo v um vector arbitrario do espaco V :

[v](vj) = M(IV ; (v′j), (vj)) · [v](v′j)

(ja que, como e evidente, IV (v) = v). A matriz de mudanca da base (v1, . . . , vn) paraa base (v′1, . . . , v

′n) e, portanto, simplesmente, a matriz que representa a transformacao

identidade em V relativamente as bases (v′1, . . . , v′n) e (v1, . . . , vn) (atencao a ordem), o

que bate certo com a definicao dada no fim do capıtulo anterior.

Do teorema 8.14 sai outro facto tambem ja conhecido. Como IV ◦ IV = IV , tem-se

M(IV ; (v′j), (vj))M(IV ; (vj), (v′j)) = M(IV ; (vj), (vj)) = In

e, portanto, a matriz de mudanca da base (v′1, . . . , v′n) para a base (v1, . . . , vn) e a inversa

da matriz de mudanca da base (v1, . . . , vn) para a base (v′1, . . . , v′n).

Voltemos entao a questao de ha pouco. Suponhamos que a transformacao linearT : V → W e representada, relativamente as bases (v1, . . . , vn) e (w1, . . . , wm), pelamatriz A, e que a mesma transformacao e representada, relativamente as bases (v′1, . . . , v

′n)

e (w′1, . . . , w

′m), pela matriz B. Vamos relacionar B com A.

Designemos por S a matriz de mudanca da base (v1, . . . , vn) para a base (v′1, . . . , v′n) e

por R a matriz de mudanca da base (w1, . . . , wm) para a base (w′1, . . . , w

′m). Observando

o seguinte diagrama

IV T IW

V → V → W → W(v′j) (vj) (wi) (w′

i)

e notando que T = IW ◦ T ◦ IV , concluımos, usando o teorema 8.14, que

B = R−1AS .

O caso particular V = W e suficientemente importante para o registarmos num teo-rema:

Teorema 8.15 Seja V um espaco vectorial de dimensao n e seja T : V → V umatransformacao linear. Sejam (v1, . . . , vn) e (v′1, . . . , v

′n) duas bases de V . Designemos por

S a matriz de mudanca da base (v1, . . . , vn) para a base (v′1, . . . , v′n). Suponhamos que T e

representada, em relacao a base (v1, . . . , vn) (tanto a partida como a chegada) pela matrizA. Entao T e representada, em relacao a base (v′1, . . . , v

′n), pela matriz S−1AS.

142

Page 144: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

8.3 Equacoes com transformacoes lineares

Sendo V e W espacos vectoriais, T : V −→ W uma transformacao linear e b um vectorde W , podemos olhar para a igualdade T (x) = b como uma equacao, em que se procuramos vectores x cuja imagem por T e b.

Tal como na situacao particular dos sistemas de equacoes lineares, o conjunto completodas solucoes de uma equacao T (x) = b pode obter-se a partir de uma solucao particulare do nucleo Ker(T ), que e o conjunto das solucoes da equacao T (x) = 0:

Teorema 8.16 Se x′ for uma solucao da equacao T (x) = b , entao o conjunto completodas solucoes e {x′ + u : u ∈ Ker(T )}.

Demonstracao. E evidente que qualquer elemento da forma x′ + u, com u ∈ Ker(T ), esolucao da equacao T (x) = b , porque T (x′ + u) = T (x′) + T (u) = b + 0 = b.

Reciprocamente, seja x′′ uma solucao qualquer da equacao T (x) = b . Ponhamosu = x′′ − x′. Entao T (u) = T (x′′ − x′) = T (x′′) − T (x′) = b − b = 0, o que significa queu ∈ Ker(T ). E, claro, x′′ = x′ + u.

Exemplo. Consideremos a equacao diferencial linear com coeficientes constantes

f (k)(t) + a1f(k−1)(t) + · · ·+ ak−1f

′(t) + akf(t) = g(t) .

Como a aplicacao T : Ck[a, b] −→ C[a, b] definida por

T (f) = f (k) + a1f(k−1) + · · ·+ ak−1f

′ + akf

e uma transformacao linear, a solucao geral da equacao dada pode, de acordo com oTeorema, obter-se somando uma solucao particular dela com a solucao geral da equacaohomogenea correspondente

f (k)(t) + a1f(k−1)(t) + · · ·+ ak−1f

′(t) + akf(t) = 0 .

Essas solucoes estudam-se em disciplinas de Analise ou de Equacoes Diferenciais.

143

Page 145: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

9 Valores proprios e vectores proprios

9.1 Valores proprios e vectores proprios de transformacoeslineares

Considere-se a transformacao linear

T : R2 −→ R2

(x, y) 7−→ (3x + y, x + 3y)

A expressao de T nao nos da muita informacao sobre um possıvel “significado geometrico”de T . Consideremos, no entanto, as imagens dos vectores v1 = (1,−1) e v2 = (1, 1).Tem-se T (v1) = 2v1 e T (v2) = 4v2. E agora muito simples de descrever o efeito de T emqualquer vector u desde que se conhecam as suas coordenadas na base {v1, v2}:

se u = αv1 + βv2 tem-se T (u) = 2αv1 + 4βv2.

Fazendo uma “mudanca de eixos” da base canonica para a base {v1, v2}, o “significadogeometrico” de T e agora visıvel.

De uma forma geral, dada uma transformacao linear de um espaco nele proprio, teminteresse descobrir vectores que sao transformados em multiplos deles mesmos.

Definicao 9.1 Seja V um espaco vectorial sobre um corpo K e seja T : V → Vuma transformacao linear. Um escalar λ ∈ K diz-se um valor proprio de T seexistir um vector nao nulo v ∈ V satisfazendo T (v) = λv. Nestas condicoes v diz-seum vector proprio de T associado a λ.

Assim, no exemplo acima, os numeros 2 e 4 sao valores proprios da transformacaolinear T : R2 −→ R2 indicada. O vector (1,−1) e um vector proprio de T associado aovalor proprio 2 e o vector (1, 1) e um vector proprio de T associado ao valor proprio 4.

Exemplo. Seja V o espaco vectorial real das funcoes reais infinitamente diferenciaveisem R. Seja T a transformacao linear de V em V definida por T (f) = f ′. Entao, qualquerque seja λ ∈ R, tem-se T (eλt) = λeλt. Isto significa que todos os numeros reais λ saovalores proprios desta transformacao, com funcoes exponenciais como vectores proprios.

Exercıcio 9.1 Seja T:C[a, b] → C[a, b] a transformacao linear definida por T (f(t)) = tf(t).Mostre que T nao tem nenhum valor proprio.

144

Page 146: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

As duas situacoes anteriores, envolvendo espacos de funcoes, sugerem que o problemada determinacao dos valores proprios e vectores proprios de transformacoes lineares e emgeral complicado.

No caso especial de V ter dimensao finita, os valores proprios e os vectores propriosde uma transformacao linear T : V →V podem determinar-se usando uma representacaomatricial de T . Porque? Seja {v1, . . . , vn} uma base de V e A a matriz que representa Trelativamente a esta base. Entao, pelo Teorema 8.11, a igualdade T (v) = λv e equivalentea igualdade Ax = λx, onde x e a coluna das coordenadas de v relativamente a baseindicada. Isto conduz-nos a definir e estudar valores proprios e vectores proprios dematrizes (quadradas).

9.2 Valores proprios e vectores proprios de matrizes

Definicao 9.2 Seja A uma matriz n × n sobre um corpo K. Um escalar λ ∈ Kdiz-se um valor proprio de A se existir um vector nao nulo x ∈ Kn satisfazendoAx = λx. Nestas condicoes x diz-se um vector proprio de A associado a λ.

Exemplos. 1. Os numeros 3 e 2 sao valores proprios da matriz A =

[4 −21 1

].

O vector

[21

]e um vector proprio de A associado ao valor proprio 3 e o vector

[11

]e

um vector proprio de A associado ao valor proprio 2.

2. Se θ nao for multiplo de π, a matriz A =

[cos θ −sen θsen θ cos θ

]nao tem vectores proprios

em R2, porque o efeito geometrico de A quando multiplicada por um vector e roda-lo deum angulo θ em torno da origem, e portanto nao pode transformar nenhum vector de R2

num multiplo de si proprio.

Dada uma matriz A ∈ Mn×n(K), como determinar os valores proprios de A? Pordefinicao, λ e valor proprio de A se existir x ∈ Kn nao nulo tal que Ax = λx, ou seja,(A − λI)x = 0. Estamos entao interessados nos valores de λ para os quais o sistemahomogeneo com matriz A − λI tem solucoes nao nulas. Tal acontece se e so se a matrizA− λI for singular ou, equivalentemente, se esta matriz tiver determinante nulo.

145

Page 147: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Concluımos assim que os valores proprios de A sao as solucoes da equacao

det(A− λI) = 0 ,

chamada a equacao caracterıstica de A. No desenvolvimento deste determinante,surge-nos um monomio de grau n em λ (proveniente do produto dos elementos da di-agonal principal) e todas os outros monomios sao de grau inferior a n. Tem-se entao quedet(A− λI) e um polinomio de grau n em λ e com coeficientes em K, a que chamamos opolinomio caracterıstico de A.

Sendo de grau n, o polinomio caracterıstico de uma matriz n × n tem no maximon raızes em K. Logo A n × n tem no maximo n valores proprios, nao necessariamentedistintos.

E importante observar que o calculo, na pratica, dos valores proprios de uma ma-triz so em casos especiais (por exemplo, quando n e pequeno) se faz usando o polinomiocaracterıstico, porque a sua determinacao e trabalhosa, exigindo o calculo de um determi-nante de ordem n. Mesmo conhecendo-se o polinomio caracterıstico, o calculo dos valoresproprios exige a determinacao das raızes desse polinomio.

Na pratica, o calculo dos valores proprios de uma matriz e feito com o uso de algoritmoscomputacionais, que sao estudados noutras disciplinas.

No caso das matrizes com elementos complexos (em particular racionais ou reais),podemos ser mais precisos quanto ao numero de valores proprios de uma matriz. OTeorema Fundamental da Algebra afirma que qualquer polinomio de qualquer grau comcoeficientes complexos tem pelo menos uma raız em C.10 Daqui tira-se uma importanteconclusao: um polinomio com coeficientes complexos pode sempre escrever-se como pro-duto de factores de grau 1:

anλn + an−1λn−1 + · · ·+ a1λ + a0 = an(λ− λ1)(λ− λ2) . . . (λ− λn)

(onde λ1, λ2, . . . , λn sao as raızes do polinomio). Portanto, uma matriz complexa n × ntem exactamente n valores proprios em C, podendo evidentemente haver repeticoes entreeles. A multiplicidade de um valor proprio como raız do polinomio caracterıstico costumachamar-se multiplicidade algebrica desse valor proprio.

Como proceder para determinar os vectores proprios de uma matriz A? Suponhamosque determinamos ja as raızes do polinomio caracterıstico, isto e, os valores proprios deA. Entao, para cada valor proprio λj, os vectores proprios que lhe estao associados saoas solucoes nao nulas do sistema homogeneo (A− λjI)x = 0.

Os vectores proprios de A ∈ Mn×n(K) associados a um valor proprio λj constituemportanto (juntando-lhes a origem) um espaco vectorial, que e precisamente N(A − λjI),o espaco nulo da matriz A − λjI, subespaco de Kn. A esse espaco chama-se subespacoproprio de A associado ao valor proprio λj.

10 O teorema apenas afirma a existencia de solucoes. O calculo efectivo delas para cada equacao e umproblema diferente. A demonstracao do teorema esta fora do ambito desta disciplina.

146

Page 148: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Exemplos. 1. O polinomio caracterıstico da matriz A =

[4 −21 1

]e λ2 − 5λ + 6 =

(λ − 3)(λ − 2). O subespaco proprio de A associado ao valor proprio 3 e L([

21

]).

O subespaco proprio de A associado ao valor proprio 2 e L([

11

]).

2. Consideremos a matriz

A =

[cos θ −sen θsen θ cos θ

].

O seu polinomio caracterıstico e

det(A− λI) = det

[cos θ − λ −sen θ

sen θ cos θ − λ

]= λ2 − 2 cos θ + 1

cujas raızes sao os numeros complexos cos θ ± i sen θ. Confirma-se assim que, tal comoobservado ha pouco (a proposito do efeito geometrico de A nos vectores de R2), se θ naofor multiplo de π a matriz A nao tem valores proprios reais, e portanto nao tem vectoresproprios em R2. Os seus vectores proprios vao ser as solucoes de sistemas homogeneoscom matrizes 2× 2 de elementos complexos e portanto vao pertencer a C2.

Exercıcio 9.2 1. Mostre que uma matriz e singular se e so se 0 for valor proprio dela.

2. Prove que matrizes semelhantes tem os mesmos valores proprios.

3. Quais sao os valores proprios de uma matriz triangular?

4. Comparando os respectivos polinomios caracterısticos, prove que A e AT tem os mes-mos valores proprios.

Exercıcio 9.3 Seja A =[

B 0C D

], uma matriz n×n, onde B e D sao quadradas. Mostre

que os valores proprios de A sao os de B reunidos com os de D.

Exercıcio 9.4 De exemplos que mostrem que os valores proprios de uma matriz podemmudar quando:

1. Se subtrai de uma linha um multiplo de outra linha;

2. Se trocam entre si duas linhas da matriz.

Observacao. Note-se que do exercıcio 9.4 podemos concluir que para calcular os valoresproprios de uma matriz nao se pode aplicar o metodo de eliminacao de Gauss a matriz.

147

Page 149: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

9.3 Matrizes diagonalizaveis

Sendo A ∈ Mn×n(K), suponhamos que A tem n valores proprios λ1, λ2, . . . , λn em Ke que existe uma base {v1, . . . , vn} de Kn constituıda por vectores proprios de A, isto e,tem-se Av1 = λ1v1, Av2 = λ2v2, . . . , Avn = λnvn.

Entao podemos descobrir uma “estrutura escondida” na matriz A: sendo V a ma-triz cujas colunas sao v1, v2, . . . , vn e D a matriz diagonal cujos elementos diagonais saoλ1, λ2, . . . , λn, tem-se AV = V D, ou seja

A = V DV −1 .

(V e invertıvel porque as suas colunas sao linearmente independentes.)

Definicao 9.3 Uma matriz A ∈ Mn×n(K) diz-se diagonalizavel se existir umamatriz invertıvel V ∈ Mn×n(K) e uma matriz diagonal D ∈ Mn×n(K) tais queA = V DV −1. Quando tal acontece, V diz-se uma matriz diagonalizante de A.

De acordo com o que foi visto, podemos enunciar o resultado seguinte:

Teorema 9.1 Uma matriz A ∈ Mn×n(K) e diagonalizavel se se so se tiver n valoresproprios em K e n vectores proprios linearmente independentes em Kn.

Exemplos. 1. A matriz real A =

[4 −21 1

]e diagonalizavel. De facto, tem-se

[4 −21 1

]=

[2 11 1

] [3 00 2

] [2 11 1

]−1

.

(Exercıcio: Encontre outras matrizes diagonalizantes para A.)

2. A matriz real A =

[3 10 3

]nao e diagonalizavel, porque o subespaco proprio associado

ao valor proprio (duplo) 3 tem dimensao 1 (verifique).

3. Se θ nao for multiplo de π, a matriz A =

[cos θ −sen θsen θ cos θ

]nao e diagonalizavel sobre

o corpo dos reais porque, como vimos, nao tem valores proprios reais. Sobre C a matrize diagonalizavel (verifique).

148

Page 150: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Como devemos proceder para saber se uma matriz A e ou nao diagonalizavel e, casoo seja, calcular uma matriz diagonalizante?

Teorema 9.2 Sejam λ1, . . . , λr valores proprios de A distintos dois a dois e, para cadaj = 1, . . . , r, seja Xj um conjunto de vectores proprios de A linearmente independentesassociados a λj. Entao X1∪. . .∪Xr e um conjunto de vectores linearmente independentes.

Demonstracao. Apresenta-se apenas a demonstracao para r = 2. O caso geral podeprovar-se recorrendo a inducao sobre r, adaptando a tecnica usada neste caso particular.Sejam entao λ1, λ2 dois valores proprios de A distintos e {v1, . . . , vm}, {u1, . . . , us} doisconjuntos de vectores proprios de A linearmente independentes associados a λ1 e λ2,respectivamente. Para provarmos que v1, . . . , vm, u1, . . . , us sao linearmente indepen-dentes, multiplique-se por A e por λ2 a seguinte equacao vectorial:

α1v1 + . . . + αmvm + β1u1 + . . . + βsus = 0.

Como Avi = λ1vi e Auj = λ2uj, da multiplicacao por A obtem-se

α1λ1v1 + . . . + αmλ1vm + β1λ2u1 + . . . + βsλ2us = 0 .

A multiplicacao por λ2 da

α1λ2v1 + . . . + αmλ2vm + β1λ2u1 + . . . + βsλ2us = 0 .

Subtraindo a segunda destas equacoes a primeira, vem

α1(λ1 − λ2)v1 + . . . + αm(λ1 − λ2)vm = 0,

o que implica α1 = 0, . . . , αm = 0, uma vez que v1, . . . , vm sao linearmente independentese λ1 6= λ2. Mas agora a equacao inicial reduz-se a β1u1 + . . .+βsus = 0, o que , pelo factode u1, . . . , us serem linearmente independentes, implica β1 = 0, . . . , βs = 0. Conclui-seassim que v1, . . . , vm, u1, . . . , us sao linearmente independentes.

Os dois corolarios seguintes sao consequencia imediata deste teorema.

Corolario 9.1 Vectores proprios de A associados a valores proprios distintos sao linear-mente independentes, isto e, se λ1, . . . , λr sao valores proprios de A distintos dois a doise v1, . . . , vr sao vectores proprios de A associados a λ1, . . . , λr, respectivamente, entaov1, . . . , vr sao linearmente independentes.

Corolario 9.2 Seja A n × n. Se A tiver n valores proprios distintos entao e diago-nalizavel.

149

Page 151: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Corolario 9.3 Seja A ∈ Mn×n(K) e suponhamos que λ1, . . . , λr sao todos os seus valoresproprios, considerados sem repeticoes. Entao A e diagonalizavel se e so se

dimN(A− λ1I) + · · ·+ dimN(A− λrI) = n .

Demonstracao. Para i = 1, . . . , r, seja Bi uma base de N(A − λiI). Pelo teoremaanterior, os vectores do conjunto B1 ∪ . . . ∪ Br sao linearmente independentes.Se dimN(A − λ1I) + · · · + dimN(A − λrI) = n, entao B1 ∪ · · · ∪ Br tem n elementosque sao vectores proprios de A linearmente independentes. Logo A e diagonalizavel.

Reciprocamente, suponhamos que A e diagonalizavel. Seja

s = dimN(A− λ1I) + · · ·+ dimN(A− λrI).

Sejam v1, · · · , vn vectores proprios de A linearmente independentes. Para i = 1, . . . , r,suponhamos que mi destes vectores sao associados a λi. Entao tem-se dimN(A−λiI) ≥ mi

donde s ≥ m1 + . . . + mr = n. Mas nos sabemos que B1 ∪ . . . ∪ Br e um conjunto devectores linearmente independentes em Kn. Logo s ≤ n. Destas duas desigualdadesobtem-se s = n, como pretendido.

Observacao. Se A n × n for diagonalizavel e λ1, . . . , λr forem todos os seus valoresproprios considerados sem repeticoes, um processo de obter uma base de Kn constituıdapor vectores proprios de A (isto e, as colunas de uma matriz diagonalizante de A), consisteem reunir bases dos subespacos N(A− λ1I), . . . , N(A− λrI).

Exercıcio 9.5 Prove que a dimensao do subespaco proprio associado a cada valor propriode uma matriz nunca excede a multiplicidade desse valor proprio como raız do polinomiocaracterıstico (a essa dimensao costuma chamar-se multiplicidade geometrica do valorproprio).(Sugestao: Seja A n×n a matriz. Designe por λj um valor proprio de A e por k a dimensaodo subespaco proprio associado a λj . Considere entao k vectores proprios de A linearmenteindependentes associados a λj . Junte-lhes n− k vectores de modo a obter n vectores n× 1linearmente independentes. Designe por S a matriz cujas colunas sao esses n vectores.Agora estude a matriz S−1AS.)

Exercıcio 9.6 Sendo A uma matriz n × n, prove que o determinante de A e igual aoproduto dos valores proprios de A.(Sugestao: O polinomio caracterıstico de A e igual a det(A−λI) e, por outro lado, e tambemigual a (−1)n(λ− λ1) · · · (λ− λn), onde λ1, . . . , λn sao os valores proprios de A. Calcule ostermos independentes destes dois polinomios.)

150

Page 152: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Um exemplo de aplicacao da diagonalizabilidade

Uma equacao diferencial e uma igualdade (que pode ser de varios tipos) em queaparece uma funcao desconhecida e as suas derivadas, procurando-se determinar as funcoesque satisfazem essa igualdade. Talvez a equacao diferencial mais simples seja

f ′(t) = a.f(t) ,

onde a e um numero. Trivialmente, qualquer funcao da forma Keat e uma solucao destaequacao diferencial. E simples ver que nao ha outras: se g(t) for uma solucao qualquer,tem-se

[g(t)e−at

]′= g′(t)e−at + g(t)(−ae−at) = a.g(t)e−at − a.g(t)e−at = 0

e portanto g(t)e−at e uma constante K, ou seja tem-se g(t) = Keat.

Suponhamos agora que temos, nao uma, mas duas funcoes desconhecidas, f1(t) ef2(t), satisfazendo as duas igualdades seguintes:

f ′1(t) = a11f1(t) + a12f2(t)

f ′2(t) = a21f1(t) + a22f2(t)

onde a11, a12, a21, a22 sao numeros. A isto chama-se um sistema linear de equacoesdiferenciais, que, introduzindo as notacoes

x(t) =

[f1(t)f2(t)

], A =

[a11 a12

a21 a22

],

se pode escrever abreviadamente assim:

x′(t) = Ax(t) .

Dado um tal sistema, nao e evidente como se pode tentar resolve-lo, isto e, encontrar asfuncoes f1(t) e f2(t). Mas se a matriz A for diagonalizavel as coisas ficam muito simples.Porque? Escreva-se A = V DV −1 e ponha-se

y(t) = V −1x(t) .

Entao ve-se facilmente que o sistema dado e equivalente a

y′(t) = Dy(t)

o que, escrevendo

y(t) =

[g1(t)g2(t)

], D =

[d1 00 d2

],

151

Page 153: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

e o mesmo que ter as duas equacoes separadas

g′1(t) = d1.g1(t) e g′2(t) = d2.g2(t) .

Mas estas equacoes ja nos sabemos resolver, tendo-se

g1(t) = K1ed1t e g2(t) = K2e

d2t

para certas constantes K1 e K2. Entao tem-se

y(t) =

[K1e

d1t

K2ed2t

]

e comox(t) = V y(t)

obtemos as funcoes f1(t) e f2(t) pretendidas.

Com um raciocınio exactamente analogo conseguimos resolver qualquer sistema linearde equacoes diferenciais da forma

x′(t) = Ax(t)

com A n× n desde que a matriz A seja diagonalizavel.

Exercıcio 9.7 Mostre que a solucao geral do sistema linear de equacoes diferenciais

f ′1(t) = 5f1(t) + 3f2(t)

f ′2(t) = −6f1(t)− 4f2(t)

e dada por

f1(t) = K1e2t + K2e

−t

f2(t) = −K1e2t − 2K2e

−t

onde K1 e K2 representam constantes.

Se A nao for diagonalizavel, o estudo do sistema linear de equacoes diferenciais

x′(t) = Ax(t)

pode ainda basear-se numa factorizacao do tipo A = V JV −1, interessando encontrar Jtao simples quanto possıvel. Esse estudo esta fora do ambito deste curso.

152

Page 154: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

*

Voltemos por um momento as transformacoes lineares.

Exemplo. Seja V o subespaco de C[0, 2π] gerado pelas funcoes cos e sen. Seja T atransformacao de V em V definida por T (f) = f ′. Quais serao os valores proprios de T?

Como T (cos) = −sen e T (sen) = cos, a matriz que representa T relativamente a base{cos, sen} e

A =

[0 1−1 0

].

O polinomio caracterıstico desta matriz e λ2 + 1 e portanto ela nao tem valores propriosreais, o mesmo acontecendo entao a T . Em C, A tem os valores proprios i e −i.Um vector proprio de A associado ao valor proprio i e por exemplo a coluna [1 i]T ,a que corresponde em V a funcao cos t + i sen t. De facto — usando para funcoes com-plexas de uma variavel real as mesmas regras de derivacao conhecidas para funcoes reais —tem-se (cos t + i sen t)′ = i(cos t + i sen t), o que significa precisamente que i e um valorproprio de T , com a funcao indicada como vector proprio.11

Suponhamos de novo que V tem dimensao finita n, e que T : V → V e uma trans-formacao linear. Se T tiver n vectores proprios linearmente independentes, digamosv1, . . . , vn, esses vectores, por serem n, constituem uma base de V . Entao e possıvelapresentar T de uma maneira muito simples:

Sejam λ1, . . . , λn os valores proprios de T a que estao associados os vectores propriosv1, . . . , vn, respectivamente. Seja v um vector qualquer de V . Entao v escreve-se comocombinacao linear de v1, . . . , vn, digamos v = α1v1 + · · ·+ αnvn. E tem-se

T (v) = T (α1v1 + · · ·+ αnvn) = α1T (v1) + · · ·+ αnT (vn)

= λ1α1v1 + · · ·+ λnαnvn

ou seja, relativamente a base {v1, . . . , vn}, as coordenadas de T (v) obtem-se das de vsimplesmente multiplicando-as pelos valores proprios de T .

E evidente que, nesta situacao, a transformacao T e representada, relativamente abase {v1, . . . , vn}, pela matriz diagonal

λ1 0 . . . 00 λ2 . . . 0...

.... . .

...0 0 . . . λn

.

11 Tem-se a igualdade cos t + i sen t = eit, conhecida por formula de Euler. Esta igualdade pode serusada para definir a funcao exponencial de variavel complexa. Em alternativa, se essa funcao for definidade outra forma — por exemplo, usando series — a formula de Euler e um teorema. Usando a formula deEuler, a igualdade acima indicada resume-se ao facto de que (eit)′ = ieit.

153

Page 155: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Com raciocınios analogos aos utilizados para matrizes, obtem-se os seguintes resulta-dos:

Teorema 9.3 Seja T : V −→ V uma transformacao linear. Sejam λ1, . . . , λr valoresproprios de T distintos dois a dois e, para cada j = 1, . . . , r, seja Xj um conjunto devectores proprios de T linearmente independentes associados a λj. Entao X1 ∪ . . .∪Xr eum conjunto de vectores linearmente independentes.

Corolario 9.4 Seja V um espaco de dimensao n (e designemos por I a transformacaoidentidade de V em V ). Seja T : V −→ V uma transformacao linear e suponhamos queλ1, . . . , λr sao todos os seus valores proprios, considerados sem repeticoes. Entao existeuma base de V relativamente a qual T e representada por uma matriz diagonal se e so se

dimN(T − λ1I) + · · ·+ dimN(T − λrI) = n .

9.4 O caso das matrizes simetricas reais

Teorema 9.4 Se A ∈ Mn×n(R) e simetrica, A tem n valores proprios reais.

Demonstracao. Seja λ um valor proprio de A, e v um vector proprio associado a λ,digamos v = [α1 . . . αn]T . Entao tem-se Av = λv. Multiplicando ambos os membrosdesta igualdade a esquerda por v∗ obtem-se

v∗Av = λv∗v

donde

λ =v∗Av

v∗v.

Ou seja λ e igual ao quociente entre dois numeros reais: o denominador e simplesmente∑ |αj|2; quanto ao numerador, tem-se

v∗Av = (v∗Av)∗ = v∗A∗v = v∗AT v = v∗Av .

O resultado principal desta seccao afirma que uma matriz simetrica real e semprediagonalizavel, e que e possıvel encontrar para ela uma matriz diagonalizante de um tipoespecial.

154

Page 156: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 9.5 Se A ∈ Mn×n(R) e simetrica, e diagonalizavel com uma matriz diagonali-zante ortogonal, isto e, existe Q ortogonal tal que QT AQ e diagonal.

Observacao. Recorde-se que Q ser ortogonal significa que a sua inversa e a sua trans-posta, isto e, QT Q = I, o que e equivalente a dizer que as colunas de Q constituem umabase ortonormada de Rn (verifique).

Demonstracao do teorema. Procedemos por inducao sobre n.

Para n = 1, nada ha a mostrar.

Suponhamos a afirmacao verdadeira para matrizes simetricas reais (n− 1)× (n− 1) eseja A n×n. Seja v1 um vector proprio de A, com norma 1, associado a um valor proprioλ1. Acrescentemos a v1 vectores v2, . . . , vn de modo a obter uma base ortonormada de Rn

e seja W a matriz n× n ortogonal cujas colunas sao v1, v2, . . . , vn.

Tem-seAW = [Av1 Av2 · · · Avn] = [λ1v1 Av2 · · · Avn]

vindo

W T AW =

vT1

vT2...

vTn

[λ1v1 Av2 · · · Avn] =

λ1 0 . . . 00... A1

0

onde A1 e (n− 1)× (n− 1) e simetrica (verifique). Pela hipotese de inducao, existe umamatriz (n− 1)× (n− 1) Q1 ortogonal tal que QT

1 A1Q1 e diagonal. Pomos agora

Q = W

[1 00 Q1

].

Entao Q e ortogonal, por ser o produto de duas matrizes ortogonais, e tem-se que oproduto QT AQ e igual a

[1 00 QT

1

]W T AW

[1 00 Q1

]=

[1 00 QT

1

] [λ1 00 A1

] [1 00 Q1

]=

[λ1 00 QT

1 A1Q1

]

que e uma matriz diagonal.

Dada uma matriz simetrica real A, um processo de obter uma base ortonormada deRn constituıda por vectores proprios de A (isto e, uma matriz ortogonal diagonalizantede A) baseia-se no resultado seguinte.

155

Page 157: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 9.6 Vectores proprios de uma matriz simetrica real A associados a valoresproprios distintos sao dois a dois ortogonais, isto e, se λ1, . . . , λr sao valores proprios deA distintos dois a dois e v1, . . . , vr sao vectores proprios de A associados a λ1, . . . , λr,respectivamente, entao v1, . . . , vr sao dois a dois ortogonais.

Demonstracao. Tomemos i 6= j. Tem-se Avi = λivi e Avj = λjvj. Multiplicando ambosos membros da primeira destas igualdades a esquerda por vT

j obtemos vTj Avi = λiv

Tj vi .

Mas, como A e simetrica, tem-se

vTj Avi = vT

j AT vi = (Avj)T vi = (λjvj)

T vi = λjvTj vi .

Logo, tem-se λivTj vi = λjv

Tj vi, ou seja λi〈vi, vj〉 = λj〈vi, vj〉 . Como λi 6= λj, tem que ser

〈vi, vj〉 = 0.

Entao se A n×n for simetrica real e λ1, . . . , λr forem todos os seus valores proprios con-siderados sem repeticoes, um processo de obter uma base ortonormada de Rn constituıdapor vectores proprios de A (isto e, as colunas de uma matriz ortogonal diagonalizante deA), consiste em construir bases ortonormadas dos subespacos N(A−λ1I), . . . , N(A−λrI)e depois reunir todas essas bases.

9.5 Curvas e superfıcies do 2o grau

Nesta seccao vamos aplicar o estudo feito sobre diagonalizacao de matrizes simetricasreais a identificacao de curvas no plano e superfıcies no espaco definidas por equacoes do2o grau. Comecemos com as equacoes das conicas.

Definicao 9.4 Uma conica e o lugar geometrico dos pontos do plano cujas coor-denadas cartesianas satisfazem uma equacao do segundo grau em duas variaveis

a11x2 + a22y

2 + 2a12xy + b1x + b2y + c = 0.

Esta equacao da conica pode escrever-se na forma matricial

XT AX + BX + c = 0,

sendo

A =

[a11 a12

a12 a22

], B = [b1 b2] e X =

[xy

].

156

Page 158: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Escolhendo um referencial ortonormado adequado e possıvel dar a equacao da conicauma forma mais simples — a equacao reduzida. E este o caso das equacoes seguintes:

x2

a2+

y2

b2= 1,

x2

a2− y2

b2= 1 e y2 = 2px,

que representam, respectivamente, uma elipse, uma hiperbole e uma parabola. (Exercıcio:Recorde o significado geometrico dos numeros a, b e p.)

Dada a equacao geral de uma conica, XT AX +BX + c = 0, como poderemos, atravesde mudancas de referenciais ortonormados, obter uma sua equacao reduzida? A estrategiasera suprimir, em primeiro lugar, o termo 2a12xy, e seguidamente fazer desaparecer tantostermos do 1o grau quanto possıvel.

Para a primeira destas tarefas, note-se que, como a matriz A e simetrica, existeQ ∈ M2×2(R) ortogonal, tal que QT AQ = D, com D diagonal. As colunas de Q saovectores proprios ortonormados de A e os elementos diagonais λ1, λ2 ∈ R de D sao osvalores proprios de A.

Tem-se entao A = QDQT e a equacao da conica vem

XT QDQT X + BX + c = 0.

Faca-se X ′ = QT X. Entao X ′T = XT Q (o que e o mesmo que X = QX ′) e, substituindona equacao, obtemos

X ′T DX ′ + BQX ′ + C = 0

ou seja, pondo X ′ =[

x′

y′

]e BQ = [d1 d2],

λ1x′2 + λ2y

′2 + d1x′ + d2y

′ + c = 0.

Ja nao tendo nenhum termo em xy nesta equacao passemos agora a segunda fase donosso plano.

1. Suponhamos λ1 6= 0, λ2 6= 0. “Completando quadrados”, chegamos a uma equacaodo tipo λ1(x

′+a′)2 +λ2(y′+b′)2 +c′ = 0. Fazendo agora as substituicoes x′′ = x′+a′

e y′′ = y′ + b′, obtemos a equacao

λ1x′′2 + λ2y

′′2 + c′ = 0

que e ja uma equacao reduzida.

2. Suponhamos agora que λ1 = 0 (o caso λ2 = 0 e semelhante). A equacao

X ′T DX ′ + BQX ′ + C = 0

fica λ2y′2 + d1x

′ + d2y′ + c = 0. “Completando quadrados” com os termos em y′,

vem λ2(y′ + b′)2 + d1x

′ + c′ = 0. Fazendo a substituicao y′′ = y′ + b′, obtemos

157

Page 159: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

λ2y′′2 + d1x

′ + c′ = 0. Se d1 = 0, temos ja uma equacao conhecida. Se d1 6= 0,fazemos x′′ = x′ + c′

d1, para eliminarmos o termo independente, e ficamos com a

equacao, tambem conhecida,

λ2y′′2 + d1x

′′ = 0.

Acabamos de ver que por mudancas de coordenadas do tipo X ′ = QT X eX ′′ = X ′ + K, com K ∈ R2, chegamos da equacao geral de uma conica a uma equacaoreduzida.

Que tipo de novos eixos obtemos? Note-se que a mudanca X ′′ = X ′ + K correspondea uma translacao. Vejamos agora quais sao os novos eixos obtidos atraves da mudancade coordenadas dada por X ′ = QT X. O primeiro desses novos eixos e gerado pelo vectorcujas novas coordenadas sao 1 e 0, isto e, pelo vector X que satisfaz e1 = QT X. Essevector e Qe1, isto e, trata-se da primeira coluna de Q. Analogamente, o segundo dosnovos eixos e gerado pela segunda coluna de Q. Ou seja: a mudanca X ′ = QT X faz-nosmudar para um referencial ortonormado cujos eixos sao gerados por vectores propriosortonormados de A.

Apresentamos seguidamente as possıveis equacoes reduzidas das conicas. Nao in-dicamos as equacoes que conduzem a conjuntos vazios (por exemplo x2

a2 + y2

b2= −1) , nem

as equacoes que podem ser obtidas das indicadas trocando os papeis de x e de y.

x2

a2+

y2

b2= 1 Elipse

x2

a2− y2

b2= 1 Hiperbole

x2 = 2py Parabola

x2

a2+

y2

b2= 0 Um ponto

x2

a2− y2

b2= 0 Duas rectas concorrentes

x2 = c2 Duas rectas paralelas

x2 = 0 Duas rectas coincidentes

*

158

Page 160: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Passemos agora ao estudo das superfıcies no espaco definidas por equacoes do 2o grau.

Definicao 9.5 Uma quadrica e o lugar geometrico dos pontos do espaco cujascoordenadas cartesianas satisfazem uma equacao do segundo grau em tres variaveis

a11x2 + a22y

2 + a33z2 + 2a12xy + 2a13xz + 2a23yz + b1x + b2y + b3z + c = 0.

Esta equacao tem a expressao matricial

XT AX + BX + c = 0,

sendo

A =

a11 a12 a13

a12 a22 a23

a13 a23 a33

, B = [b1 b2 b3] e X =

xyz

.

Tal como no caso das conicas, podemos da equacao geral chegar a uma equacao re-duzida da quadrica.

Para tal suprimimos primeiro os termos mistos da “parte quadratica”, isto e, osmonomios de grau 2 envolvendo duas variaveis. Seguidamente anulamos todos os ter-mos de grau 1 que nos for possıvel. Estas operacoes sao feitas recorrendo a mudancas devariaveis dos tipos

1. X ′ = QT X, onde Q e uma matriz ortogonal que diagonaliza A.

2. X ′′ = X ′ + K, com K ∈ R3.

No primeiro destes casos fazemos uma mudanca de eixos, sendo os novos eixos geradospor vectores proprios de A ortonormados — as colunas de Q. No segundo caso efectuamosuma translacao do sistema de eixos.

Apresentamos seguidamente uma lista das equacoes reduzidas das principais quadricas.Tal como no caso das conicas, a classificacao das quadricas e baseada nas varias possibi-lidades para os sinais dos valores proprios da matriz A.

159

Page 161: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

x2

a2+

y2

b2+

z2

c2= 1 Elipsoide

x2

a2+

y2

b2− z2

c2= 1 Hiperboloide de uma folha

x2

a2− y2

b2− z2

c2= 1 Hiperboloide de duas folhas

x2

a2+

y2

b2− z2

c2= 0 Superfıcie conica

x2

a2+

y2

b2= 2pz (p 6= 0) Paraboloide elıptico

x2

a2− y2

b2= 2pz (p 6= 0) Paraboloide hiperbolico

Nas paginas seguintes encontram-se ilustracoes destas superfıcies, reproduzidas dolivro Introducao a Algebra Linear e Geometria Analıtica, de F. R. Dias Agudo (Lisboa,1972).

Observacoes. 1. No espaco, uma equacao reduzida em que uma das variaveis naoapareca representa uma superfıcie de tipo cilındrico. Por exemplo, uma equacao do tipo

x2

a2+

y2

b2= 1

representa uma superfıcie cilındrica, com geratrizes paralelas ao eixo z, e cuja interseccaocom o plano z = 0 e a elipse com aquela equacao. Ja uma equacao do tipo

x2

a2− y2

b2= 1

representa uma superfıcie cilındrica hiperbolica. E analogamente para outras equacoesreduzidas do tipo ϕ(x, y) = 0.

2. Uma superfıcie definida por uma equacao do segundo grau que nao tenha parte linear(isto e, de grau 1) diz-se centrada, ja que a origem e um centro de simetria (um ponto(x, y, z) pertence a superfıcie se e so se (−x,−y,−z) tambem lhe pertence).

3. Se na equacao reduzida do elipsoide dois dos numeros a, b, c forem iguais, o elipsoidediz-se de revolucao, pois pode ser obtido pela rotacao de uma elipse em torno de umeixo (sendo circulares as seccoes da superfıcie por planos perpendiculares a esse eixo).Tambem os dois tipos de hiperboloide, a superfıcie conica e o paraboloide elıptico podemser de revolucao.

160

Page 162: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Elipsoide

x2

a2+

y2

b2+

z2

c2= 1

161

Page 163: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Hiperboloide de uma folha

x2

a2+

y2

b2− z2

c2= 1

162

Page 164: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Hiperboloide de duas folhas

x2

a2− y2

b2− z2

c2= 1

163

Page 165: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Superfıcie conica

x2

a2+

y2

b2− z2

c2= 0

164

Page 166: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Paraboloide elıptico

x2

a2+

y2

b2= 2pz (p 6= 0)

165

Page 167: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Paraboloide hiperbolico

x2

a2− y2

b2= 2pz (p 6= 0)

166

Page 168: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

10 Espacos vectoriais com produto interno

No capıtulo 5 estudamos o produto interno em Rn. Neste capıtulo vamos ver que a nocaode produto interno se pode definir de forma abstracta num espaco vectorial real, por meiode axiomas.

Definicao 10.1 Seja V um espaco vectorial real. Um produto interno em V euma operacao que a cada par de vectores x, y de V faz corresponder um numeroreal, denotado por 〈x, y〉 e chamado produto interno de x por y, de forma que severifiquem as seguintes propriedades:

1. 〈x, y〉 = 〈y, x〉2. 〈x + x′, y〉 = 〈x, y〉+ 〈x′, y〉3. 〈αx, y〉 = α〈x, y〉4. x 6= 0 ⇒ 〈x, x〉 > 0

onde x, x′ e y designam vectores quaisquer de V e α designa um numero real ar-bitrario.Um espaco em que esta definido um produto interno diz-se um espaco com pro-duto interno ou um espaco euclidiano.

Observacoes. 1. Um produto interno em V e uma aplicacao de V ×V em R. A segundae a terceira propriedades podem resumir-se dizendo que esta aplicacao e linear “em relacaoao primeiro vector” (isto e, mantendo o segundo vector fixado arbitrariamente). Claro que,pela primeira propriedade, o mesmo se verifica em relacao ao segundo vector (mantendoo primeiro fixo). Aplicacoes deste tipo costumam chamar-se bilineares.

2. Podem considerar-se produtos internos tambem em espacos complexos. Nesse caso,a primeira propriedade deve ser substituıda por 〈x, y〉 = 〈y, x〉. No que se segue, va-mos restringir-nos a espacos reais. A teoria desenvolve-se de modo analogo para espacoscomplexos.

Exemplos.

1. 〈x, y〉 = yT x e um produto interno no espaco vectorial real Rn.

2. 〈x, y〉 = y∗x e um produto interno no espaco vectorial complexo Cn.

167

Page 169: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

3. 〈A, B〉 = tr(AT B) e um produto interno no espaco vectorial real Mn×n(R), ondetr designa o traco de uma matriz quadrada, isto e, a soma dos seus elementosdiagonais.

4. 〈f, g〉 =

∫ b

a

f(t)g(t)dt e um produto interno no espaco vectorial real C[a, b].

5. Designemos por `2 o conjunto de todas as sucessoes reais (un) tais que a serie∑∞n=1 u2

n e convergente. `2 e um subespaco do espaco vectorial de todas as sucessoesreais. (Exercıcio: Prove isso. A unica dificuldade esta em provar que `2 e fechadopara a adicao.)

Definindo

〈(un), (vn)〉 =∞∑

n=1

unvn

tem-se um produto interno em `2. (Note-se que e preciso provar que a serie que figuranesta definicao e convergente. De facto, essa serie e ate absolutamente convergente.)

Definicao 10.2 Seja V um espaco vectorial com produto interno e sejam x e yvectores de V .

1. A norma ou comprimento de x e ‖x‖ =√〈x, x〉 .

2. A distancia entre x e y e ‖x− y‖ .

3. x e y sao ortogonais (ou perpendiculares) se 〈x, y〉 = 0.

Exemplo. As funcoes cos e sen sao vectores ortogonais do espaco com produto internoC[0, 2π], porque ∫ 2π

0

cos t sen t dt =

[sen2t

2

]2π

0

= 0 .

Exercıcio 10.1 Seja V um espaco vectorial com produto interno. Prove que:

1. Se 〈x, y〉 = 0 para todo o y ∈ V , entao x = 0;

2. Se 〈x, y〉 = 〈x′, y〉 para todo o y ∈ V , entao x = x′;

3. Sendo x ∈ V e α ∈ R, tem-se ‖αx‖ = |α| · ‖x‖.

168

Page 170: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Permanecem validos, com a mesma demonstracao entao vista, os seguintes resultadosbasicos estudados para o produto interno em Rn:

Teorema 10.1 Seja V um espaco vectorial com produto interno e sejam x e y vectoresde V . Entao:

1. |〈x, y〉| ≤ ‖x‖‖y‖ (desigualdade de Cauchy-Schwarz).

2. ‖x + y‖ ≤ ‖x‖+ ‖y‖ (desigualdade triangular).

3. Se x e y forem ortogonais tem-se ‖x− y‖2 = ‖x‖2 + ‖y‖2 (Teorema de Pitagoras).

Observacao. A desigualdade de Cauchy-Schwarz, quando aplicada aos espacos comproduto interno atras mencionados, produz teoremas interessantes.

Por exemplo, dadas duas funcoes f e g em C[a, b] tem-se

∣∣∣∣∫ b

a

f(t)g(t)dt

∣∣∣∣ ≤(∫ b

a

f(t)2dt

) 12(∫ b

a

g(t)2dt

) 12

.

Outro exemplo: dadas duas sucessoes (un) e (vn) em `2, tem-se

∣∣∣∣∣∞∑

n=1

unvn

∣∣∣∣∣ ≤( ∞∑

n=1

u2n

) 12( ∞∑

n=1

v2n

) 12

.

*

Tal como em Rn, a projeccao ortogonal de um vector y sobre um vector nao nulo xnum espaco com produto interno define-se como o vector

projxy =〈x, y〉‖x‖2

x .

Tambem o complemento ortogonal de um subespaco de um espaco com produto internose define de forma analoga a do capıtulo 5:

Definicao 10.3 Seja V um espaco vectorial com produto interno e seja F umsubespaco de V . Ao conjunto dos vectores de V que sao ortogonais a todos osvectores de F chama-se complemento ortogonal de F . A notacao habitual e F⊥.Simbolicamente

F⊥ = {v ∈ V : 〈v, u〉 = 0 para todo o u ∈ F}.

169

Page 171: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Teorema 10.2 Seja V um espaco vectorial com produto interno. Se v1, . . . , vk ∈ V saonao nulos e dois a dois ortogonais, entao sao linearmente independentes.

A demonstracao e analoga a vista em Rn.

Seja V um espaco vectorial de dimensao finita com produto interno. Uma base deV constituıda por vectores dois a dois ortogonais diz-se uma base ortogonal de V . Apartir de uma base qualquer de V pode sempre obter-se uma base ortogonal de V , usandoo processo de ortogonalizacao de Gram-Schmidt, que decorre exactamente como em Rn.

*

Definicao 10.4 Seja V um espaco vectorial com produto interno e seja F umsubespaco de V . Seja v ∈ V . Um vector vF ∈ F diz-se projeccao ortogonalde v sobre F se v − vF for ortogonal a todos os vectores de F . Tambem se usa anotacao projF (v) em vez de vF .

Com demonstracoes analogas as vistas no capıtulo 5 para Rn, obtem-se os dois seguintesresultados:

Teorema 10.3 Seja V um espaco vectorial com produto interno e seja F um subespacode V . Seja v ∈ V . Entao, se existir um vector vF projeccao ortogonal de v sobre F , ele eunico e satisfaz a propriedade de minimizar a distancia a v de entre os elementos de F ,isto e,

‖v − vF‖ = min {‖v − u‖ : u ∈ F} .

Teorema 10.4 Seja V um espaco vectorial com produto interno e seja v ∈ V . Seja Fum subespaco de V com dimensao finita. Entao a projeccao ortogonal de v sobre F existee, sendo {v1, . . . , vm} uma base ortogonal de F , essa projeccao ortogonal e igual a somadas projeccoes ortogonais de v sobre os vi, isto e,

vF =〈v, v1〉‖v1‖2

v1 + · · ·+ 〈v, vm〉‖vm‖2

vm .

170

Page 172: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Aplicacao: Aproximacoes de Fourier de funcoes em C[0, 2π]

Vamos trabalhar no espaco vectorial real C[0, 2π] com o produto interno

〈f, g〉 =

∫ 2π

0

f(t)g(t)dt .

Seja n um numero natural. Consideremos as 2n + 1 funcoes em C[0, 2π]

1, cos t, sen t, cos 2t, sen 2t, . . . , cos nt, sen nt .

Exercıcio 10.2 Mostre que estas 2n + 1 funcoes sao vectores dois a dois ortogonais doespaco C[0, 2π].

Designemos por F o subespaco de C[0, 2π] gerado por estas 2n+1 funcoes, que vamosa partir de agora denotar por ϕ0, ϕ1, ϕ2, . . . , ϕ2n−1, ϕ2n. Entao tem-se dimF = 2n + 1, eϕ0, ϕ1, ϕ2, . . . , ϕ2n−1, ϕ2n constituem uma base ortogonal de F .

Exercıcio 10.3 Mostre que ‖ϕ0‖ =√

2π e que, para k = 1, . . . , 2n, ‖ϕk‖ =√

π.

Seja agora g ∈ C[0, 2π] arbitraria. A projeccao ortogonal de g sobre F e a me-lhor aproximacao de g por elementos de F , isto e, por combinacoes lineares das funcoesϕ0, ϕ1, ϕ2, . . . , ϕ2n−1, ϕ2n. De acordo com o teorema 8.7, essa melhor aproximacao e afuncao

gF

=2n∑

k=0

〈g, ϕk〉‖ϕk‖2

ϕk

que se pode escrever explicitamente assim:

gF(t) = a0 + a1 cos t + b1 sen t + a2 cos 2t + b2 sen 2t + · · ·+ an cos nt + bn sen nt

onde

a0 =1

∫ 2π

0

g(t) dt , ak =1

π

∫ 2π

0

g(t) cos kt dt , bk =1

π

∫ 2π

0

g(t) sen kt dt

para k = 1, . . . , n. Esta funcao gF

chama-se a aproximacao de Fourier de ordem nda funcao g no intervalo [0, 2π]. Note-se que se trata de uma funcao de um tipo muitosimples e que na sua expressao aparecem so as funcoes coseno e seno.

Na pagina seguinte encontram-se os graficos da funcao g(t) = π− |t− π| e das respec-tivas aproximacoes de Fourier de ordens 1 e 3. Com aproximacoes de ordens superioresobtem-se graficos cada vez mais parecidos com o de g(t).

171

Page 173: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

0 1 2 3 4 5 60

1

2

3

4

g(t)

0 1 2 3 4 5 60

1

2

3

4

aproximação de ordem 1

0 1 2 3 4 5 60

1

2

3

4

aproximação de ordem 3

172

Page 174: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

*

Observacao. Se F nao tiver dimensao finita, a projeccao ortogonal de um vector sobreF pode nao existir. Vamos ver um exemplo.

Exemplo. Designemos por V o subespaco de `2 constituıdo pelas sucessoes reais que temapenas um numero finito de termos diferentes de zero.

Seja F o subespaco de V constituıdo pelas sucessoes ortogonais a sucessao (1, 12, 1

3, 1

4, . . .)

(note-se que esta ultima nao pertence a V ).

Comecamos por notar que F tem dimensao infinita, porque, qualquer que seja m ∈ N,e quaisquer que sejam os numeros reais w1, w2, . . . , wm−1, a sucessao

(w1 , w2 , . . . , wm−1 , wm , 0 , 0 , 0 , . . .)

pertence a F desde que se tome wm = −m(w1 + w2

2+ · · ·+ wm−1

m−1

).

Vamos agora ver que o complemento ortogonal de F , como subespaco de V , e sim-plesmente constituıdo pela sucessao nula.

Seja u = (un) ∈ F⊥. Seja k ∈ N tal que uj = 0 para j > k, tendo-se portantou = (u1 , u2 , . . . , uk−1 , uk , 0 , 0 , 0 , . . .). Como u e ortogonal a todas as sucessoesw ∈ F , tem de ter-se

u1w1 + u2w2 + · · ·+ ukwk = 0

quaisquer que sejam os numeros w1, w2, . . . , wk, o que implica que u1 = 0, u2 = 0,. . . , uk = 0, ou seja u = 0. Logo, F⊥ = {0}.

Vejamos finalmente que, sendo v = (vn) uma sucessao pertencente a V mas nao a F ,a projeccao ortogonal de v sobre F nao existe: se existisse, chamemos-lhe vF , ter-se-iav − vF ∈ F⊥, donde v − vF = 0, donde v = vF , e v pertenceria a F , em contradicao como que supusemos.

173

Page 175: ALGEBRA LINEAR E GEOMETRIA ANAL ¶ ¶ITICA (vers~ao de …computacao-ifmg.weebly.com/uploads/5/9/4/6/5946176/algebra_linear... · 2.2 O algoritmo de elimina»c~ao de Gauss ..... 26

Bibliografia

F. R. Dias Agudo, Introducao a Algebra Linear e Geometria Analıtica, Lisboa, 1972.

L. I. Golovina, Algebra Lineal e Algunas de sus Aplicaciones, Moscovo, 1974.

K. Janich, Algebra Linear, Rio de Janeiro, 1998.

S. Leon, Linear Algebra with Applications, Nova York, 1990.

L. Magalhaes, Algebra Linear como Introducao a Matematica Aplicada, Lisboa 1989.

G. Strang, Linear Algebra and its Applications, San Diego, 1988.

174