Álgebralinearws4.pucminas.br/imagedb/documento/doc_dsc_nome_arqui2013… · Álgebralinear...
TRANSCRIPT
.
ÁLGEBRA LINEAR
ISBN 978-85-915683-0-7
ROBERTO DE MARIA NUNES MENDESProfessor do Departamento de Matemática e Estatística e do
Programa de Pós-graduação em Engenharia Elétrica da PUCMINAS
Belo HorizonteEdição do Autor
2013
Sumário
Prefácio 1
1 Espaços Vetoriais 21.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 21.2 Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3 Independência Linear. Bases. Dimensão . . . . . . . . . . . . 71.4 Espaços Produto e Quociente . . . . . . . . . . . . . . . . . . 111.5 Somas e Somas Diretas . . . . . . . . . . . . . . . . . . . . . . 131.6 Exercícios do Capítulo 1 . . . . . . . . . . . . . . . . . . . . . 16
2 Aplicações Lineares 182.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 182.2 Composição e Inversão de Aplicações Lineares . . . . . . . . . 232.3 Álgebra das Aplicações Lineares . . . . . . . . . . . . . . . . . 282.4 Exercícios do Capítulo 2 . . . . . . . . . . . . . . . . . . . . . 30
3 Matrizes 323.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.2 Produto de Matrizes . . . . . . . . . . . . . . . . . . . . . . . 343.3 Aplicação Linear × Matriz . . . . . . . . . . . . . . . . . . . . 353.4 Mudança de Bases . . . . . . . . . . . . . . . . . . . . . . . . 423.5 Exercícios do Capítulo 3 . . . . . . . . . . . . . . . . . . . . . 47
4 Formas Lineares. Dualidade 494.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.2 Anulador de um Subespaço . . . . . . . . . . . . . . . . . . . 524.3 Transposição . . . . . . . . . . . . . . . . . . . . . . . . . . . 534.4 Exercícios do Capítulo 4 . . . . . . . . . . . . . . . . . . . . . 57
5 Determinantes 585.1 Aplicações r-lineares alternadas . . . . . . . . . . . . . . . . . 58
i
SUMÁRIO ii
5.2 Determinante de um Operador Linear . . . . . . . . . . . . . . 635.3 Desenvolvimento em relação aos elementos de uma coluna (ou
de uma linha) . . . . . . . . . . . . . . . . . . . . . . . . . . . 665.4 Matrizes Elementares . . . . . . . . . . . . . . . . . . . . . . . 715.5 Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . 78
6 Autovalores e Autovetores 846.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 846.2 Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . 906.3 Polinômios de Operadores e Matrizes . . . . . . . . . . . . . . 956.4 Exercícios do Capítulo 6 . . . . . . . . . . . . . . . . . . . . . 98
7 Produto Interno 997.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 997.2 Bases Ortonormais . . . . . . . . . . . . . . . . . . . . . . . . 1057.3 Relações entre V e V ∗ . . . . . . . . . . . . . . . . . . . . . . 1087.4 Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1107.5 Exercícios do Capítulo 7 . . . . . . . . . . . . . . . . . . . . . 113
8 Operadores Unitários e Normais 1158.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1158.2 Operadores Positivos . . . . . . . . . . . . . . . . . . . . . . . 1208.3 Matrizes Simétricas Positivas. Decomposição de Cholesky . . . 1238.4 Teorema dos Valores Singulares . . . . . . . . . . . . . . . . . 1258.5 Exercícios do Capítulo 8 . . . . . . . . . . . . . . . . . . . . . 128
9 Formas Bilineares e Quadráticas 1309.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . 1309.2 Matriz de uma forma bilinear . . . . . . . . . . . . . . . . . . 1329.3 Mudanças de Bases . . . . . . . . . . . . . . . . . . . . . . . . 1329.4 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . 1339.5 Formas Bilineares Simétricas Reais . . . . . . . . . . . . . . . 133
10 Miscelânea 13710.1 Orientação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13710.2 Volume de Paralelepípedo . . . . . . . . . . . . . . . . . . . . 13810.3 Matriz de Gram . . . . . . . . . . . . . . . . . . . . . . . . . . 13910.4 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . 140
Exercícios de Revisão 142
Bibliografia 144
Prefácio
A origem desse livro de Álgebra Linear remonta a um curso feito paraalunos do Bacharelado em Matemática da UFMG. Na ocasião, fizemos umaprimeira redação revista pelos professores do ICEx-UFMG, Michel Spira eWilson Barbosa, a quem muito agradecemos. Mais recentemente, retomamoso trabalho e, após várias mudanças, aproveitamos parte do material na disci-plina “Métodos Matemáticos” do Programa de Pós-Graduação em Engenha-ria Elétrica da PUCMINAS. A versão final do livro foi revista pela professoraMariana Cornelissen Hoyos, a quem agradecemos a generosa assistência.
A leitura do Sumário mostra que se trata de um livro básico de ÁlgebraLinear que procura desenvolver o assunto com cuidado no aspecto teórico,visando a boa formação do profissional. Para aprofundamento na matériadeve-se recorrer aos livros indicados na Bibliografia, que utilizamos livre-mente.
A digitação do manuscrito foi feita, com eficiência e boa vontade, por EricFernandes de Mello Araújo, a quem agradecemos. Ao leitor, bom proveito.
Belo Horizonte, janeiro de 2013Roberto N. Mendes
1
Capítulo 1
Espaços Vetoriais
1.1 Definições e ExemplosSeja K um corpo com elementos neutros distintos 0 e 1, por exemplo, K = Rou K = C.
Definição 1.1 Um espaço vetorial sobre K é um conjunto V munido de duasleis:
V × V −→ V e K × V −→ V
(u, v) 7−→ u + v (a, v) 7−→ av
tais que, para quaisquer u, v, w ∈ V e a, b ∈ K, se tenha:(1) u + v = v + u(2) (u + v) + w = u + (v + w)(3) existe 0 ∈ V , chamado o vetor zero, tal que v + 0 = v(4) dado v ∈ V , existe (−v) ∈ V , chamado o oposto de v, tal que v+(−v) = 0(5) 1 · v = v(6) a(bv) = (ab)v(7) a(u + v) = au + av(8) (a + b)v = av + bv.
Exemplo 1.1.1 Seja V = Kn, onde n ∈ N, com as leis:
(x1, ..., xn) + (y1, ..., yn) = (x1 + y1, ..., xn + yn)
ea(x1, ..., xn) = (ax1, ..., axn).
É fácil verificar que, com estas leis, Kn é um espaço vetorial sobre K.
2
CAPÍTULO 1. ESPAÇOS VETORIAIS 3
Observação: Os elementos de um espaço vetorial V são chamados devetores, enquanto que os de K são chamados de escalares. Essa nomenclaturaderiva do exemplo acima. As leis são chamadas de adição e multiplicação porescalar, respectivamente.
No exemplo 1.1.1, se n = 1, vemos que K é um espaço vetorial sobresi mesmo, de modo que seus elementos são, ao mesmo tempo, escalares evetores.
Exemplo 1.1.2 Seja V = Pn, onde n ∈ N, o conjunto das funções polino-miais de grau estritamente menor que n, com coeficientes em K, juntamentecom a função zero. Se p = a0+a1t+...+an−1t
n−1 e q = b0+b1t+...+bn−1tn−1,
definimos p + q ∈ V e cp ∈ V , onde c ∈ K, por:
p + q = (a0 + b0) + (a1 + b1)t + ... + (an−1 + bn− 1)tn−1
cp = ca0 + ca1t + ... + can−1tn−1
Resulta que Pn é um espaço vetorial sobre K.
Exemplo 1.1.3 Seja V = K[t] o conjunto de todos os polinômios a umavariável, com coeficientes em K. Definindo as leis como no exemplo 1.1.2, éimediato que K[t] é um espaço vetorial sobre K.
Exemplo 1.1.4 Seja V = F(I,R) o conjunto das funções f : I 7−→ R, ondeI ⊂ R é um intervalo. Se f, g ∈ V e a ∈ R, definimos f + g e af por:
(f + g)(x) = f(x) + g(x)
(af)(x) = a · f(x)
para todo x ∈ I. Verifica-se imediatamente que essas leis tornam F(I,R)um espaço vetorial real, isto é, sobre R.
Consequências Imediatas da Definição
(a) Se u, v ∈ V definimos:
u− v = u + (−v)
Se a ∈ K, então
a(u− v) + av = a[(u− v) + v] = a[u + (−v) + v] = a(u + 0) = au.
Somando −av aos dois membros, vem:
a(u− v) + av − av = au− av,
CAPÍTULO 1. ESPAÇOS VETORIAIS 4
donde:a(u− v) = au− av.
Fazendo u = v, obtemosa · 0 = 0
e tambéma(−v) = a(0− v) = a · 0− av = −av.
(b) Se a, b ∈ K e v ∈ V , então:
(a− b)v + bv = (a− b + b)v = av,
donde:(a− b)v = av − bv
Fazendo a = b, vem0 · v = 0
e também(−a)v = (0− a)v = 0 · v − av = −av.
(c) Para todo a ∈ K e todo v ∈ V vimos que
0 · v = a · 0 = 0
Suponhamos que av = 0. Se a 6= 0 então
0 = a−1 · 0 = a−1(av) = 1 · v = v.
Portanto, av = 0 implica ou a = 0 ou v = 0.
Exercícios
1. O conjunto de todos os polinômios de grau 3, com coeficientes reais emunido das leis usuais, juntamente com o polinômio zero, forma umespaço vetorial real?
2. Dê exemplo de um conjunto M que verifique todos os axiomas de espaçovetorial, exceto 1 · v = v para todo v ∈ M .
CAPÍTULO 1. ESPAÇOS VETORIAIS 5
3. O conjunto das sequências complexas z = (zn)n≥1 tais que
zn+2 = zn+1 + zn, n ≥ 1,
munido das leis usuais, forma um espaço vetorial complexo?
4. O conjunto das funções f : R 7−→ R duas vezes continuamente de-riváveis e tais que f ′′ + af ′ + bf = 0 (a e b reais fixos), munido das leisusuais, forma um espaço vetorial real?
5. Prove que o conjunto das funções limitadas f : R 7−→ R, munido dasleis usuais, é um espaço vetorial real.
6. Seja l1(N) o conjunto das sequências x = (xn)n≥1 onde xn ∈ C e∞∑
n=1
|xn| < ∞. Prove que, com as leis usuais, l1(N) é um espaço ve-
torial complexo.
1.2 SubespaçosSeja V um espaço vetorial sobre o corpo K.
Definição 1.2 Dizemos que W ⊂ V é um subespaço de V se:(a) 0 ∈ W(b) u, v ∈ W =⇒ u + v ∈ W(c) a ∈ K, v ∈ W =⇒ av ∈ W
É claro que W , com as leis induzidas pelas de V , é um espaço vetorialsobre K.
Exemplo 1.2.1 Em V = Kn verifica-se imediatamente que W = {(x1, ..., xn) ∈Kn; x1 = 0} é um subespaço.
Exemplo 1.2.2 Em V = F(R,R), espaço vetorial real das funções f : R→R, o subconjunto formado pelas funções contínuas é um subespaço.
Proposição 1.1 Seja V um espaço vetorial sobre K. A interseção de umafamília qualquer de subespaços de V é um subespaço de V .
Dem. Seja (Wα)α∈A uma família de subespaços de V , e seja W =⋂α∈A
Wα.
Então:
CAPÍTULO 1. ESPAÇOS VETORIAIS 6
(a) 0 ∈ W pois 0 ∈ Wα para todo α ∈ A.(b) u, v ∈ W ⇐⇒ u, v ∈ Wα para todo α ∈ A =⇒ (u + v) ∈ Wα para todoα ∈ A =⇒ (u + v) ∈ W .(c) α ∈ K, v ∈ W =⇒ av ∈ Wα para todo α ∈ A =⇒ av ∈ W .
Definição 1.3 Seja X um subconjunto não-vazio do espaço vetorial V sobre
K. Todo elemento da forma a1v1 + ... + amvm =m∑
i=1
aivi, onde m ∈ N, vi ∈X, ai ∈ K, 1 ≤ i ≤ m, é chamado de combinação linear de elementos de X.
É fácil verificar que o conjunto de todas as combinações lineares de ele-mentos de X é um subespaço de V , chamado de subespaço gerado por X.
Proposição 1.2 O subespaço gerado por X ⊂ V, X 6= ∅, é a interseção detodos os subespaços de V contendo X, ou seja, é o “menor” (para a inclusãode conjuntos) subespaço de V contendo X.
Dem. Seja (Wα)α∈A a família de todos os subespaços de V contendo X.Sabemos que W =
⋂α∈A
Wα é um subespaço de V . É claro que W contém X
e, portanto, que W contém todas as combinações lineares de elementos de X,ou seja, W contém o subespaço S gerado por X. Como S é um subespaço deV contendo X, temos que W ⊂ S. Resulta W = S.
Exercícios1. Seja V = F(R,R) o espaço vetorial real das funções f : R → R.
Verifique se W é subespaço de V nos seguintes casos:(a) W = conjunto das funções pares(b) W = conjunto das funções ímpares(c) W = conjunto das funções deriváveis(d) W = conjunto das funções C∞
2. Qual a expressão do elemento genérico do subespaço de K[t] geradopelos polinômios t2 e t3?
3. Verifique se W = {(x, y, z) ∈ R3; x = 2y} é subespaço de R3.
4. Mostre que W = {(0, y, z) ∈ R3} é gerado por (0, 1, 1) e (0, 2,−1).
5. Mostre que o conjunto das funções f : R → R de classe C2 tais quef ′′ + af ′ + bf = 0 (a e b reais fixos) é um subespaço de F(R,R).
6. Mostre que, em geral, a união de dois subespaços não é um subespaço.
CAPÍTULO 1. ESPAÇOS VETORIAIS 7
1.3 Independência Linear. Bases. DimensãoDefinição 1.4 Sejam X 6= ∅, X ⊂ V, V um espaço vetorial sobre K. Dize-mos que X é linearmente independente se, quaisquer que sejam v1, ..., vm ∈X, m ∈ N, a equação a1v1 + ... + amvm = 0, onde a1, ..., am ∈ K, im-plica a1 = a2 = ... = am = 0. Se X não é linearmente independente(LI) dizemos que X é linearmente dependente (LD); neste caso, existemv1, ..., vp ∈ X, p ∈ N, e escalares não todos nulos, a1, ..., ap, tais quea1v1 + ... + apvp = 0.
Exemplo 1.3.1 Em Kn consideremos os vetores
e1 = (1, 0, ..., 0)
e2 = (0, 1, ..., 0)
...
en = (0, ..., 0, 1)
Esses vetores são LI, pois a1e1 + ...+anen = (a1, ..., an) = 0 = (0, ..., 0) ⇔a1 = 0, ..., an = 0.
Exemplo 1.3.2 Em Pn os vetores 1, t, ..., tn−1 são LI pois a0 + a1t + ... +an−1t
n−1 = 0 implica a0 = a1 = ... = an−1 = 0.
Exemplo 1.3.3 No espaço das funções f : R → R de classe C1 considere-mos os vetores f1(t) = er1t, f2(t) = er2t onde r1 6= r2 são reais. f1, f2 sãoLI pois se a1f1 + a2f2 = 0 então a1e
r1t + a2er2t = 0 para todo t ∈ R, donde
a1e(r1−r2)t + a2 = 0 para todo t ∈ R. Derivando: a1(r1 − r2)e
(r1−r2)t = 0 paratodo t ∈ R, donde a1 = 0 e, portanto, a2 = 0.
Exemplo 1.3.4 Consideremos os elementos 1 e i de C. Considerando Ccomo um espaço vetorial real, 1 e i são LI. Considerando C como um espaçovetorial complexo, 1 e i são LD.
Proposição 1.3 Se v1, ..., vn são vetores LI em V e
a1v1 + ... + anvn = b1v1 + ... + bnvn,
com ai ∈ K, bi ∈ K (1 ≤ i ≤ n), então ai = bi para todo i.
Dem. A relação dada é equivalente a (a1 − b1)v1 + ... + (an − bn)vn = 0,donde a1 − b1 = ... = an − bn = 0, isto é, ai = bi para i = 1, 2, ..., n.
CAPÍTULO 1. ESPAÇOS VETORIAIS 8
Definição 1.5 Seja V um espaço vetorial sobre K. Dizemos que G ⊂ Vgera V ou que G ⊂ V é um conjunto de geradores de V se todo v ∈ V écombinação linear de vetores de G, ou seja, se o subespaço gerado por G éV . Dizemos que o conjunto de geradores G é mínimo se, qualquer que sejag ∈ G, o conjunto G1 = G− {g} não gera V .
Exemplo 1.3.5 Em Kn os vetores e1 = (1, 0, ..., 0), ..., en = (0, ..., 0, 1) for-mam um conjunto de geradores mínimo.
Definição 1.6 Seja X ⊂ V um conjunto LI no espaço vetorial V . Dizemosque X é um conjunto linearmente independente máximo se, para todo v ∈ V ,v /∈ X, o conjunto X1 = X ∪ {v} é LD.
Exemplo 1.3.6 Os vetores e1 = (1, 0, ..., 0), ..., en = (0, ..., 0, 1) de Kn for-mam um conjunto LI máximo.
Proposição 1.4 Sejam v1, ..., vm vetores LI do espaço vetorial V gerado porw1, ..., wp. Então m ≤ p e, alterando-se eventualmente a numeração dos wi,os vetores v1, ..., vm, wm+1, ..., wp ainda geram V .
Dem. Seja v1 = a11w1 + ... + ap1wp; sem perda de generalidade podemossupor a11 6= 0 e, então:
w1 = b11v1 + b21w2 + ... + bp1wp.
Logo, toda combinação linear de w1, ..., wp também é combinação linearde v1, w2, ..., wp, ou seja, estes vetores geram V .
Seja v2 = a12v1+a22w2+...+ap2wp; ao menos um dos escalares a22, ..., ap2
é diferente de zero pois v1 e v2 são LI. Podemos supor a22 6= 0 e, então:
w2 = b12v1 + b22v2 + b32w3 + ... + bp2wp,
e toda combinação linear de v1, w2, ...wp é também combinação linear dev1, v2, w3, ..., wp, ou seja, estes vetores geram V .
Repetindo essa operação um número finito de vezes, vemos que, parar ≤ min(m, p), os vetores v1, ..., vr, wr+1, ..., wp geram V . Se fosse m > p,tomando r = p, teríamos que v1, ..., vp gerariam V e, portanto, vp+1, ..., vm
seriam combinações lineares de v1, ..., vp, o que é absurdo já que v1, ..., vm sãoLI. Portanto, m ≤ p e, ao fim de um número finito de operações, obteremoso conjunto de geradores v1, ..., vm, wm+1, ..., wp.
CAPÍTULO 1. ESPAÇOS VETORIAIS 9
Corolário 1.4.1 Se w1, ..., wp geram V e n > p, então v1, ..., vn são LD. Emparticular, p + 1 vetores que são combinações lineares de p vetores quaisquersão LD.
Proposição 1.5 Seja X um subconjunto não-vazio do espaço vetorial V so-bre K. As propriedades seguintes são equivalentes:(a) X é LI e gera V(b) X é um conjunto de geradores mínimo(c) X é um conjunto LI máximo
Dem. (a) ⇒ (b): Sejam x ∈ X, Y = X−{x}. Se x fosse combinação linear
de vetores de Y , x =n∑
i=1
aiyi, yi ∈ Y, ai ∈ K, 1 ≤ i ≤ n, então X seria
LD, contradição. Portanto, Y não gera V , o que mostra que X é mínimo.(b) ⇒ (c): Se X fosse LD existiriam vetores x, x1, ..., xn de X e escalares
a, a1, ..., an, não todos nulos, tais que ax+a1x1+ ...+anxn = 0. Sem perda degeneralidade podemos supor a 6= 0, donde x = b1x1 + ...+bnxn e, portanto, Xnão seria mínimo, contradição. Além disso, X é (um conjunto LI) máximo
pois, dado v ∈ V , temos v =m∑
i=1
aixi, xi ∈ X, ai ∈ K, 1 ≤ i ≤ m, ou seja,
X ∪ {v} é LD.(c) ⇒ (a): Seja v ∈ V, v /∈ X, então Y = X ∪{v} é LD e existem vetores
x1, ..., xn de X e escalares a, a1, ..., an, não todos nulos, tais que
av + a1x1 + ... + anxn = 0.
Se fosse a = 0 resultaria X LD. Então a 6= 0 e v = b1x1 + ... + bnxn, isto é,X gera V (e é LI).
Definição 1.7 Seja V um espaço vetorial sobre K. X ⊂ V, X 6= ∅, éuma base de V se X possui uma das (e portanto as três) propriedades daproposição 1.5.
Se V tem uma base finita X = {v1, ..., vn} dizemos que V tem dimensãofinita; neste caso, se v ∈ V , então v se escreve de modo único na formav = a1v1 + ... + anvn, ai ∈ K, 1 ≤ i ≤ n.
Proposição 1.6 Sejam {v1, ..., vn} e {w1, ..., wp} bases do espaço vetorial Vsobre K. Então:
n = p
CAPÍTULO 1. ESPAÇOS VETORIAIS 10
Dem. Como v1, ..., vn são LI e w1, ..., wp geram V , temos n ≤ p. Porsimetria, p ≤ n. Logo, n = p.
Definição 1.8 Sejam V um espaço vetorial sobre K e {v1, ..., vn} uma basede V . Dizemos que n é a dimensão de V sobre K. Por definição a dimensãode V = {0} é zero.Notação: n = dimKV ou n = dim V
Exemplo 1.3.7 Kn tem dimensão n e {e1, ..., en} é uma base de Kn, chamadade base canônica.
Exemplo 1.3.8 {1, t, ..., tn−1} é base de Pn, donde dim Pn = n.
Exemplo 1.3.9 V = K[t] não tem dimensão finita sobre K.
Exemplo 1.3.10 dimRC = 2 e {1, i} é uma base.dimCC = 1 e {1} é uma base.Uma base de Cn sobre R é {e1, ie1, e2, ie2, ..., en, ien}.
Corolários:
(1) Se dim V = n e v1, ..., vn são LI, então {v1, ..., vn} é base de V (pois éum conjunto LI máximo).(2) Se W é subespaço de V e dim W = dim V , então W = V (pois todabase de W é também base de V ).(3) Se dim V = n e m > n então os vetores v1, ..., vm são LD (pois o númeromáximo de vetores LI é n).
Proposição 1.7 Seja V um espaço vetorial de dimensão n sobre K. Se-jam v1, ..., vr, r < n, vetores LI. Então existem vr+1, ..., vn ∈ V tais que{v1, ..., vr, vr+1, ..., vn} seja base de V .
Dem. Como r < n, {v1, ..., vr} não é um conjunto LI máximo; logo, existevr+1 ∈ V tal que {v1, ..., vr, vr+1} seja LI. Se r + 1 < n podemos repetir oargumento. Após um número finito de repetições obteremos n vetores LI,v1, ..., vn, ou seja {v1, ..., vn} é base de V .
Exercícios
1. Mostre que t3 − t2 + 1, q = t2 − 1 e r = 2t3 + t− 1 são LI em P4.
CAPÍTULO 1. ESPAÇOS VETORIAIS 11
2. Prove que f, g, h ∈ F(R,R) são LI, onde
f(t) = t, g(t) = et e h(t) = sen t.
3. Ache uma condição necessária e suficiente para que u = (a, b) ∈ K2 ev = (c, d) ∈ K2 sejam LD.
4. Seja W o subespaço de P4 gerado por u = t3− t2 + 1, v = t2− 1 e w =t3 − 3t2 + 3. Ache uma base para W .
5. Existe alguma base de P4 que não contenha nenhum polinômio de grau2?
6. Seja (v1, ..., vm) uma sequência de vetores não-nulos do espaço vetorialV . Prove que se nenhum deles é combinação linear dos anteriores entãoo conjunto {v1, ..., vm} é LI.
7. Seja V um espaço vetorial de dimensão finita. Prove que todo conjuntode geradores de V contém uma base.
1.4 Espaços Produto e QuocienteSejam V1 e V2 espaços vetoriais sobre K e V = V1 × V2 = {(v1, v2); v1 ∈V1, v2 ∈ V2} seu produto cartesiano. Vamos introduzir em V uma estruturavetorial, definindo:
(v1, v2) + (u1, u2) = (v1 + u1, v2 + u2)
a(v1, v2) = (av1, av2) , a ∈ K
É imediato verificar que, com estas leis, V = V1×V2 é um espaço vetorialsobre K. A definição do espaço produto se estende a um número finitoqualquer de espaços vetoriais. Se V1, ..., Vn são espaços vetoriais sobre K eV = V1 × ...× Vn, definimos:
(v1, ..., vn) + (u1, ..., un) = (v1 + u1, ..., vn + un)
a(v1, ..., vn) = (av1, ..., avn) , a ∈ K
Desta maneira V fica munido de uma estrutura vetorial sobre K.
Proposição 1.8 Se V1 e V2 têm dimensão finita sobre K, então
dim(V1 × V2) = dim V1 + dim V2.
CAPÍTULO 1. ESPAÇOS VETORIAIS 12
Dem. Sejam {v1, ..., vn} e {u1, ..., up}, respectivamente, bases de V1 e V2.Vamos provar que {(v1, 0), ..., (vn, 0), (0, u1), ..., (0, up)} é base de V1×V2. Sev ∈ V1 e u ∈ V2, existem escalares ai, bj tais que v = a1v1 + ... + anvn eu = b1u1 + ... + bpup. Então:
(v, u) = (a1v1 + ... + anvn, b1u1 + ... + bpup) =
= a1(v1, 0) + ... + an(vn, 0) + b1(0, u1) + ... + bp(0, up),
o que mostra que os vetores (v1, 0), ..., (0, up) geram V1 × V2.Se tivermos a1(v1, 0) + ... + an(vn, 0) + b1(0, u1) + ... + bp(0, up) = 0 então
(a1v1 + ... + anvn, b1u1 + ... + bpup) = (0, 0), donde a1v1 + ... + anvn = 0 eb1u1 + ... + bpup = 0, que implicam a1 = ... = an = 0 e b1 = ... = bp = 0, ouseja, os vetores (v1, 0), ..., (0, up) são LI.
Definição 1.9 Sejam V um espaço vetorial sobre K e W um seu subespaço.Se v ∈ V definimos v + W por:
v + W = {v + w; w ∈ W}
Observemos que v + W = u + W ⇔ v − u ∈ W .
SejaV
W= {v + W ; v ∈ V }. Para introduzir uma estrutura vetorial sobre
V
Wdefinamos:
(v + W ) + (u + W ) = (v + u) + W
a(v + W ) = av + W , a ∈ K.
Essas leis estão bem definidas pois se u+W = u1 +W e v+W = v1 +W ,então
(v1 + W ) + (u1 + W ) = (u1 + v1) + W = (u + v) + W =
= (v + W ) + (u + W ), já que (u1 + v1)− (u + v) =
= (u1 − u) + (v1 − v) ∈ W.
Analogamente, se a ∈ K e v1 + W = v + W , temos:
a(v1 + W ) = av1 + W = av + W = a(v + W )
pois av1 − av = a(v1 − v) ∈ W .
CAPÍTULO 1. ESPAÇOS VETORIAIS 13
É pura rotina verificar que, com estas leis,V
Wse torna um espaço vetorial
sobre K. O elemento neutro da adição emV
Wé a classe W = 0 + W .
V
Wé
chamado de espaço vetorial quociente de V por W .
Exemplo 1.4.1 Sejam V = R2 e W uma reta pela origem de R2. Um
elemento típico deV
Wé uma reta v + W paralela a W , e
V
Wconsiste de
todas as retas paralelas a W em R2.
-
6
W
v + W
u + W
(u + v) + W
¸ v]u
Ou + v
Exercícios
1. Prove que se v1 + W, ..., vn + W são LI emV
W, então v1, ..., vn são LI
em V .
2. Sejam V um espaço vetorial e W um subespaço. Para u, v ∈ V defi-namos u ≈ v se u− v ∈ W . Prove que ≈ é uma relação de equivalênciaem V e que o conjunto das classes de equivalência é o espaço quocienteV
W.
1.5 Somas e Somas DiretasDefinição 1.10 Sejam V um espaço vetorial sobre K, U e W subespaços deV . A soma de U e W é definida por:
U + W = {u + w, u ∈ U, w ∈ W}.
CAPÍTULO 1. ESPAÇOS VETORIAIS 14
É fácil ver que U + W é um subespaço de V . De fato, se u1, u2 ∈ U ,w1, w2 ∈ W e a ∈ K, temos:(a) 0 = 0 + 0 ∈ U + W(b) (u1 + w1) + (u2 + w2) = (u1 + u2) + (w1 + w2) ∈ U + W(c) a(u1 + w1) = au1 + aw1 ∈ U + W
Dizemos que V é soma direta de U e W , e escrevemos V = U ⊕W , setodo elemento v ∈ V se escreve, de modo único, na forma v = u + w, comu ∈ U e w ∈ W .
Proposição 1.9 V = U ⊕W se, e só se, V = U + W e U ∩W = {0}.
Dem. Se V = U ⊕W é claro que V = U + W . Além disso, se v ∈ U ∩Wtemos, de modo único, v = v + 0 = 0 + v, donde v = 0, isto é U ∩W = {0}.
Reciprocamente, seja v ∈ V arbitrário. Como V = U +W temos v = u+w, com u ∈ U, w ∈ W . Se tivéssemos também v = u1+w1, u1 ∈ U, w1 ∈ W ,então teríamos u − u1 = w1 − w ∈ U ∩W = {0}, donde u = u1 e w = w1,ou seja, a representação de v na forma u + w é única. Logo, V = U ⊕W .
Proposição 1.10 Sejam V um espaço vetorial sobre K, de dimensão finita,e W um subespaço de V . Existe subespaço U de V tal que V = U ⊕W .
Dem. Seja {w1, ..., wr} base de W . Sabemos que existem vetores u1, ..., us ∈V tais que {w1, ..., wr, u1, ..., us} seja base de V . Seja U o subespaço geradopor u1, ..., us. É claro que V = U ⊕W .
Obs.: Em geral existem muitos subespaços U de V tais que V = U ⊕W .Dizemos que um tal U é um subespaço suplementar de W.
Proposição 1.11 Sejam V um espaço vetorial de dimensão finita sobre K,U e W dois de seus subespaços. Se V = U ⊕W então dim V = dim U +dim W .
Dem. Sejam {u1, ..., ur} e {w1, ..., ws} bases de U e W , respectivamente.Provemos que {u1, ..., ur, w1, ...ws} é base de V . Se v ∈ V então v = u + w,com u ∈ U e w ∈ W , ou seja, u = a1u1 + ... + arur e w = b1w1 + ... + bsws.Portanto,
v = a1u1 + ... + arur + b1w1 + ... + bsws
e os vetores u1, ..., ur, w1, ..., ws geram V .
CAPÍTULO 1. ESPAÇOS VETORIAIS 15
Seja a1u1 + ... + arur + b1w1 + ... + bsws = 0. Então:
a1u1 + ... + arur = −b1w1 − ...− bsws.
Como U ∩ W = {0} resulta a1u1 + ... + arur = 0 e b1w1 + ... + bsws = 0,donde a1 = ... = ar = 0 e b1 = ... = bs = 0, ou seja, u1, ..., ur, w1, ..., ws sãoLI.
Logo, {u1, ..., ur, w1, ..., ws} é base de V e dim V = r + s = dim U +dim W .
O conceito de soma direta se estende à soma de vários subespaços V1, ..., Vn
do espaço vetorial V . Dizemos que V é a soma direta de V1, ..., Vn, e escreve-mos V = V1 ⊕ V2 ⊕ ... ⊕ Vn, se todo v ∈ V se escreve, de modo único, naforma v = v1 + v2 + ... + vn, onde vi ∈ Vi, i = 1, 2, ..., n.
Proposição 1.12 Sejam V um espaço vetorial de dimensão finita sobre K,V1, ..., Vr subespaços de V e, para cada i = 1, ..., r, {vi1, ...vini
} base de Vi.V = V1 ⊕ ...⊕ Vr se, e só se, B = {v11, ..., v1n1 , ..., vr1, vr2, ..., vrnr} é base
de V .
Dem. Se V = V1 ⊕ ... ⊕ Vr então todo v ∈ V se escreve de modo único naforma v = v1 + ... + vr, onde vi ∈ Vi, 1 ≤ i ≤ r. Mas
vi =
ni∑
k=1
akivik, 1 ≤ i ≤ r.
Logo:
v =r∑
i=1
ni∑
k=1
akivik e B gera V.
Suponhamos quer∑
i=1
ni∑
k=1
akivik = 0. Pondo vi =
ni∑
k=1
akivik, temos que
vi ∈ Vi, i = 1, ..., r. Então: v1 + ... + vr = 0 e, como a soma é direta, temos
vi = 0, isto é,ni∑
k=1
akivik = 0, donde aki = 0 pois vi1, ..., vinisão LI. Logo, B
é LI e, portanto, B é base de V .
Reciprocamente, se B é base de V , então v =r∑
i=1
ni∑
k=1
akivik =r∑
i=1
vi, onde
vi =
ni∑
k=1
akivik pertence a Vi, i ≤ i ≤ r. Logo: V = V1 + ... + Vr. A soma
CAPÍTULO 1. ESPAÇOS VETORIAIS 16
é direta pois se v1 + ... + vr = 0, vi ∈ Vi, entãor∑
i=1
ni∑
k=1
akivik = 0, donde
aki = 0 e, portanto, vi = 0, 1 ≤ i ≤ r.
Exercícios
1. Sejam U, V, W os seguintes subespaços de R3:U = {(x, y, z) ∈ R3; x + y + z = 0}; V = {(x, y, z) ∈ R3; x = z} eW = {(0, 0, z) ∈ R3; z ∈ R}. Mostre que R3 = U + V , R3 = U + W ,R3 = V + W . Quando é que a soma é direta?
2. Sejam V = F(R,R), U o subespaço das funções pares e W o dasímpares. Mostre que V = U ⊕W .
3. Sejam U e W subespaços de V. Se
V = U + W e dim V = dim U + dim W < ∞,
prove que V = U ⊕W .
4. Sejam V um espaço vetorial de dimensão finita sobre K, U e W sube-spaços de V . Prove:
dim(U + W ) ≤ dim U + dim W
1.6 Exercícios do Capítulo 11. Determine uma base para o subespaço de R4 descrito por x = (x1, x2, x3, x4)
tal que x1 = x2 − 3x3, x3 = 2x4. Complete a base obtida a uma basedo R4.
2. Em V = F(R,R) considere fk(t) = erkt onde rk ∈ R, 1 ≤ k ≤ n. Proveque f1, ..., fn são LI se, e só se, r1 6= r2 6= ... 6= rn.
3. Sejam v1, ..., vn LI e u = b1v1 + ... + bjvj + ... + bnvn com bj 6= 0. Proveque v1, ..., vj−1, u, vj+1, ..., vn são LI.
4. Seja W um subespaço do espaço vetorial V . Suponha que v1, ..., vn ∈ Vsejam LI e gerem um subespaço U tal que U ∩W = {0}. Prove que os
vetores v1 + W, ..., vn + W são LI emV
W.
CAPÍTULO 1. ESPAÇOS VETORIAIS 17
5. Sejam V um espaço vetorial, U e W seus subespaços. Se U e W têmdimensões finitas, prove que:
dim U + dim W = dim(U + W ) + dim(U ∩W ).
6. Sejam V um espaço vetorial real e u, v ∈ V . O segmento de reta deextremidades u e v é o conjunto [u, v] = {(1 − t)u + tv; 0 ≤ t ≤ 1}.X ⊂ V é convexo se u, v ∈ X ⇒ [u, v] ⊂ X. Prove:(a) Se X, Y ⊂ V são convexos, então X ∩ Y é convexo.(b) Se X ⊂ V é convexo e r, s, t são reais não negativos tais que r +s + t = 1, então u, v, w ∈ X ⇒ ru + sv + tw ∈ X.(c) Se X ⊂ V , a envoltória convexa de X é o conjunto C(X) das
combinações t1x1 + ...+ tnxn, onde ti ≥ 0,n∑
i=1
ti = 1, n ∈ N, chamadas
combinações convexas dos elementos de X. Prove que C(X) é convexo,que X ⊂ C(X) e que se C ′ é convexo e X ⊂ C ′ então C(X) ⊂ C ′.
7. Seja V um espaço vetorial real. A ⊂ V é uma variedade afim se u, v ∈A, t ∈ R⇒ (1− t)u + tv ∈ A. Prove:(a) Se A,B ⊂ V são variedades afins, então A ∩B é variedade afim.(b) Se A 6= ∅ é uma variedade afim em V , existe um único subespaçovetorial W ⊂ V tal que para todo x ∈ A tem-se
A = x + W = {x + w; w ∈ W}.
8. Dado o conjunto finito X = {a1, ..., an}, ache uma base para o espaçovetorial real F(X,R) = {f : X → R}.
Capítulo 2
Aplicações Lineares
2.1 Definições e ExemplosDefinição 2.1 Sejam V e W espaços vetoriais sobre K. Dizemos que umaaplicação T : V → W é linear se:
T (u + v) = T (u) + T (v)
T (av) = a · T (u),
quaisquer que sejam u, v ∈ V e a ∈ K.
Exemplo 2.1.1 A aplicação identidade I : V → V , I(v) = v é linear, bemcomo a aplicação zero, 0 : V → V , 0(v) = 0 para todo v ∈ V .
Exemplo 2.1.2 Seja V = K[t] o espaço vetorial dos polinômios na variávelt com coeficientes em K. A aplicação derivada D : V → V , definida porD(a0 + a1t + a2t
2 + ... + amtm) = a1 + 2a2t + ... + mamtm−1, é uma aplicaçãolinear.
Exemplo 2.1.3 Se V1 e V2 são espaços vetoriais sobre K e V = V1 × V2,as aplicações p1 : V → V1 e p2 : V → V2 definidas por p1(v1, v2) = v1 ep2(v1, v2) = v2 são lineares.
Exemplo 2.1.4 Seja W um subespaço do espaço vetorial V. A aplicação
π : V → V
W, π(v) = v + W , é linear.
Exemplo 2.1.5 Seja V = C0([0, 1],R) o espaço vetorial real das funçõescontínuas f : [0, 1] → R. A aplicação f ∈ V 7−→ T (f) ∈ V , onde
(Tf)(x) =
∫ x
0
f(t)dt, x ∈ [0, 1],
18
CAPÍTULO 2. APLICAÇÕES LINEARES 19
é linear. É também linear a função f ∈ V 7−→∫ 1
0
f(t)dt ∈ R.
Proposição 2.1 Sejam V e W espaços vetoriais sobre K e (v1, v2, ..., vn) umabase ordenada de V. Dada a sequência (w1, ..., wn) de vetores de W, existeuma e uma única aplicação linear T : V → W tal que T (vi) = wi, 1 ≤ i ≤ n.
Dem. Seja v ∈ V . Então v se escreve, de modo único, como v = a1v1 +... + anvn. Definamos T : V → W por T (v) = a1w1 + ... + anwn. É claro queT (vi) = wi, 1 ≤ i ≤ n. Mostremos que T é linear. Se u = b1v1 + ... + bnvn,então:
T (u+v) = T [(a1 +b1)v1 + ...+(an +bn)vn] = (a1 +b1)w1 + ...+(an +bn)wn =
= (a1w1 + ... + anwn) + b1w1 + ... + bnwn = T (v) + T (u).
Se c ∈ K, temos
T (cv) = T (ca1v1 + ... + canvn) = ca1w1 + ... + canwn =
= c(a1w1 + ... + anwn) = c · T (v).
Logo, T é linear. Se L : V → W é aplicação linear tal que
L(vi) = wi, 1 ≤ i ≤ n,
então L(a1v1 + ... + anvn) = a1w1 + ... + anwn = T (v) para todo v ∈ V , ouseja, T = L, o que mostra a unicidade de T.
Proposição 2.2 Seja T : V → W linear. Então:(a) T (0) = 0 , T (−v) = −v.(b) Se U ⊂ V é subespaço, então T (U) ⊂ W é subespaço.(c) Se U ′ ⊂ W é subespaço, então T−1(U ′) ⊂ V é subespaço.
Dem. (a) Como T é linear, T (av) = aT (v) para todo a ∈ K e todo v ∈ V .Fazendo a = 0, vem:
T (0 · v) = 0 · T (v), donde: T (0) = 0.
Fazendo a = −1, vem:
T (−v) = −T (v)
(b) T (U) ⊂ W é subespaço pois:
CAPÍTULO 2. APLICAÇÕES LINEARES 20
1. 0 = T (0) ∈ T (U)
2. Se T (u), T (v) ∈ T (U) então T (u) + T (v) = T (u + v) ∈ T (U)
3. Se a ∈ K e T (v) ∈ T (U) então aT (v) = T (av) ∈ T (U)
(c) T−1(U ′) ⊂ V é subespaço pois:
1. 0 ∈ T−1(U ′) já que T (0) = 0 ∈ U ′
2. Se u, v ∈ T−1(U ′) então T (u), T (v) ∈ U ′, donde T (u) + T (v) = T (u +v) ∈ U ′, donde u + v ∈ T−1(U ′)
3. Se a ∈ K e v ∈ T−1(U ′) então aT (v) = T (av) ∈ U ′ e, portanto,av ∈ T−1(U ′).
Definição 2.2 Seja T : V → W linear. O subespaço T (V ) ⊂ W é chamadode imagem de T e anotado Im T . O subespaço T−1(0) ⊂ V é chamado denúcleo de T e anotado N (T ). Assim,
Im T = {T (v) ∈ W ; v ∈ V }
N (T ) = {v ∈ V ; T (v) = 0}Obs.: Por definição T é sobrejetora se Im T = W e T é injetora se
u 6= v implica T (u) 6= T (v).
Proposição 2.3 Seja T : V → W linear. São equivalentes:(a) N (T ) = {0}(b) T é injetora(c) T transforma cada conjunto LI de vetores de V em conjunto LI de vetoresde W.
Dem. (a) ⇔ (b): N (T ) = {0} ⇔ T (w) = 0 implica w = 0 ⇔ T (u− v) = 0implica u− v = 0 ⇔ T (u) = T (v) implica u = v ⇔ T é injetora.
(b) ⇒ (c): Seja X ⊂ V um conjunto LI e seja Y = T (X). Vamos provarque Y é LI. De fato, se a1y1 + ...+aryr = 0 onde r ∈ N e yi = T (xi), 1 ≤ i ≤r, xi ∈ X, ai ∈ K, então a1T (x1)+...+arT (xr) = 0 ∴ T (a1x1+...+arxr) = 0,donde a1x1+...+arxr = 0 (pois N (T ) = {0}), o que implica a1 = ... = ar = 0(pois X é LI), resultando Y ser LI.
(c) ⇒ (a): Todo vetor v 6= 0 é LI, donde T (v) é LI, ou seja, T (v) 6= 0.Portanto: N (T ) = {0}.Obs.: Se T : V → W é linear e v1, ..., vn geram V , então é claro que
CAPÍTULO 2. APLICAÇÕES LINEARES 21
T (v1), ..., T (vn) geram Im T pois todo w ∈ Im T é da forma w = T (v) paraalgum v ∈ V e v = a1v1 + ... + anvn. Resulta que, se V tem dimensão finita,então dim Im T ≤ dim V .
Definição 2.3 Seja T : V → W linear, V de dimensão finita. O posto de Té a dimensão de Im T :
r = posto(T ) = dim Im T , donde r ≤ dim V.
Proposição 2.4 Seja T : V → W linear. São equivalentes:(a) T é sobrejetora(b) T transforma conjunto de geradores de V em conjunto de geradores deW.
Dem. (a) ⇒ (b):Sejam X um conjunto de geradores de V e Y = T (X). Vamos provar que
Y gera W. Se w ∈ W e T é sobrejetora, existe v ∈ V tal que w = T (v).
Mas v =m∑
i=1
aixi, ai ∈ K, xi ∈ X. Logo, T (v) =m∑
i=1
aiT (xi) =m∑
i=1
aiyi com
yi ∈ Y , ou seja, Y gera W.(b) ⇒ (a):Sejam X um conjunto de geradores de V e Y = T (X). Então Y gera W.
Se w ∈ W , temos w =
p∑i=1
aiyi, ai ∈ K, yi ∈ Y, yi = T (xi), xi ∈ X. Logo,
w =
p∑i=1
aiT (xi) = T
(p∑
i=1
aixi
)= T (v) com v ∈ V , isto é, T é sobrejetora.
Exemplo 2.1.6 Seja T : C3 → C3, T (x1, x2, x3) = (x1 − x2, 2x1 + x2 +3x3,−x1−2x2−3x3). T é linear e Im T é gerada por T (1, 0, 0) = (1, 2,−1) =w1, T (0, 1, 0) = (−1, 1,−2) = w2 e T (0, 0, 1) = (0, 3,−3) = w3. É fácil verque w1 e w2 são LI e que w3 = w1 + w2. Portanto, {w1, w2} é base de Im Te posto(T ) = r = 2. O núcleo de T é definido pelas equações:
x1 − x2 = 0
2x1 + x2 + 3x3 = 0
−x1 − 2x2 − 3x3 = 0
A solução deste sistema é dada por x1 = x2 = −x3. Logo: N (T ) ={(−t,−t, t) ∈ C3; t ∈ C} e, por exemplo, (−1,−1, 1) é base de N (T ).
Observemos que dim C3 = 3 = dim N (T ) + dim Im T , o que ilustra oteorema seguinte.
CAPÍTULO 2. APLICAÇÕES LINEARES 22
Proposição 2.5 (Teorema do núcleo e da imagem)Sejam V, W espaços vetoriais sobre K e T : V → W linear. Se V tem
dimensão finita, então:
dim V = dim N (T ) + dim Im T.
Dem. Seja {v1, ..., vs} base de N (T ) e sejam vs+1, ..., vn ∈ V tais que{v1, ..., vs, vs+1, ..., vn} seja base de V. Se w = T (v) ∈ Im T e v = a1v1 + ...+anvn, então w = as+1T (vs+1) + ... + anT (vn) já que T (v1) = ... = T (vs) = 0;logo T (vs+1), ..., T (vn) geram Im T .
Além disso, esses vetores são LI; de fato, se bs+1T (vs+1)+ ....+bnT (vn) =0, então T (bs+1vs+1 + ... + bnvn) = 0, ou seja, bs+1vs+1 + ... + bnvn ∈ N (T ).Portanto, podemos escrever bs+1vs+1 + ... + bnvn = b1v1 + ... + bsvs.
Como v1, ..., vs, vs+1, ..., vn são LI, resulta bs+1 = ... = bn = 0 (e tambémb1 = ... = bs = 0). Resulta que {T (vs+1), ..., T (vn)} é base de Im T edim Im T = n− s = dim V − dim N (T ), donde a tese.
Corolário 2.5.1 Sejam T : V → W linear, dim V = n, dim W = p.Então:(a) T é injetora ⇔ r = posto(T ) = n. Neste caso, dim V ≤ dim W .(b) T é sobrejetora ⇔ r = posto(T ) = p. Neste caso, dim V ≥ dim W .
Corolário 2.5.2 Seja T : V → W linear, com dim V = dim W < ∞. Sãoequivalentes:(a) T é bijetora;(b) T é injetora;(c) T é sobrejetora;(d) se {v1, ..., vn} é base de V, então {Tv1, ..., T vn} é base de W;(e) existe base {v1, ..., vn} de V tal que {Tv1, ..., T vn} seja base de W.
Dem. (a) ⇒ (b): É óbvio.(b) ⇒ (c): Como T é injetora, temos posto(T ) = dim V = dim W = n,
donde Im T = W .(c) ⇒ (d): Tv1, ..., T vn geram Im T = W . Como dim W = n, resulta
que {Tv1, ..., T vn} é base de W.(d) ⇒ (e): É óbvio.(e) ⇒ (a): Seja {v1, ..., vn} base de V tal que {Tv1, ..., T vn} seja base de
W. Como Tv1, ..., T vn ∈ Im T e geram W resulta que W ⊂ Im T , dondeIm T = W , ou seja, T é sobrejetora.
CAPÍTULO 2. APLICAÇÕES LINEARES 23
Se v = a1v1 + ... + anvn é tal que T (v) = 0, então
a1T (v1) + ... + anT (vn) = 0,
donde a1 = ... = an = 0 pois Tv1, ..., T vn são LI. Logo, v = 0 e T é injetora.Portanto, T é bijetora.
Exercícios
1. Seja T : V → W linear. Prove que são equivalentes:(a) T é injetora;(b) para toda decomposição V = V1⊕V2 tem-se T (V ) = T (V1)⊕T (V2)
2. Ache T : R2 → R linear tal que T (1, 1) = −1 e T (1, 0) = 3.
3. Seja T : V → W linear. Prove que se T (v1), ..., T (vn) são LI, entãov1, ..., vn são LI.
4. Ache T : R3 → R4 linear cuja imagem seja gerada por (1,0,2,-4) e(0,2,-1,3).
5. Seja T : V → V linear. Prove que se Tv1, ..., T vn geram V, entãov1, ..., vn geram V.
6. Seja T : R2 → R2 definido por T (x, y) = (ax + by, cx + dy), comad− bc 6= 0. Prove:(a) v 6= 0 ⇒ Tv 6= 0.(b) Toda reta l ⊂ R2 é transformada por T numa reta.(c) T transforma retas paralelas em retas paralelas.
2.2 Composição e Inversão de Aplicações Lin-eares
Proposição 2.6 Sejam U, V, W espaços vetoriais sobre o corpo K e T :U → V, L : V → W aplicações lineares. Então a composta L ◦ T : U → Wé linear.
Dem. Se u, v ∈ U , então
(L ◦ T )(u + v) = L(T (u + v)) = L(Tu + Tv) = L ◦ T (u) + L ◦ T (v).
CAPÍTULO 2. APLICAÇÕES LINEARES 24
Se a ∈ K e u ∈ U , então
(L ◦ T )(au) = L(T (au)) = L(aT (u)) = aL(T (u)) = a(L ◦ T )(u).
Resulta que L ◦ T é linear.
Proposição 2.7 Seja T : V → W linear bijetora. Então a aplicação inversaT−1 : W → V também é linear (e bijetora).
Dem. Sejam w1 = T (v1) e w2 = T (v2) elementos arbitrários de W. Então:
T−1(w1+w2) = T−1(Tv1+Tv2) = T−1(T (v1+v2)) = v1+v2 = T−1(w1)+T−1(w2).
Se a ∈ K e w = T (v) ∈ W , então: T−1(aw) = T−1(aT (v)) = T−1(T (av)) =av = aT−1(w).
Resulta que T−1 : W → V é linear.
Definição 2.4 Uma aplicação linear T : V → W é um isomorfismo de Vsobre W se T é bijetora. Se, além disso, V = W então diremos que T é umautomorfismo de V. Se existe um isomorfismo de V sobre W dizemos que Ve W são isomorfos.
Corolário 2.7.1 A composta de dois isomorfismos é um isomorfismo. Ainversa de um isomorfismo é um isomorfismo.Obs.: Representamos por L(V, W ) o conjunto das aplicações lineares de Vem W. No caso em que V = W é usual chamar uma aplicação linear T :V → V de operador linear em V e representar L(V, V ) simplesmente porL(V ) e por GL(V ) o conjunto dos automorfismos de V.
Proposição 2.8 Seja V um espaço vetorial sobre o corpo K. Se T, L ∈GL(V ) então T ◦ L ∈ GL(V ) e (T ◦ L)−1 = L−1 ◦ T−1.
Dem. Já vimos que a composta de automorfismos é automorfismo. Bastaentão verificar que
(T ◦ L) ◦ (L−1 ◦ T−1) = (L−1 ◦ T−1) ◦ (T ◦ L) = I,
operador identidade de V, o que é imediato.
CAPÍTULO 2. APLICAÇÕES LINEARES 25
Proposição 2.9 Se T : V → W é linear sobrejetora, então W é isomorfo
ao espaço quocienteV
N (T ).
Dem. Seja π : V → V
N (T )a aplicação quociente, isto é, π(v) = v +
N (T ), v ∈ V . É imediato que π é linear.
Seja L :V
N (T )→ W definida por L(v+N (T )) = T (v), ou seja, L◦π = T
(dizemos então que o diagrama abaixo comuta). Mostremos que L está bemdefinida e é injetora:
L(u +N (T )) = L(v +N (T )) ⇔ T (u) = T (v) ⇔ T (u− v) = 0 ⇔
⇔ u− v ∈ N (T ) ⇔ u +N (T ) = v +N (T ).
Além disso, L é sobrejetora pois, dado w ∈ W , existe v ∈ V tal queT (v) = w (já que T é sobrejetora) e, portanto, L(v + N (T )) = w. Logo,L é bijetora. Resta provar que L é linear. Sejam u, v ∈ V , então: L(u +N (T ) + v + N (T )) = L(u + v + N (T )) = T (u + v) = T (u) + T (v) =L(u +N (T )) + L(v +N (T )). Se a ∈ K e v ∈ V , então: L(a(v +N (T ))) =
(av+N (T )) = T (av) = aT (v) = aL(v+N (T )). Resulta que L :V
N (T )→ W
é um isomorfismo.
V
N (T )
µ
L
WV -T
?
π >
Corolário 2.9.1 Sejam V um espaço vetorial sobre K, U e W subespaços de
V tais que V = U ⊕W . Então,V
Ué isomorfo a W.
Dem. Seja p : V → W definida por p(v) = w, onde v = u + w com u ∈ U e
CAPÍTULO 2. APLICAÇÕES LINEARES 26
w ∈ W . É imediato que p é linear sobrejetora e
N (p) = {v ∈ V ; p(v) = 0} = U.
Portanto, pela proposição 2.9, temos queV
Ué isomorfo a W.
Corolário 2.9.2 Sejam T : V → W linear e U ⊂ V subespaço tal queV = N (T )⊕ U . Então U é isomorfo a Im T .
Dem. Decorre da proposiçã 2.9 queV
N (T )é isomorfo a Im T . Pelo corolário
2.9.1 temos queV
N (T )é isomorfo a U. Resulta que U e Im T são isomorfos.
Proposição 2.10 Sejam U e W subespaços do espaço vetorial V de dimen-são finita sobre o corpo K. Então:
dim U + dim W = dim (U + W ) + dim (U ∩W ).
Dem. Seja T : U ×W → V, T (u,w) = u − w. É imediato que T é linear.Além disso,
Im T = {v = u− w; u ∈ U, w ∈ W} = U + W
N (T ) = {(u,w) ∈ U ×W ; u = w} = {(u, u) ∈ U ×W, u ∈ U ∩W}.É fácil ver que a aplicação u ∈ U ∩W 7−→ (u, u) ∈ N (T ) é um isomor-
fismo. Portanto, dim N (T ) = dim (U ∩ W ). Pela proposição 2.5, temos:dim (U ×W ) = dim (U + W ) + dim (U ∩W ), ou seja,
dim U + dim W = dim (U + W ) + dim(U ∩W ).
Proposição 2.11 Todo espaço vetorial de dimensão n sobre K é isomorfo aKn.
Dem. Seja V um espaço vetorial de dimensão n sobre K. Seja {v1, ..., vn}uma base de V. Se v ∈ V , então v = a1v1+...+anvn, onde ai ∈ K, 1 ≤ i ≤ n.
Seja T : V → Kn definida por T (v) = T (a1v1 + ...+anvn) = (a1, ..., an) ∈Kn. É fácil verificar que T é um isomorfismo.
CAPÍTULO 2. APLICAÇÕES LINEARES 27
Corolário 2.11.1 Todos os espaços vetoriais de mesma dimensão finita nsobre K são isomorfos entre si.
Exemplo 2.2.1 Seja T : V → V linear tal que T 3 = 0. Prove que I − T éum automorfismo de V.
A igualdade formal1
1− x= 1+x+x2+x3+... nos sugere que (I−T )−1 =
I + T + T 2 + T 3 + ... = I + T + T 2 já que T 3 = 0, donde T n = 0 para n ≥ 3.De fato, temos:
(I − T )(I + T + T 2) = I + T + T 2 − T − T 2 − T 3 = I
(I + T + T 2)(I − T ) = I − T + T − T 2 + T 2 − T 3 = I
Portanto, I − T é um automorfismo de V e (I − T )−1 = I + T + T 2.
Exemplo 2.2.2 U e W sendo dois subespaços suplementares do espaço ve-torial V, isto é, V = U⊕W , todo v ∈ V se escreve, de modo único, na formav = u + w, onde u ∈ U e w ∈ W . Consideremos T : U × W → U ⊕ Wdefinida por T (u,w) = u + w. É fácil ver que T é linear bijetora, ou seja, Té um isomorfismo de U ×W sobre U ⊕W .
Reciprocamente, dados dois espaços vetoriais U e W sobre K, para todov = (u,w) de V = U ×W temos, de modo único: (u, w) = (u, 0) + (0, w).Se U ′ e W ′ são, respectivamente, os subespaços de V descritos por (u, 0)e (0, w), então é claro que U ′ é isomorfo a U e que W ′ é isomorfo a W.Então, V = U ×W = U ′ ⊕W ′. Se identificarmos U com U ′ bem como Wcom W ′, então poderemos considerar U e W como subespaços suplementaresde U × W , o que significa identificar os dois espaços isomorfos U × W eU ⊕W . Nestas condições, a aplicação de U ⊕W sobre U dada por u+w 7−→u, se identifica com p1 : U × W → U, p1(u,w) = u, e é a projeção deV = U ⊕ W sobre o subespaço U, paralelamente ao subespaço suplementarW. Analogamente, a aplicação u + w 7−→ w se identifica com a projeçãop2 : U ×W → W, p2(u,w) = w de V sobre o subespaço W paralelamente aU.
Em particular, se V = U⊕W tem dimensão finita, então: dim (U×W ) =dim (U ⊕W ) = dim U + dim W , já visto anteriormente.
Exercícios1. Sejam T, L ∈ L(V ) tais que L ◦ T = T ◦ L. Prove:
(a) L(N (T ) ⊂ N (T );(b) L(Im T ) ⊂ Im T .
CAPÍTULO 2. APLICAÇÕES LINEARES 28
2. Sejam L : V → U, T : U → W lineares. Se U, V e W têm dimensãofinita, prove que:(a) posto(T ◦ L) ≤ posto(T );(b) posto(T ◦ L) ≤ posto(L).
3. Sejam V um espaço vetorial de dimensão finita sobre K, L e T elementosde L(V ) tais que L ◦ T = I. Mostre que L é invertível e que T = L−1.
4. Sejam T : V → U linear e W ⊂ V subespaço. Seja T |W = L : W → Ua restrição de T a W, isto é, T (w) = L(w) para todo w ∈ W . Prove:(a) L é linear;(b) N (L) = N (T ) ∩W ;(c) Im L = T (W ).
5. Seja V = Pn+1 o espaço vetorial dos polinômios de grau menor ou iguala n, com coeficientes reais. Ache um suplementar do subespaço W de
V formado pelos polinômios p(t) tais que p(1) = 0 e prove queV
Wé
isomorfo a R.
2.3 Álgebra das Aplicações LinearesSe V eW são espaços vetoriais sobre o corpo K, vimos que L(V, W ) representao conjunto das aplicações lineares de V em W. Se L, T ∈ L(V,W ) e a ∈ K,definimos L + T e aT , aplicações de V em W, por:
(L + T )(v) = L(v) + T (v)
(aT )(v) = aT (v),
para todo v ∈ V . É fácil verificar que L+T e aT são lineares, isto é, elementosde L(V, W ). Assim, no conjunto L(V, W ) temos duas leis, (L, T ) 7−→ L+T e(a, T ) 7−→ aT , e deixamos aos cuidados do leitor provar que são satisfeitos osoito postulados que definem uma estrutura vetorial. Lembramos apenas quea aplicação linear zero é a aplicação 0(v) = 0 para todo v ∈ V e que a opostade T ∈ L(V, W ) é a aplicação (−T ) tal que (−T )(v) = −T (v) para todov ∈ V . Concluímos que L(V, W ), munido das leis de adição (L, T ) 7−→ L+Te de multiplicação por escalar (a, T ) 7−→ aT , é um espaço vetorial sobre K.
Estrutura de Anel de L(V )
Se L, T ∈ L(V ), vimos que L + T e L ◦ T são elementos de L(V ). Assim,L(V ) está munido de duas leis, (L, T ) 7−→ L + T e (L, T ) 7−→ L ◦ T , que
CAPÍTULO 2. APLICAÇÕES LINEARES 29
tornam L(V ) um anel com identidade, isto é:(a) para a adição L(V ) é um grupo abeliano:
1. L + T = T + L;
2. (L + T ) + S = L + (T + S);
3. existe 0 ∈ L(V ) tal que T + 0 = T ;
4. dado T ∈ L(V ) existe (−T ) ∈ L(V ) tal que T + (−T ) = 0, quaisquerque sejam L, T, S ∈ L(V ).
(b) o “produto” (L, T ) 7−→ L ◦ T tem as propriedades:
1. (L ◦ T ) ◦ S = L ◦ (T ◦ S);
2. existe I ∈ L(V ) tal que I ◦ T = T ◦ I = T ;
3. (L + T ) ◦ S = L ◦ S + T ◦ S e L ◦ (T + S) = L ◦ T + L ◦ S, quaisquerque sejam L, T, S ∈ L(V ).
Estrutura de Grupo de GL(V )
O conjunto GL(V ) dos automorfismos do espaço vetorial V é um subcon-junto de L(V ); se L, T ∈ GL(V ) vimos que L◦T e T−1 pertencem a GL(V ) ea identidade I de V também pertence a GL(V ). Portanto, GL(V ) munido daoperação (L, T ) 7−→ L ◦ T é um grupo, chamado grupo linear de V. GL(V )é o grupo dos elementos invertíveis do anel L(V ).
Estrutura de Álgebra de L(V )
Se V é um espaço vetorial sobre K, L(V ) está munido das leis:(1) adição: (L, T ) 7−→ L + T ;(2) multiplicação por escalar: (a, T ) 7−→ aT ;(3) produto: (L, T ) 7−→ L ◦ T .
Para as leis (1) e (2), L(V ) tem uma estrutura de espaço vetorial sobreK. Para as leis (1) e (3), L(V ) tem uma estrutura de anel. Além disso, é fácilver que a(L ◦ T ) = (aL) ◦ T = L ◦ (aT ), quaisquer que sejam L, T ∈ L(V ) ea ∈ K. Vemos assim que L(V ) tem uma estrutura de álgebra (linear) sobreK, de acordo com a seguinte definição.
Definição 2.5 Sejam K um corpo a A um conjunto munido de uma adição,de uma multiplicação por escalar e de um produto. Dizemos que A é umaálgebra sobre K se:
CAPÍTULO 2. APLICAÇÕES LINEARES 30
(1) A, munido da adição e da multiplicação por escalar, é um espaço vetorialsobre K.(2) A, munido da adição e do produto, é um anel.(3) a(L · T ) = (aL) · T = L · (aT ), quaisquer que sejam L, T ∈ A e a ∈ K.
Exemplo 2.3.1 O corpo C dos complexos é uma álgebra sobre R.
Exemplo 2.3.2 F(R,R) munido das leis f +g, f ·g, af é uma álgebra sobreR.
Exemplo 2.3.3 No espaço vetorial L(V ) consideremos o produto (L, T ) 7−→[L, T ] = L ◦ T − T ◦ L (colchete de Lie de L e T). É imediato que:(1)
[[L, T ], S
]=
[L, [T, S]
]
(2) [L + T, S] = [L, S] + [T, S] e [L, T + S] = [L, T ] + [L, S](3) [aL, T ] = [L, aT ] = a[L, T ], quaisquer que sejam L, T, S ∈ L(V ) e a ∈ K.Portanto o espaço L(V ), munido do produto (L, T ) 7−→ [L, T ], é uma álgebrasobre K, anotada gl(V ).
2.4 Exercícios do Capítulo 21. Sejam V1, V2 espaços vetoriais isomorfos entre si, bem como W1 e W2.
Prove que L(V1,W1) é isomorfo a L(V2,W2).
2. Sejam V, M espaços vetoriais sobre K, V = V1⊕ V2. Prove que L(V1⊕V2,W ) é isomorfo a L(V1,W )× L(V2, W ).
3. Seja V o espaço vetorial real das funções t 7−→ x(t) de [0, 1] em R,
de classe C∞. Consideremos em V os operadores x 7−→ f(x) =dx
dte
x 7−→ g(x) com g(x)(t) =
∫ t
0
x(u)du. Prove que se x(0) 6= 0 então
(g ◦ f)(x) 6= (f ◦ g)(x).
4. Sejam V um espaço vetorial e {v1, ..., vn} uma base de V. Prove que rvetores u1, ..., ur ∈ V , r ≤ n, são LI se, e só se, existe um automorfismoT de V tal que T (vj) = uj, 1 ≤ j ≤ r.
5. Sejam f : V → W linear e ϕ : V × W → V × W tal que ϕ(v, w) =(v, w − f(v)). Prove que ϕ é um automorfismo de V ×W .
6. Dois operadores lineares S, T ∈ L(V ) são semelhantes se existe oper-ador invertível P ∈ GL(V ) tal que S = P−1TP . Se V tem dimensãofinita, prove que operadores semelhantes têm o mesmo posto.
CAPÍTULO 2. APLICAÇÕES LINEARES 31
7. Seja V um espaço vetorial de dimensão n sobre K. Para k = 1, 2, ..., n,exiba T : V → V linear tal que T k = 0 mas T j 6= 0 se j < k.
8. Sejam V e W espaços vetoriais de dimensão finita e T : V → W linear.Prove:(a) T é injetora ⇔ existe S : W → V linear tal que S ◦ T = idV
(b) T é sobrejetora ⇔ existe S : W → V linear tal que T ◦ S = idW
9. Seja V um espaço vetorial de dimensão infinita enumerável de base(v1, v2, ..., vn, ...). Seja T : V → V o operador linear definido porT (v2k+1) = 0, T (v2k) = vk, k ∈ N.(a) Prove que T é sobrejetora mas não injetora.(b) Prove que existe S : V → V linear injetora, mas não sobrejetora,tal que T ◦ S = id.
10. Sejam V um espaço vetorial de dimensão finita, V ′ ⊂ V um subespaço,W um espaço vetorial, W ′ ⊂ W um subespaço, e T : V → W linear.Prove:(a) dim
(T (V ′)
)= dim V ′ − dim (N (T ) ∩ V ′)
(b) dim T−1(W ′) = dim N (T ) + dim (Im T ∩W ′).
11. E0, E1, ..., En sendo espaços vetoriais sobre o mesmo corpo K (n ≥ 2)dizemos que o diagrama
E0f0−→ E1 −→ ... −→ Ek−1
fk−1−−→ Ekfk−→ Ek+1 −→ ... −→ En−1
fn−1−−→ En
é uma sequência exata se para 0 ≤ k ≤ n− 2 tem-se N fk+1 = Im fk,as aplicações fk sendo lineares (0 ≤ k ≤ n − 1). Se E0 (resp. En) éigual a {0}, que escrevemos 0, não escreveremos f0 (resp. fn−1) pois sóexiste uma aplicação linear de 0 em E1 (resp. de En−1 em 0).(a) Prove:[0 → E
f−→ F é uma sequência exata ] ⇔ f é injetora[E
f−→ F → 0 é uma sequência exata ] ⇔ f é sobrejetora.(b) Prove que os diagramas seguintes são sequências exatas:
0 → Fi−→ E
j−→ E
F→ 0
0 → N fi−→ E
f−→ Fj−→ F
Im f→ 0
(f aplicação linear, i injeção canônica, j sobrejeção canônica).
Capítulo 3
Matrizes
3.1 DefiniçõesDefinição 3.1 Sejam K um corpo, m e n inteiros positivos e In = {1, 2, ..., n}.Uma matriz m× n sobre K é uma função (i, j) ∈ Im × In 7−→ aij ∈ K. Emgeral os escalares aij são dispostos em m linhas e n colunas, o primeiro índiceindicando a linha e o segundo a coluna ocupadas por aij:
A =
a11 a12 ... a1n
a21 a22 ... a2n
... ... ... ...am1 am2 ... amn
= (aij), 1 ≤ i ≤ m, 1 ≤ j ≤ n
Os escalares aij são os elementos da matriz A = (aij). Observemos queduas matrizes, A = (aij) e B = (bij), ambas m × n, são iguais se, e só se,aij = bij para todo par (i, j).
A matriz zero, m× n, é a que tem todos seus elementos iguais a zero.A matriz A é quadrada quando o número de linhas é igual ao de colunas,
isto é, quando ela é do tipo n × n; n é a ordem da matriz quadrada A.Numa matriz quadrada os elementos aii, que têm os índices iguais, formama diagonal principal.
A matriz identidade (ou unidade) de ordem n é a matriz quadrada In
na qual todos os elementos da diagonal principal são iguais a 1 e os demais
iguais a zero. Por exemplo, I3 =
1 0 00 1 00 0 1
. O elemento genérico de In é o
32
CAPÍTULO 3. MATRIZES 33
símbolo de Kronecker, definido por:
δij =
{1 se i = j0 se i 6= j
.
Assim, In = (δij)1≤i,j≤n.Vamos introduzir no conjunto Mm×n(K), das matrizes m × n sobre K,
uma estrutura vetorial. Para isto precisamos definir a adição de matrizes eo produto de uma matriz por um escalar.
Definição 3.2 Sejam A = (aij) e B = (bij) matrizes m × n. A soma C == A + B é a matriz m × n, C = (cij), tal que cij = aij + bij para todo par(i, j).
A adição matricial goza das seguintes propriedades de verificação imedi-ata:(1) A + B = B + A(2) A + (B + C) = (A + B) + C(3) A + 0 = A, onde 0 é a matriz zero m× n(4) A + (−A) = 0 onde, sendo A = (aij), temos (−A) = (−aij).
Definição 3.3 Sejam c ∈ K e A = (aij) ∈ Mm×n(K). A matriz B = (bij),onde bij = c·aij para todo par (i, j), é o produto de c por A, anotado B = c·A.É claro que B ∈ Mm×n(K).
A multiplicação de matriz por escalar tem as seguintes propriedades, defácil verificação:(1) 1 · A = A(2) c · (A + B) = c · A + c ·B(3) (c + d) · A = c · A + d · A(4) c(d · A) = (cd) · A,quaisquer que sejam A,B ∈ Mm×n(K) e c, d ∈ K.
Vemos assim que Mm×n, munido das leis de adição e de multiplicaçãopor escalar, é um espaço vetorial sobre K. Quando m = n escrevemos apenasMn(K) ou simplesmente Mn.
Vamos achar uma base para Mm×n(K). Para isso, consideremos as ma-trizes Eij, 1 ≤ i ≤ m, 1 ≤ j ≤ n, onde cada Eij é m × n e tem todos oselementos iguais a zero, exceto o situado na linha i e na coluna j, que é iguala um:
CAPÍTULO 3. MATRIZES 34
Eij =
0 ... 0 ... 0... . . . ... . . . ...0 ... 1 ... 0... . . . ... . . . ...0 ... 0 ... 0
↑coluna j
← linha i
Proposição 3.1 O conjunto {E11, ..., E1n, ..., Em1, ..., Emn} é uma base deMm×n(K).
Dem. Se A = (aij) é m× n é claro que A =m∑
i=1
n∑j=1
aijEij, ou seja, as ma-
trizes Eij geram Mm×n(K). Além disso, elas são LI, pois sem∑
i=1
n∑j=1
aijEij =
0, então A = (aij) = 0, donde aij = 0 para todo par (i, j).
Corolário 3.1.1 dim Mm×n(K) = m · n.
3.2 Produto de MatrizesDefinição 3.4 Sejam A = (aij) – m × n – e B = (bij) – n × p, ou seja,o número de colunas de A é igual ao número de linhas de B. O produto
C = A ·B é a matriz m× p, C = (cij), tal que cij =n∑
k=1
aikbkj.
Exemplo 3.2.1 (1 00 2
)(1 23 4
)=
(1 26 8
)
(1 23 4
)(1 00 2
)=
(1 43 8
)
o que mostra que o produto não é comutativo.
Proposição 3.2 (a) (AB)C = A(BC)(b) A(B1 + B2) = AB1 + AB2; (A1 + A2)B = A1B + A2B
CAPÍTULO 3. MATRIZES 35
(c) InA = AIn = A,onde se supõem definidos os produtos e somas (das matrizes) indicados, e em(c) A é m× n.
Dem. (a) Sejam: A = (aij) do tipo m× nB = (bij) do tipo n× pC = (cij) do tipo p× q
.
Então: AB = (dij) é m× p e (AB)C = (eij) é m× qBC = (fij) é n× q e A(BC) = (gij) é m× q,
ou seja, se o primeiro membro está definido, então o segundo também, eé do mesmo tipo.
Temos: eij =
p∑
k=1
dikckj =
p∑
k=1
ckj
n∑r=1
airbrk
gij =n∑
r=1
airfrj =n∑
r=1
air
p∑
k=1
brkckj,
o que mostra que eij = gij para todo i e todo j. As demonstrações de (b)e (c) são deixadas a cargo do leitor.
3.3 Aplicação Linear × MatrizSejam V e W espaços vetoriais sobre o corpo K, E = (v1, ..., vn) e F =(w1, ..., wm) bases ordenadas de V e W, respectivamente, e T : V −→ Wlinear.
Se v = x1v1 + ... + vnvn =n∑
j=1
xjvj, T (v) = y1w1 + ... + ymwm =m∑
i=1
yiwi
e T (vj) =m∑
i=1
aijwi, então:
T (v) =n∑
j=1
xjT (vj) =n∑
j=1
m∑i=1
aijxjwi.
CAPÍTULO 3. MATRIZES 36
Portanto:
yi =n∑
j=1
aijxj (i = 1, 2, ..., m)
Pondo:
[v]E =
x1
x2...
xn
, [Tv]F =
y1
y2...
ym
e
[T
]EF = (aij) 1 ≤ i ≤ m
1 ≤ j ≤ n
,
o sistema acima pode ser escrito na forma matricial[T (v)
]F =
[T
]EF ·
[v]E .
Assim, fixadas as bases ordenadas E e F , a toda aplicação linear T : V −→W podemos associar uma matriz
[T
]EF = (aij) definida por T (vj) =
m∑i=1
aijwi,
ou seja,
[T
]EF =
a11 a12 ... ain
... ... ... ...am1 am2 ... amn
.
[T
]EF é a matrix de T em relação às bases E de V e F de W. Ela é do tipo
m× n e, para cada j, as componentes de T (vj) na base F formam a colunaj dessa matriz.
Reciprocamente, dada uma matriz m × n, A = (aij), consideremos os
vetores uj, 1 ≤ j ≤ n, definidos por uj =m∑
i=1
aijwi. Seja T : V −→ W a
única aplicação linear tal que T (vj) = uj, 1 ≤ j ≤ n. Então é claro que[T
]EF = A. Existe, pois, uma bijeção entre L(V,W ) e Mm×n(K), bijeção esta
que depende da escolha das bases ordenadas E de V e F de W.
Exemplo 3.3.1 Sejam V um espaço vetorial sobre K e B = {v1, ..., vn} umabase de V. Sejam os operadores lineares I(v) = v e 0(v) = 0 para todo v ∈ V .É claro que
[I]B
B= In e
[0]B
B= 0.
Exemplo 3.3.2 Seja V = Pn o espaço vetorial dos polinômios a uma var-iável e de grau menor que n, com coeficientes em K, juntamente com o
CAPÍTULO 3. MATRIZES 37
polinômio zero. Sejam B = {1, t, ..., tn−1} base de V e D : V −→ V aaplicação derivada:
D(a0 + a1t + ... + an−1tn−1) = a1 + 2a2t + ... + (n− 1)an−1t
n−2.
Então:
[D
]B
B=
0 1 0 ... 00 0 2 ... 0... ... ... ... ...0 0 0 ... n− 10 0 0 ... 0
Exemplo 3.3.3 Sejam I : R3 −→ R3 a identidade, E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}e F = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} bases de R3. Vamos achar
[I]EF .
Temos:
I(1, 0, 0) = (1, 0, 0); I(0, 1, 0) = (1, 1, 0)−(1, 0, 0); I(0, 0, 1) = (1, 1, 1)−(1, 1, 0).
Portanto:[I]EF =
1 −1 00 1 −10 0 1
Exemplo 3.3.4 Seja T : R3 −→ R3 definida por T (x, y, z) = (x + y + z, y +z, z). É claro que T é linear. Sejam E e F as bases do exemplo 3.3.3. Vamosachar
[T
]EF e
[T
]EE .
Temos: T (1, 0, 0) = (1, 0, 0); T (0, 1, 0) = (1, 1, 0); T (0, 0, 1) = (1, 1, 1).Portanto:
[T
]EF =
1 0 00 1 00 0 1
= I3
E:
[T
]EE =
1 1 10 1 10 0 1
Exemplo 3.3.5 Seja A = (aij) m×n sobre K. Seja TA : Kn −→ Km tal que
TA(X) = A ·X, onde X =
x1...
xn
. É claro que TA é linear e que
[T
]EF = A,
onde E e F são as bases canônicas de Kn e Km, respectivamente.
CAPÍTULO 3. MATRIZES 38
Exemplo 3.3.6 (Rotação)Sejam E = (e1, e2) a base canônica do R2 e F = (f1, f2) onde
f1 = cos α · e1 + sen α · e2
f2 = −sen α · e1 + cos α · e2, α ∈ R .
-e1
µ
e26
f1If2
αI
α
ª
Definamos T : R2 −→ R2 linear por meio de:
Te1 = f1
Te2 = f2
Então:
[T
]EE =
[cos α −sen αsenα cos α
]
A imagem de(
xy
)∈ R2 por T é o vetor
[cos α −sen αsenα cos α
] (xy
)=
[x · cos α− y · sen αx · senα + y · cos α
]∈ R2.
A transformação linear T é a rotação de α em torno da origem.
Proposição 3.3 Sejam V e W espaços vetoriais sobre K, E = (v1, ..., vn) eF = (w1, ..., wm) bases ordenadas de V e W, respectivamente. A aplicaçãoT 7−→ [
T]EF , que a cada elemento de L(V,W ) associa sua matriz em relação
às bases dadas, é um isomorfismo de L(V,W ) sobre Mm×n(K).
Dem. Sejam T e S elementos de
L(V, W ), T (vj) =m∑
i=1
aijwi, S(vj) =m∑
i=1
bijwi,
CAPÍTULO 3. MATRIZES 39
isto é,[T
]EF = (aij) e
[S]EF = (bij).
Como (T + S)(vj) =m∑
i=1
(aij + bij)wi resulta que
[T + S
]EF = (aij + bij) 1 ≤ i ≤ m
1 ≤ j ≤ n
=[T
]EF +
[S]EF .
Se c ∈ K temos (cT )(vj) =m∑
i=1
caijwi, isto é,[cT
]EF = (caij) = c · [T ]E
F .
Portanto, a aplicação T 7−→ [T
]EF é linear (e bijetora), ou seja, um
isomorfismo.
Corolário 3.3.1 dim L(V, W ) = dim V · dim W .
Proposição 3.4 Sejam U, V, W espaços vetoriais sobre K, E = (u1, ..., um),F = (v1, ..., vn) e G = (w1, ..., wp) bases ordenadas de U, V, W, respectiva-mente. Se U
S−→ VT−→ W são lineares, então:
[T ◦ S
]EG =
[T
]FG ·
[S]EF .
Dem. Sejam: [T
]FG = (aij) – p× n
[S]EF = (bij) – n×m
[T ◦ S
]EG = (cij) – p×m
Então:
T (vk) =
p∑i=1
aikwi
S(uj) =n∑
k=1
bkjvk
(T ◦ S)(uj) =
p∑i=1
cijwi
CAPÍTULO 3. MATRIZES 40
Portanto:
T(S(uj)
)=
n∑
k=1
bkjT (vk) =n∑
k=1
p∑i=1
aikbkjwi,
donde:
cij =n∑
k=1
aikbkj,
que é a tese.O conjunto Mn(K) das matrizes de ordem n, munido das leis de adição
e multiplicação por escalar, é um espaço vetorial sobre K de dimensão n2.Mn(K), munido das operações de adição e multiplicação matriciais, é umanel (com unidade). Além disso, é fácil verificar que
c(AB) = (cA)B = A(cB)
quaisquer que sejam A,B ∈ Mn(K) e c ∈ K. Resulta que Mn(K) tem umaestrutura de álgebra sobre K. Vimos que o anel Mn(K) não é comutativo; oexemplo [
1 00 0
] [0 00 1
]=
[0 00 0
]
mostra que ele tem divisores de zero.Seja V um espaço vetorial sobre K, de dimensão n. Vimos que L(V )
e Mn(K) são duas álgebras sobre K. Fixada uma base B de V, a aplicaçãobijetora T ∈ L(V )
φ7−→ [T
]B
B∈ Mn(K) goza das seguintes propriedades:
(1)[L + T
]B
B=
[L
]B
B+
[T
]B
B, isto é, φ(L + T ) = φ(L) + φ(T )
(2)[aT
]B
B= a
[T
]B
B, isto é, φ(aT ) = a · φ(T )
(3)[L ◦ T
]B
B=
[L
]B
B· [T ]B
B, isto é, φ(L ◦ T ) = φ(L) · φ(T ), quaisquer que
sejam L, T ∈ L(V ) e a ∈ K.Uma tal φ chama-se um isomorfismo de álgebras, ou seja, L(V ) e Mn(K)
são álgebras isomorfas.
Exemplo 3.3.7 Vamos achar o centro do anel Mn(K), isto é, vamos de-terminar as matrizes A = (aij) de Mn(K) que comutam com toda ma-triz P = (pij) de Mn(K), ou seja, tais que AP = PA. Devemos ter
n∑
k=1
aikpkj =n∑
k=1
pikakj para todo par (i, j). Se P = Eii, isto é, pii = 1 e
prs = 0 para r 6= i ou s 6= i, então i 6= j implica aij = 0. Se P = Eij comi 6= j, isto é, pij = 1 e prs = 0 para r 6= i ou s 6= j, então aii = ajj. Logo, se
CAPÍTULO 3. MATRIZES 41
A comuta com toda matriz de Mn(K) ela é da forma A = a · In, e é evidenteque toda matriz a · In, a ∈ K, comuta com toda matriz de Mn(K). Estasmatrizes têm o nome de matrizes escalares.
Definição 3.5 Uma matriz quadrada A, n×n, é invertível se existe matrizquadrada B, de mesma ordem, tal que AB = BA = In.
Se uma tal matriz B existe, ela é única, pois se AC = In e BA = In,temos: B = B · In = B(AC) = (BA)C = In · C = C. esta matriz B, casoexista, chama-se a inversa de A, e é anotada B = A−1. Assim,
A · A−1 = A−1 · A = In,
o que mostra também que (A−1)−1 = A.Se A e B, ambas n× n, são invertíveis, então AB é invertível e
(AB)−1 = B−1A−1.
De fato, (AB)(B−1A−1) = A(BB−1)A−1 = A ·A−1 = In e (B−1A−1)(AB) =B−1(A−1 · A)B = B−1B = In. É claro que I−1
n = In.Vemos assim que o conjunto das matrizes invertíveis de Mn(K), com
a operação de multiplicação matricial, é um grupo. O isomorfismo φ :L(Kn) −→ Mn(K) visto acima, transforma o grupo GL(Kn) = GL(n,K)isomorficamente sobre o grupo das matrizes invertíveis de Mn(K). Em par-ticular, [
T−1]B
B=
([T
]B
B
)−1
.
Exemplo 3.3.8 Seja A, de ordem n, tal que a0In + a1A + ... + anAn = 0
com a0 6= 0. Então A é invertível.De fato, temos:(−a1
a0
In − ...− an
a0
An−1
)· A = A ·
(−a1
a0
In − ...− an
a0
An−1
)= In.
Logo, A−1 = −a1
a0
· In − ...− an
a0
· An−1
Proposição 3.5 Seja A ∈ Mn(K). Se existe B ∈ Mn(K) tal que BA = In
(ou AB = In), então A é invertível e B = A−1.
Dem. Sejam TA : Kn −→ Kn e TB : Kn −→ Kn as aplicações linearesassociadas a A e B, respectivamente. BA = In equivale a TB · TA = idKn,que implica ser TA injetora e TB sobrejetora e, portanto, ambas são bijetorase TB = T−1
A , donde A−1 = B.
CAPÍTULO 3. MATRIZES 42
Exercícios1. Dê uma base para M3(K).
2. Seja W o subespaço de Mn(K) formado pelas matrizes cujos elemen-tos são iguais a zero, exceto talvez os da diagonal principal. Qual adimensão de W?
3. Seja A ∈ Mn(R). A = (aij) é simétrica (resp. antissimétrica) se aij =aji (resp. aij = −aji) para todo (i, j). Ache uma base para o espaçodas matrizes simétricas (resp. antissimétricas) 3× 3.
4. Seja T : R4 −→ R2 dada por T (x1, x2, x3, x4) = (x2, x4). Ache umamatriz associada a T.
5. Sejam E =((1, 1, 0), (−1, 1, 1), (0, 1, 2)
)e F =
((2, 1, 1), (0, 0, 1), (1, 1, 1)
)
bases de C3. Ache[I]EF , onde I : C3 −→ C3 é a identidade.
6. Seja V o subespaço de F(R,R) = {f : R −→ R} gerado pelas funções1, t, et, e2t, te2t e seja D : V −→ V o operador de derivação. SeB = (1, t, et, e2t, te2t) é base de V, ache
[D
]B
B.
7. Estabeleça um isomorfismo entre o espaço vetorial real das matrizessimétricas n × n e o espaço das matrizes reais triangulares inferiores(aij = 0 se i < j). Idem entre as matrizes antissimétricas e as triangu-lares inferiores com a diagonal principal nula.
3.4 Mudança de BasesSejam V um espaço vetorial sobre K, E = (v1, ..., vn) e F = (w1, ..., wn) basesordenadas de V. Se v ∈ V , então
[v]E = P · [v]
F , onde P =[I]FE = (pij) é
tal que wj =n∑
i=1
pijvi.
Definição 3.6 P =[I]FE é a matriz de passagem da base E para a base F .
Exemplo 3.4.1 Sejam V = R3, E = (e1, e2, e3) – base canônica, F =((1,−1, 1), (1, 0, 0), (1, 1, 1)
)= (f1, f2, f3). Então:
P =[I]FE =
1 1 1−1 0 11 0 1
.
CAPÍTULO 3. MATRIZES 43
Se v = 2f1 + f2 + 3f3, então[v]E =
1 1 1−1 0 11 0 1
213
=
615
, isto é,
v = 6e1 + e2 + 5e3.
Proposição 3.6 Sejam V e W espaços vetoriais sobre K,
E = (v1, ..., vn), E ′ = (v′1, ..., v′n)
bases ordenadas de V,
F = (w1, ..., wm), F ′ = (w′1, ..., w
′m)
bases ordenadas de W,P =
[idv
]E ′E
a matriz de passagem de E para E ′, Q =[idW
]F ′F a matriz de passagem de F
para F ′.Se T : V −→ W é linear, então:
[T
]E ′F ′ = Q−1 · [T ]E
F · P.
Dem. Temos T = idW · T · idV . Pela proposição 3.4, vem:[T
]E ′F ′ =
[idW
]FF ′ ·
[T
]EF ·
[idV
]E ′E
Mas:In =
[idW
]F ′F ′ =
[idW
]FF ′ ·
[idW
]F ′F
eIn =
[idW
]FF =
[idW
]F ′F · [idW
]FF ′ ,
o que mostra que[idW
]FF ′ = Q−1. Resulta:
[T
]E ′F ′ = Q−1 · [T ]E
F · P
Corolário 3.6.1 Sejam V um espaço vetorial sobre K, E e E ′ bases de V eP =
[idV
]E ′E a matriz de passagem de E para E ′. Se T : V −→ V é linear,
então: [T
]E ′E ′ = P−1 · [T ]E
E · P
CAPÍTULO 3. MATRIZES 44
Definição 3.7 Dizemos que as matrizes A,B ∈ Mm×n(K) são equivalentesse existem matrizes Q ∈ GL(m, K) e P ∈ GL(n,K) tais que B = QAP .
Obs.: A proposição 3.6 nos diz que se A e B são matrizes associadas àmesma aplicação linear T : V −→ W , então A e B são equivalentes. Re-ciprocamente, suponhamos A e B equivalentes, isto é, B = QAP ondeA,B ∈ Mm×n(K), P ∈ GL(n, K) e Q ∈ GL(m,K).Sejam E = (v1, ..., vn) e F = (w1, ..., wm) bases ordenadas dos espaços ve-toriais V e W e T : V −→ W linear tal que A =
[T
]EF . Definamos
E ′ = (v′1, ..., v′n) e F ′ = (w′
1, ..., w′m) por v′j =
n∑i=1
pijvi e w′j =
m∑i=1
qijwi,
onde P = (pij) e Q−1 = (qij).Como P e Q são invertíveis, E ′ e F ′ são bases de V e W, respectivamente,P =
[idV
]E ′E e Q−1 =
[idW
]F ′F .
Pela proposição 3.6, temos:[T
]E ′F ′ = QAP, isto é, B =
[T
]E ′F ′ ,
o que mostra que A e B representam a mesma aplicação linear T : V −→ W .
Definição 3.8 Dizemos que as matrizes A,B ∈ Mn(K) são semelhantes seexiste P ∈ GL(n,K) tal que B = P−1 · A · P . Como na observação, acimaé fácil ver que A,B ∈ Mn(K) são semelhantes se, e só se, elas representamum mesmo operador linear T : V −→ V , onde dimK V = n.
Obs.: É fácil verificar que as relações “A e B são equivalentes” e “A e Bsão semelhantes”, são relações de equivalência (isto é, reflexivas, simétricase transitivas).
Exemplo 3.4.2 Seja T : R3 −→ R3, T (x1, x2, x3) = (x1 + 2x3, 3x1 + 2x2 +x3, x2+4x3) e sejam E = (e1, e2, e3) – base canônica e F =
((1, 0, 0), (1, 1, 0), (1, 1, 1)
)bases de R3.Temos:
T (1, 0, 0) = (1, 3, 0)T (0, 1, 0) = (0, 2, 1)T (0, 0, 1) = (2, 1, 4)
CAPÍTULO 3. MATRIZES 45
Portanto:
[T
]EE =
1 0 23 2 10 1 4
= A.
Por outro lado, se F = (f1, f2, f3), temos:
T (f1) = (1, 3, 0) = −2f1 + 3f2
T (f2) = (1, 5, 1) = −4f1 + 4f2 + f3
T (f3) = (3, 6, 5) = −3f1 + f2 + 5f3
Portanto:[T
]FF =
−2 −4 −33 4 10 1 5
= B.
A matriz de passagem de E para F é P =[I]FE , ou seja, P =
1 1 10 1 10 0 1
, e
é imediato verificar que
AP = PB =
1 1 33 5 60 1 5
, isto é, B = P−1 · A · P.
Posto de uma Matriz
Seja A = (aij) matriz m × n sobre K. Os vetores-coluna de A são osvetores A1, ..., An ∈ Km definidos por
Aj =
aij
a2j...
amj
(1 ≤ j ≤ n)
Definição 3.9 O posto de uma matriz A é a dimensão do subespaço de Km
gerado pelos vetores-coluna de A, ou seja, o posto de A é o número máximode vetores-coluna de A linearmente independentes.
Proposição 3.7 Sejam V, W espaços vetoriais sobre K, E = (v1, ..., vn) eF = (w1, ..., wm) bases ordenadas de V e W, respectivamente, e T : V −→ W
linear. Se A =[T
]EF , então:
posto(A) = posto(T ).
CAPÍTULO 3. MATRIZES 46
Dem. Seja A = (aij). Dizer que A =[T
]EF significa dizer que T (vj) =
m∑i=1
aijwi, ou seja, Aj =[T (vj)
]F (j = 1, ..., n), e o isomorfismo de Km
sobre W que leva a base canônica de Km na base F de W, transforma oespaço gerado pelos vetores-coluna A1, ..., An de A sobre o espaço gerado pelosvetores T (v1), ..., T (vn) de W, ou seja, estes espaços têm a mesma dimensãoe, portanto, posto(A) = posto(T ).
Proposição 3.8 Seja A ∈ Mm×n(K) de posto r. Então r ≤ m, r ≤ n e Aé equivalente à matriz m× n:
Ir 0
0 0
r
m− r
r n− r
Dem. Seja T : Kn −→ Km linear tal que A =[T
]EF , onde E e F são as
bases canônicas de Kn e Km, respectivamente.Como n = dim N (T ) + dim Im T temos que dim N (T ) = n − r ≥ 0.
Podemos, então, escolher uma base E ′ = (v1, ..., vn) de Kn de modo que(vr+1, ..., vn) seja base de N (T ). É claro que os vetores T (v1), ..., T (vr) sãoLI em Km (verifique!), donde r ≤ m e podemos considerar uma base de Km
da forma F ′ = (Tv1, ..., T vr, wr+1, ..., wm). Obtemos:
[T
]E ′F ′ = matriz da figura 3.8.
Resulta que A =[T
]EF é equivalente a B = matriz da figura 3.8 :
B = QAP, Q =[id
]FF ′ , P =
[id
]E ′E .
CAPÍTULO 3. MATRIZES 47
Corolário 3.8.1 Duas matrizes A,B ∈ Mm×n(K) são equivalentes se, e sóse, elas têm o mesmo posto.
Dem. Se A e B são equivalentes, elas representam, em relação a basesdiferentes, a mesma aplicação linear T : Kn −→ Km. Portanto,
posto(A) = posto(T ) = posto(B).
Reciprocamente, se posto(A) = posto(B) = r, então A e B são equiva-lentes à matriz da figura 3.8 e, portanto, elas são equivalentes.
Corolário 3.8.2 A matriz A ∈ Mm×n(K) é invertível se, e só se,
posto(A) = n.
Dem. A matriz A representa um operador linear
T : Kn −→ Km e posto(T ) = posto(A) = n
se, e só se, T é sobrejetora (donde bijetora), isto é, se, e só se, T ∈ GL(n,K)e, portanto, se, e só se, A é invertível.
3.5 Exercícios do Capítulo 3
1. Obtenha bases E de R2 e F de R3 de modo que[T
]EF =
1 00 10 0
, onde
T
(xy
)=
2x + y3x− 2yx + 3y
.
2. Calcule o posto das matrizes:
A =
1 2 34 5 67 8 9
; B =
1 2 34 5 62 1 0
.
Mostre que os espaços gerados pelas linhas e colunas de A coincidem,o que não ocorre com B.
CAPÍTULO 3. MATRIZES 48
3. Seja a matriz n× n cujas linhas são os vetores
v1 = (1, 2, ..., n), v2 = (2, 3, ..., n, n + 1), etc.
Prove que o posto da matriz é 2 e que o espaço-linha coincide com oespaço-coluna.
4. Ache reais a, b, c tais que ax + by + cz = 0 seja o plano gerado pelas
linhas da matriz
1 1 21 2 31 3 4
.
5. Prove que toda matriz antissimétrica 3 × 3 não-nula tem posto 2. Dêexemplo de uma matriz antissimétrica invertível 4× 4.
6. Sejam V um espaço vetorial de dimensão n sobre K e T : V −→ Vlinear. T é nilpotente de índice p se existe p ∈ N tal que T p−1 6= 0 eT p = 0.(a) Prove que se T é nilpotente e existem λ ∈ K, x ∈ V, x 6= 0 taisque T (x) = λx, então λ = 0.(b) Prove que se T é nilpotente de índice p e T p−1(x) 6= 0, então osvetores x, T (x), ..., T p−1(x) são LI.(c) T é nilpotente de índice n ⇔ existe base E de V tal que na matrizA =
[T
]EE = (aij) – n× n – se tenha aij = 0 exceto ai,i+1 = 1 (1 ≤ i ≤
n− 1).
7. Seja A =
1 1 00 1 10 0 1
; ache An, n ∈ N.
8. Prove que[cos θ −sen θsen θ cos θ
]e
[eiθ 00 e−iθ
]são semelhantes sobre C.
9. Seja A = (aij) − n × n. O traço de A é o número tr(A) =n∑
i=1
aii.
Prove que tr : Mn(K) −→ K é linear, que tr(AB) = tr(BA), eque tr(P−1AP ) = tr(A), quaisquer que sejam A,B ∈ Mn(K) e P ∈GL(n,K).
10. Sejam T : M2(R) −→ M2(R) tal que T (A) = PA, onde P ∈ M2(R) éfixa. Prove que tr(T ) = 2tr(P ).
Capítulo 4
Formas Lineares. Dualidade
4.1 DefiniçãoSeja V um espaço vetorial sobre o corpo K. Considerando K um espaçovetorial sobre si mesmo, L(V,K) é um espaço vetorial sobre K, designadopor V ∗ e chamado de dual de V; seus elementos são chamados de formas (oufuncionais) lineares em V. O dual de V ∗ é o bidual de V, anotado V ∗∗. Oselementos de V ∗ serão designados por letras gregas tais como α, β, ω, etc.Assim, uma forma linear ω ∈ V ∗ é uma aplicação linear ω : V −→ K.
Se E = {v1, ..., vn} é uma base de V e se v = x1v1+...+xnvn, então ω(v) =x1ω(v1) + ... + xnω(vn). Pondo ω(vi) = ai, temos: ω(v) = a1x1 + ... + anxn,que é a representação de ω na base E .Exemplo 4.1.1 Se V = Kn, a aplicação πi(x1, ..., xn) 7−→ xi (1 ≤ i ≤ n) éuma forma linear em Kn, chamada a i-ésima forma coordenada.
Exemplo 4.1.2 Se V = C0([0, 1],R) é o espaço vetorial real das funções
contínuas f : [0, 1] −→ R a função f ∈ V 7−→∫ 1
0
f(t)dt ∈ R é uma forma
linear em V.
Proposição 4.1 Sejam V um espaço vetorial sobre K e (v1, ..., vn) uma baseordenada de V. Para cada i, 1 ≤ i ≤ n, seja ωi : V −→ K a forma linear
definida por ωi(vj) = δij =
{1 se i = j0 se i ≤ j
(1 ≤ i ≤ n).
Então, (ω1, ..., ωn) é uma base de V ∗ e as coordenadas de ω ∈ V ∗ nestabase, são ω(v1), ..., ω(vn).
Dem. Sabemos que dim V ∗ = dim L(V,K) = n e que as condições ωi(vj) =δij (j = 1, ..., n) determinam univocamente a forma ωi. Basta então provar
49
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 50
que ω1, ..., ωn são LI. Para isso, suponhamos que ω = a1ω1 + ... + anωn = 0.
Então, para j = 1, ..., n, temos ω(vj) = 0, ou seja,n∑
i=1
aiωi(vj) = 0, ou
n∑i=1
aiδij = 0, donde aj = 0. Este cálculo mostra também que se
ω = a1ω1 + ... + anωn, então aj = ω(vj)
.
Definição 4.1 Se (v1, ..., vn) é base ordenada de V, a base (ω1, ..., ωn) de V ∗,tal que ω(vj) = δij (1 ≤ j ≤ n), chama-se base dual da base (v1, ..., vn).
Exemplo 4.1.3 Sejam V = Kn e (e1, ..., en) a base canônica de Kn. Sejaπi : Kn −→ K a i-ésima forma coordenada, isto é, πi(x1, ..., xn) = xi. Éclaro que πi(ej) = δij, de modo que a base dual da base canônica de Kn é abase (π1, ..., πn) de (Kn)∗.Obs. Se V e W têm a mesma dimensão finita sobre K, a escolha de basesE de V e F de W nos permite definir um isomorfismo que leva E sobre F ,e todo isomorfismo entre V e W é obtido dessa forma. Assim, em geral, hámais de um isomorfismo entre V e W e não temos uma maneira natural parapreferir um ou outro desses isomorfismos. Entretanto, no caso de V e V ∗∗,podemos distinguir um isomorfismo J : V −→ V ∗∗ definido independente daescolha de bases, isto é, um isomorfismo canônico, que nos permite identificarV a V ∗∗.
Proposição 4.2 Seja V um espaço vetorial de dimensão finita n sobre K.A aplicação canônica
J : V −→ V ∗∗
v 7−→ Jv : V ∗ −→ Kω 7−→ ω(v)
é um isomorfismo entre V e V ∗∗.
Dem. É fácil verificar que Jv = J(v) é um elemento de V ∗∗, bem como que Jé linear. Basta então provar que J é injetora, já que dim V = dim V ∗∗ = n.Para isto, seja v 6= 0; tomemos uma base de V da forma (v, v1, ..., vn−1) e
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 51
consideremos a base dual correspondente (ω, ω1, ..., ωn−1). Então, ω(v) = 1 =Jv(ω), ou seja, Jv 6= 0. Assim, v 6= 0 implica Jv 6= 0, o que mostra ser Jinjetora.Obs. (1) Identificando-se v ∈ V a Jv ∈ V ∗∗, a igualdade Jv(ω) = ω(v) seescreve v(ω) = ω(v), e é usual usar-se a notação < v, ω > para este escalar.(2) No caso em que V é de dimensão infinita, prova-se que J : V −→ V ∗∗ éinjetora, mas nunca sobrejetora, ou seja, J não é um isomorfismo neste caso.
Exercícios
1. Sejam B1 = (v1, ..., vn), B2 = (u1, ..., un) bases do espaço vetorial V,B∗
1 = (α1, ..., αn) e B∗2 = (β1, ..., βn) as bases duais correspondentes.
Se vj =n∑
i=1
aijui e αj =n∑
i=1
bijβi, i ≤ j ≤ n, qual a relação entre as
matrizes A = (aij)eB = (bij)?
2. Estude a independência linear das formas lineares sobre R4, onde ab 6=0:
f1(x1, x2, x3, x4) = x1 − ax3,
f2(x1, x2, x3, x4) = x2 − 1
ax4,
f3(x1, x2, x3, x4) = x1 − bx4,
f4(x1, x2, x3, x4) = x2 − 1
bx4.
3. Sejam V um espaço vetorial de dimensão finita e W ⊂ V um subespaço.Se f ∈ W ∗ mostre que existe g ∈ V ∗ tal que g|W = f .
4. Sejam V um espaço vetorial real de dimensão finita, e v1, v2, ..., vp ve-tores não nulos de V. Prove que existe f ∈ V ∗ tal que f(vi) 6= 0, i =1, 2, ..., p.
5. Seja f : V −→ R uma forma linear não-nula. Prove que existe v0 ∈ Vtal que f(v0) = 1. Seja W = Rv0 a reta gerada por v0. Prove queV = W ⊕N (f).
6. Sejam f, g : V −→ R formas lineares não-nulas e dim V = n. Proveque N (f) = N (g) ⇔ f é múltiplo de g.
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 52
4.2 Anulador de um SubespaçoDefinição 4.2 Sejam V um espaço vetorial sobre K e U ⊂ V um subespaço.Chama-se anulador de U ao conjunto U0 = {ω ∈ V ∗; ω(u) = 0 para todou ∈ U}. É fácil ver que U0 ⊂ V ∗ é um subespaço.
Se ω ∈ V ∗ pode-se mostrar sem dificuldade que ω ∈ U0 se, e só se, ω seanula numa base de U.
Proposição 4.3 Sejam V um espaço vetorial de dimensão finita sobre K eU ⊂ V um subespaço. Então:
dim U + dim U0 = dim V.
Dem. Como o caso U = {0} é trivial, vamos supor U 6= {0}. Seja (v1, ..., vn)base de V tal que (v1, ..., vp) seja base de U. Se (ω1, .., ωn) é a base dual, então< vj, ωi >= ωi(vj) = 0 para i = 1, ..., p e i = p + 1, ..., n, ou seja, as formasωp+1, ..., ωn pertencem a U0. Vamos provar que elas formam uma base de U0.Como elas são LI, basta provar que elas geram U0. Para isto, seja ω ∈ U0.Se ω = a1ω1 + ... + anωn, então, para j = 1, ..., p temos:
0 = ω(vj) =n∑
i=1
aiωi(vj) =n∑
i=1
aiδij = aj,
ou seja, ω = ap+1ωp+1 + ... + anωn, como queríamos.
Corolário 4.3.1 Nas hipóteses da proposição 4.3, temos (U0)0 = U (supondo-se identificados V e V ∗∗).
Dem. (U0)0 = {v ∈ V ; < ω, v >= 0 ∀ω ∈ U0}. Portanto, se u ∈ U , entãou ∈ (U0)0, isto é, U ⊂ (U0)0.
Por outro lado,
dim (U0)0 = dim V ∗ − dim U0 = dim V − dim U0 = dim U,
donde U=(U0)0.Obs. Se ω ∈ V ∗, ω 6= 0, o subespaço de V, H = {v ∈ V ; < ω, v >= 0}, temdimensão igual a (dim V − 1) e chama-se um hiperplano de V.
Exemplo 4.2.1 Seja W o subespaço de R4 gerado pelos vetores v1 = (1, 2, 0, 1), v2 =(2, 1, 3, 0) e v3 = (0, 3,−3, 2). Vamos achar uma base para o anulador W 0.
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 53
Se (v, y, z, t) ∈ R4 e ω ∈ (R4)∗, então ω(x, y, z, t) = ax + by + cz + dt,onde a, b, c, d ∈ R, e ω ∈ W 0 se, e só se, ω(v1) = ω(v2) = ω(v3) = 0, ou seja,se e só se,
{ a + 2b + d = 02a + b + 3c = 0
3b− 3c + 2d = 0se, e só se,
{a = −2c +
d
3
b = c− 2d
3
.
Resulta que ω1 e ω2, tais que ω1(x, y, z, t) = −2x + y + z, ω2(x, y, z, t) =x − 2y + 3t, formam uma base de W 0 (obtidas fazendo-se c = 1, d = 0 ec = 0, d = 3, respectivamente).
Exemplo 4.2.2 Seja V um espaço vetorial de dimensão n sobre K. Todosubespaço W de V é a interseção de um número finito de hiperplanos de V.De fato, seja (v1, ..., vn) base de V tal que (v1, ..., vp) seja base de W. Seja(ω1, ..., ωn) a base dual de (v1, ..., vn). Então:
v ∈ W ⇔ ωp+1(v) = ... = ωn(v) = 0,
ou seja, W =n⋂
j=p+1
Hj, onde Hj = N (ωj) é o hiperplano definido por ωj.
Exercícios
1. Seja W ⊂ R5 o subespaço gerado pelos vetores ω1 = (2,−2, 3, 4,−1), ω2 =(−1, 1, 2, 5, 2) ω3 = (0, 0,−1,−2, 3) e ω4 = (1,−1, 2, 3, 0). Ache umabase para o anulador W 0 de W.
2. Sejam V um espaço vetorial de dimensão finita sobre K, U e W sube-spaços de V. Prove:(a) (U + W )0 = U0 ∩W 0; (U ∩W )0 = U0 + W 0
(b) V = U ⊕W ⇒ V ∗ = U0 ⊕W 0.
4.3 TransposiçãoSejam V, W espaços vetoriais sobre K e T : V −→ W linear. Se β ∈ W ∗
então β ◦ T : V −→ K é linear, isto é, β ◦ T ∈ V ∗.
Definição 4.3 A aplicação T t : W ∗ −→ V ∗ definida por T t(β) = β ◦ T paratoda β ∈ W ∗, chama-se a transposta de T:
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 54
β ◦ T = T t(β) β
K
V WT
R ª
-
ª
Assim, < T t(β), v >=< β, T (v) > para todo v ∈ V .
Proposição 4.4 A transposta T t : W ∗ −→ V ∗ da aplicação linear T : V −→W , é uma aplicação linear.
Dem.
T t(α + β) = (α + β) ◦ T = α ◦ T + β ◦ T = T t(α) + T t(β)
T t(aβ) = (aβ) ◦ T = a(β ◦ T ) = aT tβ,
quaisquer que sejam α, β ∈ W ∗ e a ∈ K.
Exemplo 4.3.1 Se V = W e T = idV , então:
(idV )t(β) = β ◦ idV = β para todo β ∈ V ∗,
ou seja, (idV )t = idV ∗.
Proposição 4.5 Sejam U, V, W espaços vetoriais sobre K.(a) A aplicação T ∈ L(U, V ) 7−→ T t ∈ L(V ∗, U∗) é linear.(b) Se T ∈ L(U, V ) e S ∈ L(V,W ), então (S ◦ T )t = T t ◦ St. Além disso, seT é bijetora então T t é bijetora e (T−1)t = (T t)−1.(c) Se U e V têm dimensão finita, então T 7−→ T t é um isomorfismo entreL(U, V ) e L(V ∗, U∗) e (T t)t = T (supondo-se identificados U com U∗∗ e Vcom V ∗∗).
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 55
Dem. (a) Sejam L, T ∈ L(U, V ) e a ∈ K. Para todo β ∈ V ∗ temos:(L + T )t(β) = β ◦ (L + T ) = β ◦ L + β ◦ T = Lt(β) + T t(β)(aT )t(β) = β ◦ (aT ) = a(β ◦ T ) = aT t(β)Resulta: (L + T )t = Lt + T t e (aT )t = a · T t.
(b) (S◦T )t(ω) = ω◦(S◦T ) = (ω◦S)◦T = T t(ω◦S) = T t(St(ω)
)= (T t◦St)(ω)
para todo ω ∈ W ∗. Logo: (S ◦ T )t = T t ◦ St.Se T é um isomorfismo temos T ◦ T−1 = idV , T−1 ◦ T = idV e, como(idV )t = idV ∗, vem:
T t ◦ (T−1)t = idU∗ e (T−1)t ◦ T t = idV ∗ ,
donde resulta que (T t)−1 = (T−1)t.(c) Se U e V têm dimensão finita, podemos identificar U com U∗∗ e V comV ∗∗, de modo que (T t)t ∈ L(U, V ). Se u ∈ U e β ∈ V ∗, então:
< (T t)tu, β >=< u, T t(β) >=< β, T (u) >,
donde (T t)t = T . Resulta que T 7−→ T t é sobrejetora e, como L(U, V ) eL(V ∗, U∗) têm a mesma dimensão finita, esta aplicação é um isomorfismo.
Proposição 4.6 Seja T : V −→ W linear. Então: (Im T )0 = N (T t).
Dem. ω ∈ (Im T )0 ⇔< ω, T (v) >= 0 ∀v ∈ V ⇔< v, T t(ω) >= 0∀v ∈ V ⇔ T t(ω) = 0 ⇔ ω ∈ N (T t).
Proposição 4.7 Sejam V e W espaços vetoriais de dimensão finita sobre Ke T : V −→ W linear. Então:
posto(T ) = posto(T t).
Dem. Sejam n = dim V, p = dim W . Como (Im T )0 = N (T t) temos:posto(T t) = dim W ∗ − dim N (T t) = dim W ∗ − dim (Im T )0 == dim W ∗ − (dim W ∗ − dim Im T ) = dim Im T = posto(T ).
Proposição 4.8 Sejam V e W espaços vetoriais de dimensão finita sobreK, E = (v1, ..., vn) base de V, F = (w1, ..., wm) base de W, E∗ = (α1, ..., αn)e F∗ = (β1, ..., βm) as bases duais correspondentes. Se T : V −→ W é linear
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 56
e[T
]EF = A = (aij), então
[T t
]F∗E∗ = B = (bij) é tal que bij = aji para todo
par (i, j).
Dem. Temos:
T (vj) =m∑
i=1
aijwi e βj ◦ T = T t(βj) =n∑
i=1
bijαi.
Então:
βj
(T (vk)
)=
m∑i=1
aikβj(wi) =m∑
i=1
aikδji = ajk.
E:
βj
(T (vk)
)=
n∑i=1
bijα(vk) =n∑
i=1
bijδik = bkj.
Portanto:ajk = bkj (j = 1, ..., m; k = 1, ..., n).
Definição 4.4 Seja A = (aij) m × n sobre K. A matriz B = (bij) n × msobre K, tal que bij = aji para todo par (i, j), chama-se a transposta de A,anotada B = At.
A proposição 4.8 nos diz que[T t
]F∗E∗ =
([T
]EF
)t
.
Corolário 4.8.1 (a) Se A,B ∈ Mm×n(K) e c ∈ K, então:
(A + B)t = At + Bt
(cA)t = c · At
(b) Se A ∈ Mm×n(K) e B ∈ Mn×p(K), então:
(AB)t = Bt · At
(c) Se A ∈ Mn(K) é invertível, então:
(A−1)t = (At)−1
(d) Se A ∈ Mm×n(K), então:
posto(A) = posto(At),
ou seja, o número de vetores-coluna de A linearmente independentes coincidecom o número de vetores-linha de A linearmente independentes.
Dem. Imediata.
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 57
4.4 Exercícios do Capítulo 41. Em V = R4 consideremos o subespaço W gerado por
(1, 1, 1, 1); (−1, 1,−2, 2); (−1, 5,−4, 8) e (−3, 1,−5, 3).
(a) Ache a dimensão de W e a dimensão de W 0.(b) Mostre que a imagem de v = (x, y, z, t) ∈ V por f ∈ W 0 pode seescrever f(v) = 4ax + 4by − (3a + b)z − (a + 3b)t.(c) Ache uma base (f1, f2) de W 0, e escreva f1 e f2 na base dual dabase canônica de V.
2. Seja V um espaço vetorial de dimensão finita sobre K. Prove quef1, ..., fp ∈ V ∗ são LI se, e só se, dados α1, ..., αp ∈ K quaisquer, existev ∈ V tal que fi(v) = αi, 1 ≤ i ≤ p.
3. Sejam E = (e1, ..., en) base do espaço vetorial V sobre K, E∗ = (e∗1, ..., e∗n)
a base dual de E e ϕ : V −→ V ∗ o isomorfismo definido por ϕ(ei) =e∗i , 1 ≤ i ≤ n. Ache todos os automorfismos u : V −→ V tais que< x, ϕ(y) >=< u(x), (ϕ ◦ u)(y) > para x, y ∈ V quaisquer.
Capítulo 5
Determinantes
Obs. Neste capítulo, por motivos técnicos, vamos supor que a característicado corpo K é diferente de 2; por exemplo podemos tomar K = R ou K = C.
5.1 Aplicações r-lineares alternadasDefinição 5.1 Sejam V e W espaços vetoriais sobre K. Uma aplicação f :V × r...× V −→ W é r-linear se:(a) f(v1, ..., vi + ui, ..., vr) = f(v1, ..., vi, ..., vr) + f(v1, ..., ui, ..., ur)(b) f(v1, ..., avi, ..., vr) = a · f(v1, ..., vi, ..., vr)quaisquer que sejam v1, ..., vi, ui, ..., vr ∈ V, a ∈ K e 1 ≤ i ≤ r.
O conjunto de todas as aplicações r-lineares de V em W, representado porLr(V, W ), munido das leis naturais de adição e multiplicação por escalar, éum espaço vetorial sobre K. Por convenção, L0(V,W ) = W e L1(V,W ) =L(V, W ).
Definição 5.2 f ∈ Lr(V, W ) é alternada se f(v1, ..., vr) = 0 toda vez quedois dos vetores vi são iguais.
As aplicações r-lineares alternadas formam o subespaço Ar(V,W ) de Lr(V, W ).Convencionamos que A0(V, W ) = W e A1(V,W ) = L(V, W ).
Definição 5.3 f ∈ Lr(V, W ) é antissimétrica se f(v1, ..., vi, ..., vj, ..., vr) =−f(v1, ..., vj, ..., vi, ...vr), 1 ≤ i, j ≤ r, i 6= j.
No caso em que W=K, os elementos de L(V, W ) são chamados de formasr-lineares. Em particular, L1(V, W ) = V ∗ é o dual de V. Os elementos deAr(V, K), isto é, as formas r-lineares alternadas, são também chamados der-covetores.
Proposição 5.1 f ∈ Lr(V,W ) é alternada se, e só se, f é antissimétrica.
58
CAPÍTULO 5. DETERMINANTES 59
Dem. Se f ∈ Lr(V,W ) é alternada, então
0 = f(v1, ..., v + u, ...., v + u, ..., vr) =
= f(v1, ..., v, ..., v, ..., vr) + f(v1, ..., u, ..., u, ..., vr)+
+f(v1, ..., v, ..., u, ..., vr) + f(v1, ..., u, ..., v, ..., vr) =
= f(v1, ..., v, ..., u, ..., vr) + f(v1, ..., u, ..., v, ..., vr),
donde resulta que f é antissimétrica.Reciprocamente, se f é antissimétrica então
f(v1, ..., v, ..., v, ..., vr) = −f(v1, ..., v, ..., v, ..., vr)
donde2f(v1, ..., v, ..., v, ..., vr) = 0 e, como 2 6= 0 em K, resulta f(v1, ..., v, ..., v, ..., vr) =0, isto é, f é alternada.
Definição 5.4 Uma permutação de um conjunto X é toda bijeção de X sobresi mesmo.
O conjunto das permutações de X, munido das leis de composição de apli-cações, é um grupo chamado grupo simétrico de X ou grupo de permutaçõesde X, anotado SX . Se X = {1, 2, ..., n} = In, representamos SX por Sn; Sn
tem n! elementos.
Definição 5.5 Uma transposição de Sn é uma permutação τ tal que existeminteiros i 6= j, i ≤ i, j ≤ n, para os quais τ(i) = j, τ(j) = i e τ(k) = k parak 6= i, k 6= j, ou seja, τ troca i e j mantendo os demais elementos fixos. Éclaro que τ 2 = id e τ−1 = τ .
Proposição 5.2 Toda permutação σ ∈ Sn pode ser expressa como um pro-duto de transposições.
Dem. (por indução) Se n = 1, não há nada a provar. Suponhamos n > 1 eadmitamos o teorema verdadeiro para (n− 1). Se σ ∈ Sn e σ(n) = n, entãoa restrição σ′ = σ|In−1 pertence a Sn−1. Pela hipótese de indução, existemtransposições τ ′1, ..., τ
′k ∈ Sn−1 tais que σ′ = τ ′1...τ
′k. Para cada i, i ≤ i ≤ k,
seja τi ∈ Sn a transposição tal que τi|In−1 = τ ′i e τi(n) = n. Então, é claroque σ = τ1...τk. Se σ ∈ Sn e σ(n) = k 6= n, seja τ ∈ Sn a transposição talque τ(k) = n, τ(n) = k. Então, τσ = τ1...τk, isto é, σ = ττ1...τk.
CAPÍTULO 5. DETERMINANTES 60
Proposição 5.3 A cada permutação σ ∈ Sn é possível associar um sinal, 1ou -1, anotado ε(σ), tal que:(1) se τ é uma transposição, então ε(τ) = −1(2) se σ, ρ ∈ Sn, então ε(σρ) = ε(σ) · ε(ρ).
Dem. Seja σ ∈ Sn e consideremos os números
πn =∏
1≤i<j≤n
(j − i) = (2− 1)[(3− 1)(3− 2)
]...
[(n− 1)(n− 2)...2 · 1]
e σ(πn) =∏
1≤i<j≤n
[σ(j)− σ(i)
].
Como σ é bijetora, cada fator de πn, a menos do sinal, aparece em σ(πn)uma e uma só vez, e vemos que σ(πn) = ±πn. Se τ ∈ Sn é uma transposição,é claro que (τσ)(πn) = −σ(πn).Logo, se σ = τ1...τk é um produto de transposições, temos σ(πn) = (−1)kπn,
donde (−1)k =σ(πn)
πn
, o que mostra que a paridade do inteiro k só depende
de σ e não da sua expressão como produto de transposições. Definimos osinal de σ por ε(σ) = (−1)k. Logo: σ(πn) = ε(σ)πn. Para uma transposiçãoτ , τ(πn) = −πn, donde ε(τ) = −1, o que prova (1).
Se ρ ∈ Sn, temos (σρ)(πn) = (τ1...τkρ)(πn) = (−1)kρ(πn) = ε(σ)ρ(πn) =ε(σ)ε(ρ)πn.Por outro lado, (σρ)(πn) = ε(σρ) · πn. Resulta: ε(σρ) = ε(σ) · ε(ρ), o queprova (2).
Corolário 5.3.1 Se σ ∈ Sn se exprime como produto de transposições deduas maneiras distintas, σ = τ1...τk = τ ′1...τ
′s, então k e s têm a mesma
paridade (pois ε(σ) = (−1)k = (−1)s).
Definição 5.6 Seja σ ∈ Sn. Se ε(σ) = 1 dizemos que σ é uma permutaçãopar; se ε(σ) = −1 dizemos que σ é uma permutação ímpar.
Se uma permutação par se escreve como produto de transposições, σ =τ1...τk, é claro que k é um número par, e reciprocamente.
Proposição 5.4 Sejam V e W espaços vetoriais sobre K e f ∈ Lr(V,W ). fé antissimétrica se, e só se,
f(vσ(1), ..., vσ(r)) = ε(σ)f(v1, ..., vr)
quaisquer que sejam v1, ..., vr ∈ V e σ ∈ Sr.
CAPÍTULO 5. DETERMINANTES 61
Dem. Por definição, f ∈ Lr(V, W ) é antissimétrica se, e só se,
f(vτ(1), ..., vτ(r)) = ε(τ)f(v1, ..., vr)
qualquer que seja a transposição τ ∈ Sr.Se σ ∈ Sr, podemos escrever σ como um produto de transposições: σ =
τ1...τk. Então, f é antissimétrica se, e só se,
f(vσ(1), ..., vσ(r)) = f(vτ1...τk(1), ..., vτ1...τk(r)) =
= ε(τk)f(vτ1...τk−1(1), ..., vτ1...τk−1(r)) = ... =
= ε(τk)...ε(τ1)f(v1, ..., vr) = ε(σ)f(v1, ..., vr).
Proposição 5.5 Sejam V um espaço vetorial sobre K e f ∈ Ar(V,K). Sev1, ..., vr ∈ V são linearmente dependentes (LD), então f(v1, ..., vr) = 0.
Dem. Existem escalares a1, ..., ar, não todos nulos, tais que a1v1+...+arvr =0. Se, por exemplo, ai 6= 0, temos:
0 = f(v1, ..., vi−1, 0, vi+1, ..., vr) =
= f(v1, ..., vi−1,
r∑
k=1
akvk, vi+1, ..., vr) =
= aif(v1, ..., vi−1, vi, vi+1, ..., vr),
donde f(v1, ..., vr) = 0.
Proposição 5.6 Se dimKV = n então dimKAn(V, K) = 1.
Dem. Para maior clareza, comecemos com o caso n = 2. Sejam (e1, e2) basede V, v1 = a11e1 + a21e2, v2 = a12e1 + a22e2. Se f ∈ A2(V,K), então:
f(v1, v2) = f(a11e1 + a21e2, a12e1 + a22e2) =
= a11a12f(e1, e1) + a11a22f(e1, e2) + a21a12f(e2, e1) + a21a22f(e2, e2) =
= (a11a22 − a12a21)f(e1, e2).
Se D : V ×V −→ K é definida por D(v1, v2) = a11a22−a12a21, é fácil verque D ∈ A2(V, K). Além disso, D(e1, e2) = 1. O cálculo acima nos mostraque f = aD (a = f(e1, e2)), ou seja, que D é uma base de A2(V,K).
CAPÍTULO 5. DETERMINANTES 62
Consideremos agora o caso geral. Seja (e1, ..., en) uma base de V. Se
vj =n∑
i=1
aijei e f ∈ An(V,K), temos:
f(v1, ..., vn) = f
(n∑
i1=1
ai11ei1, ...,
n∑in=1
ainnein
)=
=n∑
i1,...,in=1
ai11...ainn · f(ei1 , ..., ein).
Como f é alternada temos que f(ei1 , ..., ein) = 0 sempre que ij = ikcom j 6= k, de forma que teremos na soma acima apenas as parcelas onde{i1, ..., in} for uma permutação de {1, ..., n}. Assim,
f(v1, ..., vn) =∑σ∈Sn
aσ(1)1...aσ(n)n · f(eσ(1), ..., eσ(n)) =
= f(e1, ..., en) ·∑σ∈Sn
ε(σ)aσ(1)1...aσ(n)n,
soma de n! parcelas, cada uma correspondente a uma permutação de Sn.Seja D : V× n...×V −→ K definida por D(v1, ..., vn) =
∑σ∈Sn
ε(σ)aσ(1)1...aσ(n)n.
Então:(a) D é n-linear: D(v1, ..., v
′i+cv′′i , ..., vn) =
∑σ∈Sn
ε(σ)aσ(1)1...(a′σ(i)i+ca′′σ(i)i)...aσ(n)n =
= D(v1, ..., v′i, ..., vn) + cD(v1, ..., v
′′i , ..., vn).
(b) D é antissimétrica: se i < j e vi = vj, temos:
D(v1, ..., vi, ..., vj, ..., vn) =∑σ∈Sn
ε(σ)aσ(1)1...aσ(i)i...aσ(j)j...aσ(n)n.
Seja τ a transposição de Sn tal que τ(i) = j, τ(j) = i e seja στ = α. Então,ε(α) = −ε(σ) e
D(v1, ..., vi, ..., vj, ..., vn) =∑σ∈Sn
ε(σ)aστ(1)1...aστ(j)i...aστ(i)j...aστ(n)n =
= −∑σ∈Sn
ε(α)aα(1)1...aα(j)i...aα(i)j...aα(n)n =
= −D(v1, ..., vj, ..., vi, ..., vn).
(c) D(e1, ..., en) = 1.
CAPÍTULO 5. DETERMINANTES 63
Como ej =n∑
i=1
δijei, temos:
D(e1, ..., en) =∑σ∈Sn
ε(σ)δσ(1)1...δσ(n)n = ε(id)δ11...δnn = 1.
Logo, se f ∈ An(V, K) temos:f(v1, ..., vn) = f(e1, ..., en)D(v1, ..., vn), ou seja, f = aD, onde a = f(e1, ..., en).Portanto, D gera o espaço vetorial An(V, K) e dim An(V,K) = 1.Obs. Dado a ∈ K, f = aD é a única forma n-linear alternada em V tal quef(e1, ..., en) = a.
Corolário 5.6.1 Sejam V um espaço vetorial de dimensão n sobre K ef ∈ An(V, K), f 6= 0. Os vetores v1, ..., vn ∈ V são LD se, e só se,f(v1, ..., vn) = 0.
Dem. Já vimos, na proposição 5.5, que se v1, ..., vn são LD então f(v1, ..., vn) =0. Reciprocamente, suponhamos que v1, ..., vn sejam LI, ou seja, uma base deV. Seja D ∈ An(V,K) tal que D(v1, ..., vn) = 1. Então:
f = f(v1, ..., vn) ·Ddonde f(v1, ..., vn) 6= 0 (pois f 6= 0).
5.2 Determinante de um Operador LinearSe V e W são espaços vetoriais sobre K e T : V −→ W é linear, então Tinduz uma aplicação linear T ∗ : Ar(W,K) −→ Ar(V, K) definida por
(T ∗f)(v1, ..., vr) = f(Tv1, ..., T vr),
onde f ∈ Ar(W,K) e v1, ..., vr ∈ V .Se L : V −→ W e T : U −→ V são lineares, então (L ◦ T )∗ = T ∗ ◦ L∗ já
que (L ◦ T )∗f(u1, ..., ur) = f(LTu1, ..., LTur) = L∗f(Tu1, ..., Tur) == T ∗(L∗f)(u1, ..., ur) quaisquer que sejam u1, ..., ur ∈ U e f ∈ Ar(W,K).
Definição 5.7 Sejam V um espaço vetorial de dimensão n sobre K e T :V −→ V linear. Como dim An(V,K) = 1, existe um único escalar a talque T ∗(f) = af para todo f ∈ An(V, K). Dizemos que este escalar a é odeterminante do operador T, e escrevemos a = det T . Assim, det T é oescalar tal que
f(Tv1, ..., T vn) = det T · f(v1, ..., vn)
quaisquer que sejam v1, ..., vn ∈ V e f ∈ An(V, K).
CAPÍTULO 5. DETERMINANTES 64
Proposição 5.7 Seja V um espaço vetorial de dimensão n sobre K.(1) Se I : V −→ V é a identidade, então det I = 1.(2) Se L, T ∈ L(V ), então det(L ◦ T ) = det L · det T .(3) T ∈ L(V ) é invertível ⇔ det T 6= 0.
Dem. Para todo f ∈ An(V,K) e v1, ..., vn ∈ V arbitrários, temos:(1) f(Iv1, ..., Ivn) = det I · f(v1, ..., vn), donde det I = 1.(2) det(L ◦ T ) · f = (L ◦ T )∗f = T ∗(L∗f) = det T · (L∗f) = det T · det L · f ,donde det(L ◦ T ) = det L · det T .(3) Se T é invertível então det T · det T−1 = det I = 1, donde det T 6= 0.Reciprocamente, seja det T 6= 0. Se (v1, ..., vn) é base de V, tomemos f ∈An(V, K) tal que f(v1, ..., vn) 6= 0. Então,
f(Tv1, ..., T vn) = det T · f(v1, ..., vn) 6= 0.
Pelo corolário da proposição 5.6, (Tv1, ..., T vn) é base de V e, portanto, T éinvertível.
Definição 5.8 Seja A = (aij) uma matriz em K, quadrada de ordem n. SeTA : Kn −→ Kn é o operador linear associado a A, definimos o determinantede A, det A, como sendo det TA.
Sejam E = (e1, ..., en) a base canônica de Kn e D a única forma n-linearalternada tal que D(e1, ..., en) = 1. Então:
det A = D(TA(e1), ..., TA(en)) = D(A1, ..., An),
onde A1, ..., An são os vetores-coluna de A.
Vimos, na proposição 5.6, que D(A1, ..., An) = D
(n∑
i=1
ai1ei, ...,
n∑i=1
ainei
)=
=∑σ∈Sn
ε(σ)aσ(1)1...aσ(n)n, que é a definição clássica de det A.
Definição 5.9 Sejam V um espaço vetorial sobre K e E = (e1, ..., en) umabase de V. Dada uma sequência de n vetores, (v1, ..., vn), chama-se determinantedesses vetores em relação à base E, o escalar detE(v1, ..., vn) = D(v1, ..., vn).
Se vj =n∑
i=1
aijei, 1 ≤ j ≤ n, então a matriz A = (aij) é n×n e detE(v1, ..., vn) =
det A.
É usual a notação det A =
∣∣∣∣∣∣∣
a11 ... a1n... . . . ...
an1 ... ann
∣∣∣∣∣∣∣para o determinante da matriz
A = (aij).
CAPÍTULO 5. DETERMINANTES 65
Exemplo 5.2.1∣∣∣∣a11 a12
a21 a22
∣∣∣∣ = a11a22 − a12a21 pois a permutação {1, 2} −→(1, 2) é par e {1, 2} −→ (2, 1) é ímpar.
Exemplo 5.2.2 Dentre as 3! = 6 permutações de {1, 2, 3} temos 3 que são
pares, a saber:{1, 2, 3} −→ (1, 2, 3){1, 2, 3} −→ (2, 3, 1){1, 2, 3} −→ (3, 1, 2)
e 3 que são ímpares:{1, 2, 3} −→ (1, 3, 2){1, 2, 3} −→ (3, 2, 1){1, 2, 3} −→ (2, 1, 3)
.
Portanto:
∣∣∣∣∣∣
a11 a12 a13
a21 a22 a23
a31 a32 a33
∣∣∣∣∣∣= a11a22a33 + a21a32a13 + a31a12a23 − a11a32a23−
−a31a22a13 − a21a12a33, e temos a seguinte regra prática (regra de Sarrus):
a21 a22 a23
a11 a12 a13
a31 a32 a33
a21 a22 a23
a11 a12 a13
−
−
−
+
+
+
Repetimos as duas primeiras linhas do determinante; os produtos “para-lelos” à diagonal principal são precedidos do sinal + e aqueles “paralelos” àdiagonal secundária são precedidos do sinal −.Obs. Para os determinantes de ordem superior a 3 não temos regras práticasde cálculo; eles serão calculados pelo processo da seção 5.3 a seguir.
Proposição 5.8 Seja A uma matriz de ordem n. Então: det A = det At.
Dem. Se A = (aij) então At = (a′ij) com a′ij = aji. Temos:
det At =∑σ∈Sn
ε(σ)a′σ(1)1...a′σ(n)n =
∑σ∈Sn
ε(σ)a1σ(1)...anσ(n).
CAPÍTULO 5. DETERMINANTES 66
Mas, a1σ(1)...anσ(n) = aσ−1(1)1...aσ−1(n)n e ε(σ−1) = ε(σ). Portanto,
det At =∑
σ−1∈Sn
ε(σ−1)aσ−1(1)1...aσ−1(n)n = det A
pois se σ percorre Sn, σ−1 também percorre Sn.Obs. 1 A proposição 5.8 mostra que det A é também o determinante dosvetores-linha de A.Obs. 2 Como a aplicação (v1, ..., vn) 7−→ det(v1, ..., vn) é n-linear alternada,temos um certo número de propriedades que, para comodidade do leitor, sãolistadas abaixo:(1) det(v1, ..., v
′i+cv′′i , ..., vn) = det(v1, ..., v
′i, ..., vn)+c·det(v1, ..., v
′′i , ..., vn), c ∈
K.(2) Toda permutação σ ∈ Sn sobre as colunas (ou linhas) da matriz A ∈Mn(K) transforma det A em ε(σ)det A. Em particular, toda transposiçãosobre as colunas (ou linhas) de A transforma det A em −det A.(3) Se uma coluna (ou linha) de A é nula, então det A = 0.(4) Se duas colunas (ou duas linhas) de A são proporcionais, então det A = 0.
(5) det(v1, ..., vi−1,
n∑
k=1
akvk, vi+1, ..., vn) = ai · det(v1, ..., vi, ..., vn).
(6) det(v1, ..., vn) = 0 ⇔ v1, ..., vn são LD.(7) det In = 1.(8) det (AB) = det A · det B.(9) det At = det A.(10) A é invertível ⇔ det A 6= 0.
5.3 Desenvolvimento em relação aos elementosde uma coluna (ou de uma linha)
Definição 5.10 Seja A = (aij) uma matriz n× n. Seja Aij a matriz obtidade A pela supressão da linha i e da coluna j. Aij é uma matriz de ordem(n − 1), e det Aij chama-se o menor associado ao elemento aij. O escalarCij = (−1)i+j · detAij chama-se o cofator de aij.
Proposição 5.9 O determinante de uma matriz quadrada é igual à somados produtos dos elementos de uma coluna qualquer pelos seus respectivoscofatores.
Dem. Seja A = (aij) – n × n – e sejam A1, ..., An seus vetores-coluna. A
CAPÍTULO 5. DETERMINANTES 67
função X 7−→ det(A1, ..., X, ..., An) onde X substitui Aj, é uma forma linearβj : Kn −→ K. Logo,
det A = βj(Aj) = βj(a1je1 + ... + anjen) =n∑
i=1
aijβij,
onde (e1, ..., en) é a base canônica de Kn e βij = βj(ei). Os escalares βij nãodependem de Aj, isto é, de a1j, ..., anj.
Temos: βij = βj(ei) =
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
a11 ... 0 ... a1n... . . . ... . . . ...
ai1 ... 1 ... ain... . . . ... . . . ...
an1 ... 0 ... ann
↑coluna j
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
← linha i
e βij = det Ã.
Portanto: βij = (−1)i−1
∣∣∣∣∣∣∣∣∣
ai1 ... 1 ... ain
a11 ... 0 ... a1n... . . . ... . . . ...
an1 ... 0 ... ann
∣∣∣∣∣∣∣∣∣= (−1)i−1(−1)j−1
∣∣∣∣∣∣∣∣∣
1 ai1 ... ain
0 a11 ... a1n...
... . . . ...0 an1 ... ann
∣∣∣∣∣∣∣∣∣=
= (−1)i+jdet B, onde a matriz B = (bij) foi obtida de à trocando-se suces-sivamente a linha i com as (i-1) linhas que a precedem em à e, a seguir, acoluna j sucessivamente com as (j-1) colunas que a antecedem. Observemosque o menor det B11, de b11 = 1 em B coincide com o menor det Aij de aij
em A. Além disso, sabemos que det B =∑σ∈Sn
ε(σ)bσ(1)1...bσ(n)n.
Se σ(1) 6= 1, o termo correspondente é nulo, pois, neste caso, bσ(1)1 = 0, edet B reduz-se à soma
det B =∑
σ ∈ Sn
σ(1) = 1
ε(σ)bσ(2)2...bσ(n)n.
Se σ′ é a permutação de {2, .., n} tal que σ′(i) = σ(i) para 2 ≤ i ≤n, os conjuntos ordenados {1, σ(2), ..., σ(n)} e {σ′(2), ..., σ′(n)} apresentamo mesmo número de inversões, donde ε(σ) = ε(σ′) e, então, det B =∑
σ′∈Sn−1
ε(σ′)bσ′(2)2...bσ′(n)n = det B11.
CAPÍTULO 5. DETERMINANTES 68
Logo,
βij = (−1)i+jdet B = (−1)i+jdet B11 = (−1)i+jdet Aij = Cij
e, portanto,
det A =n∑
i=1
aijCij.
Definição 5.11 Dizemos que uma matriz A = (aij) – n × n – é triangularsuperior se aij = 0 sempre que i > j. Analogamente se define uma matriztriangular inferior.
Corolário 5.9.1 O determinante de uma matriz triangular é igual ao pro-duto de seus elementos diagonais.
Dem. De fato,
det A =
∣∣∣∣∣∣∣∣∣∣∣∣∣
a11 a12 ... a1(n−1) a1n
0 a22 ... a2(n−1) a2n
0 0 ......
... . . .0 0 ... a(n−1)(n−1) a(n−1)n
0 0 ... 0 ann
∣∣∣∣∣∣∣∣∣∣∣∣∣
= a11
∣∣∣∣∣∣∣∣∣
a22 ... a2(n−1) a2n
0 ... a3(n−1) a3n... . . . ...
...0 ... 0 ann
∣∣∣∣∣∣∣∣∣
e, por indução:det A = a11a22...ann.
Exemplo 5.3.1
∣∣∣∣∣∣
a11 a12 a13
a21 a22 a23
a31 a32 a33
∣∣∣∣∣∣= a11
∣∣∣∣a22 a23
a32 a33
∣∣∣∣−a12
∣∣∣∣a21 a23
a31 a33
∣∣∣∣+a13
∣∣∣∣a21 a22
a31 a32
∣∣∣∣ =
= a11a22a33 − a11a23a32 − a12a21a33 + a12a23a31 + a13a21a32 − a13a22a31, comoantes.
Exemplo 5.3.2 Dn =
∣∣∣∣∣∣∣∣∣∣∣
1 + x 1 ... 1 11 1 + x ... 1 1...
... . . . ......
1 1 ... 1 + x 11 1 ... 1 1 + x
∣∣∣∣∣∣∣∣∣∣∣
=
∣∣∣∣∣∣∣∣∣∣∣
1 1 ... 1 11 1 + x ... 1 1...
... . . . ......
1 1 ... 1 + x 11 1 ... 1 1 + x
∣∣∣∣∣∣∣∣∣∣∣
+
+
∣∣∣∣∣∣∣∣∣
x 1 ... 10 1 + x ... 1...
... . . . ...0 1 ... 1 + x
∣∣∣∣∣∣∣∣∣=
∣∣∣∣∣∣∣∣∣
1 1 ... 1 10 x ... 0 0...
... . . . ......
0 0 ... 0 x
∣∣∣∣∣∣∣∣∣+ xDn−1.
CAPÍTULO 5. DETERMINANTES 69
Logo:Dn = xn−1 + xDn−1
Donde:xDn−1 = x2Dn−2 + xn−1
x2Dn−2 = x3Dn−3 + xn−1
...xn−2D2 = xn−1D1 + xn−1
xn−1D1 = xn−1(1 + x) = xn−1 + xn.Somando estas n igualdades, obtemos:
Dn = xn + nxn−1.
Seja A = (aij) – n × n. Vimos que A é invertível se existe B – n × n –tal que AB = BA = In (Notação: B = A−1) e que basta ser BA = In (ouAB = In) para que seja B = A−1.
Proposição 5.10 Sejam A = (aij) – n × n – e Cij o cofator de aij em A.Então:
n∑i=1
aijCik = δjk · det A =
{det A se j = k0 se j 6= k
.
Dem. Basta considerar o caso j 6= k, por exemplo, j < k. Seja B =(B1, ..., Bn) a matriz tal que Bi = Ai, i 6= k, e Bk = Aj, ou seja,
B =
[ a11 ... a1j ... a1j ... a1n
... ... ... ... ... ... ...an1 ... anj ... anj ... ann
↑ ↑coluna j coluna k
]
É claro que det B = 0. Desenvolvendo det B pelos elementos da colunak, temos:
det B = a1jC1k + a2jC2k + ... + anjCnk,
isto é, det B = 0 =n∑
i=1
aijCik, j 6= k.
Proposição 5.11 Seja A = (aij) – n × n – e B = (C ′ij) a transposta da
matriz dos cofatores dos elementos de A, isto é, C ′ij = Cji = cofator de aji
em A. Então:BA = (det A) · In.
CAPÍTULO 5. DETERMINANTES 70
Dem. Se BA = (dij), temos:
dkj =n∑
i=1
C ′ki · aij =
n∑i=1
aijCik = δjk · det A.
Logo:BA = det A · In.
Corolário 5.11.1 Se A = (aij) – n×n – é invertível, então A−1 =1
det A·B,
onde B = (C ′ij) e C ′
ij = Cji = cofator de aji em A.A matriz B é a adjunta (clássica) de A, B = adj A. Então:
A−1 =adj A
det A.
Proposição 5.12 Seja A – m × n – de posto r. Existe submatriz r × r deA com determinante 6= 0, e toda submatriz k × k de A, com k > r, temdeterminante igual a zero.
Dem. A tem posto r se, e só se, existem r, e não mais que r, linhas de Aque são LI. Podemos supor que sejam as r primeiras (já que a troca de linhas
não altera o posto), L1, ..., Lr. Seja B =
L1...
Lr
– r×n – cujo posto é r, donde
existem r, e não mais que r, colunas de B que são LI. Sejam Bj1 , ..., Bjr essascolunas e C = [Bj1 , ..., Bjr ] – r × r; C tem posto r, donde det C 6= 0 e é a“maior” submatriz quadrada de A com essa propriedade.
Exercício Seja A =
1 1 t1 t 1t 1 1
. Estude o posto de A conforme os valores
de t ∈ R.Exercícios1. Sejam a1, ..., an números dados. Prove que∣∣∣∣∣∣∣∣∣∣∣
1 1 ... 1a1 a2 ... an
a21 a2
2 ... a2n
...... . . . ...
an−11 an−1
2 ... an−1n
∣∣∣∣∣∣∣∣∣∣∣
=∏i>j
(ai − aj).
CAPÍTULO 5. DETERMINANTES 71
É o determinante de Vandermonde.
2. Seja A = (aij) – n×n, tal que aij = 0 se i + j ≤ n. Calcule det A. Por
exemplo,
∣∣∣∣∣∣
0 0 a0 b cd e f
∣∣∣∣∣∣= −abd.
3. Prove:
∣∣∣∣∣∣
a− b− c 2a 2a2b b− c− a 2b2c 2c c− a− b
∣∣∣∣∣∣= (a + b + c)3.
4. Calculando∣∣∣∣x −yy x
∣∣∣∣ ·∣∣∣∣
x′ y′
−y′ x′
∣∣∣∣, prove que
(x2 + y2)(x′2 + y′2) = (xx′ + yy′)2 + (xy′ − yx′)2.
5. Se a, b, c ∈ R, prove que∣∣∣∣∣∣
1 sen a cos a1 sen b cos b1 sen c cos c
∣∣∣∣∣∣= sen(b− c) + sen(c− a) + sen(a− b).
6. Seja A =
[B C0 D
], onde B é r×r, C é r×(n−r) e D é (n−r)×(n−r).
Prove que det A = det B · det D.
5.4 Matrizes ElementaresDefinição 5.12 Sejam A e B matrizes m×n sobre o corpo K. Dizemos queA é linha-equivalente a B se B pode ser obtida de A por intermédio de umnúmero finito das seguintes operações, chamadas operações elementares sobreas linhas:(a) Tij – trocar de posição as linhas i e j (i 6= j)(b) Ti(k) – multiplicar a linha i por k ∈ K, k 6= 0(c) Tij(λ) – somar à linha i a linha j multiplicada por λ ∈ K.
Definição 5.13 Uma matriz obtida da identidade por meio de uma únicaoperação elementar, chama-se uma matriz elementar.
Exemplo 5.4.1 As matrizes(
0 11 0
)e
1 0 00 1 02 0 1
são elementares.
CAPÍTULO 5. DETERMINANTES 72
Proposição 5.13 Sejam e uma operação elementar e E = e(Im) a matrizelementar m×m correspondente. Para toda matriz A = (aij) – m× n, tem-se: e(A) = E · A.
Dem. Seja Li = (ai1...ain) a i-ésima linha de A. Então: A =
L1...
Lm
. Se
B ∈ Mn×p(K), é fácil ver que AB =
L1B...
LmB
. Se e1 = (1, 0, ..., 0), ..., em =
(0, ..., 0, 1) são 1×m, é claro que e1A = Li e Im =
e1...
em
.
(1) e = Tij. Então: E = e(Im) =
e1...ej...ei...
em
, e(A) =
L1...
Lj...Li...
Lm
.
Logo:
EA =
e1A...
ejA...
eiA...
emA
=
L1...
Lj...Li...
Lm
= e(A).
(2) e = Ti(k)k 6=0
. Então: E = e(Im) =
e1...
kei...
em
, e(A) =
L1...
kLi...
Lm
.
Logo:
CAPÍTULO 5. DETERMINANTES 73
EA =
e1A...
keiA...
emA
=
L1...
kLi...
Lm
= e(A).
(3) e = Tij(λ)i<j
. Então: E = e(Im) =
e1...
ei + λej...ej...
em
, e(A) =
L1...
Li + λLj...
Lj...
Lm
.
Logo:
EA =
e1A...
(ei + λej)A...
ejA...
emA
=
L1...
Li + λLj...
Lj...
Lm
= e(A), e a proposição está demon-
strada em todos os casos.
Proposição 5.14 Duas matrizes A e B, m×n sobre K, são linha-equivalentesse, e só se, existem matrizes elementares m×m, E1, ..., Er, tais que Er...E1A =B.
Dem. A é linha-equivalente a B se, e só se, existem operações elementarese1, ..., er tais que er(...(e2(e1(A)))...) = B. Pondo Ei = ei(Im), vem: Er...E1A =B.Obs. 1 As operações elementares são bijetoras. De fato, T−1
ij = Tij, Ti(k)−1 =
Ti
(1
k
)e Tij(λ)−1 = Tij(−λ).
Obs. 2 A inversa de uma matriz elementar é também elementar e seE = e(In) e E ′ = e−1(In), então E · E ′ = e(e−1(In)) = In, donde E ′ = E−1.
Proposição 5.15 Seja A ∈ Mn(K). As seguintes afirmações são equiva-lentes:
(a) A é invertível
CAPÍTULO 5. DETERMINANTES 74
(b) A é linha-equivalente a In
(c) A é um produto de matrizes elementaresDem.(a) ⇒ (b): Como A é invertível temos det A 6= 0, donde existe algum
ai1 6= 0. Usando, se necessário, a operação T1i, podemos supor a11 6= 0.
Neste caso, a operação T1
(1
a11
)muda A na matriz B linha-equivalente a A:
B =
1 b12 ... b1n
a21 a22 ... a2n
... ... ... ...an1 an2 ... ann
,
onde b1i =a1i
a11
(i = 2, 3, ..., n).
Aplicando a B, sucessivamente, as operações T21(−a21), ..., Tn1(−an1), cheg-amos à matriz C linha-equivalente a A:
C =
1 c12 ... c1n
0 c22 ... c2n...
... . . . ...0 cn2 ... cnn
.
Como C = PA, onde P é um produto de matrizes elementares e, portanto,
invertível, resulta que C é invertível. Logo, det C =
∣∣∣∣c22 ... c2n
cn2 ... cnn
∣∣∣∣ 6= 0 e
podemos, como acima, supor c22 6= 0. Usando, sucessivamente, as operações
T2
(1
c22
), T12(−c12), ..., Tn2(−cn2), a matriz C transforma-se em D, linha-
equivalente a A:
D =
1 0 d13 ... d1n
0 1 d23 ... d2n
0 0 d33 ... d3n...
...... . . . ...
0 0 dn3 ... dnn
.
Prosseguindo desta maneira chegaremos, após um número finito de oper-ações elementares, à matriz In.(b) ⇒ (c): Se A é linha-equivalente a In então existem matrizes elementaresE1, ..., Er tais que Er...E1A = In, donde A = E−1
1 ...E−1r . Como a inversa de
uma matriz elementar é também elementar, resulta que A é um produto dematrizes elementares.
CAPÍTULO 5. DETERMINANTES 75
(c) ⇒ (a): Se A = E1...Er, cada Ej sendo elementar, então A é invertível,pois cada Ej é invertível.
Proposição 5.16 A mesma sequência finita de operações elementares quemuda a matriz invertível A ∈ Mn(K) na identidade In, muda In em A−1.
Dem. Sejam e1, ..., er operações elementares que mudam A em In e E1, ..., Er
as matrizes elementares correspondentes. Então: Er...E2E1A = In, dondeA−1 = Er...E1In.
Exemplo 5.4.2 Calculemos a inversa de
A =
1 0 −10 4 22 6 0
.
Escrevamos I3 ao lado de A e efetuemos as operações elementares indicadas,que transformam A em I3:
1 0 −1 1 0 00 4 2 0 1 02 6 0 0 0 1
T31(−2)−−−−→
1 0 −1 1 0 00 4 2 0 1 00 6 2 −2 0 1
T2( 1
4)−−−→
−→
1 0 −1 1 0 00 1 1/2 0 1/4 00 6 2 −2 0 1
T32(−6)−−−−→
1 0 −1 1 0 00 1 1/2 0 1/4 00 0 −1 −2 −3/2 1
T3(−1)−−−−→
−→
1 0 −1 1 0 00 1 1/2 0 1/4 00 0 1 2 3/2 −1
T13(1)−−−→
1 0 0 3 3/2 −10 1 1/2 0 1/4 00 0 1 2 3/2 −1
T23( 1
2)−−−−→
−→
1 0 0 3 3/2 −10 1 0 −1 −1/2 1/20 0 1 2 3/2 −1
Portanto:
A−1 =
3 3/2 −1−1 −1/2 1/22 3/2 −1
Da mesma maneira que operamos sobre as linhas de A – m×n – podemosoperar sobre as colunas. Obtemos assim as operações elementares sobre as
CAPÍTULO 5. DETERMINANTES 76
colunas:(a) T ′
ij – trocar de posição as colunas i e j, i 6= j.(b) T ′
i (k) – multiplicar a coluna i por k 6= 0.(c) T ′
ij(λ) – somar à coluna i a coluna j multiplicada por λ ∈ K.Se e′ é uma operação elementar sobre as colunas, então E ′ = e′(In) é
uma matriz (coluna-) elementar de ordem n. Valem propriedades análogasas obtidas anteriormente, a saber:
Proposição 5.13’ Se A ∈ Mm×n(K), então e′(A) = AE ′.Definição A,B ∈ Mm×n(K) são coluna-equivalentes se B pode ser obtida deA por meio de um número finito de operações elementares sobre as colunas.
Proposição 5.14’ A,B ∈ Mm×n(K) são coluna-equivalentes se, e só se,existem matrizes elementares E ′
1, ..., E′r tais que AE ′
1...E′r = B.
Obs. As operações elementares (sobre as colunas) são bijetoras:
(T ′ij)−1 = T ′
ij; T ′i (k)−1 = T ′
i
(1
k
)
e T ′ij(λ)−1 = T ′
ij(−λ).As inversas das matrizes elementares são também elementares:
se E ′ = e′(In) então (E ′)−1 = (e′)−1(In).
Proposição 5.15’ Seja A ∈ Mn(K). São equivalentes:(a) A é invertível.(b) A é coluna-equivalente a In.(c) A é um produto de matrizes (coluna-)elementares.Definição Se A,B ∈ Mm×n(K), escrevemos A ∼ B quando for possíveltransformar A em B por meio de uma sequência finita de operações ele-mentares (sobre as linhas e/ou colunas). É claro que ∼ é uma relação deequivalência.
Proposição 5.17 Sejam A,B ∈ Mm×n(K). A ∼ B se, e só se, A e B sãoequivalentes, isto é, se, e só se, existem matrizes invertíveis P ∈ Mm(K) eQ ∈ Mn(K) tais que B = PAQ.Dem. Se A ∼ B existem matrizes elementares E1, ..., Er, E
′1, ..., E
′s tais que
B = Er...E1 · A · E ′1...E
′s, ou seja, B = PAQ com P e Q invertíveis.
CAPÍTULO 5. DETERMINANTES 77
Reciprocamente, se B = PAQ com P e Q invertíveis, P ∈ Mm(K) eQ ∈ Mn(K), então existem matrizes elementares tais que P = Er...E1 eQ = E ′
1...E′s, o que mostra que A ∼ B.
Corolário 5.17.1 (a) A, B ∈ Mm×n(K) são linha-equivalentes se, e só se,existe P ∈ Mm(K) invertível tal que B = PA.(b) A,B ∈ Mm×n(K) são coluna-equivalentes se, e só se, existe Q ∈ Mn(K)invertível tal que B = AQ.Obs. É claro que se A e B são linha-equivalentes (ou coluna-equivalentes,ou equivalentes), então pelo corolário 3.8.1 da proposição 3.8, posto(A) =posto(B), de modo que podemos usar as operações elementares para estudara dependência ou independência linear de vetores.
Exemplo 5.4.3 Sejam os vetores de R4 : v1 = (−1, 0, 1, 2), v2 = (3, 4,−2, 5)e v3 = (1, 4, 0, 9). Seja
A =
−1 3 10 4 41 −2 02 5 9
a matriz cujas colunas são esses vetores. O posto de A é a dimensão doespaço gerado por v1, v2, v3. Operando sobre as linhas de A, temos:
AT1(−1)−−−−→
1 −3 −10 4 41 −2 02 5 9
T31(−1)−−−−→
1 −3 −10 4 40 1 12 5 9
T41(−2)−−−−→
−→
1 −3 −10 4 40 1 10 11 11
T2( 14)−−−→
1 −3 −10 1 10 1 10 11 11
T32(−1)−−−−→
−→
1 −3 −10 1 10 0 00 11 11
T42(−11)−−−−−→
1 −3 −10 1 10 0 00 0 0
= B,
donde posto(A) = posto(B) = 2, de modo que v1, v2, v3 são LD e geram umespaço de dimensão 2; (v1, v2) é uma base para este subespaço de R4.
CAPÍTULO 5. DETERMINANTES 78
Exemplo 5.4.4 Vamos estudar a independência linear das formas linearessobre R4, onde ab 6= 0:
f1(x1, x2, x3, x4) = x1 − ax3; f2 = x2 − 1
ax4;
f3 = x1 − bx4; f4 = x2 − 1
bx4.
As formas fj são elementos de (R4)∗; em relação à base de (R4)∗, dualda base canônica de R4, temos:
f1 = (1, 0,−a, 0); f2 = (0, 1, 0,−1
a);
f3 = (1, 0, 0,−b); f4 = (0, 1, 0,−1
b).
e a matriz cujas linhas são estes vetores é
A =
1 0 −a 00 1 0 −1/a1 0 0 −b0 1 0 −1/b
T31(−1)−−−−→
1 0 −a 00 1 0 −1/a0 0 a −b0 1 0 −1/b
T42(−1)−−−−→
−→
1 0 −a 00 1 0 −1/a0 0 a −b
0 0 0b− a
ab
T13(1)−−−→
1 0 0 −b0 1 0 −1/a0 0 a −b
0 0 0b− a
ab
= B.
Vemos que se a 6= b 6= 0 as quatro formas são LI. Se a = b 6= 0 elas geramum subespaço de (R4)∗ de dimensão 3, do qual (f1, f2, f3) é uma base.
5.5 Equações LinearesSejam V e W espaços vetoriais sobre K e T : V −→ W linear. Se b ∈ W ,a equação T (x) = b chama-se uma equação linear. A equação T (x) = 0 é aequação homogênea associada. Resolver a equação T (x) = b é achar todosos x ∈ V tais que T (x) = b, ou seja, é determinar o conjunto-solução T−1(b).A equação é impossível se T−1(b) = ∅. O conjunto-solução de T (x) = 0 é onúcleo N (T ), que é um subespaço de V; portanto, T (x) = 0 sempre tem asolução x = 0, dita trivial.
CAPÍTULO 5. DETERMINANTES 79
Proposição 5.18 Se xp ∈ V é uma solução de T (x) = b, o conjunto-soluçãoé xp +N (T ).
Dem. Se T (x) = T (xp) = b, então T (x− xp) = 0, donde x− xp ∈ N (T ), ouseja, x ∈ xp+N (T ). Reciprocamente, se x ∈ xp+N (T ), então x−xp ∈ N (T ),donde T (x− xp) = 0 e T (x) = T (xp) = b.
Corolário 5.18.1 São equivalentes:(a) a equação linear T (x) = b tem, no máximo, uma solução;(b) a equação homogênea T (x) = 0 tem apenas a solução trivial x = 0;(c) T : V −→ W é injetora.
Um caso simples é aquele em que T é um isomorfismo; neste caso, T (x) =b ⇔ x = T−1(b).
Proposição 5.19 Sejam V e W espaços vetoriais de mesma dimensão nsobre K, T : V −→ W linear, E e F bases de V e W, respectivamente,[T
]EF = A ∈ Mn(K). São equivalentes:
(a) T é um isomorfismo;(b) posto(T ) = posto(A) = n;(c) os vetores-coluna e os vetores-linha de A são LI(d) A é invertível;(e) det A 6= 0;(f) para todo b ∈ W a equação T (x) = b tem solução única;(g) a equação T (x) = 0 só tem a solução x = 0.
Dem. Imediata.
Proposição 5.20 Sejam V, W espaços vetoriais sobre K, dim V = n,dim W = m e T : V −→ W linear. Se m < n a equação homogêneaT (x) = 0 tem solução não-trivial.Dem. Seja {v1, ..., vn} uma base de V. Se m < n então T (v1), ..., T (vn) sãoLD, donde existem escalares x1, x2, ..., xn, não todos nulos, tais que x1T (v1)+...+xnT (vn) = 0, donde T (x1v1 + ...+xnvn) = 0, isto é, x = x1v1 + ...+xnvn
é solução 6= 0 de T (x) = 0.Obs. 1 A equação T (x) = 0 tem N (T ) como espaço-solução. Portanto, adimensão do espaço-solução de T (x) = 0 é dim N (T ) = n− posto(T ).
Obs. 2 Sejam T : Kn −→ Kn linear, x =
x1...
xn
∈ Kn, b =
b1...
bm
∈ Km
e A = (aij) a matriz m × n associada a T. A equação T (x) = b escreve-se
CAPÍTULO 5. DETERMINANTES 80
também A ·x = b ou x1A1 + ...+xnAn = b, onde os Aj são os vetores-colunade A, ou ainda
a11x1 + ... + a1nxn = b1
...
am1x1 + ... + amnxn = bm
sistema de m equações lineares a n incógnitas. A = (aij) é a matriz doscoeficientes. A expressão x1A1 + ... + xnAn = b nos diz que Ax = b temsolução x se, e só se, o vetor b pertence ao espaço-coluna de A, ou ainda,se, e só se, o posto de A é igual ao posto da matriz (A|b) que é a matrizcompleta do sistema (Teorema de Rouché-Capelli).
Definição 5.14 O sistema linear Ax = b é um sistema de Cramer se A ∈Mn(K) é invertível.
Proposição 5.21 (Regra de Cramer) O sistema de Cramer A · x = b, onde
A ∈ GL(n,K), tem solução única x =
x1...
xn
, onde xi =
det Bi
det A(i = 1, ..., n),
onde Bi é a matriz obtida de A substituindo-se o vetor-coluna Ai pelo vetorb do segundo membro.
Dem. A equação x1A1+...+xnAn = b nos permite escrever det(A1, ...,
col.i↓b , ..., An) =
xidet(A1, ..., Ai, ..., An) = xi ·det A, donde xi ·det A = det Bi e xi =det Bi
det A=∣∣∣∣
a11 ... b1 ... a1n
an1 ... bn ... ann
∣∣∣∣∣∣∣∣a11 ... a1i ... a1n
an1 ... ani ... ann
∣∣∣∣(i = 1, ..., n).
Exemplo 5.5.12x1 + 3x2 = 8
7x1 − 9x2 = −11
Como det A =
∣∣∣∣2 37 −9
∣∣∣∣ = −39 6= 0, o sistema é de Cramer e:
x1 =
∣∣∣∣8 3−11 −9
∣∣∣∣−39
= 1; x2 =
∣∣∣∣2 87 −11
∣∣∣∣−39
= 2.
CAPÍTULO 5. DETERMINANTES 81
Proposição 5.22 Sejam as equações lineares Ax = a e Bx = b, onde A,B ∈Mm×n(K) e a, b ∈ Km. Se C = (A|a) e D = (B|b) são linha-equivalentes,então as duas equações lineares têm as mesmas soluções.
Dem. Pondo y =
x1...
xn
−1
, a equação Ax = a se escreve Cy = 0. Se C e D
são linha-equivalentes, existe P ∈ Mm(K), invertível, tal que P · C = D. SeDy = 0 vem P (Cy) = 0, donde Cy = 0. Reciprocamente, se Cy = 0 entãoP (Cy) = 0, isto é, Dy = 0. Logo as equações Cy = 0 e Dy = 0 têm asmesmas soluções, ou seja, Ax = a e Bx = b têm as mesmas soluções.
Exemplo 5.5.2 Seja o sistema
2x1 + x2 + x3 = 1x1 + 3x2 − 2x3 = 04x1 − 3x2 + x3 = 2
A matriz completa do sistema é
C =
2 1 1 11 3 −2 04 −3 1 2
T12−−→ T21(−2)−−−−→ T31(−4)−−−−→ T2(−1/5)−−−−−→ T32(15)−−−−→ B,
onde B =
1 3 −2 00 1 −1 −1/50 0 −6 −1
e obtemos:
x3 =1
6
x2 − x3 = −1
5
x1 + 3x2 − 2x3 = 0
e a solução (única) é x =
13/30−1/301/6
.
CAPÍTULO 5. DETERMINANTES 82
Exemplo 5.5.3
x1 −x3 −3x4 +x5 = −22x1 +x2 +3x3 −2x4 −x5 = 11
x2 −x4 −3x5 = 04x2 −5x3 −9x)4 −12x5 = −15
. A matriz com-
pleta é
1 0 −1 −3 1 −22 1 3 −2 −1 110 1 0 −1 −3 00 4 −5 −9 −12 −15
−→ ... −→
1 0 0 −2 1 10 1 0 −1 −3 00 0 1 1 0 30 0 0 0 0 0
e obtemos o sistema
x1 −2x4 +x5 = 1x2 −x4 −3x5 = 0
x3 +x4 = 3
ou:x1 = 2x4 − x5 + 1x2 = x4 + 3x5
x3 = −x4 + 3.
Trata-se de um sistema indeterminado; existem infinitas soluções
x =
2x4 − x5 + 1x4 + 3x5
−x4 + 3x4
x5
=
10300
+ x4
21−110
+ x5
−13001
,
onde xp =
10300
é a solução particular e
{
21−110
,
−13001
}é base do espaço-
solução da equação homogênea associada.
Exemplo 5.5.4x1 + x2 − x3 = 1
2x1 − x2 + x3 = 2
4x1 + x2 − x3 = 0
CAPÍTULO 5. DETERMINANTES 83
A matriz completa é
1 1 −1 12 −1 1 24 1 −1 0
−→ ... −→
1 1 −1 10 1 −1 00 0 0 −4
, e o
sistema é impossível já que a última equação 0 · x1 + 0 · x2 + 0 · x3 = −4 éimpossível.Obs. (decomposição LU) Seja A – n× n uma matriz que pode ser reduzidaà forma triangular apenas pelo uso da operação Tij(λ); por exemplo, seja
A = A(1) =
2 4 21 5 24 −1 9
T21(−1/2)−−−−−−→ A(2) T31(−2)−−−−→ A(3) =
2 4 20 3 10 −9 5
−→
T32(3)−−−→
2 4 20 3 10 0 8
= U.
Sejam: l21 =1
2; l31 = 2 opostos dos multiplicadores usados na primeira linha
e l32 = −3 o oposto do usado na segunda linha. Se L =
1 0 01/2 1 02 −3 1
é
a matriz triangular inferior cujos elementos lij, para i < j, são os númerosacima e lii = 1, então é fácil verificar que A = LU . Os detalhes da decom-posição LU podem ser encontrados na referência [6].
Exercícios
1. Resolva:
(a)x + y + z = 1
2x + y + 3z = 1−x + 2y − 4z = 3
(b)x− 2y + z + t = 1
−2x + y + 2z + 2t = 06y + z = −2
.
2. Sejam a 6= b 6= c 6= d números reais distintos. Prove que existe umúnico polinômio p(x) = α0 + α1x + α2x
2 + α3x3 tal que p(a) = a′;
p(b) = b′; p(c) = c′; p(d) = d′, onde a′, b′, c′, d′ são reais dados.
3. Ache a decomposição LU da matriz A =
2 3 14 1 43 4 6
.
Capítulo 6
Autovalores e Autovetores
6.1 DefiniçõesDefinição 6.1 Sejam V um espaço vetorial sobre o corpo K e T : V −→ Vlinear. Dizemos que v ∈ V é um autovetor de T se existe a ∈ K tal que
T (v) = av.
Se v 6= 0, o escalar a é univocamente determinado pois a1v = a2v implica(a1 − a2)v = 0 e, como v 6= 0, vem a1 = a2.
Definição 6.2 Sejam V um espaço vetorial sobre K e T : V −→ V linear.Dizemos que a ∈ K é um autovalor de T se existe v ∈ V, v 6= 0, tal queT (v) = av.Obs. Ao invés de autovetor e autovalor, usam-se também os termos vetorpróprio ou vetor característico e valor próprio ou valor característico.
Exemplo 6.1.1 Se v ∈ V é um autovetor do operador linear T : V −→ Ve c ∈ K, então cv também é um autovetor de T pois T (cv) = cT (v) = cav =a(cv), supondo T (v) = av.
Exemplo 6.1.2 Seja V = C∞(R,R) o espaço vetorial real das funções f :R −→ R de classe C∞, isto é, indefinidamente deriváveis, e seja D : V −→ Vo operador de derivação. Se f ∈ V, f(t) = eat, a ∈ R, então Df(t) = a · eat,ou seja, Df = af , e f é um autovetor de D, com autovalor a.
Exemplo 6.1.3 Se a = 0 é um autovalor de T : V −→ V linear, existev 6= 0 tal que T (v) = 0, donde N (T ) 6= {0} e T não é injetora.
84
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 85
Proposição 6.1 Sejam V um espaço vetorial sobre K, T : V −→ V linear,a ∈ K e V (a) = {v ∈ V ; T (v) = av}. Então V (a) é um subespaço de V talque T
(V (a)
) ⊂ V (a), isto é, V (a) é T-invariante.
Dem. É claro que 0 ∈ V (a); se v1, v2 ∈ V (a), então T (v1) = av1, T (v2) =av2, donde T (v1 + v2) = T (v1) + T (v2) = av1 + av2 = a(v1 + v2). Se c ∈ K,então T (cv1) = cT (v1) = cav1 = a(cv1). Logo, V (a) é subespaço de V. Se v ∈V (a) então T (v) = av e T (Tv) = T (av) = aT (v), donde T
(V (a)
) ⊂ V (a).V (a) é o autoespaço de T associado ao autovalor a. V (a) = {0} significa quea não é autovalor de T.
Proposição 6.2 Sejam V um espaço vetorial de dimensão finita sobre K eT : V −→ V linear. São equivalentes:(a) a ∈ K é autovalor de T;(b) T − aI não é invertível;(c) det(T − aI) = 0.
Dem. Já vimos anteriormente que (b) e (c) são equivalentes. Basta, então,provar que (a) e (b) são equivalentes.(a) ⇒ (b): Se a é autovalor de T, existe v 6= 0 tal que T (v) = av, isto é,(T − aI)v = 0, donde T − aI não é invertível.(b) ⇒ (a): Se T − aI não é invertível, existe v 6= 0 tal que (T − aI)v = 0,donde T (v) = av, ou seja, a é autovalor de T.
Proposição 6.3 Sejam V um espaço vetorial sobre K e T : V −→ V linear.Se a 6= b são autovalores de T, então V (a) ∩ V (b) = {0}.
Dem. T (v) = av = bv implica (a− b)v = 0, donde v = 0 (pois a 6= b).
Proposição 6.4 Sejam V um espaço vetorial sobre K e T : V −→ V lin-ear. Sejam v1, ..., vm autovetores não nulos de T com autovalores a1, ..., am,respectivamente. Se a1 6= a2 6= ... 6= am, então v1, ..., vm são linearmenteindependentes.
Dem. (indução) Para m = 1, um vetor v1 6= 0 é LI. Suponhamos m > 1 eadmitamos o teorema verdadeiro para (m− 1) autovetores. Se tivermos umarelação linear
b1v1 + b2v2 + ... + bmvm = 0, (6.1)
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 86
então b1T (v1) + ... + bmT (vm) = 0, donde:
a1b1v1 + a2b2v2 + ... + ambmvm = 0. (6.2)
Sem perda de generalidade podemos supor a1 6= 0. Multiplicando (6.1)por a1 e subtraindo o resultado de (6.2), obtemos: (a2− a1)b2v2 + ... + (am−a1)bmvm = 0.
Como a2 − a1 6= 0, ..., am − a1 6= 0, concluimos, por indução, que b2 =... = bm = 0, e (6.1) nos dá b1v1 = 0, donde b1 = 0, ou seja, v1, ..., vm sãoLI.
Corolário 6.4.1 Se dim V = n, todo operador linear T : V −→ V tem, nomáximo, n autovalores distintos.
Corolário 6.4.2 Se a1, ..., am são autovalores de T : V −→ V linear e a1 6=a2 6= ... 6= am, então o subespaço V (a1) + ... + V (am) é soma direta deV (a1), ..., V (am).
Dem. Seja vi ∈ V (ai), i = 1, ...m. Se v1 + v2 + ... + vm = 0, vamos mostrarque v1 = ... = vm = 0. Se p < m destes vetores fossem diferentes de 0,por exemplo, vi1, ..., vip, e os (m − p) restantes fossem iguais a 0, teríamosvi1+...+vip = 0, isto é, vi1, ..., vip seriam LD em contradição com a proposição6.4. Resulta que V (a1) + ... + V (am) = V (a1)⊕ ...⊕ V (am).
Exemplo 6.1.4 Seja V = C∞(R,R). Se a1 6= ... 6= am são reais distintos,então ea1t, ..., eamt são autovetores do operador de derivação D : V −→ Vcom autovalores distintos e, portanto, as funções ea1t, ..., eamt são LI. Comom é arbitrário, resulta que V = C∞(R,R) não tem dimensão finita.
Definição 6.3 Seja A ∈ Mn(K). Os autovetores e autovalores de A sãoos autovetores e autovalores da aplicação linear associada TA : Kn −→Kn, TA(x) = A · x. Assim, x ∈ Kn é autovetor de A se existe a ∈ Ktal que A · x = ax.
Proposição 6.5 Seja A ∈ Mn(K). São equivalentes:(a) a ∈ K é autovalor de A;(b) A− aIn não é invertível;(c) det(A− aIn) = 0.Obs. Se B = P−1AP , onde A ∈ Mn(K) e P ∈ Mn(K) é invertível, então Ae B têm os mesmos autovalores pois se Ax = ax, x 6= 0 e y = P−1x, então:
By = P−1APy = P−1Ax = P−1(ax) = ay.
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 87
Como y 6= 0, resulta que a é autovalor de B. A recíproca é análoga. É bomnotar, entretanto, que os autovetores de A e B, associados ao autovalor a,são x e y = P−1x, respectivamente.
Definição 6.4 Sejam V um espaço vetorial de dimensão n sobre K e T :V −→ V linear. O polinômio característico de T é PT (t) = det(T − tI).Se A ∈ Mn(K), o polinômio característico PA(t) é o polinômio da aplicaçãolinear associada TA : Kn −→ Kn, isto é, PA(t) = det(TA−tI) = det(A−t·In).Se A = (aij), então:
PA(t) = det(A− tIn) =
∣∣∣∣∣∣∣∣∣
a11 − t a12 ... ain
a21 a22 − t ... a2n...
... . . . ...an1 an2 ... ann − t
∣∣∣∣∣∣∣∣∣=
= (−1)ntn + (−1)n−1(a11 + ... + ann)tn−1 + ... + det A
(o termo independente é PA(0) = det A).
Proposição 6.6 Matrizes semelhantes têm o mesmo polinômio caracterís-tico.
Dem. De fato se B = P−1AP então as matrizes A e B representam omesmo operador linear T : Kn −→ Kn e, portanto, têm o mesmo polinômiocaracterístico PT (t) = det(T − tI).
Uma demonstração direta é a seguinte:
det(B − tIn) = det(P−1AP − tIn) = det(P−1(A− tIn)P ) = det(A− tIn)
pois det P−1 · det P = 1.
Obs. Se PT (t) = PA(t) = cntn + cn−1tn−1 + ... + c1t + c0, então cn = (−1)n
e c0 = det T = det A. Os coeficientes cj, j = 0, 1, ..., n, só dependem dooperador T.
Definição 6.5 (−1)n−1cn−1 é o traço de T, e escrevemos tr T = (−1)n−1cn−1.O traço de A ∈ Mn(K) é o traço de TA : Kn −→ Kn, TA(x) = A ·x : tr A =a11 + a22 + ... + ann.
Se A e B são semelhantes, temos tr A = tr B pois PA(t) = PB(t).
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 88
Proposição 6.7 Sejam V um espaço vetorial de dimensão n sobre K e T :V −→ V linear. a ∈ K é um autovalor de T se, e só se, a é uma raiz dopolinômio característico de T.
Dem. a ∈ K é autovalor de T ⇔ det(T − aI) = 0 ⇔ a é raiz de PT (t).
Exemplo 6.1.5 Se A =
[1 12 2
], então PA(t) =
∣∣∣∣1− t 1
2 2− t
∣∣∣∣ = t2− 3t, e os
autovalores de A são a = 0 e a = 3.Procuremos autovetores x =
(x1
x2
)associados a estes autovalores. Para
a = 0, temos:x1 + x2 = 0
2x1 + 2x2 = 0.
Logo, x = x1
(1−1
)é autovetor associado a a = 0, para todo x1 ∈ K.
Para a = 3, temos:−2x1 + x2 = 0
2x1 − x2 = 0.
Logo, y =
(x1
2x1
)= x1
(12
)é autovetor associado a a = 3, para todo x1 ∈ K.
Os autoespaços correspondentes são as retas pela origem de K2 geradas
por(
1−1
)e
(12
), respectivamente.
Exemplo 6.1.6 Se A =
[0 1−1 0
]então PA(t) = t2+1. Se A ∈ M2(R) vemos
que A não tem autovalores. Se A ∈ M2(C) então i e -i são autovalores de A.Obs. Se T : V −→ V é linear e dimK V = n, temos que PT (t) tem grau n,de modo que T tem, no máximo, n autovalores. Quando K = C, PT (t) tempelo menos uma raiz, de modo que, neste caso, T sempre tem um autovetornão nulo.
Proposição 6.8 Sejam V um espaço-vetorial de dimensão n sobre K e L, T :V −→ V lineares. L ◦ T e T ◦ L têm os mesmos autovalores.
Dem. Se a = 0 é autovalor de L ◦ T , existe u 6= 0 tal que L(Tu) = 0,donde L ◦ T não é invertível; logo, det(L ◦ T ) = det L · det T = 0, donde
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 89
det(T ◦L) = 0 e T ◦L não é invertível, donde existe v 6= 0 tal que T (Lv) = 0,isto é, a = 0 é autovalor de T ◦ L.
Se a 6= 0 é autovalor de L ◦ T , existe u 6= 0 tal que L(Tu) = au. Sejav = T (u); então: T (Lv) = T (au) = av. Se fosse v = T (u) = 0 entãoteríamos LTu = 0, donde au = 0, donde u = 0, contradição. Portanto,TLv = av com v 6= 0, donde a é autovalor de T ◦ L. Analogamente se provaque todo autovalor de T ◦ L é também autovalor de L ◦ T .
Proposição 6.9 Sejam V um espaço vetorial de dimensão n sobre K e T :V −→ V linear. Se o polinômio característico PT (t) admite em K uma raiza de multiplicidade m, então 1 ≤ dim V (a) ≤ m.
Dem. Seja E = (u1, ..., ur, v1, .., vs) base de V tal que (u1, ..., ur) seja base deV (a). Temos:
T (u1) = au1
T (u2) = au2...T (ur) = aur
T (v1) = a11u1 +...+ ar1ur + b11v1 + ... + bs1vs
T (vs) = a1su1 +...+ arsur + b1sv1 + ... + bssvs
Logo:
[T
]EE
=
aIr A
0 B
onde A = (aij) é r × s e B = (bij) é s× s.
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 90
Então:
PT (t) =
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
a− t 0 ... 0 a11 ... a1s
0 a− t ... 0 a21 ... a2s...
......
...... . . . ...
0 0 ... a− t ar1 ... ars
0 0 ... 0 b11 − t ... b1s...
......
...... . . . ...
0 0 ... 0 bs1 ... bss − t
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
= (a−t)rdet(B−tIs).
Como a é raiz de multiplicidade m, temos r ≤ m, donde 1 ≤ dim V (a) ≤ m.
6.2 DiagonalizaçãoDefinição 6.6 Sejam V um espaço vetorial de dimensão n sobre K e T :V −→ V linear. Dizemos que T é diagonalizável se existe base de V for-mada por autovetores de T, ou seja, se, e só se, T tem n autovetores lin-earmente independentes. Em relação a essa base, a matriz de T é da forma
λ1 0 ... 00 λ2 ... 0...
... . . . ...0 0 ... λn
, λj ∈ K, ou seja, todos os elementos fora da diagonal
principal são iguais a zero. Uma tal matriz é dita diagonal; os elementos dadiagonal principal são os autovalores de T.
Definição 6.7 Seja A = (aij) – n × n. A é diagonalizável se existe matrizinvertível P – n× n – tal que P−1AP = D, onde D é diagonal, isto é, se Aé semelhante a uma matriz diagonal.
Proposição 6.10 Sejam V um espaço vetorial de dimensão finita sobre Ke T : V −→ V linear. T é diagonalizável se, e só se, existe base E de V talque
[T
]EE = D seja diagonal.
Dem. Se T é diagonalizável existe base E = (v1, ..., vn) de V formada porautovetores de T: T (vi) = λivi (1 ≤ i ≤ n). Logo:
[T
]EE =
λ1 0 ... 00 λ2 ... 0...
... . . . ...0 0 ... λn
.
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 91
Reciprocamente, seja E = (v1, ..., vn) base de V tal que[T
]EE = D =
λ1 0 ... 00 λ2 ... 0...
... . . . ...0 0 ... λn
. Então: T (vi) = λivi, 1 ≤ i ≤ n, e E é formada por
autovetores de T; portanto, T é diagonalizável.
Obs. Seja F base de V e seja A =[T
]FF . T é diagonalizável se, e só se,
existe base E de V tal que[T
]EE = D seja diagonal. Mas,
D =[T
]EE =
[Id
]FE ·
[T
]FF ·
[Id
]EF = P−1AP,
ou seja, T é diagonalizável se, e só se, A =[T
]FF é diagonalizável; P =
[Id
]EF
é a matriz de passagem da base E para a base F e as colunas de P são osautovetores de A.
Proposição 6.11 Sejam V um espaço vetorial de dimensão n sobre K eT : V −→ V linear. T é diagonalizável se, e só se:(a) o polinômio característico PT de T tem suas n raízes em K;(b) para cada raiz λi de PT , de ordem de multiplicidade mi, tem-se dim V (λi) =mi.
Dem. Se T é diagonalizável e E é base de V na qual[T
]EE é diagonal, então
E é formada de autovetores de T. Podemos supor que os elementos de E es-tão ordenados de maneira a termos primeiro os autovetores associados a λ1,depois aqueles associados a λ2, e assim por diante, de modo que
[T
]EE =
λ1 ... 0 0 ... 0 ... 0 ... 0... . . . ...
... . . . ... . . . ... . . . ...0 ... λ1 0 ... 0 ... 0 ... 00 ... 0 λ2 ... 0 ... 0 ... 0... . . . ...
... . . . ... . . . ... . . . ...0 ... 0 0 ... λ2 ... 0 ... 0... . . . ...
... . . . ... . . . ... . . . ...0 ... 0 0 ... 0 ... λk ... 0... . . . ...
... . . . ... . . . ... . . . ...0 ... 0 0 ... 0 ... 0 ... λk
∈ Mn(K).
Então:V = V (λ1)⊕ V (λ2)⊕ ...⊕ V (λk),
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 92
donde dim V = dim V (λ1) + ... + dim V (λk) = n. Como dim V (λi) ≤ mi em1 + ... + mk = n, resulta dim V (λi) = mi (1 ≤ i ≤ k).
Reciprocamente, as n raízes de PT estando em K, suponhamos que dim V (λi) =mi, 1 ≤ i ≤ k. A relação m1 + ... + mk = n nos dá
dim[V (λ1)⊕ ...⊕ V (λk)
]= n ∴ V = V (λ1)⊕ ...⊕ V (λk).
A reunião das bases dos V (λi) (1 ≤ i ≤ n) é uma base de V formada porautovetores de T, donde T é diagonalizável.
Exemplo 6.2.1 Seja A =
[1 23 2
]. Os autovalores de A são as raízes de
∣∣∣∣1− t 2
3 2− t
∣∣∣∣ = 0, isto é, de t2− 3t− 4 = 0, ou seja, t1 = −1 e t2 = 4. Para
t = −1 a equação (A − I2) · x = 0, onde x =
(x1
x2
), nos dá x1 + x2 = 0,
donde x = x1
(1−1
), x1 ∈ R.
Para t = 4 obtemos 3x1 + 2x2 = 0, donde x = 3x2
(23
), x2 ∈ Real. O
vetor(
1−1
)gera V (−1), quanto que
(23
)gera V (4). A matriz de passagem
da base canônica de V = R2 para a base
{ (1−1
),
(23
) }é P =
[1 2−1 3
],
cuja inversa é P−1 =1
5
[3 −21 1
]e B = P−1AP =
[−1 00 4
], matriz diagonal.
Exemplo 6.2.2 A =
[1 10 1
]∈ M2(C) não é diagonalizável. De fato, PA(t) =
(1 − t)2 tem a raiz dupla t = 1 e (A − I2)
(x1
x2
)= 0 nos dá x2 = 0, donde
x = x1
(10
). Assim, dim V (1) = 1 < 2, e A não é diagonalizável.
Exemplo 6.2.3 A =
−1 1 00 −1 11 0 −1
é diagonalizável em M3(C) mas não o
é em M3(R). De fato, os autovalores de A são a1 = 0, a2 = −3
2+ i
√3
2, a3 =
−3
2− i
√3
2.
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 93
Exemplo 6.2.4 A =
−1 1 11 −1 11 1 −1
∈ M3(R) é diagonalizável. De fato,
temos:PA(t) = −(t− 1)(t + 2)2.
É fácil comprovar que
111
é base de V (1) e que
{
1−10
,
10−1
}é base
de V (−2), ou seja, dim V (1) = 1 e dim V (−2) = 2. Resulta que A ∈ M3(R)
é diagonalizável. Se P =
1 1 11 −1 01 0 −1
, então P−1AP =
1 0 00 −2 00 0 −2
.
Proposição 6.12 Sejam V um espaço vetorial de dimensão n ≥ 1 sobre Ke T : V −→ V linear tal que PT (t) tenha todas suas raízes em K. Existe umabase de V na qual a matriz de T é triangular (superior).
Dem. (indução)Para dim V = 1 nada há a provar. Suponhamos o teorema verdadeiro paradim V = n−1. Seja a1 ∈ K um dos autovalores de T e v1 6= 0 um autovetorassociado a a1, isto é, Tv1 = a1v1. Sejam V1 = Kv1 o subespaço gerado porv1, W um suplementar qualquer de V1 e F = (w2, ..., wn) uma base de W.Como v1 6= W , E ′ = (v1, w2, ..., wn) é base de V e
[T
]E ′E ′ =
a1 b12 ... b1n
0 b22 ... b2n...
... . . . ...0 bn2 ... bnn
.
Como, em geral, T (W ) não está contido em W, consideremos as projeçõesp1 : V −→ V1 e p2 : V −→ W . Então, Im(p2T ) ⊂ W e podemos considerara aplicação linear p2 · T : W −→ W . Como p2(V1) = 0 e p2(wj) = wj,j = 2, ..., n, temos:
p2T (wj) = p2(b1jv1 + b2jw2 + ... + bnjwn) = b2jw2 + ... + bnjwn,
donde:
[p2T
]FF =
b22 ... b2n... . . . ...
bn2 ... bnn
.
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 94
Resulta: PT (t) = (a1−t) det(p2T−tI), e podemos concluir que os autovaloresde p2T : W −→ W estão em K, já que eles são também autovalores de T.Pela hipótese de indução, existe base G = (u2, ..., un) de W tal que
[p2T
]G
G=
c22 c23 ...c2n
0 c33 ... c3n...
... . . . ...0 0 ... cnn
é matriz triangular. Se E = (v1, u2, ..., un) é a base de
V obtida acrescentando-se v1 6= W a G, temos:
[T
]EE =
a1 c12 ... c1n
0 c22 ... c2n
0 0 ... c3n...
... . . . ...0 0 ... cnn
, matriz triangular.
Corolário 6.12.1 Seja A ∈ Mn(C). Existe P ∈ Mn(C), invertível, tal queB = P−1AP seja triangular.Obs. Se E = (v1, v2, ..., vn) é base de V na qual
[T
]EE é triangular superior,
sejam:V1 = Kv1 = espaço gerado por v1
V2 = espaço gerado por v1, v2...Vn = V = espaço gerado por v1, v2, ..., vn.
Então:(1) Vi ⊂ Vi+1; (2) dim Vi = i; (3) T (Vi) ⊂ Vi (1 ≤ i ≤ n).
Reciprocamente, se V1, ..., Vn = V são subespaços de V satisfazendo (1),(2) e (3) acima, então existe base E de V na qual
[T
]EE é triangular su-
perior. De fato, basta tomar (v1) base de V1, (v1, v2) base de V2, (v1, v2, v3)base de V3 e assim por diante até chegar a uma base (v1, v2, ..., vn) de Vn = V .
Exercícios
1. Ache os autovalores e autovetores e A =
2 0 43 −4 121 −2 5
∈ M3(R).
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 95
2. Verifique se A =
−4 0 −20 1 05 1 3
é diagonalizável.
6.3 Polinômios de Operadores e MatrizesSejam K[t] o conjunto dos polinômios a uma variável com coeficientes nocorpo K, V um espaço vetorial sobre K, T : V −→ V linear e p(t) = a0 +a1t + ... + amtm um elemento de K[t].
Definição 6.8 p(T ) = a0I + aiT + ... + amTm : V −→ V .Se A ∈ Mn(K), definimos: p(A) = a0In + a1A + ... + amAm ∈ Mn(K).
Exemplo 6.3.1 Sejam A =
[0 12 −1
]e p(t) = t3 − 2t + 3. Então:
p(A) =
[0 12 −1
]3
− 2
[0 12 −1
]+ 3
[1 00 1
]=
[1 12 0
].
Obs. Se E é base de V, A =[T
]EE e φ : L(V ) −→ Mn(K) é o isomorfismo
de álgebras tal que φ(T ) =[T
]EE = A, então
φ(p(T )
)= φ(a0I + ... + amTm) = a0φ(I) + ... + amφ(Tm) =
= a0In + a1A + ... + amAm = p(A),
ou seja,[p(T )
]EE = p(A).
Proposição 6.13 Sejam p, q ∈ K[t], c ∈ K, V um espaço vetorial sobre Ke T : V −→ V linear. Então:(a) (p + q)(T ) = p(T ) + q(T )(b) (pq)(T ) = p(T ) · q(T ) = q(T ) · p(T )(c) (cp)(T ) = c · p(T ).
Dem. Suponhamos p(t) = a0 + a1t + ... + antn e q(t) = b0 + b1t + ... + bmtm,
m ≤ n, e seja bi = 0 se i > m. Então:(a) (p + q)(t) = (a0 + b0) + (a1 + b1)t + ... + (an + bn)tn, donde
(p + q)(T ) = (a0 + b0)I + (a1 + b1)T + ... + (an + bn)T n =
= (a0I + a1T + ... + anT n) + (b0I + b1T + ... + bnT n) =
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 96
= p(T ) + q(T )
.
(b) (pq)(t) = c0 + c1t + ... + cn+mtn+m =m+n∑
k=0
cktk, onde
ck = a0bk + a1bk−1 + ... + akb0 =k∑
i=0
aibk−i.
Então: (pq)(T ) =m+n∑
k=0
ckTk e p(T ) · q(T ) =
(n∑
i=0
aiTi
)(m∑
j=0
bjTj
)=
=n∑
i=0
m∑j=0
aibjTi+j =
m+n∑
k=0
ckTk = (pq)(T ) = (qp)(T ) = q(T ) · p(T ).
(c) (cp)(T ) = ca0I + ca1T + ... + canTn = c · p(T ).
Obs. É claro que a proposição 6.13 continua válida se trocarmos o operadorlinear T : V −→ V por uma matriz quadrada A.
Exemplo 6.3.2 Sejam A,P ∈ Mn(K), P invertível e m um inteiro positivo.Temos: (P−1AP )2 = P−1AP · P−1AP = P−1A2P e, por indução, vê-sefacilmente que (P−1AP )m = P−1AmP .
Se p(t) = a0 + a1t + ... + amtm, então p(P−1AP ) =m∑
k=0
ak(P−1AP )k =
=m∑
k=0
akP−1AkP = P−1 ·
m∑
k=0
akAkP = P−1 · p(A) · P .
Proposição 6.14 (Cayley-Hamilton) Sejam V um espaço vetorial de dimen-são n ≥ 1 sobre K e T : V −→ V linear. T é um zero de seu polinômiocaracterístico, isto é, PT (T ) = 0.
Dem. Para facilitar vamos provar o teorema no caso em que K = C.Vimos, na proposição 6.11, que existem subespaços V1, ..., Vn de V tais
que Vi ⊂ Vi+1, dim Vj = j e T (Vi) ⊂ Vi (1 ≤ i ≤ n) e base E = (v1, v2, ..., vn)de V tal que Vi = espaço gerado por v1, ..., vi (1 ≤ i ≤ n). Em relação à baseE a matriz de T é triangular superior:
[T
]EE =
a11 a12 ... a1n
0 a22 ... a2n
0 0. . . ...
0 0 ... ann
.
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 97
Então: Tvi = aiivi+ um vetor de Vi−1.Como (T − aiiI)vi = Tvi − aiivi resulta que (T − aiiI)vi ∈ Vi−1. Além disso,o polinômio característico de T é dado por PT (t) = (−1)n(t− a11)...(t− ann)de modo que PT (T ) = (−1)n(T − a11I)...(T − annI).Vamos provar, por indução, que (T − a11I)...(T − aiiI)v = 0 para todo v ∈Vi (1 ≤ i ≤ n).
Para i = 1, temos (T −a11I)v1 = Tv1−a11v1 = 0. Admitamos o teoremaverdadeiro para i− 1. Todo elemento de Vi é da forma u + cvi com u ∈ Vi−1
e c ∈ C. Como TVi−1 ⊂ Vi−1 resulta que (T − aiiI)u está em Vi−1. Porindução,
(T − a11I)...(T − ai−1,i−1I)(T − aiiI)u = 0.
Por outro lado, (T − a11I)cvi pertence a Vi−1 e, por indução,
(T − a11I)...(T − aiiI)cvi = 0.
Logo, para v ∈ Vi, temos
(T − a11I)...(T − aiiI)v = 0
e i = n prova o teorema.Obs. É claro que a proposição 6.14 continua válida se substituirmos T :V −→ V por uma matriz A ∈ Mn(K).
Exemplo 6.3.3 Seja A =
1 1 10 0 −30 3 6
. Temos: PA(t) = (1− t)(t− 3)2.
Para t = 1, (A− I3)x = 0 nos dá x = x1
100
, x1 ∈ R.
Para t = 3, (A− 3I3)x = 0 nos dá x = x3
0−11
, x3 ∈ R.
Como dim V (3) = 1 < 2, A não é diagonalizável. Os vetores
100
e
0−11
geram V (1) e V (3), respectivamente. Para obter uma base de R3
devemos tomar um terceiro vetor que seja independente desses dois. Por
exemplo,
010
. Obtemos a base F =
100
,
0−11
,
010
de R3. Se
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 98
P =
1 0 00 −1 10 1 0
, então P−1 =
1 0 00 0 10 1 1
e B = P−1AP =
1 0 10 3 30 0 3
, ma-
triz triangular na qual os elementos da diagonal principal são os autovaloresde A. Como PA(t) = PB(t) = (1− t)(3− t)2, temos PA(A) = PB(B) = 0, ouseja, (I3 − A)(3I3 − A)2 = 0, que se pode verificar diretamente pelo cálculo.
6.4 Exercícios do Capítulo 6
1. Seja A =
1 a 10 1 b0 0 c
, onde a, b e c são reais. Ache os autovalores e
autovetores de A e determine os casos em que A é diagonalizável.
2. Se possível, diagonalize A =
−2 1 11 −2 11 1 −2
.
3. Prove que não existem matrizes A, B – n× n – tais que[A,B
]= AB −BA = In.
4. Sejam V um espaço vetorial de dimensão finita sobre K, T : V −→ Vlinear.(a) Prove que T e T t têm o mesmo polinômio característico.(b) Sejam V (λ) o auto-espaço associado ao autovalor λ de T e V ′(λ)o auto-espaço associado ao autovalor λ de T t. Prove que V (λ) e V ′(λ)têm a mesma dimensão.
5. Sejam A ∈ Mn(C) a matriz “circulante” A =
a0 a1 ... an−1
an−1 a0 ... an−2...
... . . . ...a1 a2 ... a0
e
P = (pjk) – n× n – tal que pjk = e2πin
jk.(a) Calcule PP e ache P−1.
(b) Se w = e2πin , mostre que o vetor x =
1w...
wn−1
é um autovetor de A.
Qual é o autovalor correspondente?(c) Prove que P−1AP é uma matriz diagonal.
Capítulo 7
Produto Interno
Neste capítulo o corpo K será ou R ou C e usaremos a notação K.
7.1 Definições e ExemplosDefinição 7.1 Seja V um espaço vetorial sobre K. Um produto interno emV é uma função que a cada par (u, v) ∈ V × V associa um escalar, anotado〈u, v〉, de modo que:(a) 〈u1 + u2, v〉 = 〈u1, v〉+ 〈u2, v〉(b) 〈au, v〉 = a〈u, v〉(c) 〈u, v〉 = 〈v, u〉, onde a barra indica conjugação complexa,(d) 〈v, v〉 é um real positivo para todo v ∈ K, v 6= 0quaisquer que sejam u, v, u1, u2 ∈ V e a ∈ K.
Exemplo 7.1.1 Seja V = Kn. Se u = (x1, ..., xn) e v = (y1, ..., yn), defini-mos 〈u, v〉 = x1y1 + ... + xnyn e obtemos um produto interno em Kn.
Exemplo 7.1.2 Seja V = C0([0, 1],K) o espaço vetorial das funções con-tínuas f : [0, 1] −→ K. Se f, g ∈ V , definimos um produto interno em V por
〈f, g〉 =
∫ 1
0
f(t)g(t)dt.
Exemplo 7.1.3 Seja V = C1([0, 1],R) o espaço vetorial das funções con-tínuas f : [0, 1] −→ R que têm derivada primeira contínua. Se f, g ∈ V ,
definimos um produto interno em V por 〈f, g〉 =
∫ 1
0
[f(t)g(t)+ f ′(t)g′(t)
]dt.
Exemplo 7.1.4 Sejam V1 e V2 espaços vetoriais sobre o mesmo corpo (Rou C) e 〈, 〉2 um produto interno em V2. Se T : V1 −→ V2 é linear injetora,
99
CAPÍTULO 7. PRODUTO INTERNO 100
definimos um produto interno em V1 por 〈u, v〉1 = 〈T (u), T (v)〉2. Por exem-plo, seja T : V1 = C0
([0, 1],R
) −→ V2 = C0([0, 1],R
), 〈, 〉2 como no exemplo
7.1.2 acima, tal que T (f)(t) = e−t2
2 f(t). É claro que T é linear injetora.
Portanto, 〈f, g〉1 =
∫ 1
0
e−t2f(t)g(t)dt é um produto interno em V1.
Definição 7.2 Seja V um espaço vetorial sobre K munido de produto interno〈, 〉. Se v ∈ V definimos sua norma por ‖v‖ =
√〈v, v〉. A distância entre
u, v ∈ V é definida por d(u, v) = ‖u− v‖.
Proposição 7.1 (Pitágoras) Seja V um espaço vetorial com produto interno〈, 〉. Se u, v ∈ V , então ‖u + v‖2 = ‖u‖2 + ‖v‖2 se, e só se, Re〈u, v〉 = 0,onde Re z indica a parte real do número complexo z.
Dem. ‖u + v‖2 = 〈u + v, u + v〉 = 〈u, u〉+ 〈u, v〉+ 〈v, u〉++〈v, v〉 = ‖u‖2 + ‖v‖2 + 〈u, v〉+ 〈u, v〉 = ‖u‖2 + ‖v‖2++2Re〈u, v〉.Portanto, ‖u + v‖2 = ‖u‖2 + ‖v‖2 se, e só se, Re〈u, v〉 = 0.
Corolário 7.1.1 Se 〈u, v〉 = 0 então ‖u + v‖ ≥ ‖u‖ com igualdade ⇔ v == 0.
Corolário 7.1.2 (lei do paralelogramo) Se u, v ∈ V , então:
‖u + v‖2 + ‖u− v‖2 = 2(‖u‖2 + ‖v‖2
).
Proposição 7.2 Seja V um espaço vetorial com produto interno 〈, 〉. Então:(a) ‖av‖ = |a| · ‖v‖(b) ‖v‖ > 0 se v 6= 0(c) |〈u, v〉| ≤ ‖u‖ · ‖v‖ (desigualdade de Cauchy-Schwarz)(d) ‖u + v‖ ≤ ‖u‖+ ‖v‖ (desigualdade triangular),quaisquer que sejam u, v ∈ V e a ∈ K.
Dem. (a) ‖av‖ =√〈av, av〉 =
√aa〈v, v〉 =
√|a|2 · 〈v, v〉 = |a| · ‖v‖.
(b) Se v 6= 0 temos 〈v, v〉 > 0, donde ‖v‖ > 0.(c) A desigualdade é verdadeira para v = 0. Suponhamos v 6= 0 e deter-
minemos c ∈ K de modo que cv seja a projeção ortogonal de u ao longo de
v, isto é, tal que 〈u − cv, v〉 = 0, donde c =〈u, v〉〈v, v〉 . Pelo corolário 7.1.1 da
CAPÍTULO 7. PRODUTO INTERNO 101
proposição 7.1 temos ‖u‖ ≥ ‖cv‖ =|〈u, v〉|‖v‖2
· ‖v‖, donde, |〈u, v〉| ≤ ‖u‖ · ‖v‖,com igualdade ⇔ u = cv.
-
36
-vcv
u
u− cv
(d) ‖u + v‖2 = ‖u‖2 + ‖v‖2 + 2Re〈u, v〉 ≤ ‖u‖2 + ‖v‖2 + 2|〈u, v〉| ≤≤ ‖u‖2 + ‖v‖2 + 2‖u‖ · ‖v‖ =
(‖u‖+ ‖v‖)2, donde a tese.
Exemplo 7.1.5 Aplicando a desigualdade de Cauchy-Schwarz aos exemplos7.1.1 e 7.1.2 anteriores, obtemos:
(7.1.1)
∣∣∣∣∣n∑
i=1
xiyi
∣∣∣∣∣ ≤(
n∑i=1
|xi|2)1/2
·(
n∑i=1
|yi|2)1/2
(7.1.2)∣∣∣∣∫ 1
0
f(t)g(t)dt
∣∣∣∣ ≤(∫ 1
0
|f(t)|2dt
)1/2
·(∫ 1
0
|g(t)|2dt
)1/2
.
Definição 7.3 Seja V um espaço vetorial com produto interno 〈, 〉. u, v ∈ Vsão ortogonais ou perpendiculares se 〈u, v〉 = 0, o que indicamos por u⊥v.Se S ⊂ V , definimos S⊥ = {v ∈ V ; 〈u, v〉 = 0 ∀u ∈ S}. É imediato que S⊥ éum subespaço de V, chamado espaço ortogonal de S. Se U é o subespaço de Vgerado por S, então S⊥ = U⊥ pois se v é perpendicular a todos os elementosde S, é perpendicular também às combinações lineares de elementos de S, ouseja, aos elementos de U. Escrevemos v⊥S para indicar que v é perpendiculara todos os elementos de S; neste caso, dizemos que v é perpendicular a S.
Exemplo 7.1.6 Sejam V = C0([0, 2π],R), g1(t) = cos kt, g2(t) = sen kt,
onde k é um inteiro positivo, 〈f, g〉 =
∫ 2π
0
f(t)g(t)dt. Temos:
‖g1‖2 =
∫ 2π
0
cos2kt · dt = π
‖g2‖2 =
∫ 2π
0
sen2kt · dt = π
CAPÍTULO 7. PRODUTO INTERNO 102
Os coeficientes de Fourier de f ∈ V são os números
ak =〈f, g1〉‖g1‖2
=1
π
∫ 2π
0
f(t)cos kt · dt,
bk =〈f, g2〉‖g2‖2
=1
π
∫ 2π
0
f(t)sen kt · dt
ea0
2=〈f, 1〉‖1‖2
=1
2π
∫ 2π
0
f(t)dt.
Devido a esse exemplo, é usual (no caso geral) chamar c =〈u, v〉‖v‖2
de
coeficiente de Fourier de u em relação a v; o vetor cv é a projeção ortogonalde u sobre v.
-
36
-vcv
u
u− cv
Definição 7.4 Seja V um espaço vetorial com produto interno 〈, 〉. Dizemosque S ⊂ V é um conjunto ortogonal se dois vetores quaisquer de S sãoortogonais. S ⊂ V é um conjunto ortonormal se S é ortogonal e ‖v‖ = 1para todo v ∈ S.
Exemplo 7.1.7 A base canônica de Kn é um conjunto ortonormal relativa-mente ao produto interno usual de Kn.
Proposição 7.3 Seja V um espaço vetorial com produto interno 〈, 〉. SeX ⊂ V é um conjunto ortogonal de vetores não nulos, então X é linearmenteindependente.
Dem. Suponhamos a1x1 + ... + anxn = 0, n ∈ N, ai ∈ K, xi ∈ X. Então:
〈xi,
n∑
k=1
akxk〉 = 0, donde 〈xi, aixi〉 = 0, isto é, ai‖xi‖2 = 0 e, portanto,
ai = 0 (i = 1, ..., n), o que mostra ser X linearmente independente.
CAPÍTULO 7. PRODUTO INTERNO 103
Proposição 7.4 Seja {v1, ..., vn, ...} um conjunto ortogonal de vetores não-nulos num espaço vetorial com produto interno 〈, 〉. Sejam v ∈ V e ci =〈v, vi〉‖vi‖2
(i = 1, 2, ...).
(a) Se a1, ..., an ∈ K, então∥∥∥∥∥v −
n∑i=1
civi
∥∥∥∥∥ ≤∥∥∥∥∥v −
n∑i=1
aivi
∥∥∥∥∥, com igualdade
se, e só se, ai = ci (i = 1, ..., n)
S
v
R
-
µ
n∑
i=1
aivin∑
i=1
(ci − ai)vi
n∑
i=1
civi
(b)∞∑i=1
|ci|2 · ‖vi‖2 ≤ ‖v‖2 (desigualdade de Bessel)
Dem. 〈v−n∑
i=1
civi, vj〉 = 〈v, vj〉 −n∑
i=1
ci〈vi, vj〉 = cj‖vj‖2− cj‖vj‖2 = 0 (j =
1, .., n), ou seja, o vetor v−n∑
i=1
civi é perpendicular ao subespaço S gerado por
v1, ..., vn; em particular ao vetorn∑
i=1
(ci−ai)vi. Do corolário 7.1.1 do teorema
de Pitágoras, resulta que
∥∥∥∥∥v −n∑
i=1
civi
∥∥∥∥∥ ≤∥∥∥∥∥v −
n∑i=1
aivi
∥∥∥∥∥, com igualdade se,
e só se,n∑
i=1
(ci − ai)vi = 0, o que equivale a ai = ci (i = 1, ..., n).
Ainda pelo corolário 7.1.1 do teorema de Pitágoras, temos ‖v‖2 ≥∥∥∥∥∥
n∑i=1
civi
∥∥∥∥∥
2
=
CAPÍTULO 7. PRODUTO INTERNO 104
n∑i,j=1
〈civi, cjvj〉 =n∑
i=1
|ci|2‖vi‖2, válida para todo n ∈ N. Portanto,
∞∑i=1
|ci|2 · ‖vi‖2 ≤ ‖v‖2.
Exemplo 7.1.8 Dada a função contínua f : [0, 2π] −→ R, vamos achar,dentre os polinômios trigonométricos de grau m, P (t) =
a0
2+ a1cos t +
b1sen t + ... + amcos mt + bmsen mt, ai ∈ R, bi ∈ R, o que minimiza aintegral ∫ 2π
0
[f(t)− P (t)
]2dt.
Seja V = C0([0, 2π],R
)com o produto interno 〈f, g〉 =
∫ 2π
0
f(t)g(t)dt.
As funções 1, cos t, sen t, ..., cos nt, sen nt, ... pertencem a V e formam umconjunto ortogonal de vetores não-nulos, pois
∫ 2π
0
cos kt · dt =
∫ 2π
0
sen kt · dt =
∫ 2π
0
cos kt · cos ht · dt =
=
∫ 2π
0
cos kt · sen lt · dt =
∫ 2π
0
sen kt · sen lt · dt = 0
se k 6= h, k 6= l, respectivamente, e∫ 2π
0
12dt = 2π,
∫ 2π
0
cos2kt · dt =
∫ 2π
0
sen2kt · dt = π (k = 1, 2, ...)
Pela proposição 7.4, ‖f−P‖2 =
∫ 2π
0
[f(t)−P (t)
]2dt é mínimo quando os
coeficientes de P (t) são os coeficientes de Fourier de f em relação às funções1, cos t, sen t, .... Então:
a0
2=
1
2π
∫ 2π
0
f(t)dt, donde a0 =1
π
∫ 2π
0
f(t)dt
ak =1
π
∫ 2π
0
f(t)cos kt · dt e bk =1
π
∫ 2π
0
f(t)sen kt · dt
.
E a desigualdade (abstrata) de Bessel, nos dá:a2
0
4· 2π + a2
1 · π + b21 · π + ... + a2
n · π + b2n · π + ... ≤
∫ 2π
0
|f(t)|2dt,
CAPÍTULO 7. PRODUTO INTERNO 105
ou seja,a2
0
2+
∞∑n=1
(a2n + b2
n) ≤ 1
π
∫ 2π
0
|f(t)|2dt,
que é a desigualdade clássica de Bessel.
Exercício Sejam a1, ..., an reais não nulos. Prove:
(a21 + ... + a2
n)
(1
a21
+ ... +1
a2n
)≥ n2.
7.2 Bases OrtonormaisDefinição 7.5 Seja V um espaço vetorial com produto interno 〈, 〉. Umabase (v1, ..., vn) de V é ortogonal se o conjunto {v1, ..., vn} é ortogonal, isto é,〈vi, vj〉 = 0 se i 6= j. Se, além disso, ‖vj‖ = 1 (j = 1, ..., n) então (v1, ..., vn)é uma base ortonormal.
Proposição 7.5 Todo espaço vetorial com produto interno, de dimensãofinita n ≥ 1, tem uma base ortonormal.
Dem. Seja (u1, ..., un) base de V. A partir desta base vamos obter uma baseortogonal, pelo chamado processo de ortogonalização de Gram-Schmidt.
-
6 µ
v1 = u1
v2u2
Seja v1 = u1 (6= 0); para achar v2 ponhamos v2 = u2− a1v1, onde a1 ∈ Ké escolhido de modo que 〈v2, v1〉 = 0, isto é, 〈u2 − a1v1, v1〉 = 0, donde
a1 =〈u2, v1〉‖v1‖2
.
CAPÍTULO 7. PRODUTO INTERNO 106
-
ª
6
v1 = u1
v2
v3
Ru2
3 u3
Como u1 e u2 são LI, é claro que v2 6= 0; além disso, o espaço gerado porv1 e v2 é o mesmo gerado por u1 e u2. A seguir, para achar v3, ponhamosv3 = u3 − b2v2 − b1v1, onde b1 e b2 são escolhidos de modo que 〈v3, v1〉 =
〈v3, v2〉 = 0, donde b1 =〈u3, v1〉‖v1‖2
e b2 =〈u3, v2〉‖v2‖2
.
Como u3 não está no espaço gerado por v1 e v2, temos v3 6= 0; além disso,o espaço gerado por v1, v2, v3 é o mesmo gerado por u1, u2, u3. Por indução,suponhamos construídos v1, ..., vk−1 que formam um conjunto ortogonal devetores não-nulos e são tais que o espaço por eles gerado é o mesmo geradopor u1, ..., uk−1. Para achar vk, ponhamos vk = uk − ck−1vk−1 − ... − c1v1,onde c1, ..., ck−1 são escolhidos de modo que 〈vk, v1〉 = ... = 〈vk, vk−1〉 = 0,
donde c1 =〈uk, v1〉‖v1‖2
, ..., ck−1 =〈uk, vk−1〉‖vk−1‖2
. Como uk não pertence ao espaço
gerado por v1, ..., vk−1 temos vk 6= 0; além disso, o espaço gerado por v1, ..., vk
é o mesmo gerado por u1, ..., uk. Obteremos assim, por esse processo, umasequência (v1, ..., vn) de vetores não-nulos, dois a dois ortogonais, donde LI,ou seja, uma base ortogonal de V. Para obter uma base ortonormal bastasubstituir cada vi por
vi
‖vi‖ .
Exemplo 7.2.1 Vamos achar uma base ortogonal para o subespaço W de
V = C0([0, 1],R
), com 〈f, g〉 =
∫ 1
0
f(t)g(t)dt, gerado pelas funções 1, t, t2.
CAPÍTULO 7. PRODUTO INTERNO 107
Seja f1(t) = 1 e tomemos f2(t) = t − af1(t) = t − a onde a =〈t, f1〉‖f1‖2
=∫ 1
0
t · dt =1
2. Logo: f2(t) = t− 1
2.
Ponhamos f3(t) = t2 − bf2(t)− cf1(t), onde b, c ∈ R são dados por:
b =〈t2, f2〉‖f2‖2
e c =〈t2, f1〉‖f1‖2
.
Temos:
‖f1‖2 = 1; ‖f2‖2 =
∫ 1
0
(t− 1
2
)2
dt =1
12; 〈t2, f1〉 =
∫ 1
0
t2dt =1
3;
〈t2, f2〉 =
∫ 1
0
t2(
t− 1
2
)dt =
1
12.
Logo:
f3(t) = t2 − f2(t)− 1
3f1(t) = t2 − t +
1
6.
Portanto,(
1, t− 1
2, t2 − t +
1
6
)é uma base ortogonal de W.
Proposição 7.6 Sejam V um espaço vetorial com produto interno 〈, 〉 e W ⊂V um subespaço de dimensão finita. Então:
V = W ⊕W⊥
Dem. Seja (v1, ..., vr) uma base ortonormal de W. Se v ∈ V , seja
u = v −r∑
i=1
〈v, vi〉vi.
Temos:
〈u, vj〉 = 〈v −r∑
i=1
〈v, vi〉vi, vj〉 = 〈v, vj〉 −r∑
i=1
〈v, vi〉δij =
= 〈v, vj〉 − 〈v, vj〉 = 0 (j = 1, ..., r)
ou seja, u ∈ W⊥. Comor∑
i=1
〈v, vi〉vi ∈ W , temos V = W + W⊥.
Se v ∈ W ∩W⊥ então 〈v, v〉 = 0, donde v = 0, isto é, W ∩W⊥ = {0}.Logo: V = W ⊕W⊥.
CAPÍTULO 7. PRODUTO INTERNO 108
Corolário 7.6.1 Nas condições da proposição 7.6, se V tem dimensão finita,então: dim V = dim W + dim W⊥.Obs. Sejam V um espaço vetorial com produto interno 〈, 〉 e (e1, ..., en) umabase ortonormal de V. Se u, v ∈ V , u = a1e1 + ... + anen, v = b1e1 + ... +
bnen, então 〈u, v〉 =n∑
i,j=1
〈aiei, bjej〉 =n∑
i,j=1
aibjδij =n∑
i=1
aibi, igual ao produto
interno usual dos vetores a = (a1, ..., an) e b = (b1, ..., bn) de Kn. Se a base
(e1, ..., en) não é ortonormal e se 〈ei, ej〉 = gij ∈ K, então 〈u, v〉 =n∑
i,j=1
gijaibj.
Se V é um espaço vetorial sobre K, de dimensão n, uma maneira de sedefinir um produto interno em V é a seguinte: tome uma base arbitrária(e1, ..., en) de V e defina o produto interno, de u = a1e1 + ... + anen por
v = b1e1 + ...+ bnen, por meio de 〈u, v〉 =n∑
i=1
aibi. Em relação a este produto
interno, a base (e1, ..., en) é ortonormal.
Exercícios1. Seja E = (u1, u2, u3) a base de R3 formada pelos vetores u1 = (1, 1, 1), u2 =
(1,−1, 1) e u3 = (1,−1,−1), e seja F = (v1, v2, v3) a base ortogonalobtida de E pelo processo de Gram-Schmidt. Ache a matriz P de pas-sagem de E para F . Observe que P é triangular superior.
2. Dado o vetor unitário u = (α1, ..., αn) ∈ Rn forme a matriz A = (αiαj)– n× n. Seja H : Rn −→ Rn o operador cuja matriz na base canônicaé In − 2A. Prove que para todo v ∈ Rn tem-se H(v) = v − 2〈v, u〉u eque ‖Hv‖ = ‖v‖. (H é a reflexão no hiperplano de Rn cuja normal éu).
3. Em MR(n) considere 〈A,B〉 =∑i,j
aijbij, onde A = (aij) e B = (bij).
Mostre que 〈, 〉 é um produto interno. Mostre que o subespaço A dasmatrizes antissimétricas é o complemento ortogonal do subespaço Sdas matrizes simétricas em MR(n).
7.3 Relações entre V e V ∗
Seja V um espaço vetorial com produto interno 〈, 〉. Se v ∈ V , a aplicaçãou ∈ V
Tv7−→ 〈u, v〉 ∈ K é uma forma linear, isto é, um elemento do dualV ∗ = L(V,K).
CAPÍTULO 7. PRODUTO INTERNO 109
Proposição 7.7 Seja V um espaço vetorial de dimensão finita sobre K,munido de um produto interno 〈, 〉. A aplicação v ∈ V
T7−→ Tv ∈ V ∗,Tv(u) = 〈u, v〉, é bijetora.
Dem. Tv1+v2(u) = 〈u, v1 + v2〉 = 〈u, v1〉+ 〈u, v2〉 = Tv1(u) + Tv2(u).Tav(u) = 〈u, av〉 = a〈u, v〉 = aTv(u), de modo que T não é linear se
K = C. Dizemos que ela é semi-linear.T : V −→ V ∗ é injetora: Tv1 = Tv2 se, e só se, 〈u, v1〉 = 〈u, v2〉 para todo
u ∈ V ⇔ 〈u, v1 − v2〉 = 0 para todo u ∈ V ⇔ v1 = v2.T : V −→ V ∗ é sobrejetora: dado w ∈ V ∗, seja (v1, ..., vn) uma base
ortonormal de V e seja v = a1v1 + ...+anvn com ai = w(vi). Então, Tv(vi) =〈vi, v〉 = ai = w(vi), 1 ≤ i ≤ n, e, portanto, Tv = w.Obs. No caso K = R a aplicação T é linear bijetora, isto é, um isomorfismoentre V e V ∗.
No caso K = C a aplicação T é semi-linear bijetora; ela é um anti-isomorfismoentre V e V ∗.
Se W ⊂ V é um subespaço, vimos que W⊥ é subespaço de V e W 0 ésubespaço de V ∗, ondeW⊥ = {v ∈ V ; 〈u, v〉 = 0 ∀u ∈ W} eW 0 = {α ∈ V ∗; α(u) = 0 ∀u ∈ W}.
Se v ∈ W⊥ então Tv ∈ W 0 pois Tv(u) = 〈u, v〉 = 0 para todo u ∈ W .Assim, T : V −→ V ∗ leva W⊥ em W 0.
Um argumento análogo ao usado na proposição 7.7 mostra que T : W⊥ −→W 0 é um isomorfismo no caso K = R e um anti-isomorfismo no caso K = C.Observemos também que se dim V = n e dim W = r então dim W⊥ = n−r,como já vimos anteriormente.
A proposição 7.7 nos diz que, dado um funcional linear w ∈ V ∗, existeum e um único vetor v ∈ V tal que w = Tv, isto é, w(u) = 〈u, v〉 para todou ∈ V , ou seja, v ∈ V representa a forma linear w ∈ V ∗.
Exemplo 7.3.1 Sejam U ⊂ Rn aberto e f : U −→ R uma aplicação difer-enciável. A diferencial de f em p ∈ U é o funcional linear df(p) ∈ (Rn)∗ tal
que, para todo v ∈ Rn, df(p) · (v) =∂f
∂v(p) = derivada de f no ponto p na
direção de v.Considerando em Rn o produto interno usual, o vetor que representa df(p)
é o gradiente de f em p, Of(p) = grad f(p). Assim, Of(p) é o vetor de Rn
tal que df(p) ·v = 〈Of(p), v〉 =∂f
∂v(p). Se (e1, ..., en) é a base canônica de Rn
e Of(p) = a1e1 + ... + anen, então ai = 〈Of(p), ei〉 =∂f
∂xi
(p), (1 ≤ i ≤ n),
CAPÍTULO 7. PRODUTO INTERNO 110
ou seja, Of(p) =
(∂f
∂x1
(p), ...,∂f
∂xn
(p)
).
Exemplo 7.3.2 Sejam V um espaço vetorial de dimensão finita sobre K,com produto interno 〈, 〉, Tv(u) = 〈u, v〉, que sabemos ser semi-linear bijetora.Vamos definir um produto interno em V ∗ por meio de 〈Tv, Tu〉 = 〈u, v〉. Defato, temos:(a) 〈Tv1 +Tv2 , Tu〉 = 〈Tv1+v2 , Tu〉 = 〈u, v1+v2〉 = 〈u, v1〉+〈u, v2〉 = 〈Tv1 , Tu〉+〈Tv2 , Tu〉.(b) 〈aTv, Tu〉 = 〈Tav, Tu〉 = 〈u, av〉 = a〈u, v〉 = a〈Tv, Tu〉.(c) 〈Tv, Tu〉 = 〈u, v〉 = 〈v, u〉 = 〈Tu, Tv〉.(d) 〈Tv, Tv〉 = 〈v, v〉 = ‖v‖2 > 0 se v 6= 0.
A partir de (V ∗, 〈, 〉), usando o método acima, podemos introduzir um pro-duto interno em V ∗∗. Seja L : V ∗ −→ V ∗∗ definido por Lα(β) = 〈β, α〉, α, β ∈V ∗. Definimos 〈Lα, Lβ〉 = 〈β, α〉. Vamos mostrar que L ◦ T : V −→ V ∗∗
coincide com o isomorfismo canônico J : V −→ V ∗∗, Jv(α) = α(v), v ∈V, α ∈ V ∗, isto é, vamos mostrar que LTv = Jv.
Temos: LTv(Tu) = 〈Tu, Tv〉 = 〈v, u〉 = Tu(v) = Jv(Tu), donde resultaLTv = Jv, ou seja, L ◦ T = J .
7.4 AdjuntaSejam V e W espaços vetoriais de dimensão finita, ambos com produto in-terno, e T : V −→ W linear.
Proposição 7.8 Existe uma única aplicação linear T ∗ : W −→ V tal que〈Tv, w〉 = 〈v, T ∗w〉 para todo v ∈ V e todo w ∈ W .
Dem. Seja w ∈ W fixo mas arbitrário e seja β : V −→ K o funcionallinear definido por β(v) = 〈Tv, w〉. Pela proposição 7.7 existe um únicou = T ∗w ∈ V tal que β(v) = 〈v, T ∗w〉, ou seja, 〈Tv, w〉 = 〈v, T ∗w〉. Vamosmostrar que T ∗ : W −→ V assim definida é linear. Se v ∈ V, w1, w2 ∈ Wtemos:〈v, T ∗(w1 + w2)〉 = 〈Tv, w1 + w2〉 = 〈Tv, w1〉 + 〈Tv, w2〉 = 〈v, T ∗w1〉 +〈v, T ∗w2〉 = 〈v, T ∗w1 + T ∗w2〉 o que mostra ser T ∗(w1 + w2) igual a T ∗w1 +T ∗w2.
Se a ∈ K, temos: 〈v, T ∗(aw)〉 = 〈Tv, aw〉 = a〈Tv, w〉 = a〈v, T ∗w〉 =〈v, aT ∗w〉 para todo w ∈ W , donde T ∗(aw) = aT ∗(w).
Definição 7.6 A aplicação linear T ∗ : W −→ V tal que 〈Tv, w〉 = 〈v, T ∗w〉quaisquer que sejam v ∈ V , w ∈ W , chama-se a adjunta de T. Se V = W e
CAPÍTULO 7. PRODUTO INTERNO 111
T = T ∗ o operador linear T : V −→ V chama-se auto-adjunto (se K = R diz-se também que T é simétrico; se K = C diz-se também que T é hermitiano).
Proposição 7.9 Seja V um espaço vetorial de dimensão finita sobre K, comproduto interno 〈, 〉. Se a ∈ K e L, T : V −→ V são lineares, então:(a) (L + T )∗ = T ∗ + L∗;(b) (aT )∗ = a · T ∗;(c) (L ◦ T )∗ = T ∗ ◦ L∗;(d) (T ∗)∗ = T .
Dem.(a) 〈(L+T )(u), v〉 = 〈Lu+Tu, v〉 = 〈Lu, v〉+〈Tu, v〉 = 〈u, L∗v〉+〈u, T ∗v〉 == 〈u, L∗v + T ∗v〉 = 〈u, (L∗ + T ∗)(v)〉 quaisquer que sejam u, v ∈ V .Portanto: (L + T )∗ = L∗ + T ∗.(b) 〈(aT )(u), v〉 = 〈aT (u), v〉 = a〈u, T ∗v〉 = 〈u, aT ∗(v)〉 == 〈u, (aT ∗)(v)〉, donde (aT )∗ = aT ∗.(c) 〈(L ◦ T )(u), v〉 = 〈L(Tu), v〉 = 〈Tu, L∗v〉 = 〈u, T ∗L∗v〉 = 〈u, T ∗ ◦ L∗(v)〉,donde (L ◦ T )∗ = T ∗ ◦ L∗.(d) 〈T ∗u, v〉 = 〈v, T ∗u〉 = 〈Tv, u〉 = 〈u, Tv〉, donde (T ∗)∗ = T .Obs. Se L = L∗ e T = T ∗ são operadores auto-adjuntos em V, então(L ◦ T )∗ = T ∗ ◦L∗ = T ◦L e L ◦ T é auto-adjunto se, e só se, T ◦L = L ◦ T .
Exemplo 7.4.1 Sejam V e W espaços vetoriais de dimensão finita munidosde produto interno, E = (v1, ..., vn) e F = (w1, ..., wm) bases ortonormais deV e W, respectivamente. Se T : V −→ W é linear e
[T
]EF = A = (aij) –
m× n, vamos mostrar que[T ∗]F
E = A∗ = At, A∗ = (bij) – n×m.
Temos:〈vi, T
∗wj〉 = 〈Tvi, wj〉Mas:
〈vi, T∗wj〉 = 〈vi,
n∑
k=1
bkjvk〉 = bij
〈Tvi, wj〉 =m∑
k=1
〈akiwk, wj〉 = aji.
Portanto, bij = aji, donde A∗ = At.
Definição 7.7 Seja A = (aij) – m × n. A adjunta de A é a matriz A∗ =
At= (bij) – n ×m, onde bij = aji. Se A é quadrada e A = A∗ dizemos que
A é auto-adjunta (simétrica se K = R, hermitiana se K = C).
CAPÍTULO 7. PRODUTO INTERNO 112
Exemplo 7.4.2 Os autovalores de um operador auto-adjunto T = T ∗ :V −→ V são reais.
De fato, se v 6= 0 e Tv = λv = T ∗v, temos:〈Tv, v〉 = 〈v, T ∗v〉, donde, 〈λv, v〉 = 〈v, λv〉 e daí vem: λ〈v, v〉 = λ〈v, v〉,donde λ = λ.
Exemplo 7.4.3 Os autovetores, associados a autovalores distintos, de umoperador auto-adjunto T = T ∗ : V −→ V , são ortogonais.
De fato, se Tv1 = λ1v1, T v2 = λ2v2, λ1 6= λ2, então(λ1 − λ2)〈v1, v2〉 = 〈λ1v1, v2〉 − 〈v1, λ2v2〉 = 〈Tv1, v2〉 − 〈v1, T v2〉 = 0, donde〈v1, v2〉 = 0.Obs. A proposição 7.8 mostra que se dim V é finita, todo T ∈ L(V ) temum adjunto T ∗ ∈ L(V ). Se V não tem dimensão finita, dado T ∈ L(V ) podeou não existir T ∗ ∈ L(V ) tal que 〈Tv, u〉 = 〈v, T ∗u〉 para u, v ∈ V quaisquer.
Exemplo 7.4.4 Seja V o espaço vetorial real das funções f : R −→ Rde classe C∞ que se anulam fora de [0, 1], com o produto interno 〈f, g〉 =∫ 1
0
f(t)g(t)dt. Seja D : V −→ V o operador de derivação. Temos:
〈Df, g〉 =
∫ 1
0
f ′(t)g(t)dt = f(t)g(t)∣∣∣1
0−
∫ 1
0
f(t)g′(t)dt = −〈f,Dg〉 = 〈f, D∗g〉,
donde D∗ = −D. Neste exemplo V tem dimensão infinita.
Proposição 7.10 Seja V um espaço vetorial complexo, de dimensão finita,munido de um produto interno 〈, 〉. Se T : V −→ V é linear e tal que〈Tv, v〉 = 0 para todo v ∈ V , então T = 0.
Dem. Se u, v ∈ V , temos a identidade
〈T (u + v), u + v〉 − 〈Tu, u〉 − 〈Tv, v〉 = 〈Tu, v〉+ 〈Tv, u〉.
Mas se 〈Tw, w〉 = 0 para todo w ∈ V , então essa identidade nos dá:
〈Tu, v〉+ 〈Tv, u〉 = 0 ¤
Substituindo-se u por iu (i2 = −1), obtemos:〈Tv, iu〉+ 〈T (iu), v〉 = 0, donde−i〈Tv, u〉+ i〈Tu, v〉 = 0, ou ainda−〈Tv, u〉+ 〈Tu, v〉 = 0 ♦Somando ¤ com ♦, vem: 2〈Tu, v〉 = 0, donde 〈Tu, v〉 = 0 para todo u ∈ Ve para todo v ∈ V , donde T = 0.
CAPÍTULO 7. PRODUTO INTERNO 113
Proposição 7.11 Sejam V um espaço vetorial real, de dimensão finita, mu-nido de um produto interno 〈, 〉 e T : V −→ V linear simétrico. Se 〈Tv, v〉 =0 para todo v ∈ V , então T = 0.
Dem. A identidade 〈T (u + v), u + v〉− 〈Tu, u〉− 〈Tv, v〉 = 〈Tu, v〉+ 〈Tv, u〉nos dá
〈Tu, v〉+ 〈Tv, u〉 = 0.
Mas, 〈Tv, u〉 = 〈v, Tu〉 = 〈Tu, v〉.Portanto, 2〈Tu, v〉 = 0, donde T = 0.
Proposição 7.12 Sejam V, W espaços vetoriais de dimensão finita sobreK, munidos de produto interno, e T : V −→ W linear. Então:
(a) N (T ∗) = (Im T )⊥ ; (b) Im T ∗ = N (T )⊥
(c) N (T ) = (Im T ∗)⊥ ; (d) Im T = N (T ∗)⊥
Dem. É suficiente provar (a), as outras igualdades sendo consequênciasimediatas. Temos:v ∈ N (T ∗) ⇔ T ∗v = 0 ⇔ 〈u, T ∗v〉 = 0 para todo u ∈ V ⇔ 〈Tu, v〉 = 0 paratodo u ∈ V ⇔ v ∈ (Im T )⊥.
Corolário 7.12.1 O posto de T ∗ é igual ao posto de T.Dem. dim Im T ∗ = dim V − dim N (T ) = dim Im T
Im(T ∗)
N (T )
Im(T )
N (T ∗)
-T
¾
T ∗
7.5 Exercícios do Capítulo 71. Seja V um espaço vetorial sobreKmunido de um produto interno, e seja
(v1, ..., vn) uma base de V. Dados a1, a2, ..., an ∈ K arbitrários, proveque existe um, e um único, vetor w ∈ V tal que 〈w, vj〉 = aj, 1 ≤ j ≤ n.
2. Se T é invertível e TST ∗ é auto-adjunto, prove que S é auto-adjunto.
CAPÍTULO 7. PRODUTO INTERNO 114
3. Seja T : V −→ V um operador diagonalizável. Prove que é possíveldefinir um produto interno em V em relação ao qual T = T ∗.
4. Seja V um espaço vetorial de dimensão finita sobre K e seja T : V −→V um operador diagonalizável. Se W ⊂ V é um subespaço tal queT (W ) ⊂ W , prove que T
∣∣W
: W −→ W é diagonalizável em W.
5. Sejam S, T : V −→ V operadores auto-adjuntos. Prove que existe baseortonormal de V formada por autovetores comuns a S e T se, e só se,S ◦ T = T ◦ S.
6. Seja Mn(C) o espaço vetorial complexo das matrizes n× n. Prove que〈A,B〉 = tr(AB∗) é um produto interno em Mn(C) e ache o comple-mento ortogonal do subespaço das matrizes diagonais (Obs. B∗ = B
t).
7. Seja W um subespaço de dimensão finita de um espaço vetorial V mu-nido de produto interno. Se E : V −→ W é a projeção ortogonal de Vsobre W, prove que 〈E(u), v〉 = 〈u,E(v)〉 para u, v ∈ V quaisquer.
8. Sejam V = W1⊕W2, 〈, 〉1 e 〈, 〉2 produtos internos em W1 e W2 respec-tivamente. Mostre que existe um único produto interno 〈, 〉 em V talque W2 = W⊥
1 e 〈u, v〉 = 〈u, v〉k quando u, v ∈ Wk, k = 1, 2.
9. Seja V um espaço vetorial complexo com produto interno. Prove queT : V −→ V linear é auto-adjunto se, e só se, 〈Tv, v〉 é real para todov ∈ V .
Capítulo 8
Operadores Unitários e Normais
8.1 DefiniçõesDefinição 8.1 Sejam V, W espaços vetoriais sobre K, munidos de produtointerno. Dizemos que T : V −→ W é uma isometria se T é linear bijetora e〈Tu, Tv〉 = 〈u, v〉 quaisquer que sejam u, v ∈ V .
Assim, uma isometria é um isomorfismo que preserva o produto interno.
Proposição 8.1 Seja V um espaço vetorial com produto interno. Então:4〈u, v〉 = ‖u + v‖2 − ‖u− v‖2 se K = R.4〈u, v〉 = ‖u + v‖2 − ‖u− v‖2 + i‖u + iv‖2 − i〈u− iv〉2 se K = C, quaisquerque sejam u, v ∈ V .Dem. Exercício.
Proposição 8.2 Sejam V, W espaços vetoriais de mesma dimensão finitasobre K, munidos de produto interno, e T : V −→ W linear. São equiva-lentes:(a)〈Tu, Tv〉 = 〈u, v〉; (b)‖Tv‖ = ‖v‖;(c) T é isometria; (d) T leva base ortonormal de V em base ortonormal de W;(e) T leva alguma base ortonormal de V em base ortonormal de W.
Dem. (a) ⇒ (b): Óbvio.(b) ⇒ (c): se v 6= 0 então T (v) 6= 0, donde T é injetora e, como dim V =dim W , T é bijetora. Pela proposição 8.1, e pela hipótese, temos (no casoK = C):4〈Tu, Tv〉 = ‖T (u + v)‖2 − ‖T (u− v)‖2 + i‖T (u + iv)‖2 − i‖T (u− iv)‖2 == ‖u + v‖2−‖u− v‖2 + i‖u + iv‖2− i‖u− iv‖2 = 4〈u, v〉, donde 〈Tu, Tv〉 =〈u, v〉. Portanto, T é isometria.
115
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 116
(c) ⇒ (d): seja (v1, ..., vn) base ortonormal de V. Como T é isomorfismo,(Tv1, ..., T vn) é base de W. Do fato de ser 〈Tvi, T vj〉 = 〈vi, vj〉 = δij, resultaque essa base de W é ortonormal.(d) ⇒ (e): Óbvio.(e) ⇒ (a): seja (v1, ..., vn) base ortonormal de V tal que (Tv1, ..., T vn) sejabase ortonormal de W. Então:
〈Tvi, T vj〉 = 〈vi, vj〉 = δij.
Se u = a1v1 + ... + anvn e v = b1v1 + ... + bnvn, então:
〈u, v〉 =n∑
i=1
aibi e 〈Tu, Tv〉 = 〈n∑
i=1
aiT (vi),n∑
j=1
bjT (vj)〉 =n∑
i,j=1
aibj〈Tvi, T vj〉 =
=n∑
i,j=1
aibjδij =n∑
i=1
aibi.
Portanto,〈Tu, Tv〉 = 〈u, v〉
Corolário 8.2.1 Sejam V, W espaços vetoriais de dimensão finita sobre K,munidos de produto interno. V e W são isométricos (isto é, existe isometriaT : V −→ W ) se, e só se, dim V = dim W .
Dem. Sejam (v1, ..., vn) e (w1, ..., wn) bases ortonormais de V e W, respecti-vamente. Definamos T : V −→ W linear por T (vi) = wi, 1 ≤ i ≤ n. EntãoT é isometria. A recíproca é imediata.
Definição 8.2 Sejam V um espaço vetorial com produto interno 〈, 〉 e T :V −→ V linear. Dizemos que T é um operador unitário se T é uma isome-tria.
No caso de V ter dimensão finita, a proposição 8.2 mostra que T éunitário se, e só se, preserva o produto interno. No caso em que K = Rum operador unitário é usualmente chamado de ortogonal.
Exemplo 8.1.1 Seja V1 = C0([0, 1],R) o espaço vetorial real das funções
contínuas f : [0, 1] −→ R com o produto interno 〈f, g〉1 =
∫ 1
0
f(t)g(t)e−t2dt,
e seja V2 = C0([0, 1],R) com o produto interno 〈f, g〉2 =
∫ 1
0
f(t)g(t)dt. A
aplicação T : V1 −→ V2 definida por (Tf)(t) = e−t2
2 f(t), t ∈ [0, 1], é linear
bijetora e preserva o produto interno pois 〈Tf, Tg〉2 =
∫ 1
0
e−t2f(t)g(t)dt =
〈f, g〉1. Portanto, T : V1 −→ V2 é uma isometria.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 117
Proposição 8.3 Sejam V um espaço vetorial com produto interno, de di-mensão finita e T : V −→ V linear. T é unitário se, e só se, T ∗ ◦ T = I(=T ◦ T ∗).
Dem. T é unitário se, e só se, 〈Tu, Tv〉 = 〈u, v〉 para todo u, v ∈ V , o queequivale a 〈T ∗Tu, v〉 = 〈u, v〉 e, portanto, equivale a T ∗ · T = I.
Definição 8.3 Dizemos que A ∈ Mn(K) é unitária se A∗A = In. Lembre-mos que A∗ = At. Se K = R temos A∗ = At e é usual dizer que A é ortogonalse AtA = In.
Corolário 8.3.1 Sejam V um espaço vetorial de dimensão finita, munido deum produto interno e T : V −→ V linear. T é unitário se, e só se, a matrizde T em alguma (ou toda) base ortonormal de V é uma matriz unitária.Dem. Imediata.
Exemplo 8.1.2 Consideramos o Rn com o produto interno usual. Um movimentorígido é uma aplicação T : Rn −→ Rn tal que ‖Tu − Tv‖ = ‖u − v‖ paratodo u, v ∈ Rn. Por exemplo, Tv0(v) = v + v0, onde v0 ∈ Rn é fixo, ou seja,uma translação, é um movimento rígido.(a) Vamos mostrar que se T : Rn −→ Rn é um movimento rígido talque T (0) = 0, então T é linear e ortogonal. Observemos que, neste caso,‖Tu‖ = ‖T (u)− T (0)‖ = ‖u− 0‖ = ‖u‖. Além disso,
‖Tu− Tv‖2 = 〈Tu− Tv, Tu− Tv〉 = ‖Tu‖2 + ‖Tv‖2 − 2〈Tu, Tv〉.
Por outro lado, ‖Tu− Tv‖2 = ‖u− v‖2 = ‖u‖2 + ‖v‖2 − 2〈u, v〉.Resulta: 〈Tu, Tv〉 = 〈u, v〉, ou seja, se T é movimento rígido e T (0) = 0,
então T preserva o produto interno.Temos:
‖T (u+v)−T (u)−T (v)‖2 = ‖T (u+v)‖2+‖Tu‖2+‖Tv‖2−2〈T (u+v), T (u)〉−
−2〈T (u + v), T (v)〉+ 2〈Tu, Tv〉 = ‖u + v‖2 + ‖u‖2 + ‖v‖2 − 2〈u + v, u〉−−2〈u + v, v〉+ 2〈u, v〉 = 2‖u‖2 + 2‖v‖2 + 2〈u, v〉 − 2‖u‖2 − 2‖v‖2 − 4〈u, v〉++2〈u, v〉 = 0. Logo: T (u + v) = T (u) + T (v).Analogamente,
‖T (av)−aT (v)‖2 = ‖T (av)‖2+a2‖Tv‖2−2a〈T (av), T (v)〉 = ‖av‖2+a2‖v‖2−
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 118
−2a〈av, v〉 = 0.Logo: T (av) = aT (v), a ∈ R.Portanto, T é uma aplicação linear ortogonal.
(b) Sejam T : Rn −→ Rn movimento rígido, T (0) = v0 e T−v0(v) = v−v0.A composta de movimentos rígidos é um movimento rígido, como é fácil dese verificar, de modo que L = T−v0 ◦ T é um movimento rígido e L(0) =T−v0(T (0)) = T−v0(v0) = 0. Pela parte (a) vem que L : Rn −→ Rn é umoperador ortogonal. Como (T−v0)
−1 = Tv0 e L = T−v0 ◦T , vem L = T−1−v0
◦T ,donde T = Tv0 ◦ L, ou seja, todo movimento rígido é a composta de umatranslação com um operador ortogonal:
T (v) = L(v) + v0, para todo v ∈ Rn.
Definição 8.4 Sejam V um espaço vetorial de dimensão finita sobre K, mu-nido de um produto interno e T : V −→ V linear. Dizemos que T é normalse T comuta com seu adjunto, isto é, se T ◦ T ∗ = T ∗ ◦ T . É claro que todooperador auto-adjunto é normal, bem como todo operador unitário; é clarotambém que se T : V −→ V é normal e a ∈ K, então aT é normal. Em geral,a soma e o produto (composta) de operadores normais não são normais, masvale o seguinte resultado.
Proposição 8.4 Sejam V um espaço vetorial de dimensão finita sobre K,munido de um produto interno e T1, T2 : V −→ V operadores normais. SeT1◦T ∗
2 = T ∗2 ◦T1 (ou T2◦T ∗
1 = T ∗1 ◦T2), então T1 +T2 e T1◦T2 são operadores
normais.
Dem. É claro que T1 ◦ T ∗2 = T ∗
2 ◦ T1 se, e só se, T2 ◦ T ∗1 = T ∗
1 ◦ T2.Temos:
(T1 +T2)(T1 +T2)∗ = (T1 +T2)(T
∗1 +T ∗
2 ) = T1 ◦T ∗1 +T1 ◦T ∗
2 +T2 ◦T ∗1 +T2 ◦T ∗
2 .
E:
(T1+T2)∗ ·(T1+T2) = (T ∗
1 +T ∗2 )(T1+T2) = T ∗
1 ◦T1+T ∗1 ◦T2+T ∗
2 ◦T1+T ∗2 ◦T2.
Como T1◦T ∗1 = T ∗
1 ◦T1, T2◦T ∗2 = T ∗
2 ◦T2, T1◦T ∗2 = T ∗
2 ◦T1 e T2◦T ∗1 = T ∗
1 ◦T2,vem que T1 + T2 é normal.Temos também:
T1T2(T1T2)∗ = T1T2T
∗2 T ∗
1 = T1T∗2 T2T
∗1 = T ∗
2 T1T∗1 T2 = T ∗
2 T ∗1 T1T2 = (T1T2)
∗T1T2,
donde T1T2 é normal.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 119
Proposição 8.5 Sejam V um espaço vetorial complexo de dimensão finita,munido de um produto interno, e T : V −→ V linear. T é normal se, e sóse, ‖T ∗v‖ = ‖Tv‖ para todo v ∈ V .
Dem. ‖T ∗v‖ = ‖Tv‖ se, e só se, 〈T ∗v, T ∗v〉 = 〈Tv, Tv〉 se, e só se,〈TT ∗v, v〉 = 〈T ∗Tv, v〉 para todo v ∈ V se, e só se, TT ∗ = T ∗T pelaproposição 7.10.
Definição 8.5 Dizemos que A ∈ Mn(K) é normal se AA∗ = A∗A.Obs. É imediato verificar que T : V −→ V é normal se, e só se, a matrizde T numa base ortonormal de V é uma matriz normal.
Exemplo 8.1.3 A =
[1 ii 1
]é normal pois
A∗ = At=
[1 −i−i 1
]
eAA∗ = A∗A =
[2 00 2
].
Exemplo 8.1.4 T : V −→ V é normal ⇔ T − λI é normal, λ ∈ K.Temos: (T − λI)(T − λI)∗ = (T − λI)(T ∗ − λI) = TT ∗ − λT ∗ − λT + |λ|2I.
(T − λI)∗ · (T − λI) = (T ∗ − λI)(T − λI) = T ∗T − λT − λT ∗ + |λ|2I.Logo, T − λI é normal ⇔ TT ∗ = T ∗T ⇔ T é normal.
Exemplo 8.1.5 Se V é um espaço vetorial complexo, T : V −→ V é normale Tv = λv, v 6= 0, então T ∗v = λv.De fato, se T é normal, então ‖(T − λI)v‖ = ‖(T ∗ − λI)(v)‖ = 0, dondeT ∗v = λv. Se T é unitário então 〈Tv, Tv〉 = 〈λv, λv〉 = |λ|2〈v, v〉 = 〈v, v〉,donde |λ| = 1.
Proposição 8.6 (Teorema Espectral para Operadores Normais)Sejam V um espaço vetorial de dimensão finita n ≥ 1 sobre o corpo K,
munido de um produto interno, e T : V −→ V um operador normal. Se opolinômio característico de T tem todas suas raízes em K (por exemplo, seK = C), então existe base ortonormal F de V formada por autovetores deT, isto é, a matriz [T ]FF é diagonal.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 120
Dem. Já vimos que existe base E de V na qual a matriz de T é triangularsuperior. Usando o processo de Gram-Schmidt obtemos, a partir de E, umabase ortonormal F = (v1, ..., vn) de V na qual [T ]FF = B = (bij) é triangularsuperior e temos [T ∗]FF = B∗ = Bt. Como T ◦ T ∗ = T ∗ ◦ T obtemos BB∗ =B∗B. Comparando os elementos diagonais de BB∗ e B∗B, vemos que:
|b11|2 +|b12|2 + ... +|b1n|2 = |b11|2|b22|2 + ... +|b2n|2 = |b12|2 + |b22|2
...|bnn|2 = |b1n|2 + |b2n|2 + ... + |bnn|2
,
donde resulta que bij = 0 para i 6= j, ou seja, B é diagonal e F = (v1, ..., vn)é base ortonormal de V formada por autovetores de T.
Corolário 8.6.1 Se K = C e T é unitário, então T é diagonalizável.
Corolário 8.6.2 S e T é auto-adjunto, então T é diagonalizável.
Obs. A recíproca da proposição 8.6 também é verdadeira, isto é, seexiste base ortonormal F de V formada por autovetores de T, então T é
normal. De fato, se [T ]FF = B =
λ1 0. . .
0 λn
então B∗ =
λ1 0. . .
0 λn
e
BB∗ = B∗B =
|λ1|2 0
. . .0 |λn|2
e B é normal, donde T é normal.
8.2 Operadores PositivosDefinição 8.6 Sejam V um espaço vetorial com produto interno e T : V −→V linear. Dizemos que T é positivo, e escrevemos T > 0, se T = T ∗ e〈Tv, v〉 > 0 para todo v 6= 0. Se T = T ∗ e 〈Tv, v〉 ≥ 0 para todo v ∈ V ,dizemos que T é não-negativo, e escrevemos T ≥ 0.
Proposição 8.7 Um operador auto-adjunto T : V −→ V é positivo (resp.não-negativo) se, e só se, seus autovalores são todos positivos (resp. não-negativos).Dem. Se T > 0 e Tv = λv com v 6= 0, então λ〈v, v〉 = 〈λv, v〉 = 〈Tv, v〉 > 0,donde λ > 0. Reciprocamente, se os autovalores de T são todos positivos,seja (v1, ..., vn) base ortonormal de V tal que Tvi = λivi, 1 ≤ i ≤ n. Se
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 121
v ∈ V então v =n∑
i=1
aivi e 〈Tv, v〉 =n∑
i,j=1
〈aiλivi, ajvj〉 =n∑
i=1
λi|ai|2 > 0,
donde T > 0. O caso T ≥ 0 é análogo.
Corolário 8.7.1 Seja T ≥ 0. Se v ∈ V é tal que 〈Tv, v〉 = 0, então Tv = 0.
Dem. Sejam λ1, ..., λr os autovalores não-nulos de T e v =r∑
i=1
aivi como
acima. Então, 〈Tv, v〉 = 0 nos dár∑
i=1
λi|ai|2 = 0 donde a1 = ... = ar = 0, o
que implica Tv = 0.
Corolário 8.7.2 T : V −→ V é positivo se, e só se, T é invertível e T ≥ 0.Dem. Se T > 0 então T ≥ 0 e Tv 6= 0 para todo v 6= 0, donde T é invertível.Reciprocamente, se T ≥ 0 é invertível então Tv 6= 0 para todo v 6= 0 e 〈Tv, v〉é positivo pelo corolário 8.7.1, donde T > 0.
Obs. Seja T : V −→ V , dim V = n, um operador normal. Se E =(u1, ..., un) é base ortonormal de V e A = [T ]EE então AA∗ = A∗A. SejaF = (v1, ..., vn) base ortonormal de V formada por autovetores de T. Então:
[T ]FF =
λ1 0. . .
0 λn
= D.
Temos:[T ]FF = [I]EF · [T ]EE · [I]FE ,
donde P−1AP = D, onde P = [I]FE é a matriz de passagem da base ortonormalE para a base ortonormal F , ou seja, P é unitária. Resulta que toda matriznormal pode ser unitariamente diagonalizada. Se A é matriz simétrica entãoP é ortogonal.
Exemplo 8.2.1 Seja A =
1 −2 −2−2 1 −2−2 −2 1
. Então: det(A−λI) =
1− λ −2 −2−2 1− λ −2−2 −2 1− λ
=
= (3− λ)2(−3− λ).
(a) λ = −3:4x1 − 2x2 − 2x3 = 0
−2x1 − 4x2 − 2x3 = 0−2x1 − 2x2 − 4x3 = 0
,
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 122
donde X̃1 =
111
é autovetor, donde X1 =
1/√
3
1/√
3
1/√
3
é autovetor unitário.
(b) λ = 3: −2x1 − 2x2 − 2x3 = 0, donde x1 = −x2 − x3 e X̃2 =
−110
e X̃3 =
−101
são autovetores. Como X̃2 e X̃3 não são ortogonais, usamos
Gram-Schmidt para ortogonalizá-los. Obtemos: X2 =
−1/
√2
1/√
20
e X3 =
−1/
√6
−1/√
6
2/√
6
.
Os vetores X1, X2, X3 formam uma base ortonormal de R3 de modo que
H =
1/√
3 −1/√
2 −1/√
6
1/√
3 1/√
2 −1/√
6
1/√
3 0 2/√
6
é matriz ortogonal (H−1 = H t) tal que
H−1AH = D =
−3 0
30 3
.
Definição 8.7 Seja A = (aij) ∈ Mn(K). Dizemos que A é positiva (resp.não-negativa) se o operador TA : Kn −→ Kn TA(x) = Ax, é positivo (resp.não-negativo). Assim, A > 0 se, e só se, A = A
t (A é hermitiana) e
〈TA(x), x〉 = 〈Ax, x〉 =n∑
i,j=1
aijxixj > 0 para todo x = (x1, ..., xn) 6= 0.
Da proposição 8.7 resulta que uma matriz hermitiana é positiva se, e só se,seus autovalores são todos positivos.
Definição 8.8 Uma matriz B = (bij) – n× n – chama-se raiz quadrada deA = (aij) – n× n – se A = B2.
Proposição 8.8 Toda matriz positiva (resp. não-negativa) A = (aij) – n×n– tem raiz quadrada positiva (resp. não negativa).Dem. Sejam λ1, ..., λn os autovalores de A, todos positivos. Pelo teorema es-
pectral existe matriz unitária P – n×n – tal que P−1AP = D =
λ1 0. . .
0 λn
.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 123
Seja B =
√λ1 0
. . .0
√λn
; então B2 = D.
Seja C = PBP−1, donde C2 = PB2P−1 = PDP−1 = A, ou seja, amatriz C é raiz quadrada de A > 0, e C > 0 pois é auto-adjunta e seusautovalores são positivos.
Obs. Os autovalores de um operador normal, associados a autovaloresdistintos, são ortogonais. De fato, sejam: Tv = αv, Tu = βu, α 6= β, u, v ∈V .Temos: 〈Tv, u〉 − 〈v, T ∗u〉 = 0, donde 〈αv, u〉 − 〈v, βu〉 = 0, donde (α −β)〈v, u〉 = 0, donde 〈v, u〉 = 0 pois α 6= β.
8.3 Matrizes Simétricas Positivas. Decomposiçãode Cholesky
Definição 8.9 Seja A = (aij) – n × n – e s ≤ n um natural. A submatrizprincipal de ordem s de A é a submatriz As obtida de A pela supressão dasúltimas (n− s) linhas e colunas.
Exemplo 8.3.1 A =
a11 a12 a13
a21 a22 a23
a31 a32 a33
. Então: A1 = [a11]; A2 =
[a11 a12
a21 a22
]
e A3 = A.
Proposição 8.9 Seja A uma matriz simétrica de ordem n. São equivalentes:(a) A é positiva (A > 0), isto é, 〈Ax, x〉 = xtAx > 0 para todo x 6= 0,
x =
x1...
xn
∈ Rn.
(b) As submatrizes principais A1, ..., An de A são todas positivas.(c) A pode ser reduzida à forma triangular superior usando-se apenas
operações do tipo Tij(λ) e com pivôs positivos.(d) A tem uma fatoração (de Cholesky) A = LLt onde L é triangular
inferior com elementos diagonais positivos.
Dem.(a) ⇒ (b): Seja 1 ≤ s ≤ n; vamos provar que As > 0. Seja Xs =
(x1, ..., xs)t 6= 0 em Rs e X = (x1, ..., xs, 0, ..., 0)t ∈ Rn.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 124
Então: X tsAsXs = X tAX > 0, ou seja, As > 0 (donde det As > 0 já que
det As é o produto dos autovalores de As, todos positivos).(b) ⇒ (c): Para simplificar, vamos tomar uma matriz 4× 4:
A =
a11 a12 a13 a14
a21 a22 a23 a24
a31 a32 a33 a34
a41 a42 a43 a44
.
Por hipótese, A1 > 0, A2 > 0, A3 > 0, A4 = A > 0. Em particular,det A1 = a11 > 0 e podemos usá-lo como pivô, de modo que
A −→ A(1) =
a11 a12 a13 a14
0(1)a22 × ×
0 × × ×0 × × ×
,
onde det
(a11 a12
0(1)a22
)= det A2 > 0, donde
(1)a22 =
det A2
a11
> 0, e podemos usar
(1)a22 como pivô, obtendo
A −→ A(1) −→ A(2) =
a11 a12 a13 a14
0(1)a22 × ×
0 0(2)a33 ×
0 0 × ×
.
Como det A3 = a11 ·(1)a22 ·
(2)a33 > 0, resulta
(2)a33 > 0 e podemos usá-lo como
pivô, obtendo
A −→ A(1) −→ A(2) −→ A(3) =
a11 a12 a13 a14
0(1)a22 × ×
0 0(2)a33 ×
0 0 0(3)a44
= U,
com det A4 = det A3 ·(3)a44 > 0, donde
(3)a44 > 0 e U triangular superior com
elementos diagonais positivos.(c) ⇒ (d): Se A pode ser reduzida à forma triangular superior U =
(uij), ukk > 0, usando-se apenas operações elementares do tipo Tij(λ), então
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 125
A = LU , onde L é triangular inferior com diagonal formada apenas pornúmeros 1:
L =
1 0... . . .
e21 1
... ... .... . . ...
en1 en2 ... 1
= (eij),
onde ekk = 1 e, para i > j, eij = oposto do multiplicador λ usado em Tij(λ)(veja a observação no fim do capítulo 5). Então:
A = LU =
1 0. . .
e21 1
... ... .... . .
en1 en2 ... 1
u11 0. . .
u22
. . .0 unn
1u12
u11
...u1n
u11. . .
1 ...u2n
u22. . .
0 1
=
= LDU1.
Essa decomposição é única pois se fosse A = L1D1U1 = L2D2U2 com L1, L2
triangulares inferiores, D1, D2 diagonais, U1, U2 triangulares superiores, L1,L2, U1, U2 com diagonais formadas apenas por números 1, viria D−1
2 L−12 L1D1 =
U2U−11 onde o primeiro membro é triangular inferior e o segundo membro
é triangular superior, ambos com diagonal formada apenas por números 1,donde U2U
−11 = In, o que implica U1 = U2 e D−1
2 L−12 L1D1 = In, ou seja,
L−12 L1 = D2D
−11 , a diagonal do primeiro membro tendo todos os elementos
iguais a 1, donde D2D−11 = In, que implica D1 = D2 e L1 = L2.
Logo, A = LDU1, donde At = U t1DLt = A = LDU1, donde U1 = Lt e
A = LDLt = LD1/2D1/2Lt = L1Lt1, que é a decomposição de Cholesky.
(d) ⇒ (a): Temos A = LLt = At. Seja x 6= 0, donde y = Ltx 6= 0 extAx = xtLLtx = yty = ‖y‖2 > 0, ou seja, A > 0.
8.4 Teorema dos Valores SingularesLema 8.4.1 Seja T : V −→ W uma aplicação linear entre espaços vetoriaisde dimensão finita sobre K, munidos de produto interno. Então N (T ∗T ) =N (T ).
Dem. É claro que N (T ∗T ) ⊂ N (T ). Seja v ∈ N (T ∗T ), isto é, T ∗Tv =0, donde Tv ∈ N (T ∗) = (Im T )⊥, donde Tv ∈ Im T ∩ (Im T )⊥, dondeTv = 0, ou seja, v ∈ N (T ), resultando a tese.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 126
Proposição 8.10 Sejam V, W espaços vetoriais de dimensão finita sobreK, munidos de produto interno, e T : V −→ W linear. Os operadoresT ∗T : V −→ V e T ∗T : W −→ W são não-negativos e têm o mesmo postode T; eles são positivos se, e só se, T é invertível.
Dem. Como (T ∗T )∗ = T ∗T , resulta que T ∗T é auto-adjunto; analoga-mente para TT ∗. Se v ∈ V , tem-se 〈T ∗Tv, v〉 = ‖Tv‖2 ≥ 0, donde T ∗T ≥ 0;analogamente para TT ∗; além disso, 〈T ∗Tv, v〉 > 0 se v 6= 0 se, e sóse, ‖Tv‖ > 0, isto é, se, e só se, T é invertível. Pelo Lema anterior,N (T ∗T ) = N (T ), donde resulta posto(T ∗T ) = dim V − dim N (T ∗T ) == dim V − dim N (T ) = posto(T ) = posto(T ∗) = posto(TT ∗).
Corolário 8.10.1 T : V −→ W linear é injetora se, e só se, T ∗T é in-vertível; T é sobrejetora se, e só se, TT ∗ é invertível.
Dem. T é injetora ⇔ posto(T ) = dim V ⇔ posto(T ∗T ) = dim V ⇔T ∗T é invertível. Analogamente para TT ∗.
Obs. Seja A = (aij) – m × n. Se posto(A) = n então A∗A é invertível,donde positiva, e AA∗ ≥ 0. Se posto(A) = m então AA∗ > 0 e A∗A ≥ 0.
Exemplo 8.4.1 A =
(1 0 2−1 1 3
)tem posto igual a 2. Então,
AA∗ =
(5 55 11
)é positiva e A∗A =
2 −1 −1−1 1 3−1 3 13
é não-negativa.
Proposição 8.11 (Teorema dos Valores Singulares)Sejam U e V espaços vetoriais de dimensão finita sobre K, munidos de
produto interno, e T : U −→ V linear de posto igual a r. Existem basesortonormais E = (u1, ..., un) de U, F = (v1, ..., vm) de V tais que
Tui = σivi , 1 ≤ i ≤ r ; T ∗vi = σiui , 1 ≤ i ≤ rTuj = 0 , r + 1 ≤ j ≤ n ; T ∗vk = 0 , r + 1 ≤ k ≤ m
,
onde os números σ1, ..., σr são positivos: são os valores singulares de T.
Dem. T ∗T : U −→ U é não-negativa e tem posto r. Pelo teorema espectral
existe base ortonormal E = (u1, ..., un) de V tal que [T ∗T ]EE =
λ1 0. . .
λr
0. . .
0 0
,
onde λ1 = σ21, ..., λr = σ2
r são positivos. Então,
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 127
(1 ≤ i, j ≤ r) 〈Tui, Tuj〉 = 〈T ∗Tui, uj〉 = σ2i · δij, e os vetores Tui, Tuj
são 2 a 2 ortogonais e não-nulos, já que ‖Tui‖ = σi (1 ≤ i ≤ r). Além disso,Tuk = 0, r + 1 ≤ k ≤ n, pois N (T ) = N (T ∗T ).
Para 1 ≤ i ≤ r, seja vi =1
σi
Tui, donde ‖vi‖ = 1 e
Tui = σivi , 1 ≤ i ≤ rTuj = 0 , r + 1 ≤ j ≤ n
.
Os vetores v1, ..., vr formam uma base ortonormal de Im T , que esten-demos a uma base ortonormal F = (v1, ..., vm) de V tomando (vr+1, ..., vm)base ortonormal de N (T ∗) = (Im T )⊥. Portanto, T ∗vk = 0, r + 1 ≤ k ≤ m
e T ∗vi =1
σi
T ∗Tui = σiui, 1 ≤ i ≤ r. F é base ortonormal de autovetores de
TT ∗ já que TT ∗vi = T (σiui) = σ2i vi = λivi.
Im(T ∗)(u1, . . . , ur)
N (T )
(ur+1, . . . , un)
Im(T )
(v1, . . . , vr)
N (T ∗)(vr+1, . . . , vm)
U= N (T ) ⊥ Im(T ∗) V = N (T ∗) ⊥ Im(T )
-T
¾
T ∗
Obs. A aplicação linear T+ : V −→ U definida por
T+(vi) =1
σi
ui, 1 ≤ i ≤ r ; T+(vk) = 0 , r + 1 ≤ k ≤ m,
é tal que
TT+(vi) = T
(1
σi
ui
)= vi, 1 ≤ i ≤ r
TT+(vk) = 0, r + 1 ≤ k ≤ mT+T (ui) = T+(σivi) = ui, 1 ≤ i ≤ rT+T (uj) = 0, r + 1 ≤ j ≤ n
Definição 8.10 T+ : V −→ U é a pseudo-inversa de T : U −→ V .Obs. Nas condições do Teorema dos Valores Singulares, seja A = [T ]E1F1
– m × n – onde E1 e F1 são bases ortonormais de U e V, respectivamente.Temos
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 128
0
00
∑=
[T
]EF
=
σ1
. . .σr
= [I]F1F [T ]E1F1
[I]EE1 = QAP ,
ou seja, existem matrizes unitárias Q = matriz de passagem de F para F1,P = matriz de passagem de E1 para E, tais que
0
00
QAP =∑
=
σ1
. . .σr
,
onde σ1, ..., σr são os valores singulares da matriz A de posto r.Obs. Sejam V um espaço vetorial de dimensão finita sobre (K) munido de
produto interno, e T : V −→ V linear invertível. Pelor Teorema dos ValoresSingulares existem bases ortonormais E = (u1, ..., un) e F = (v1, ..., vn) taisque T ∗Tui = σ2
1ui e Tui = σivi, 1 ≤ i ≤ n.Seja H tal que H2 = T ∗T . Então H > 0. Defina U = TH−1 ∴ U∗ =
H−1T ∗ ∴ U∗U = H−1T ∗TH−1 = H−1H2H−1 = I, isto é, U é unitáriae T = UH, ou seja, toda aplicação linear invertível é o produto de umaaplicação unitária por uma aplicação positiva.
8.5 Exercícios do Capítulo 81. Sejam V um espaço vetorial de dimensão finita, munido de um produto
interno , e T : V −→ V linear. Se a, b ∈ K são tais que |a| = |b|, proveque aT + bT ∗ é normal.
2. Seja R2 com o produto interno usual. Se T : R2 −→ R2 é um oper-ador unitário (ortogonal) mostre que a matriz de T na base canônica é[cos θ −sen θsen θ cos θ
]ou
[cos θ sen θsen θ −cos θ
]para algum real θ, 0 ≤ θ ≤ 2π.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 129
3. Seja V = C2 com o produto interno usual. Seja T : V −→ V o operador
linear cuja matriz na base canônica é A =
[1 ii 1
]. Mostre que T é
normal e ache uma base ortonormal de V formada por autovetores deT.
4. Ache a decomposição de Cholesky LLt da matriz A =
[4 22 10
].
5. Seja A – n×n – (simétrica e) positiva, A = QDQt onde Q é ortogonale D é diagonal. Ache matriz invertível B tal que A = BtB.
6. Seja A – n× n – (simétrica e) negativa (A < 0).(a) Qual o sinal de det A?(b) Mostre que as submatrizes principais de A são negativas.(c) Mostre que os determinantes das submatrizes principais de A alter-nam em sinal.
Capítulo 9
Formas Bilineares e Quadráticas
9.1 GeneralidadesDefinição 9.1 Seja K um corpo de característica 6= 2; por exemplo K = Rou K = C. Sejam U, V, W espaços vetoriais sobre K. Uma aplicação T :U × V −→ W é bilinear se T é linear em cada variável separadamente, istoé, se
T (u1 + u2, v) = T (u1, v) + T (u2, v); T (λu, v) = λT (u, v)T (u, v1 + v2) = T (u, v1) + T (u, v2); T (u, λv) = λT (u, v)
quaisquer que sejam u, u1, u2 ∈ U , v, v1, v2 ∈ V e λ ∈ K.Com as leis usuais de adição e produto por escalar, o conjunto das apli-
cações bilineares T : U × V −→ W é um espaço vetorial sobre K, ano-tado L(U, V ; W ). Quando U = V e W = K, representamos L(V, V ; K) porL2(V ; K) e dizemos que f ∈ L2(V ; K) é uma forma bilinear.
Exemplo 9.1.1 (x, y) ∈ Rn×Rn 7−→ 〈x, y〉 =n∑
i=1
xiyi é uma forma bilinear
em Rn.
Exemplo 9.1.2 Se f, g ∈ V ∗ definimos seu produto tensorial f ⊗ g e seuproduto exterior f ∧ g por:
(f ⊗ g)(u, v) = f(u) · g(v) ; (f ∧ g)(u, v) = f(u)g(v)− f(v)g(u).
É fácil ver que f ⊗ g e f ∧ g são formas bilineares em V.
Exemplo 9.1.3 Se V = C0([a, b],R) = {f : [a, b] −→ R, contínua } e
f, g ∈ V , então (f, g) 7−→∫ b
a
f(t)g(t)dt é uma forma bilinear em V.
130
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 131
Exemplo 9.1.4
φ : L(U, V )× L(V, W ) −→ L(U,W )
(S, T ) −→ φ(S, T ) = T ◦ S
é uma aplicação bilinear.
Proposição 9.1 Seja
φ : L(U, V ; W ) −→ L(U,L(V, W ))T −→ φT : U −→ L(V,W )
u 7−→ φT (u) : V −→ Wv 7−→ φT (u)(v) = T (u, v)
onde U, V, W são espaços vetoriais sobre K.Então, φ é um isomorfismo canônico.Dem. Seja
ψ : L(U ;L(V, W )) −→ L(U, V ; W )S 7−→ ψS : U × V −→ W
(u, v) 7−→ ψS(u, v) = S(u)(v)
É fácil verificar que φ e ψ estão bem definidas, são lineares, φ ◦ ψ =id, ψ ◦ φ = id, ou seja, φ e ψ são isomorfismos e ψ = φ−1.
Corolário 9.1.1φ : L2(V ; K) −→ L(V, V ∗)
f −→ φf : V −→ V ∗
u 7−→ φf(u) : V −→ Kv 7−→ f(u, v)
é um isomorfismo canônico que nos permite identificar L2(V ; K) com L(V, V ∗).
Definição 9.2 f ∈ L2(V ; K) é simétrica se f(u, v) = f(v, u) quaisquer quesejam u, v ∈ V .
f ∈ L2(V ; K) é antissimétrica se f(u, v) = −f(v, u) quaisquer que sejamu, v ∈ V ; neste caso, f(v, v) = −f(v, v) donde f(v, v) = 0 para todo v ∈ V ,isto é, f é alternada.
Obs. O conjunto das formas bilineares simétricas (resp. antissimétricas)em V é um subespaço vetorial S2(V ; K) (resp. A2(V ; K)) de L2(V ; K) etemos L2(V ; K) = S2(V ; K)⊕A2(V ; K). De fato, S2(V ; K) e A2(V ; K) têm
interseção igual a {0} e se f ∈ L2(V ; K) então g(u, v) =1
2[f(u, v)+
+f(v, u)] e h(u, v) =1
2[f(u, v) − f(v, u)] são tais que g ∈ S2(V ; K), h ∈
A2(V ; K) e f = g + h.
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 132
9.2 Matriz de uma forma bilinearSejam:
• E = (u1, ..., um) base ordenada de U
• F = (v1, ..., vn) base ordenada de V
• f : U × V −→ K forma bilinear
Se u ∈ U , v ∈ V , u =m∑
i=1
xiui, v =n∑
j=1
yjvj, então f(u, v) =m∑
i=1
n∑j=1
xiyjf(ui, vj).
Pondo aij = f(ui, vj) vem f(u, v) =m∑
i=1
n∑j=1
aijxiyj. A matriz A = (aij) –
m× n – é chamada de matriz de f em relação às bases E e F .
Se X =
x1...
xm
= [u]E e Y =
y1...
yn
= [v]F , então
f(u, v) = (x1, ..., xm)
a11 ... a1n... . . . ...
am1 ... amn
y1...
yn
= X tAY.
Fixadas as bases E e F , a aplicação f ∈ L(U, V ; K) 7−→ A ∈ Mm×n(K) éum isomorfismo, como se verifica facilmente, de modo que dim L(U, V ; K) =dim U · dim V = mn, em particular, dim L2(V ; K) = n2.
Obs. Se (v1, ..., vn) é base ordenada de V e A = (aij) com aij = f(vi, vj),vemos que f ∈ L2(V ; K) é simétrica se, e só se, aij = aji para todo par (i, j).
9.3 Mudanças de BasesSejam: E = (u1, ..., um); E ′ = (u′1, ..., u
′m) bases ordenadas de U, F =
(v1, ..., vn), F ′ = (v′1, ..., v′n) bases ordenadas de V. Então:
u′i =m∑
r=1
priur
v′j =n∑
s=1
qsjvs
,
onde P e Q são as matrizes de passagem de E para E ′ e de F para F ′,respectivamente.
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 133
Temos:
f(u′i, v′j) = a′ij =
m∑r=1
n∑s=1
priqsjars =n∑
s=1
(m∑
r=1
ptir · arj
)qsj,
donde A′ = P t · A · Q, que é a relação entre a matriz A′ de f ∈ L(U, V ; K)nas bases E ′ e F ′ e a matriz A de f nas bases E e F . No caso em que U = V ,
E = F , E ′ = F ′ e v′j =n∑
i=1
pijvi, temos P = Q e A′ = P t · A · P .
9.4 Formas QuadráticasDefinição 9.3 Seja f ∈ L2(V ; K). A função q : V −→ K definida porq(v) = f(v, v) chama-se uma forma quadrática em V. O conjunto Q(V ) dasformas quadrátivas em V é um espaço vetorial com as leis usuais de adiçãoe produto por escalar. A aplicação f ∈ L2(V ; K) 7−→ q ∈ Q(V ) é linear
sobrejetora, mas não é injetora. Se g(u, v) =1
2[f(u, v) + f(v, u)], então g é
simétrica e g(v, v) = f(v, v) = q(v) de modo que podemos sempre supor quea forma bilinear que define q é simétrica e a aplicação g ∈ L2(V ; K) 7−→ q ∈Q(V ) é bijetora. Para obter g a partir de q, observemos que
q(u + v) = g(u + v, u + v) = g(u, u) + g(v, v) + 2g(u, v),
donde g(u, v) =1
2[q(u+v)−q(u)−q(v)]; g é a forma polar de q. Se A = (aij)
– n×n – é a matriz de g na base E de V e se X = [v]E , então q(v) = X t ·A·X,e dizemos também que A é matriz de q na base E.
Exemplo 9.4.1 q : Rn −→ R, q(x) = q(x1, ..., xn) =n∑
i=1
(xi)2 é uma forma
quadrática em Rn.
Exemplo 9.4.2 q : C0([0, 1],R) −→ R, q(f) =
∫ 1
0
[f(t)]2dt é uma forma
quadrática em C0([0, 1],R).
9.5 Formas Bilineares Simétricas ReaisProposição 9.2 Seja V um espaço vetorial real de dimensão finita, munidode um produto interno. Para cada forma bilinear f : V × V −→ R existe
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 134
uma e uma única aplicação linear F : V −→ V tal que f(u, v) = 〈u, F (v)〉para u, v ∈ V quaisquer.
Dem. Seja v ∈ V arbitrário. A função u ∈ V 7−→ f(u, v) é uma formalinear em V, isto é, um elemento de V ∗. Portanto, existe um e um únicoζ = F (v) ∈ V tal que f(u, v) = 〈u, ζ〉 = 〈u, F (v)〉, e obtemos F : V −→ V .
Se u, v1, v2 ∈ V e λ ∈ R, temos:
〈u, F (v1 + λv2)〉 = f(u, v1 + λv2) = f(u, v1) + λf(u, v2) =
= 〈u, F (v1)〉+ λ〈u, F (v2)〉 = 〈u, F (v1) + λF (v2)〉,resultando F (v1 + λv2) = F (v1) + λF (v2), donde F é linear.
Proposição 9.3 Seja q : V −→ R uma forma quadrática definida num es-paço vetorial real V de dimensão n munido de um produto interno. Existebase ortonormal F = (u1, ..., un) de V relativa à qual q(v) = λ1x
21+ ...+λnx
2n,
onde v = x1u1 + ... + xnun, e λ1, ..., λn são os autovalores de q.Dem. Seja f : V × V −→ R bilinear simétrica tal que q(v) = f(v, v)
para v ∈ V qualquer, e seja F : V −→ V linear tal que f(u, v) = 〈u, F (v)〉para u, v ∈ V quaisquer. Se E = (v1, ..., vn) é base ortonormal de V entãof(vi, vj) = 〈vi, F (vj)〉 mostra que a matriz de f na base E coincide com amatriz de F na mesma base. Resulta que φ : f ∈ L2(V ;R) 7−→ F ∈ L(V )é um isomorfismo e que f é simétrica se, e só se, F é auto-adjunta. Nestecaso, existe base ortonormal de V formada por autovetores de F (ou de f,ou de q), isto é, existe base ortonormal F = (u1, ..., un) tal que f(ui, uj) =
〈ui, F (uj)〉 = λjδij. Se v =n∑
i=1
xiui então
q(v) = f(v, v) =n∑
i,j=1
f(ui, uj)xixj =∑i,j
λjδijxixj =n∑
i=1
λi(xi)2 = λ1x
21+...+λnx2
n,
combinação de quadrados.
Corolário 9.3.1 Nas condições da proposição 9.3, existe base ortonormalG = (w1, ..., wn) de V relativa à qual se tem
q(v) =s∑
i=1
(xi)2 −
s+t∑j=s+1
(xj)2
para todo v =n∑
i=1
xiwi ∈ V .
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 135
Dem. Reordenamos a base F = (u1, ..., un) da proposição 9.3 de modoque
f(ui, ui) = q(ui) = λi > 0 para 1 ≤ i ≤ sf(uj, uj) = q(uj) = λj < 0 para s + 1 ≤ j ≤ s + tf(uk, uk) = q(uk) = 0 para s + t + 1 ≤ k ≤ n.
Pondo:wi =
ui√λi
para 1 ≤ i ≤ s
wj =uj√−λj
para s + 1 ≤ j ≤ s + t
wk = uk para s + t + 1 ≤ k ≤ n,
obtemosf(wi, wi) = 1 para 1 ≤ i ≤ sf(wj, wj) = −1 para s + 1 ≤ j ≤ s + tf(wk, wk) = 0 para s + t + 1 ≤ k ≤ n.
Portanto, se v =n∑
i=1
xiwi, temos q(v) =s∑
i=1
(xi)2 −
s+t∑j=s+1
(xj)2.
Corolário 9.3.2 Se E = (v1, ..., vn) e E ′ = (v′1, ..., v′n) são bases ortonormais
de V nas quais q(v) =s∑
i=1
(xi)2 −
s+t∑j=s+1
(xj)2 =
s′∑i=1
(xi)2 −
s′+t′∑
j=s′+1
(xj)2 para
v =∑
xivi =∑
xjv′j qualquer, então s = s′ e t = t′.
Dem. Sejam:
U = subespaço de V gerado por v1, ..., vs
W ′ = subespaço de V gerado por v′s′+1, ..., v′n.
Então: dim U = s e dim W ′ = n− s′.Se v ∈ U, v 6= 0, temos q(v) > 0. Se v ∈ W ′, então q(v) ≤ 0. Resulta
que U ∩W ′ = {0} e, portanto,
dim U + dim W ′ = dim(U + W ′) ≤ dim V = n,
donde: s + n− s′ ≤ n, ou seja, s ≤ s′.Por simetria, obtemos: s′ ≤ s. Logo, s = s′.Como s + t = s′ + t′ = r = posto de F (=posto de f=posto de q), resulta
t = t′.Obs. O par (s, t) é univocamente determinado por q; t é a maior dimen-
são de um subespaço de V restrita ao qual q é negativa: t é a dimensão do
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 136
subespaço de V gerado por vs+1, ..., vs+t. Por definição, t é o índice da formaquadrática q. Quando q(v) ≥ 0 para v ∈ V qualquer, dizemos que o índicede q é zero.
Exemplo: q : R4 −→ R, q(x, y, z, t) = −x2 +y2 +z2 + t2 tem posto r = 4e índice t = 1.
Vamos apresentar, por meio de exemplos, o método de Lagrange para adiagonalização de uma forma quadrática.
Exemplo 9.5.1 q(x, y, z) = x2 + z2 − 4xy + 4xz.Como existe o termo quadrado “puro” x2 vamos completar o quadrado:
q(x, y, z) = x2−4x(y−z)+z2 = [x−2(y−z)]2−4(y−z)2+z2 = (x−2y+2z)2−4y2−3z2+8yz
e a existência de y2 nos permite completar o quadrado:
q(x, y, z) = (x− 2y + 2z)2 − 4(y − z)2 + z2
Pondo:u = x− 2y + 2zv = y − z,
obtemosq(u, v, z) = u2 − 4v2 + z2,
forma de posto r = 3 e índice t = 1.
Exemplo 9.5.2 q(x, y, z) = 4xy − 2xz + yxComo não existe nenhum quadrado puro, fazemos
x = u + vy = u− v,
donde xy = u2 − v2 e
q(u, v, z) = 4u2 − 4v2 − 2z(u + v) + z(u− v) = 4u2 − 4v2 − uz − 3vz =
= 4(u2 − z
4u)−4
(v2 +
3z
4v
)= 4
[(u− z
8
)2
− z2
164
]−4
(v +
3z
8
)2
+9z2
16=
4(u− z
8
)2
− 4
(v +
3z
4v
)2
+z2
2.
Fazendo: α = u− z
8; β = v +
3z
8, vem:
q(α, β, z) = 4α2 − 4β2 +z2
2,
forma de posto r = 3 e índice t = 1.
Capítulo 10
Miscelânea
10.1 OrientaçãoSeja V um espaço vetorial real, de dimensão finita n ≥ 1, e seja B o conjuntodas bases ordenadas de V.
Definição 10.1 Duas bases ordenadas E = (u1, ..., un) e F = (v1, ..., vn) deV são equivalentes, anotado E ∼ F , se o determinante da matriz de passagemde E para F é positivo.
Se vj =n∑
i=1
pijui, então a matriz de passagem de E para F é a matriz
invertível P = (pij) e E ∼ F se, e só se, det P > 0. Observemos queP = [I]FE , onde I : V −→ V é a identidade.
Proposição 10.1 A relação E ∼ F é uma relação de equivalência sobre B.Dem. (a) E ∼ E , pois det [I]EE = det In = 1 > 0.(b) E ∼ F ⇒ F ∼ E : com efeito, se P = [I]FE , então P−1 = [I]EF .
Portanto, det P > 0 ⇔ det P−1 > 0.(c) E ∼ F , F ∼ G ⇒ E ∼ G: sejam P = [I]FE , Q = [I]GF . A matriz de
passagem de E para G é R = [I] = PQ. Logo, det R = det P · det Q > 0.
Proposição 10.2 A relação E ∼ F determina duas classes de equivalênciano conjunto B de todas as bases ordenadas de V.
Dem. Fixemos uma base E = (u1, ..., un) em V e seja E = (−u1, u2, ..., un).A matriz de passagem de E para E tem determinante igual a∣∣∣∣∣∣∣∣∣∣
−1 0 0 ... 00 1 0 ... 00 0 1 ... 0... ... ... ... ...0 0 0 ... 1
∣∣∣∣∣∣∣∣∣∣
= −1,
137
CAPÍTULO 10. MISCELÂNEA 138
ou seja, E e E estão em classes distintas, B1 e B2. Se F é base ordenadaarbitrária de V, temos
R = [I]FE = [I]EE · [I]FE = PQ,
onde P, Q e R são as matrizes de passagem de E para E, de E para F e deE para F , respectivamente. Então:
det R = det P ·det Q = −det Q, donde resulta que ou F ∈ B1 ou F ∈ B2,ou seja, só existem duas classes de equivalência.
Definição 10.2 Qualquer uma das classes B1 ou B2 diz-se uma orientaçãode V. V possui, portanto, duas orientações.
Definição 10.3 Um espaço vetorial orientado é um espaço vetorial associ-ado a uma de suas orientações. Mais precisamente, é um par (V, O) onde Oé uma orientação do espaço vetorial real V.
Definição 10.4 Se (V, O) é um espaço vetorial orientado, as bases que per-tencem à orientação O chamam-se positivas. As outras são chamadas negativas.
Exemplo 10.1.1 O espaço Rn possui uma orientação canônica, que é aqueladeterminada pela base canônica (e1, ..., en).
Obs. O conceito de orientação depende essencialmente da relação deordem dos números reais, não podendo ser estendido a espaços vetoriais sobreum corpo qualquer.
10.2 Volume de ParalelepípedoSejam V um espaço vetorial real de dimensão n, munido de um produtointerno, e v1, ..., vn ∈ V .
Definição 10.5 O paralelepípedo de arestas v1, ..., vn é o conjunto
P (v1, ..., vn) = {x = t1v1 + ... + tnvn; 0 ≤ ti ≤ 1}.
Seja E = (e1, ..., en) uma base ortonormal de V. Se vj =n∑
i=1
aijei, A =
(aij) – n×n – define-se o volume de P (v1, ..., vn) por v(P (v1..., vn)
)= |det A|.
Se E ′ = (e′1, ..., e′n) é outra base ortonormal de V e e′i =
n∑
k=1
pkiek, P =
(pij) – n×n – matriz ortogonal, de transição da base E para a base E, então
CAPÍTULO 10. MISCELÂNEA 139
|det P | = 1 e vj =n∑
i=1
a′ije′i =
n∑i=1
a′ij
n∑
k=1
pkiek =n∑
k=1
n∑i=1
pkia′ijek =
n∑
k=1
akjek,
donde A = PA′ e |det A| = |det A′|, o que mostra que v(P (v1, ..., vn)
)não
depende da base ortonormal usada na sua definição.
Proposição 10.3 Seja T : V −→ V linear. Então:
v(P (Tv1, ..., T vn)
)= |det T | · v(
P (v1, ..., vn)).
Dem. Com as notações usadas acima, temos: vj =n∑
i=1
aijei, donde
Tvj =n∑
i=1
aijT (ei) =n∑
i,k=1
aijbkiek =n∑
k=1
(n∑
i=1
bkiaij
)ek,
onde B = [T ]EE ; portanto,
v(P (Tv1, ..., T vn
)= |det BA| = |det T ||det A| = |det T |v(
P (v1, ..., vn)).
10.3 Matriz de GramSejam v1, ..., vk ∈ V , onde V é um espaço vetorial real de dimensão n, munidode um produto interno.
Se gij = 〈vi, vj〉, a matriz de Gram de v1, ..., vk é G = (gij) – k × k. SejaW um subespaço de dimensão k contendo v1, ..., vk (se v1, ..., vk são LI, W éúnico). Seja E = (e1, ..., en) base ortonormal de V tal que (e1, ..., ek) seja base
ortonormal de W. Então: vj =k∑
i=1
aijei, v(P (v1, ..., vk)
)= |det A| e v1, ..., vk
são LI ⇔ det A 6= 0 ⇔ v(P (v1, ..., vk)
)> 0.
Proposição 10.4 v(P (v1, ..., vk)
)=√
det G.Dem. Com as notações acima, temos:
gij = 〈vi, vj〉 = 〈k∑
r=1
arier,
k∑s=1
asjes〉 =k∑
r=1
atirarj,
donde G = AtA e det G = (det A)2, resultando v(P (v1, ..., vk)
)= |det A| =√
det G. Além disso, det G ≥ 0, e det G = 0 ⇔ det A = 0 ⇔ v1, ..., vk sãoLD.
CAPÍTULO 10. MISCELÂNEA 140
Obs. Se v1, ..., vk são 2 a 2 ortogonais, então
det G =
|v1|2 0
. . .0 |vk|2
= |v1|2...|vk|2 = (det A)2,
donde |det A| = v(P (v1, ..., vk)
)= |v1|...|vk|. Se {v1, ..., vk} é conjunto
ortonormal, então P (v1, ..., vk) é o cubo unitário Ik e v(Ik) = 1.
10.4 Produto VetorialSejam V um espaço vetorial real, de dimensão (n+1), munido de um produtointerno 〈, 〉, orientado, e v1, ..., vn ∈ V . A função
f : V −→ Rx 7−→ f(x) = detE(v1, ..., vn, x),
onde E = (e1, ..., en+1) é base positiva de V, ortonormal, é linear, donde existeum e um único u ∈ V , u = v1 × ... × vn, tal que f(x) = 〈u, x〉 para todox ∈ V . Este vetor u = v1 × ...× vn chama-se o produto vetorial de v1, ..., vn.
Obs. (a) u = v1 × ...× vn é forma n-linear dos vetores v1, ..., vn.(b) Seja A = [v1, ..., vn] a matriz (n+1)×n cujas colunas são os vetores vj
escritos na base E . Seja A(i) – n× n – a submatriz obtida de A pela omissãoda linha i. Temos:
〈u, ej〉 = det [v1, ..., vn, ej] = (−1)n+1+jdet A(j).
Então:
u =n+1∑i=1
(−1)n+1+idet A(i) · ei,
donde |u|2 =n+1∑i=1
(det A(i))2 ≥ 0 e |u| = 0 ⇔ det A(i) = 0 para todo i,
1 ≤ i ≤ n + 1 ⇔ posto A < n ⇔ v1, ..., vn são LD.(c) u⊥vj (1 ≤ j ≤ n) pois 〈u, vj〉 = det(v1, ..., vn, vj) = 0.(d) |u|2 = detE [v1, ..., vn, u] = v
(P (u, v1, ..., vn)
)= |u|v(
P (v1, ..., vn)),
donde |u| = v(P (v1, ..., vn)
).
(e) v1, ..., vn são LI⇔ v(P (v1, ..., vn)
)= |u| > 0. Neste caso, det(u, v1, ..., vn) =
|u|2 > 0 e (v1, ..., vn, v1 × ...× vn) tem a mesma orientação que (e1, ..., en+1).É fácil ver que o produto vetorial u = v1 × ... × vn é o único vetor de V
satisfazendo (c), (d) e (e).
CAPÍTULO 10. MISCELÂNEA 141
Pode-se representar u = v1 × ...× vn pelo determinante simbólico∣∣∣∣∣∣∣∣∣
v11 ... v1n e1
v21 ... v2n e2... . . . ...
...vn+1,n ... vn+1,n en+1
∣∣∣∣∣∣∣∣∣=
n+1∑i=1
(−1)n+1+idet A(i)ei = u.
Exercícios de Revisão
1. Sejam p1, ..., pn ∈ Pn(K), isto é, polinômios de grau menor que n.Se, para j = 1, ..., n, pj(2) = 0, prove que {p1, ..., pn} é um conjuntolinearmente dependente.
2. Prove que não existe T : R5 −→ R2 linear cujo núcleo seja {(x1, ..., x5) ∈R5|x1 = x2 e x3 = x4 = x5}.
3. Seja T : V −→ W linear, V de dimensão finita. Prove que existesubespaço U ⊂ V tal que N (T ) ∩ U = {0} e Im T = T (U).
4. Seja T : Rn −→ Rn, T (x1, ..., xn) = (x1 + ...+xn, ..., x1 + ...+xn). Acheos autovalores e autovetores de T.
5. Sejam V = U⊕W , P : V −→ W , P (u+w) = w, onde u ∈ U e w ∈ W .Mostre que 0 e 1 são os únicos autovalores de P e ache os autovetorescorrespondentes.
6. Dê exemplo de um operador linear invertível T : V −→ V , dim V = n,cuja matriz em alguma base só tem zeros na diagonal principal.
7. Se a1, ..., an, b1, ..., bn ∈ R, prove que(
n∑j=1
ajbj
)2
≤(
n∑j=1
j · a2j
)(n∑
j=1
b2j
j
).
8. Seja T : Cn −→ Cn, T (z1, ..., zn) = (0, z1, ..., zn−1). Ache T ∗.
9. Prove que todo operador auto-adjunto T : V −→ V tem uma raizcúbica, dim V = n.
10. Sejam T : V −→ V linear, dim V = n. Prove que V tem base formadapor autovetores de T se, e só se, existe produto interno em V que tornaT auto-adjunto.
142
EXERCÍCIOS DE REVISÃO 143
11. Se T : V −→ V é normal, prove que Im T = Im T ∗.
12. Se K = C prove que todo operador normal T : V −→ V , dim V = ntem uma raiz quadrada.
13. Sejam K = C e T : V −→ V operador normal, dim V = n. Prove queT = T ∗ ⇔ todos os autovalores de T são reais.
14. Sejam T : V −→ V linear, dim V = n, T = T ∗. Prove que os valoressingulares de T são os módulos de seus autovalores.
15. Prove que todo polinômio mônico é o polinômio característico de algumoperador linear. Para isso, considere a matriz
A =
0 0 ... 0 0 −a0
1 0 ... 0 0 −a1
0 1 ... 0 0 −a2
... ... ... ... ... ...0 0 ... 1 0 −an−2
0 0 ... 0 1 −an−1
.
16. Sejam T : V −→ V , dim V = n, T > 0 e tr T = 0. Prove que T = 0.
17. Sejam (e1, ..., en) base ortonormal de V e T : V −→ V linear. Prove:tr(T ∗T ) = |Te1|2 + ... + |Ten|2.
18. Sejam K = C, T : V −→ V linear, E = (e1, ..., en) base ortonormal deV, e λ1, ..., λn os autovalores de T. Se A = [T ]EE = (aij) – n× n – proveque
|λ1|2 + ... + |λn|2 ≤n∑
i,j=1
|aij|2.
Referências Bibliográficas
[1] Axler, S. – Linear Algebra Done Right – Springer, New York, 1996.
[2] Gelfand, I. – Lectures on Linear Algebra – Interscience, New York, 1961.
[3] Hoffman, K.; Kunze, R. – Linear Algebra – Prentice-Hall, New Jersey,1971.
[4] Júdice, E.D. – Introdução à Álgebra Linear – Belo Horizonte, 1960.
[5] Lang, S. – Linear Algebra – Springer, New York, 2004.
[6] Leon, S. – Álgebra Linear – LTC, Rio de Janeiro, 1999.
[7] Lima, E.L. – Álgebra Linear – IMPA, Rio de Janeiro, 1996.
[8] Queysanne, M. – Algèbre – Armand Colin, Paris, 1964.
[9] Simmons, G. – Introduction to Topology and Modern Analysis –McGraw-Hill, New York, 1963.
144