aplicações de análise a Álgebra linearsp(a), sabemos do curso de Álgebra linear que temos dois...

219
Augusto Armando de Castro Júnior (UFBA) Aplicações de Análise a Álgebra Linear Florianópolis, SC 2014

Upload: others

Post on 08-Aug-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior (UFBA)

Aplicações de Análise a Álgebra Linear

Florianópolis, SC

2014

Page 2: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3
Page 3: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior (UFBA)

Aplicações de Análise a Álgebra Linear

Minicurso apresentado no IIIoColóquio de Matemática da Re-gião Sul, realizado na Universi-dade Federal de Santa Catarina,em maio de 2014.

Florianópolis, SC

2014

Page 4: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Resumo

No presente livro, estudamos o espectro de operadores em di-mensão finita e seus espaços invariantes associados. Mais pre-cisamente, explicamos as técnicas para calcular os autovalorese os respectivos autoespaços de um operador em dimensão fi-nita. Como um subproduto natural, desenvolvemos técnicas deAnálise precisas e estáveis para calcular raízes de polinômios.Palavras-chaves: Cálculo de Autovalores e Autoespaços; Cál-culo de Raízes de polinômios; Análise Complexa; Operadorescom Autovalores Dominantes.

Page 5: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Lista de ilustrações

Figura 1 – Teorema de Cauchy-Goursat em região trian-gular . . . . . . . . . . . . . . . . . . . . . . . 70

Figura 2 – Fórmula Integral de Cauchy . . . . . . . . . . 73Figura 3 – Série de Laurent . . . . . . . . . . . . . . . . 77Figura 4 – Resíduos . . . . . . . . . . . . . . . . . . . . 80Figura 5 – Teorema dos Resíduos . . . . . . . . . . . . . 81Figura 6 – Execução do programa de Cálculo de Raízes. 114Figura 7 – Execução de programa de Cálculo de Projeções145Figura 8 – Métrica Projetiva- Função α . . . . . . . . . 150Figura 9 – Métrica Projetiva- Função β . . . . . . . . . 151Figura 10 – Cálculo de Autovalores Dominantes. . . . . . 167Figura 11 – Execução do programa domincoloq. . . . . . . 168Figura 12 – Execução com matriz 4 por 4. . . . . . . . . . 169

Page 6: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3
Page 7: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Sumário

Introdução . . . . . . . . . . . . . . . . . . . 1

1 Uma visão de Álgebra Linear via Funções deOperadores . . . . . . . . . . . . . . . . . . . 9

1.1 Avaliando polinômios em matrizes . . . . . . . 30

1.2 Exercícios . . . . . . . . . . . . . . . . . . . . 33

2 Funções Analíticas . . . . . . . . . . . . . . 35

2.1 Sequências e séries em Espaços de Banach . . 37

2.2 O Espaço Normado das Aplicações LinearesContínuas . . . . . . . . . . . . . . . . . . . . 52

2.3 Integração de Caminhos em Espaços Vetoriais 60

2.4 A Teoria de Cauchy-Goursat . . . . . . . . . . 68

2.5 Resíduos . . . . . . . . . . . . . . . . . . . . . 78

2.6 Programa de Cálculo de raízes de polinômios . 84

2.7 Exercícios . . . . . . . . . . . . . . . . . . . . 113

3 Funções de Operador . . . . . . . . . . . . . 117

3.1 Funções analíticas de operadores . . . . . . . . 117

3.2 Noções Básicas de Teoria Espectral . . . . . . 124

3.3 Programa de Cálculo de projeções espectrais . 131

3.4 Exercícios . . . . . . . . . . . . . . . . . . . . 146

4 Operadores com autovalores dominantes . . 147

4.1 Calculando autovalores dominantes e seus au-toespaços . . . . . . . . . . . . . . . . . . . . . 148

4.2 Cones e Métricas Projetivas . . . . . . . . . . 149

Page 8: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.3 Programa de Cálculo de Autovalores Dominan-tes de Operadores Positivos . . . . . . . . . . 160

4.4 Exercícios . . . . . . . . . . . . . . . . . . . . 166

5 O Operador Adjunto . . . . . . . . . . . . . 1715.1 Aplicação: generalizando o Teorema de von Neu-

mann . . . . . . . . . . . . . . . . . . . . . . . 1875.2 Exercícios . . . . . . . . . . . . . . . . . . . . 195

Conclusão . . . . . . . . . . . . . . . . . . . 197

Referências . . . . . . . . . . . . . . . . . . . 199

Page 9: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

7

Prefácio

Quanta Matemática é necessária para uma revoluçãotecnológica? As recentes e populares tecnologias de Internet, ce-lular, diagnóstico por imagem têm demonstrado que a granderevolução pela miniaturização eletrônica já é tão de domínio pú-blico hoje em países ascendentes como o aço ou a eletricidadehá 4 décadas. Ou seja, que hoje, são as idéias (Matemáticas),quem faz a diferença nas novas tecnologias, pois, a eletrônicapara implementá-las, todos têm o potencial de construir.

Vejamos os nossos exemplos. Tanto a ressonância Mag-nética como a Tomografia Computadorizada têm por base atransformada de Radon, teoria matemática estabelecida nas trêsprimeiras décadas do século passado. O celular seria impossívelsem a teoria de Wavelets que nada mais é que uma melhoriacomputacional da transformada de Fourier do início do séculoXIX. A idéia por trás de transformada de Fourier é bastantesimples, a decomposição de vetores com respeito a uma base or-tonormal. Vale ressaltar que a Finlândia, via Nokia, dominouinicialmente o mercado de celulares justamente por ter investidoprecocemente no estudo de técnicas de compactação e controlede erros de dados via Wavelets, ao primeiro sinal de que tal tec-nologia iria se tornar popular no futuro. Sim, pesquisa em teoriaMatemática e Computacional, não em eletrônica.

Finalmente, todos diariamente fazemos buscas com oveloz buscador da Google. É mais rápido buscar um conteúdo naInternet que no próprio computador, hoje em dia. Poucos sabem

Page 10: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

8 SUMÁRIO

que isto é porque, no âmago deste programa, jaz uma versão paraMatrizes Positivas do Teorema do Ponto Fixo de contrações. Talversão é o famoso teorema de Perron. Brin, um dos fundadoresdo Google e um dos pais desse motor de busca, é matemáticoe filho de um eminente pesquisador em Teoria Ergódica, e usoudesse Teorema, da primeira década do século XX, cujo algoritmoé exponencialmente rápido, conforme a teoria e qualquer cidadãoconsegue ver. Enfim, a vida inteligente adentrou a Internet demodo a viabilizá-la.

Voltando à nossa pergunta inicial, os parágrafos ante-riores nos dão algumas pistas para respondê-la. Certamente aMatemática de que precisamos hoje vai bem além da Matemá-tica dos mesopotâmios e egípcios, ou daquela que muitos usamospara conferir o troco no ônibus e que a maioria dos educadoresmatemáticos crêem ser a grande matemática presente no dia-a-dia. Certamente, é uma Matemática que vai além dos cursos deÁlgebra Linear que muitos estudantes em Engenharia ficam a seperguntar ingenuamente para que servem. Mas esta, da ÁlgebraLinear, já se encontra a meio caminho da Matemática com queconvivemos no mundo moderno. Em Álgebra Linear, grandesidéias já estão presentes, embora nem sempre sejam enfatizadascomo deveriam. Por exemplo, o Teorema de Perron nos diz quematrizes com todas as entradas positivas tem um autoespaço dedimensão um (uma reta) que, a menos de uma normalização,atrai todos os pontos do espaço, quando iteramos a matriz. Ouseja, é um teorema sobre Cálculo de autovalores e autovetoresde uma matriz com todas as entradas positivas. Algo simples,mas a Google está aí para acabar com todo o palavrório sobre ainutilidade da Matemática ou da Álgebra Linear.

Page 11: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

SUMÁRIO 9

O presente escrito objetiva prover técnicas para cálculosde autovalores e autoespaços de um operador linear em dimen-são finita. Como sabemos, autovalores e autovetores permitementender como um operador linear em dimensão finita atua alge-brica e geometricamente sobre o espaço. O estudo de operadoreslineares é de importância transcendente para a Análise e a Ma-temática como um todo. Não apenas porque a derivada de umafunção avaliada em um ponto é uma aplicação linear, mas tam-bém porque é linear (porém, atuando em dimensão infinita) ooperador que a cada função derivável associa a sua função deri-vada.

Dedicamos o primeiro capítulo a uma revisão da ÁlgebraLinear e o estudo de operadores em dimensão finita, motivandocom exemplos o uso da avaliação de polinômios em matrizespara cálculo de autoespaços e autovalores. Tais homomorfismosde avaliação e sua utilidade motivam a questão de estendê-losa uma classe maior de funções, digamos, analíticas. Para tal, osargumentos algébricos são insuficientes.

Iniciamos o segundo capítulo com a Análise real e Com-plexa necessária ao estudo do Espectro e funções de Operadores.De fato, adaptamos facilmente tais teorias para funções holo-morfas tomando valores em espaços de operadores, em vez deem C, como se vê em disciplinas finais de graduação. Como umsubproduto da teoria, apresentamos um programa para encon-trar as raízes de um polinômio em uma dada região do planocomplexo.

Munidos dessa Teoria de Cauchy-Goursat adaptada aespaços de operadores, desenvolvemos no terceiro capítulo dolivro a teoria de funções de Operadores e provamos o que costu-

Page 12: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

10 SUMÁRIO

mamos chamar de proto-versões dos teoremas de Decomposiçãodo Espectro, os teoremas de Cálculo Funcional e MapeamentoEspectral. As consequências são profundas. Por um lado, o raioespectral nos permite obter cotas para a norma de iterados gran-des do operador. São definidas as componentes espectrais, e de-monstrada a existência de espaços invariantes associados as mes-mas. Via Teoria Cauchy-Goursat, obtemos métodos de calcularprojeções associadas a espaços invariantes pelo operador.

Na penúltima seção do capítulo, apresentamos um pro-grama em linguagem C que é uma aplicação surpreendente dateoria vista: permite calcular um autoespaço generalizado de umautovalor, sem que conheçamos com precisão este autovalor. Umlegado longínquo do Teorema Fundamental do Cálculo de New-ton...

No quarto capítulo, estudamos operadores em que existaum autovalor cujo módulo é estritamente maior que todos os ou-tros. Apresentamos técnicas eficientes para calcular tal autovalore seu autoespaço associado. O caso de operadores com todas asentradas positivas é abordado em pormenor, com técnicas es-pecíficas. Este é o caso explorado pelo programa de busca daGoogle na Internet.

No último capítulo, estudamos o adjunto de um opera-dor e as informações que traz para o estudo do operador primal.O celebrado Teorema Ergódico de Von Neumann é provado aquiem uma versão bem mais geral que a original.

Ao final, não respondemos à nossa questão. A Matemá-tica da segunda metade do século passado, e do atual, tem em-basado as teorias físicas que levam ao desenvolvimento do Com-putador Quântico e do Reator de Fusão Nuclear. Enfim, com o

Page 13: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

SUMÁRIO 11

presente texto, apenas cobrimos uma pequena parte, porém belae interessante, da Matemática de que precisamos.

Page 14: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3
Page 15: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Agradecimentos

Gostaria de agradecer ao Comitê Organizador do 3o.Colóquio de Matemática da Região Sul, pela imensa atençãono processo de submissão e feitura deste livro, o qual resul-tou em um texto de estilo bem adequado a iniciantes, inclusivecom exemplos e aplicações computacionais. Quanto a isso, so-mos também reconhecidos à UFBA e a oportunidade que nostem dado de ministrar o curso de Teoria Espectral no douto-rado, assunto sobre o qual ora concluímos um livro avançado.Com os colegas e amigos da UFBA, tivemos conversações fru-tíferas sobre os assuntos aqui apresentados, especialmente comPaulo Varandas e Samuel Barbosa. Sou mais que grato pela aco-lhida carinhosa em seu lar e apoio de minha querida Elis deOliveira e seu filho Matheus durante o carnaval de 2014, quandoeste livro foi concluído.

Ressalto ainda a influência de meus professores MarceloViana e o saudoso Carlos Isnard, que certamente se agradariamuito deste texto. Finalmente, registro minha gratidão para como professor Elon Lages Lima, em cujos bem escritos livros deAnálise, sempre nos inspiramos na criação de mais literaturamatemática de alto nível em língua portuguesa.

Augusto Armando de Castro Júnior

Universidade Federal da BahiaSalvador, 06 de março de 2014.

Page 16: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

14 SUMÁRIO

Page 17: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

1

Introdução

Calculando Autovalores e Autoespaços

Comecemos com E a ser um espaço vetorial complexode dimensão finita e A : E → E um operador linear contínuo.Nesse contexto inicial, o espectro de A (denotado por sp(A)) ésimplesmente o conjunto dos λ ∈ C tais que (λI−A) não possuiinversa, onde I : E → E designa a identidade. Ou seja, nessecaso de dimensão finita o espectro é apenas o conjunto dos au-tovalores de A. Dos cursos de Álgebra linear, sabemos que taisautovalores possuem associados a si, espaços invariantes por A,os quais permitem descrever de modo simplificado a geometriada ação do operador no espaço. A exigência do espaço ser com-plexo, é primordialmente para garantir que o operador possuaautovalores.

Consideremos assim o seguinte exemplo em que a matrize todos os autovalores são reais. Seja A : R2 → R2 o operadorlinear dado por

A(x, y) :=

(3 1

0 1/2

(x

y

).

O modo costumeiro como se calcula o espectro e os respectivosespaços invariantes associados compôe-se de duas partes. Pri-meiro, calculamos os autovalores da matriz. Para isso, precisa-mos saber para que valores λ ∈ C, λI −A deixa de ser injetiva,

Page 18: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2 Introdução

ou seja, seu determinante é zero. Temos portanto:

det(λI −A) = 0⇔ (λ− 3)(λ− 1/2) = 0,

ou seja, os autovalores de A são justamente as raízes do po-linômio det(λI − A), ou polinômio característico de A. Aqui, jánotamos a primeira grande dificuldade: autovalores de uma ma-triz são as raízes de polinômios de mesmo grau que a dimensãodo espaço em que atua a matriz. Ora, sabemos que a partir dograu 4, há polinômios cujas raízes não podem ser expressa pormeio de radicais (ou seja, há equações polinomiais impossíveis deserem resolvidas por qualquer método algébrico). Como estamosem um exemplo em dimesão 2, a equação é do segundo grau etemos sp(A) = {3, 1/2}. Note que associados aos elementos desp(A), sabemos do curso de Álgebra linear que temos dois es-paços invariantes por A. Nestes espaços, A age respectivamentecomo o produto pelos escalares 3 e 1/2. Como isolar, por exemploo espaço associado a 1/2? Lembremos como fazemos isso aindado modo usual em um curso de Álgebra linear, digamos, parao autoespaço associado a λ = 1/2. Didaticamente dividiremos oprocedimento em três fases:

1. Qualquer autovetor v de um autovalor λ é simplesmenteum elemento de ker(λI−A), ou seja, é solução da equaçãolinear (com infinitas soluções), (λI − A)v = 0, cujo con-junto solução é um espaço vetorial não trivial, o autoespaçoassociado a λ. Encontrar a solução completa desta equa-ção, por conseguinte, é encontrar uma base para o espaçoker(λI−A), o que corresponde a encontrar um conjunto li-nearmente independente de tamanho máximo de soluçõespara a dita equação. No exemplo em questão, portanto,

Page 19: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

3

temos a equação:

(1/2I −A)v = 0⇔

(−5/2 −1

0 0

(x

y

)=

(0

0

).

2. O próximo passo, claro, é aplicar o escalonamento Gaussi-ano a matriz de λI −A. Note que, como o exemplo é sim-ples, a matriz acima já está escalonada (caso não estivesse,aplicaríamos o método Gaussiano de escalonamento).

3. Contamos o número de linhas nulas advindas do esca-lonamento Gaussiano. Elas correspondem à dimensão doker(λI − A). Partimos de cima até baixo na diagonal, ob-servando que posições são não nulas: correspondem a va-riáveis dependentes, não livres, cujo valor será calculadoem função das livres. No caso, na primeira linha, o coefi-ciente de x é −5/2, logo, seu valor será determinado pelasvariáveis livres. Como a última linha é identicamente nula,segue-se que a última variável, y, que temos é uma variávellivre.

4. Precisamos resolver a equação (λI − A)(v) = 0 tantas ve-zes quanto forem o número de variáveis livres, e a cadavez, atribuindo valores diferentes a essas variáveis com osquais determinamos o valor das variáveis dependentes, deforma a que os vetores solução achados sejam linearmenteindependentes entre si. Como temos apenas uma variávellivre y, arbitramos a ela o valor de 1. (Se estivéssemos emdimensão mais alta, e tivessémos, digamos, por exemplo,duas variáveis independentes y e z, arbitraríamos valoresl.i.’s, ao par, digamos, primeiro, (y, z) = (1, 0), e resolve-ríamos a equação uma vez, obtendo um vetor solução, e

Page 20: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4 Introdução

depois, atribuiríamos (y, z) = (0, 1), obtendo o outro vetorsolução linearmente independente com o primeiro.) Temosentão: (

−5/2 −1

0 0

(x

1

)=

(0

0

).⇒ x = −2/5.

Portanto,

v =

(−2/5

1

)é um autovetor gerador do autoespaço associado ao auto-valor 1/2.

Vejamos agora uma outra técnica, ainda algébrica, paraencontrarmos autoespaços. Usaremos o mesmo exemplo, e os au-tovalores calculados, em uma abordagem alternativa muito esté-tica de Álgebra linear.

Veja que interessante: considerando o polinômio (x−3)1/2−3 ·x

avaliado em A, obtemos (usando do isomorfismo que há entreaplicações lineares e matrizes na base canônica):(

0 −2/5

0 1

(3 1

0 1/2

)=

(0 −1/5

0 1/2

).

Note que o polinômio (x−3)1/2−3 zera em x = 3 e é 1 em 1/2. Sua

avaliação em A nos dá a matriz

Π1/2 :=

(0 −2/5

0 1

),

chamada projeção espectral. Ela de fato é uma projeção so-bre o espaço associado ao autovalor 1/2 (já tinhamos visto que(−2/5, 1) é autovetor associado a 1/2 - escrevemos o vetor como

Page 21: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

5

linha por comodidade de edição). Para vermos que ela é umaprojeção basta observar que

Π21/2 =

(0 −2/5

0 1

(0 −2/5

0 1

)=

(0 −2/5

0 1

)= Π1/2.

Como Π1/2 é obtida via avaliação de um polinômio emA (a identidade é o mesmo que A0), ela comuta com A. Destacomutatividade, segue-se que

Π1/2(R2) ⊃ Π1/2(A(R2)) = A(Π1/2(R2)),

ou seja, que A(Π1/2(R2)) ⊂ Π(R2), que é o mesmo que dizerque a imagem Π1/2(R2) := E(1/2) é um espaço invariante porA. Em capítulos mais adiante (e de modo muito geral), veremoscomo consequência que sp(A|E(1/2)) é realmente igual a {1/2}.

Em resumo: se o espectro puder ser particionado emcomponentes abertas e fechadas nele mesmo (as chamadas com-ponentes espectrais), cada uma dessas componentes possui asso-ciada a si um subespaço invariante pelo operador, o qual podeser calculado avaliando-se o operador em uma função que é umnela, e zero nas demais componentes (além de ter suas deriva-das até certa ordem também nulas, como veremos nos próximoscapítulos).

Veremos ainda que a restrição do operador a um dessessubespaços tem seu comportamento assintótico grandemente go-vernado pelo supremos dos valores absolutos dos números cons-tantes na componente associada.

Quando se considera um operador linear A atuando emespaços de dimensão infinita, o espectro (cuja definição difereda anterior só por exigir a continuidade das inversas envolvidas,

Page 22: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

6 Introdução

condição automática quando a dimensão é finita) não consistegeralmente em um número finito de pontos. Assim precisamosconsiderar a avaliação de A em funções mais complicadas que po-linômios, que zerem em todas as componentes espectrais menosnaquela que estejamos interessados. Para tal, precisamos ava-liar A em funções holomorfas cujo domínio seja desconexo. Oque é possível adaptando a teoria de Análise Complexa de Cau-chy para o contexto de aplicações com domínio em um abertoem C e tomando valores em espaços de Banach. Essa adaptaçãotem aplicações muito interessantes, mesmo se retornarmos nossofoco para a dimensão finita. Tomando de uma função holomorfa,mas com domínio desconexo, que seja 1 em uma vizinhançade um certo autovalor λ1, e 0 em uma vizinhança dos demais,a avaliação dessa função na matriz A, da mesma forma comono exemplo acima, nos dá a projeção associada ao autoespaço(a bem da verdade, o autoespaço generalizado!) de λ1. Ora, não énecessário conhecer precisamente um autovalor, basta conheceruma vizinhança que o isole dos demais, para definir tal função.Então conseguimos calcular com precisão seu autoespaço conhe-cendo com uma tosca aproximação o autovalor! Isso tambémpermite uma outra aplicação interessante, um método de acharraízes de polinômios em C, pois uma vez calculado o autoespaço,é imediato calcular o autovalor, e sabemos que autovalores sãoraízes do chamado polinômio característico associado a matriz.Dessa forma, dado um polnômio, este possui associado a si umamatriz companheira, da qual ele é o polinômio característico, suasraízes são os autovalores desta matriz, os quais calculamos demaneira fácil após calcularmos seus correspondentes autoespa-ços. Em resumo, temos técnicas analíticas que não só permitemcalcular autoespaços sem conhecer com precisão os respectivos

Page 23: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

7

autovalores, como adicionalmente permitem resolver o problemade achar com precisão a raiz de qualquer polinômio, problemaeste que a princípio parecia ser um obstáculo, a teoria de simpli-ficação de operadores, mas que acaba sendo resolvido por estamesma teoria, junto com a Análise Complexa,

São aplicações que unem de uma forma bastante originalduas áreas distintas da Matemática, a Álgebra Linear e a AnáliseComplexa, e trazem em si o sabor que convidamos o leitor aconhecer nas próximas páginas. Entretanto, não são as únicastécnicas que pretendemos expor. No caso em que o operadorpossui um autovalor dominante, isto é, com módulo estritamentemaior que qualquer outro, existe um cone em torno de seu espaçoinvariante que é jogando estritamente dentro de si mesmo. Todoiterado de vetor dentro deste cone, suficientemente grande, seaproxima do autoespaço generalizado do autovalor dominante.Isso nos dá, neste caso específico, uma forma de calcular umautoespaço, e seu autovalor. Como subproduto, também nos dáuma forma de calcular raízes de polinômios.

Page 24: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3
Page 25: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

9

1 Uma visão de Álgebra Linear

via Funções de Operadores

Neste capítulo relembramos muitos dos resultados so-bre as representações matriciais mais simples que podemos obterpara operadores lineares em dimensão finita. Como sabemos, taisresultados são o objetivo principal dos bons cursos de ÁlgebraLinear. Mais precisamente, dado um operador linear A : E → E

definido em um espaço vetorial de dimensão finita, gostaríamosque fosse sempre possível encontrar uma base no Espaço E naqual A tivesse uma representação matricial como matriz diago-nal. Ora, escrever um operador A como uma matriz diagonalaplicada aos vetores de E, quer dizer simplesmente que existeuma decomposição E := E1 ⊕ · · · ⊕Es de E, em que a restriçãode A a cada Ej , j = 1, . . . , s é um múltiplo da identidade. Isso,em geral, não é verdade, como mostram os próximos exemplosem E = R2:

Exemplo 1.1. Seja A : R2 → R2 dada por

A(x, y) :=

(2 1

0 2

(x

y

).

Um cálculo simples nos dá que se A(x, y) = λ · (x, y), entãonecessariamente λ = 2 e (x, y) é um múltiplo de (1, 0). Ou seja,o único espaço restrito ao qual A se comporta como múltiplo éa reta gerada por (1, 0), o que é insuficiente para termos umadecomposição de R2 do tipo que falamos no parágrafo anterior.

Page 26: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

10 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

Exemplo 1.2. Seja A : R2 → R2 dada por

A(x, y) :=

(2 −1

1 2

(x

y

).

Essa aplicação corresponde a composição de uma rotação (deângulo maior que zero e menor que π/2) com um múltiplo daidentidade. Logo, com cálculos análogos ao do exemplo anterior,é fácil provar A não é um múltiplo da identidade, se restrita aqualquer subespaço não trivial de R2.

Lembramos aqui o elementar Teorema da dimensão doNúcleo e da Imagem:

Teorema 1.3. (Dimensão do Núcleo e da Imagem.) SejaA : E → V uma aplicação linear entre espaços vetoriais quais-quer E, V . Então a dimensão do Núcleo ker(A) de A, somadaà dimensão da Imagem A(E) de A, é igual a dimensão de E.

Prova: Seja E ⊂ E um espaço complementar a ker(A)

em E, isto é, um espaço tal que ker(A)∩E = {0} e ker(A)+E =

E. Daí, ker(A|E) = {0} e portanto A|E é um isomorfismo sobresua imagem. Dado w ∈ A(E), existe v = v0+v tal que A(v) = w,com v0 ∈ ker(A) e v ∈ E. Logo, A(v) = A(v0) + A(v) = A(v),o que implica que a imagem de A é igual a de A|E , e portanto,ambas possuem a mesma dimensão de E, o qual é complementara ker(A). Donde se segue o teorema.

Agora, suponha que λ1 seja um autovalor de A : E → E,E um espaço vetorial de dimensão finita e que ker(A − λ1I) ∩(A − λ1I)(E) = {0}. Então pelo teorema acima, temos que

Page 27: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 11

E = ker(A− λ1I)⊕ (A− λ1I)(E). Como E(λ1) := ker(A− λ1)

é deixado invariante tanto por (A − λ1I) como por λ1I, ele édeixado invariante por A = (A − λ1I) + λ1I. O mesmo racio-cínio se aplica a E1 := (A − λ1I)(E), que também é invariantepor A. Se ker(A − λjI) ∩ (A − λjI)(E) = {0}, j = 1, . . . , s,podemos aplicar recursivamente o mesmo argumento a A|E1

,obtendo uma decomposição invariante E = E(λ1)⊕E(λs), onde{λ1, . . . , λs} são os autovalores de A, e A|E(λj) = λjI|E(λj), ouseja A é diagonalizável.

Mas como vimos nos exemplos mais acima, nem sempreker(A−λjI)∩ (A−λjI)(E) = {0}. Desse modo, o resultado quetemos em geral é o seguinte

Teorema 1.4. (Teorema da decomposição em autoespa-ços generalizados). Sejam A : Cn → Cn um operador linearcomplexo e Sp(A) o conjunto dos autovalores de A. Então existedecomposição Cn = ⊕λ∈Sp(A)E(λ) onde:

• A · E(λ) ⊂ E(λ).

• (A−λI)|E(λ) é nilpotente, isto é, (A−λI)k|E(λ) ≡ 0, paraalgum k ≤ dim(E(λ)).

Para a prova desse teorema, precisamos do seguinte lema:

Lema 1.5. Seja E um espaço vetorial, dim(E) = n < +∞. SejaT : E → E um operador linear. Então, existe uma decomposiçãoem soma direta E = E0 ⊕ E1 tal que

• T · E0 ⊂ E0 e T |E0é nilpotente, com nulidade menor ou

igual à dimensão de E0.

Page 28: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

12 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

• T · E1 = E1.

Prova: Note que se T fosse tal que T ·E∩Ker(T ) = {0},nada mais teríamos a mostrar (bastaria tomar E0 = Ker(T ) eE1 = T · E). Isso não ocorre em geral. Entretanto, podemosmostrar que ocorre para algum Tm, 1 ≤ m ≤ n. De fato, assequências abaixo se estabilizam (em certo m ≤ n):

Ker(T ) ⊂ Ker(T 2) ⊂ · · · ⊂ Ker(Tn) ⊂ E,

E ⊃ T · E ⊃ T 2 · E ⊃ · · · ⊃ Tn · E.

A estabilização de tais sequências ocorre porque a dimensão deE é finita.

Note que se Ker(T i) = Ker(T i+1), então Ker(T i+2) =

Ker(T i+1), pois se

v ∈ Ker(T i+2)⇒ T i+2 · v = 0⇒

T i+1(T · v) = T i(T · v) = 0︸ ︷︷ ︸T ·v∈Ker(T i+1)=Ker(T i)

v ∈ Ker(T i+1).

Logo, por indução, temos nesse caso Ker(T j) = Ker(T i),∀j ≥ i.

De um modo análogo, se T i(E) = T i+1(E) então

T · T i(E) = T · T i+1(E)⇒ T i+1(E) = T i+2(E)

Logo, T i(E) = T j(E), ∀j ≥ i.

Tal implica que as sequências acima realmente se estabi-lizam até, no máximo seu n-ésimo termo. Além disso, são estri-tamente monótonas (respectivamente, crescente e decrescente)até um índice a partir dos quais elas se tornam constante.

Page 29: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 13

Mostremos que esse índice é o mesmo para ambas assequências. Suponha que a sequência de imagens de E estabilizapara m ≤ n. Isso implica que

T j · Tm(E) = E1 := Tm(E),∀j ≥ 0⇒ T (E1) = E1.

Daí, pondo E0 := Ker(Tm), temos que dado v ∈ Ker(Tm+1),como Tm+1 · v = 0 se por absurdo v 6∈ Ker(Tm), então

Tm · v 6= 0 ∈ E1 ⇒︸︷︷︸T |E1

é isomorfismo

T · (Tm · v) 6= 0

(absurdo, pois v ∈ Ker(Tm+1)). Observamos ademais que se mé o primeiro índice em que a sequência de núcleos se estabiliza,então se supomos T m · E ⊃6= T m+1 · E = T (T m · E), segue-seque existe 0 6= v ∈ T m(E) tal que T · v = 0. Seja portanto wtal que T m · w = v. Então w ∈ Ker(T m+1) \Ker(T m), absurdo.Concluímos dos parágrafos acima que m = m, isto é, ambasas sequências se estabilizam exatamente para um mesmo índice.Até o índice m, as inclusões dos espaços dessas sequências sãoestritas. Em particular, concluímos que a dimensão de E0 =

Ker(Tm) é maior ou igual a m, ou por outra, que a nulidade(menor número de iterações que anula um operador nilpotente)de T |E0

é menor ou igual a dim(E0).

Pelo teorema do núcleo e da imagem, temos que dim(E0)+

dim(E1) = n. Para mostrar que E = E0 ⊕ E1 basta ver en-tão que E0 + E1 gera o espaço E. De fato, seja x ∈ E. To-mando Tm(x) ∈ E1 = Tm(E) = T 2m(E) ⇒ ∃y ∈ E;Tm(x) =

T 2m(y)⇒ Tm(x− Tm(y)) = 0. Logo

x = (x− Tm(y)︸ ︷︷ ︸∈Ker(Tm)

) + Tm(y),

Page 30: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

14 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

o que implica que E0 +E1 geram E e dadas as dimensões dessesespaços, E0 e E1 estão em soma direta.

Podemos agora proceder à prova do teorema de decom-posição em autoespaços generalizados:

Prova: Seja λ1 ∈ Sp(A). A existência de um tal λ1 édevida ao teorema fundamental da álgebra aplicado ao polinômiocaracterístico de A dado por p(λ) := det(A−λ·I) (os autovaloresde A são as raízes desse polinômio). Aplicando o lema a T :=

A − λ1 · I, obtemos que Cn se escreve como Cn = E(λ1) ⊕ E1,com T |E(λ1) nilpotente e T |E1

isomorfismo. Como sabemos quedado um autovalor (por exemplo, λ1), existe pelo menos umautovetor v1 que lhe corresponde, temos que v1 ∈ Ker(A − λ1 ·I) ⊂ Ker((A − λ1 · I)m) = E(λ1), o que implica que E(λ1) énão trivial. Como já dissemos, (A− λ1)|E(λ1) é nilpotente, comnulidade k = m ≤ dim(E(λ1)). Como (A − λ1 · I)(E(λ1)) ⊂E(λ1), vale ainda que

A(E(λ1)) = (A− λ1 · I)(E(λ1)) + λ1 · I(E(λ1)) ⊂ E(λ1).

Note ainda que T (E1) = E1, portanto, (A − λ1 · I)(E1) = E1,e se tomamos v ∈ E1, então A · v − λ1 · v ∈ E1 ⇒ A · v ∈ E1.Donde obtemos que A(E1) ⊂ E1. Observamos ainda que:

• A|E0 : E0 → E0 não contém autovetor de A que não sejado autovalor λ1. De fato, se λ 6= λ1 é um autovalor de A,se por absurdo existisse um autovetor v de λ contido emE0, obteríamos:

(A− λ1) · v = A · v − λ1 · v = (λ− λ1) · v ⇒

Page 31: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 15

T j · v = (λ− λ1)j · v 6= 0,∀j ∈ N

o que é uma contradição com o fato de que T |E0 é nilpo-tente.

• Todos os outros possíveis autovetores de A, referentes aosautovalores distintos de λ1 estão contidos em E1. Real-mente, suponha por absurdo que existe um autovetor v ∈E de um autovalor λ ∈ C mas v /∈ E1 e v /∈ E0 = E(λ1).Então podemos escrever v = v0+v1, com v0 ∈ E0 e v1 ∈ E1

não nulos. Supondo que k1 seja a nulidade de (A− λ1)|E0 ,obteríamos:

E1 63 (λ−λ1)k1 ·v = (A−λ1)k1 ·v = (A−λ1)k1 ·v0+(A−λ1)k1 ·v1 =

((A− λ1)|E0 é nilpotente)

(A− λ1)k1 · v1 ∈ E1,

absurdo.

Logo, A|E1 : E1 → E1, e podemos reaplicar o lema,dessa vez tomando um autovalor λ2 de A|E1 . Aí obtemos Cn =

E(λ1) ⊕ E(λ2)⊕ E2︸ ︷︷ ︸E1

; continuando nesse procedimento até que

Ej = {0} (e por conseguinte, sejam exauridos todos os autovalo-res de A, que são em número finito pois o espaço tem dimensãofinita) segue-se o teorema.

Corolário 1.6. Todo operador linear A : Cn → Cn se escrevecomo A = D + N , com D ·N = N ·D, onde D é um operadordiagonalizável e N é nilpotente. Além disso, tal decomposição éúnica.

Page 32: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

16 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

Prova: Definamos o operador linearD em Cn definindo-o em cada E(λi) da decomposição em soma direta Cn = ⊕λ∈Sp(A)E(λ) =

⊕rj=1E(λj). De fato, definimos D|E(λj) := λj · I|E(λj), o que im-plica definirmos N |E(λj) := (A− λj · I)|E(λj).

Seja

β = {v11, . . . , v1d1 , . . . , vr1, . . . , vrdr},

ondedj = dim(E(λj)) e {vj1, . . . , vjdj}

constitui uma base de E(λj). Como os E(λj) estão em somadireta, temos que β é base de Cn. Daí,

D · v1 = λ1 · v1, ∀v1 ∈ E(λ1)...

D · vr = λr · vr, ∀vr ∈ E(λr)

⇒ Dβ =

λ1 0 . . . 0

0. . . . . . . . .

...

0. . . λ1 0 . . .

0 . . . 0 λ2. . .

0 . . .. . . . . . 0

0 . . . 0 λr

Portanto, D é diagonalizável. Que N é nilpotente, já

mostramos (imediato do teorema de decomposição em autoes-paços generalizados). Note que

A|E(λj) = D|E(λj) +N |E(λj) ⇒ A = D +N.

Vejamos que vale D · N = N ·D. Para tal, basta mos-trarmos que, dado v ∈ E(λ), para E(λ) qualquer, vale D ·N ·v =

N ·D · v. E de fato, neste caso temos:

D ·N · v = D ·N |E(λ) · v = D · (A− λI)|E(λ) · v︸ ︷︷ ︸⊂E(λ)

=

Page 33: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 17

D|E(λ) · (A− λI)|E(λ) · v = (λI)|E(λ) · (A− λI)|E(λ) · v =

(A− λI)|E(λ) · (λI)|E(λ) · v = N |E(λ) ·D|E(λ) · v = N ·D · v.

Só nos resta agora mostrar que a decomposição acima(A = D+N , comD diagonalizável, N nilpotente eD·N = N ·D)é única.

De fato, se D +N = A = N ′ +D′, como sempre, bastaque nos restrinjamos a mostrar queN = N ′ eD = D′ se restritosa um E(λ) fixado arbitrário.

Restritos a tal E(λ), temos:

λI + (A− λI) = N ′ +D′ ⇒ λI −D′ = N ′ − (A− λI).

Note que todos os operadores comutam com A, e, do acima,vemos que comutam entre si. Lembramos que se dois operado-res diagonalizáveis comutam, existe uma base de autovetores co-mum a ambos, isto é, eles são simultaneamente diagonalizáveis(a recíproca também é obviamente válida). Um esboço de provadesse fato é o seguinte: fixado um autoespaço E(λj) de D, comvj ∈ E(λj), temos:

D ·D′ ·vj = D′ ·D ·vj = D′ ·λj ·vj = λj ·D′ ·vj ⇒ D′ ·vj ∈ E(λj),

ou seja, os autoespaços de D são invariantes por D′ (e vice-versa). Tal também implica (permutando os papéis de D e D′)que cada autoespaço de D é soma de autoespaços de D′ ou vice-versa (está contido em um autoespaço de D′). Desse modo, épossível decompor o espaço E em uma soma direta de autoespa-ços de D ou D′ com a propriedade de que cada subespaço dessasoma não contém propriamente nenhum outro autoespaço de Dou D′. Em qualquer base obtida reunindo bases dos autoespaços

Page 34: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

18 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

dessa soma direta, ambos os operadores D, D′ são diagonais.Em particular, temos que D − D′ é diagonalizável, e diagonalnaquela base.

Seja k a nulidade de N e k′ a nulidade de N ′. Consi-derando que D − D′ = N ′ − N, elevando ambos os membrosdesta equação a (k + k′), temos, usando o binômio de Newton(veja que N ′ comuta com N |E(λ)) que o segundo membro é zero.Isto implica que (D −D′)k+k′ = 0, o que para um operador di-agonalizável implica que (D − D′) = 0, isto é, D = D′, e daí,N = N ′.

Corolário 1.7. (Teorema de Cayley-Hamilton). Existe um po-linômio p de grau menor ou igual a n tal que p(A) = 0 ∈ L(Cn).

Prova: Tome como polinômio p(x) = (x − λ1)k1 · · · · ·(x − λr)kr . Considere então a matriz Z = p(A) = (A − λ1I)k1 ·· · · · (A − λrI)kr (lembramos que kj é a nulidade do operador(A − λj)|E(λj)). Para mostrar que Z = 0, basta mostrar queZ|E(λ) = 0, com λ = λ1, . . . , λr. Seja v ∈ E(λ). Daí, como Acomuta consigo mesma e com λjI, temos que

Z · v = (A− λ1)k1 · · · · · (A− λ)k(λ) · · · · · (A− λr)kr · v =

(A− λ1)k1 · · · · · (A− λr)kr · (A− λ)k(λ) · v = 0,

pois (A− λ)k(λ) · v = 0, para todo v ∈ E(λ).

Lema 1.8. (A ser usado no Teorema da forma de Jordan). SejaE um espaço vetorial, dim(E) < +∞ e seja T : E → E um ope-rador linear nilpotente, isto é, existe um primeiro k ∈ N tal queT k ≡ 0. Então existe uma base de E formada por um númerofinito de sequências (também finitas) linearmente independentes

Page 35: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 19

{v1,1, . . . , v1,j1}, . . . {vq,1, . . . , vq,jq} tais que T ·vs,js = vs,js−1 . . . T ·vs,1 = 0, com s = 1 . . . q.

Prova: Vimos do lema anterior que

{0} = Ker(T 0) ⊂ 6= Ker(T ) ⊂ 6= · · · ⊂ 6= Ker(T k) = E.

Comecemos nosso algoritmo por Ek−1, um espaço com-plementar de Ker(T k−1) dentro de Ker(T k) = E. Note que

T s(Ek−1)∩Ker(T j) = {0},∀1 ≤ s ≤ k− 1 e ∀0 ≤ j ≤ k− s− 1.

Em particular, T i(Ek−1) é imagem isomorfa de Ek−1. Fixev1,k−1 . . . vq′,k−1 uma base de Ek−1 e considere seus iteradosT k−s(vr,k−1) := vr,s, com k ≥ s ≥ 1 e 1 ≤ r ≤ q′, o que já nosdá se não todas, algumas das sequências do enunciado. De fato,para ver que os espaços

Ek−1, T · Ek−1, . . . , T k−1 · Ek−1,

estão em soma direta, observamos inicialmente que todo vetornão nulo em Ek−1 precisa ser iterado exatamente (no mínimo) kvezes por T para ser levado no zero. Isso implica que cada vetornão nulo de T ·Ek−1 precisa ser iterado k−1 vezes por T para serlevado no zero, e assim por diante. Vemos deste raciocínio que osespaços considerados têm intesecção dois a dois igual a {0}. Paravermos que estão em soma direta (embora esta soma não perfaçanecessariamente o espaço E), seja vs 6= 0 pertencente a um dosespaços acima, digamos vs ∈ T k−s · Ek−1. Daí, T s · vs = 0, eT j(vs) 6= 0,∀0 ≤ j < s. Mostremos que vs não pode ser expressocomo combinação linear de vetores nos demais espaços, do tipo:

vs =∑j 6=s

αjvj , vj ∈ T k−jEk−1, αj não todos nulos.

Page 36: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

20 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

Realmente, se pudesse, teríamos, podemos mostrar que todosos αj são nulos. Procedamos pelo princípio da Boa Ordenação.Seja B = {j > s;αj 6= 0}. Mostremos que B é vazio. De fato,suponha que não. Seja r o máximo de B. Daí,

0 = T r−1vs =∑j 6=s

αjTr−1vj = αrT

r−1vr ⇒ αr = 0; (absurdo).

Assim, todos os αj com j > s são nulos. Por outro lado, daíobtemos que

0 6= T s−1 · vs =∑j<s

αjTs−1vj = 0,

o que implica que vs não pode ser expresso segundo uma talcombinação de vetores.

Agora, tome Ek−2 ⊃ T (Ek−1) um espaço complementardeKer(T k−2) dentro de Ker(T k−1). Repetimos o mesmo raciocí-nio de antes, a Ek−2, descartando as sequências de vetores jácontidas nas sequências de Ek−1. Como o espaço tem dimensãofinita, em um número finito de passos o lema está provado.

Teorema 1.9. (Forma de Jordan- caso complexo.) SejaA : Cn → Cn um operador linear com autovalores complexosdistintos λ1 . . . λr, 1 ≤ r ≤ n. Então, existe uma base β de Cn

Page 37: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 21

na qual o operador é representado pela matriz

Aβ =

λ1 0 ou 1 0 . . . 0 0

0. . . . . . . . .

...

0. . . λ1 0 . . .

0 . . . 0 λ2 0 ou 1

0 . . .. . . . . . 0

0 . . . 0 λr 0 ou 1

0 . . . 0 λr

Prova: Aplicamos o último lema a (A − λk · I)|E(λk).

Pelo lema, existe uma base βk de E(λk) em que (A−λk ·I)|E(λk)

é representada pela matriz0 0 ou 1 0 . . . 0

0 0. . . 0 . . .

0 . . . 0 0 ou 1

0 . . . 0

Note que nessa base, como em qualquer outra base, (λk ·I)|E(λk)

se escreve como: λk 0 . . . 0

0. . . 0

0 . . . 0 λk

Como A|E(λk) = (λk · I)|E(λk) + (A − λk · I)|E(λk) segue-se queA|E(λk) se escreve na base βk como:

λk 0 ou 1 0 . . . 0

0 λk. . . 0 . . .

0 . . .. . . 0 ou 1

0 . . . λk

Page 38: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

22 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

Tomando a base ordenada β formada pelos vetores em β1, . . . , βr,da invariância de cada E(λk) obtemos que o operador A na baseβ se escreve como:

Aβ =

λ1 0 ou 1 0 . . . 0 . . . 0

0 λ1. . . 0 . . .

...

0 . . .. . . 0 ou 1

0 . . . λ1 0

0 . . .. . . 0 0

... λr 0 ou 1 0 . . . 0

0 λr. . . 0 . . .

0 . . .. . . 0 ou 1

0 . . . 0 . . . λr

Definição 1.10. (Complexificado de um operador real.)Considere um operador linear A : Rn → Rn, Cn = Rn ⊕ Rn =

(Rn)1 ⊕ (Rn)2, onde (Rn)1 := (Rn, 0) e (Rn)2 := (0,Rn). Sev = (v1, v2) ∈ Rn ⊕ Rn, então definimos o complexificado A :

Cn → Cn o operador estendendo A dado por

A · v := (A · v1, A · v2) = A · v1 + iA · v2.

Definição 1.11. (A aplicação conjugação : Cn → Cn). Dadov ∈ Cn = Rn ⊕ Rn, v = (v1, v2), a aplicação conjugação :

Cn → Cn é o isomorfismo linear dado por

v = (v1, v2) := (v1,−v2).

Page 39: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 23

Proposição 1.12. Seja A : Rn → Rn um operador linear real.Então o complexificado A de A comuta com a aplicação de con-jugação, isto é, A · v = A · v, ∀v ∈ Cn.

Prova: A prova é direta:

A · v = (A · v1,−A · v2) = (A · v1, A · −v2) = A · v.

Teorema 1.13. (Forma de Jordan- caso real.) Seja A :

Rn → Rn um operador linear com autovalores reais λ1 . . . λr eautovalores complexos não reais a1 + ib1, . . . as + ibs . Então,existe uma base β de Rn na qual o operador é representado pelamatriz em blocos na diagonal

Aβ =

J1 0 . . . 0

0. . .

...0 Jr

... 0 J1 0

. . .

Js

,

onde cada Jk, 1 ≤ k ≤ r é da forma:

λk 0 ou 1 0 . . . 0

0 λk. . . 0 . . .

0 . . .. . . 0 ou 1

0 . . . λk

,

Page 40: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

24 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

e cada Jl, 1 ≤ l ≤ s é da forma:

al bl c1 0 0 . . . 0

−bl al 0 c1. . . 0

0. . . cd 0

.... . . 0 cd

0 al bl

0 . . . 0 −bl al

,

onde cada ce = 1 ou ce = 0, e = 1 . . . d.

Prova: Note que identificamos A com A|(Rn)1 . Dividi-remos a prova em vários passos, por razões didáticas:

1. Como A provem de um operador real, se λ é autovalor deA, o mesmo vale para λ, e se v é autovetor correspondentea λ, v é autovetor associado a λ. De fato, como A é ocomplexificado de um operador real, a decomposição Cn =

(Rn)1 ⊕ (Rn)2 é invariante por A, isto é, A|(Rn)1 · (Rn)1 ⊂(Rn)1 e A|(Rn)2 · (Rn)2 ⊂ (Rn)2. Daí,

A · v = λ · v = λ · v ⇒ A · v = λ · v.

2. Como A é operador real, se λ é um autovalor qualquer deA, então E(λ) ⊃ A · E(λ) = A · E(λ), o que implica queE(λ) é deixado invariante por A. Ademais,

(A− λ)kj (E(λ)) = 0⇔ (A− λ)kλ(E(λ))

= 0⇔ (A− λ)kλ(E(λ)) = 0.

Isso significa que (A−λ)|E(λ) e (A−λ)|E(λ)

são operadoresnilpotentes de mesma nulidade. Daí, λ é o único autovalor

Page 41: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 25

de A em E(λ). Além do mais, lembramos que E(λ) =

Ker((A−λ)dλ ⊃ Ker((A−λ)kλ), conforme o lema 1.5. Emparticular, E(λ) ⊂ E(λ). Trocando λ com λ, obtemos queE(λ) ⊂ E(λ), donde tiramos, já que a conjugação é umisomorfismo (sesquilinear), que dim(E(λ)) = dim(E(λ)) eque E(λ) = E(λ).

3. Como já observamos, A|(Rn)1 é (identificado com) nossoA original. Note que se λj é um autovalor real, do itemanterior temos E(λj) = E(λj) = E(λj). Tal implica quetomando w1, . . . , wdj uma base de E(λj) e a base formadapelos conjugados w1, . . . , wdj então as partes reais (w1 +

w1)/2, . . . , (wdj+wdj )/2 e imaginárias (w1−w1)/2i, . . . , (wdj−wdj )/2i pertencem a E(λj). Ademais, tais vetores (que sãoreais) geram E(λj) enquanto espaço complexo, já que porexemplo, geram w1, . . . , wdj . Em particular, do conjuntodessas partes reais e imaginárias, podemos extrair umabase de vetores reais de E(λj). Os vetores desta base sãolinearmente independentes sobre C, o que quer dizer quesão linearmente independentes enquanto vetores reais, so-bre R. Isso significa que esses vetores são uma base doespaço real E(λj) ∩ (Rn)1, já que tal espaço tem como di-mensão real máxima igual à dimensão complexa de E(λj).Pelo teorema da decomposição em autoespaços generaliza-dos, A|E(λj) = λj · I|E(λj) + (A − λj · I)|E(λj). Note quetais parcelas deixam invariante (Rn)1, pois λj ∈ R. Como(A− λj · I)|E(λj) é nilpotente, e deixa E(λj)∩ (Rn)1 inva-riante, podemos aplicar à mesma o lema 1.8, obtendo umabase de vetores (reais) na qual (A − λj · I)|E(λj)∩(Rn)1 se

Page 42: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

26 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

escreve como 0 0 ou 1 0 . . . 0

0. . .

...

0. . . 0 ou 1

0 . . . 0

Definindo E := ⊕rj=1E(λj), e justapondo as bases de ve-tores reais encontradas acima para diferentes valores de j,em uma base γ de do espaço E ∩ (Rn)1, seguindo a provado teorema da forma de Jordan, versão complexa, temosque:

(A|E∩(Rn)1)γ =

λ1 0 ou 1 0 . . . . . . 0

0. . . 0 ou 1 0

...

0. . . λ1 0

. . .. . .

. . ....

.... . . λr 0 ou 1 0

0 . . . 0. . . 0 ou 1

0 . . . . . . 0 λr

4. No caso dos autoespaços generalizados de autovalores com-plexos com parte imaginária não nula, a situação é umapouco diversa. Comecemos por fixar um autovalor λ com-plexo (e com parte imaginária não nula) de A. Observamosque nesse caso, dim(E(λ)∩ (Rn)1) = 0. De fato, nesse casoλ 6= λ, e como vimos E(λ) = E(λ). Logo

E(λ) ∩ E(λ) = {0} ⇒ E(λ) ∩ E(λ) = {0},

o que significa que E(λ) (assim como E(λ)) não possuivetores reais.

Page 43: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 27

5. Por outro lado, o espaço E = E(λ) ⊕ E(λ) possui umaintersecção não trivial com (Rn)1. De fato, dado um vetorv = (v1, v2) = v1 + i · v2 ∈ E(λ) sua parte real v1 pertencea E, bem como sua parte imaginária v2:

v1 = (v + v)/2 ; v2 = (v − v)/(2 · i),

o que em outras palavras quer dizer que (v1, 0) ∈ E∩(Rn)1

e que também (v2, 0) ∈ E ∩ (Rn)1.

6. Observe que se w1, . . . , wdλ constituem uma base que deixaA|E(λ) na forma de Jordan (complexa), o mesmo pode serdito de w1, . . . , wdλ com respeito a A

E(λ). Dado v ∈ E,

designemos sua parte real por v′ e sua parte imaginária porv′′ que, como vimos acima, pertencem também a E∩(Rn)1.

Portanto, dada a base η de E dada por w1, . . . , wdλ , w1, . . . , wdλos vetores w′1, w′′1 , . . . , w′dλ , w

′′dλ

constituem uma base γλ deE como espaço complexo, bem como de E ∩ (Rn)1, comoespaço sobre R. De fato, para ver isso, basta observar que oconjunto {w′1, w′′1 , . . . , w′dλ , w

′′dλ} gera a base η acima, e tem

a cardinalidade da dimensão (complexa) de E, logo taisvetores são linearmente independentes (olhando-os comovetores complexos). Ou seja, tais vetores constituem umabase do espaço complexo E. Mas se são linearmente in-dependentes sobre o corpo dos complexos, (sendo tambémvetores reais), também o são sobre o corpo dos reais. Comoa dimensão real de E ∩ Rn é (no máximo) 2 · dλ, isso im-plica a afirmação de que {w′1, w′′1 , . . . , w′dλ , w

′′dλ} são uma

base de E ∩ (Rn)1, como espaço real.

7. Agora só falta mostrar que na base γλ A|E∩(Rn)1tem a

forma de Jλ do enunciado. Isto é obtido por cálculo direto,

Page 44: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

28 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

pois sabemos qual a representação de A na base η de E ecomo ela se relaciona com a base (como espaço sobre R)γλ. Realmente, temos que

(A|E)η =

λ c1 0 . . . 0

0. . . . . .

...... . . . λ 0

λ c1 0

. . . . . .

0 . . . 0 λ

,

onde c1, . . . , cdλ−1 são constantes que podem ser igual azero ou 1. A j−ésima coluna (1 ≤ j ≤ dλ) acima é arepresentação de A|E · wj na base η. Do mesmo modo, a(dλ+j)- ésima coluna (1 ≤ j ≤ dλ) acima é a representaçãode A|E · wj na base η.

Temos, por exemplo, que:

A · w′1A · w1 + Aw1

2=λ · w1 + λ · w1

2=

(escrevendo λ = a+ bi)

(a+ bi) · (w′1 + i · w′′1 ) + (a− bi) · (w′1 − i · w′′1 )

2= a·w′1−b·w′′1 .

Similarmente, calculamos que A · w′′1 = b · w′1 + a · w′′1 . Sócom essas contas, já obtivemos que

(A|E∩(Rn)1)γλ =

a b ? . . .

−b a ?

0 0 ?...

... ?

.

Page 45: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 29

Temos, atuando A em w′2 e w′′2 :

A·w′2 =A · w2 + A · w2

2=c1 · w1 + λ · w2 + c1 · w1 + λw2

2=

c1 · w′1 + a · w′2 − b · w′′2 ;

A·w′′2 =A · w2 − A · w2

2i=c1 · w1 + λ · w2 − c1 · w1 − λw2

2i=

c1 · w′′1 + b · w′2 + a · w′′2 .

Tais computações já nos dão a forma:

(A|E∩(Rn)1)γλ =

a b c1 0 ? . . .

−b a 0 c1 ?

0 0 a b ?...

... −b a ?

0 0 0 0 ?

.

Prosseguindo nessas mesmas contas, obtemos a forma dese-jada, justapondo as (sub)bases γ e as diversas γλ de modoa obter uma base de (Rn)1.

Observação 1.14. Quando tratarmos de operadores reais, de-signaremos por E(λ) o autoespaço generalizado real associado aλ, se λ for real. Caso contrário, abusando um pouco da notação,designaremos por E(λ) a soma dos espaços complexos associadosa λ e λ, intersectada com (Rn)1 ' Rn.

Page 46: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

30 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

1.1 Avaliando polinômios em matrizes

Considere uma matriz quadrada Jλ de dimensão dλ · dλda forma

Jλ :=

λ 1 0 . . . 0

0. . . . . . . . .

......

. . . . . . . . . 0

0 . . . 0 λ 1

0 . . . 0 λ

Considere um polinômio qualquer da forma f(x) =∑kn=0 anx

n.Que matriz obtemos se avaliarmos esse polinômio na matriz Jλ?

Afirmamos que obtemos a matriz

f(Jλ) =

f(λ) Df(λ) D2f(λ)2

D3f(λ)3! . . . Dd−1f(λ)

(d−1)!

0 f(λ) Df(λ) D2f(λ)2

......

. . . . . ....

.... . . . . .

......

. . . Df(λ)

0 . . . . . . . . . 0 f(λ)

.

De fato, denotando por N a parte nilpotente da matrizJλ, do binômio de Newton temos que

(λI +N)n = {n∑p=0

(np

)(λn−pINp)}.

Page 47: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

1.1. Avaliando polinômios em matrizes 31

Como a matriz

Np =

0 . . . 1 0 . . . 0...

. . . . . ....

0 1

0 . . . 0

,

com a p−ésima diagonal acima da diagonal principal formada de1’s, e o restante das entradas da matriz zerada, temos que

{n∑p=0

(np

)(λn−pINp)} =

λn nλn−1 D2f(λ)2

D3f(λ)3!

. . . Dd−1f(λ)(d−1)!

0 f(λ) nλn−1 D2f(λ)2

......

. . .. . .

......

. . .. . .

......

. . . nλn−1

0 . . . . . . . . . 0 λn

.

Como f(Jλ) =∑kn=0

∑np=0 an

(np

)(λn−pINp), segue-se

a interessante afirmação.

Agora, suponha que temos uma matriz na forma de Jor-dan, digamos

J =

Jλ1

0 . . . 0

0 Jλ2

. . ....

.... . . . . . 0

0 . . . 0 Jλs

,

onde cada Jλj é uma submatriz quadrada da forma λjI + Nj ,com Nj uma matriz nilpotente, com 1’s ou 0’s na diagonal ime-diatamente acima da principal.

Page 48: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

32 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

Claro está que a projeção sobre o autoespaço generali-zado associado ao autovalor λ1 é simplesmente

Πλ1=

(Id1 0

0 0

),

onde Id1 é uma submatriz tipo identidade de mesma dimensãod1 × d1 que Jλ1

.

Supondo que sejamos masoquistas, como podemos ob-ter Πλ1

a partir de um polinômio f avaliado em J? Ora, bastaencontrarmos um polinômio que se anule em λ2, . . . , λs, que seja1 em λ1 e cujas derivadas de ordem, digamos, até max{dj , j =

1, . . . , s}, se anulem em λ1, . . . , λs. Do que vimos mais acima, talimplicará que

f(J) =

(Id1 0

0 0

).

E se A fosse uma matriz qualquer? Ah, agora vem aparte em que deixamos de ser masoquistas, pois a projeção so-bre um determinado autoespaço generalizado não é trivialmentedada. Ora, sabemos que a matriz A é equivalente a uma ma-triz de Jordan, ou seja, existe uma matriz invertível P tal queA = PJP−1. Mas aí, f(A) = Pf(J)P−1 é tal que

f2(A) = P (f(J))2P−1 = Pf(J)P−1,

o que implica que f(A) é uma projeção. Ademais, da conjugaçãovemos ainda que f(A) zera exatamente nos autoespaços gene-ralizados não associados a λ1, e é a identidade em E(λ1). Paraver isso, observe primeiro que da comutatividade entre A e f(A)

segue-se que f(A)(E) := E1 é um espaço A−invariante:

A(E1) = A(f(A)(E)) = f(A)(A(E)) ⊂ f(A)(E) = E1.

Page 49: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

1.2. Exercícios 33

Ademais, vê-se que E1 = f(A)E está contido no ker((A−λ1I)d1):

(A− λ1)d1f(A)(E) = (Af(A)− λ1f(A))d1(E) =

(PJP−1Pf(J)P−1 − λ1Pf(J)P−1)d1(E) =

(P (Jf(J)− λ1f(J))P−1)d1

(E) =

P (Jf(J)− λ1f(J))d1P−1(E) =

P (Jf(J)− λ1f(J))d1(E) = 0

Usando de estimativa análoga para a soma dos demais subes-paços de A, concluímos por argumento de dimensão que E1 =

ker((A− λ1I)d1) = E(λ1).

1.2 Exercícios

1. Seja p(x) = a0 + a1x+ · · ·+ an−1xn−1 + xn um polinômio

mônico de grau n Seja A a matriz companheira de p, istoé, a matriz

A :=

0 . . . 0 −a0

1. . .

... −a1

0. . . . . .

......

. . . 1 0 −an−2

0 . . . 0 1 −an−1

cujo polinômio característico (façam as contas!) é p.

Se n ≥ 2 e p possui uma única raiz λ1 com multiplicidaden, qual é a forma de Jordan de A?

2. Sejam λ1 e λ2 dois números complexos. Encontre um po-linômio que seja 1 em λ1, seja 0 em λ2, e sua primeira

Page 50: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

34 Capítulo 1. Uma visão de Álgebra Linear via Funções de Operadores

derivada se anule em λ1 e λ2. E se pedirmos que todas assuas derivadas até uma certa ordem k ≥ 1 se anulassemem λ1 e λ2?

3. Seja A a matriz dada por

A :=

3 1 1

0 3 1

0 0 1

.

Encontre um polinômio que, avaliado em A, retorne a pro-jeção com respeito ao autoespaço associado ao autovalor3.

Page 51: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

35

2 Funções Analíticas

Vimos no capítulo anterior que avaliando polinômiosem matrizes, podemos calcular suas projeções com respeito acada autoespaço generalizado. Notamos que os polinômios usa-dos para esse fim não eram únicos: qualquer polinômio que fosse 1no autovalor λ cujo autoespaço (generalizado) quiséssemos cal-cular e zerasse suas derivadas no mínimo até certa ordem emtodos os autovalores, além de zerar nos demais autovalores, ser-viria para calcular o autoespaço generalizado E(λ). Isso sugereque se conseguíssemos avaliar um operador em funções mais com-plicadas, que fossem 1 em uma vizinhança de λ e zero em umavizinhança dos demais autovalores, tal avaliação geraria a mesmaprojeção sobre E(λ) que os polinômios de que falamos.

O problema é: como fazer uma tal avaliação? Para ver-mos como, precisamos estudar uma classe maior de funções quea dos polinômios, a saber, a chamada coleção das funções analí-ticas.

E o que são funções analíticas? Grosso modo, são fun-ções com domínio em algum aberto de C que localmente sãodadas por sua série de Taylor, que é uma série cujas somas re-duzidas são polinômios. Exemplos bem conhecidos de funçõesanalíticas, além dos polinômios, são a exponencial, o logaritmo eas funções racionais (quocientes de polinômios). As funções tri-gonométricas (ex.: seno, cosseno) são compostas de polinômioscom a exponencial, ou quociente de tais compostas. Observamosque no caso da exponencial, a função consegue ser calculada glo-

Page 52: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

36 Capítulo 2. Funções Analíticas

balmente por sua série de Taylor (a qual converge em todo oplano complexo), funcionando na prática como se fosse um po-linômio de grau infinito. Nesse caso, veremos que poderíamosavaliar a exponencial em qualquer matriz, sem problemas, subs-tituindo na série como se o faríamos se tivéssemos um polinômio.Todavia, este está longe de ser o caso geral. Em geral, o fato daconvergência ser só local, nos impede de avaliar uma função dessetipo numa matriz dada (a série obtida pode não convergir).

Contudo, as funções analíticas possuem uma outra re-presentação, esta semiglobal, a fórmula Integral de Cauchy, naqual faz sentido substituir uma matriz. Será ela que utilizare-mos para definir nosso homomorfismo de avaliação em espaçosde operadores lineares.

A Fórmula Integral de Cauchy é parte fundamental dachamada Teoria de Cauchy-Goursat de aplicações holomorfas.Em princípio, uma aplicação f definida em um aberto U de C éholomorfa, se seus quocientes de Newton (f(z)− f(z0))/(z− z0)

em cada ponto z0 de U , avaliados com o produto em C con-vergem a um limite, quando z → z0, chamado de derivada ho-lomorfa em z0. A Teoria de Cauchy-Goursat tem em sua basea seguinte questão: quando uma aplicação holomorfa em cadaponto de um aberto é a derivada de alguém? Essa é uma per-gunta clássica, que segue o sabor do Teorema Fundamental doCálculo e de fato o traz no âmago de sua solução. Adiantamosque toda aplicação holomorfa é a derivada holomorfa de alguém.Claro, uma vez que uma aplicação seja a derivada de uma outra,é fácil recuperar esta última (a partir de sua derivada) aplicandoo Teorema Fundamental do Cálculo a sua restrição a caminhos.Veremos que ainda mais interessante, é o que ocorre quando a

Page 53: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2.1. Sequências e séries em Espaços de Banach 37

aplicação falha em ser derivada de outra. De fato, tal estudo nosconduzirá à Fórmula Integral de Cauchy de que já falamos, eainda a descoberta que toda aplicação holomorfa é analítica.

Apresentaremos ainda o espaço de Banach das Aplica-ções lineares Contínuas e suas propriedades, alvo principal donosso curso. Nas duas últimas seções do capítulo introduziremosa noção de Integração de caminhos tomando valores em espaçosde Banach, além de generalizarmos a teoria de Cauchy-Goursatpara o contexto destes espaços.

Abaixo, damos definições mais precisas desses objetos.Em vez de considerarmos funções analíticas tomando valorestambém em C, desenvolveremos os conceitos num contexto umpouco mais geral, deixando o domínio em Cmas tomando valoresem um espaço de Banach complexo.

2.1 Sequências e séries em Espaços de Banach

Definição 2.1. (Métrica e espaço métrico.) Uma métricaem um conjunto X é uma função d : X ×X → [0,+∞) tal que,dados quaisquer x, y, z ∈ X, valem:

d1) d(x, y) = 0⇔ x = y.

d2) d(x, y) = d(y, x).

d3) d(x, z) ≤ d(x, y) + d(y, z) (desigualdade triangular).

O par ordenado (X, d) é chamado de espaço métrico.Em geral, por um abuso de linguagem, diz-se que X é um espaçométrico, subentendendo-se uma métrica d a ele associada.

Page 54: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

38 Capítulo 2. Funções Analíticas

Definição 2.2. (Bola aberta e conjunto aberto de umespaço métrico.) Seja (X, d) um espaço métrico. Dado x ∈ Xe r ∈ R+ quaisquer definimos a bola aberta centrada em x e deraio r como o conjunto

B(x, r) := {y ∈ X; d(x, y) < r}.

Dizemos que A ⊂ X é um conjunto aberto de X se A pode serescrito como união qualquer de bolas abertas de X. Dizemos queum conjunto F ⊂ X é fechado em X se F c := X \ F é aberto.

Definição 2.3. (Norma.) Seja (E,+, .,R) um espaço vetorialreal ou complexo. Uma norma em E é uma aplicação ‖ · ‖ : E →[0,+∞) tal que:

n1) ‖v‖ = 0⇔ v = 0;

n2) ‖λv‖ = |λ| · ‖v‖; ∀λ ∈ R, ∀v ∈ E.

n3) ‖v +w‖ ≤ ‖v‖+ ‖w‖;∀v, w ∈ E (desigualdade triangular).

O exemplo mais comum de espaço métrico é dado pelosespaços vetoriais normados. Se E é um tal espaço, dotado deuma norma ‖ · ‖, então a aplicação d : E × E → [0,+∞) dadapor

d(v, w) := ‖v − w‖,∀v ∈ E,w ∈ E;

define uma métrica em E.

Outra classe importante de exemplos de espaços métri-cos é dada quando tomamos um subconjunto Y ⊂ X de umespaço métrico (X, d). Nesse caso, a restrição d|Y×Y define umamétrica em Y .

Page 55: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 39

Definição 2.4. (Sequência e subsequência.) Seja X umconjunto qualquer. Uma sequência em X é uma aplicação x :

N → X. Denota-se xj := x(j) e (xj) := x. Dada uma sequên-cia (xj) : N → X, uma subsequência (xjk) de (xj) é qual-quer restrição de (xj) a um subconjunto infinito N ⊂ N, N =

{j1, j2, . . . , com j1 < j2 < . . . }.

Definição 2.5. (Sequência convergente.) Uma sequência(xj) em um espaço métrico (Y, d) é dita convergente para y ∈ Yse para toda bola aberta B tal que y ∈ B, tem-se um númerofinito de índices j tais que xj /∈ B. Escrevemos xj → y paradenotar que a sequência (xj) converge a y ∈ Y . Dizemos que umasubsequência (xjk) é convergente se a sequência (yk) : N → Y

definida por yk := xjk ,∀k ∈ N for convergente.

Note que provarmos via definição que uma sequência(xj) é convergente a y ∈ Y envolve várias dificuldades: a pri-meira, é que precisamos exibir o candidato a limite, isto é oponto y ∈ Y para o qual a sequência converge. Mesmo que umadeidade nos apresente esse candidato a limite, comparar os ter-mos xj com y pode não ser fácil, vez que frequentemente os xjsão dados por meio de alguma fórmula indutiva. Essa dificuldadenos leva a fazer uma definição, digamos, a meio caminho.

Definição 2.6. (Sequência de Cauchy.) Seja (Y, d) um es-paço métrico. Uma sequência (yn), com yn ∈ Y,∀n ∈ N é ditasequência de Cauchy se dado um real ε > 0, existe n0 ∈ N tal quepara todos m, j ∈ N, com m ≥ n0 e j ≥ n0 temos d(ym, yj) ≤ ε.

Toda sequência convergente a um ponto é de Cauchy.Por outro lado, toda sequência de Cauchy com subsequência con-vergente a um ponto converge a esse mesmo ponto. Tais fatos são

Page 56: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

40 Capítulo 2. Funções Analíticas

deixados ao leitor como exercícios (ex. 6 e 7). Note que provarque uma sequência é de Cauchy é muito mais fácil que prová-la convergente, pois não precisamos conhecer a priori o limite,e precisamos para tal comparar os termos da sequência entresi, e estes são dados, muitas vezes, por fórmulas indutivas quefavorecem sua comparação.

Definição 2.7. (Série.) Seja (vn) : N → E uma sequência to-mando valores em um espaço vetorial normado E. A série geradapor (vn), denotada por

∑vn, é a sequência (sn) definida por:

sn :=

n∑j=1

vj .

Tal sn é chamada de soma reduzida ou, simplesmente, reduzida.A série

∑vn é portanto, a sequência das reduzidas.

Observação 2.8. (Critério de Cauchy para Séries.) Se umasérie

∑vn é de Cauchy, então temos que dado ε > 0, existe

n0 ∈ N tal que vale:

‖m∑j=1

vj −n∑j=1

vj‖ = ‖m∑

j=n+1

vj‖ < ε,∀m ≥ n ≥ n0.

Proposição 2.9. Seja∑vn uma série de Cauchy, com vn ∈ E,

E um espaço vetorial normado. Então vn → 0 quando n→ +∞.

Prova:

Definição 2.10. (Série absolutamente convergente.) Uma série∑vn : N→ E, tomando valores em um espaço vetorial normado

(E, ‖ · ‖) é dita absolutamente convergente se a série∑‖vn‖ :

N→ [0,+∞) converge na reta.

Page 57: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 41

Observação 2.11. Note que uma série∑vn é absolutamente

convergente se. e só se, a série∑‖vn‖ é limitada (acotada). De

fato, as somas reduzidas de∑‖vn‖ constituem uma sequência

monótona na reta, que sendo acotada, possui limite. Por outrolado, se a série

∑‖vn‖ possui limite, como qualquer sequência

que o possua, é acotada.

Proposição 2.12. Toda série absolutamente convergente∑vn

tomando valores em um espaço vetorial normado E é de Cauchy.

Prova: Seja ε > 0 dada. Como a série∑‖vn‖ converge,

em particular, é de Cauchy. Logo, existe n0 ∈ N tal que, ∀m ≥n ≥ n0 temos:

|m∑j=1

‖vj‖ −n∑j=1

‖vj‖| =m∑

j=n+1

‖vj‖ < ε.

Da desigualdade triangular, temos

‖m∑j=1

vj −n∑j=1

vj‖ ≤m∑

j=n+1

‖vj‖ < ε,∀m ≥ n ≥ n0,

donde concluímos que∑vn é de Cauchy.

Corolário 2.13. Um espaço vetorial (E, ‖ · ‖) é completo se esó se toda série absolutamente convergente é convergente.

Prova: (⇒) Se∑vn é absolutamente convergente, vi-

mos acima que é uma sequência de Cauchy. Logo, se (E, ‖ · ‖) écompleto,

∑vn é convergente em E.

(⇐) Agora suponha que toda série absolutamente con-vergente converge em E. Seja wn uma sequência de Cauchy em

Page 58: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

42 Capítulo 2. Funções Analíticas

E. Para cada j ∈ N, dado εj = 1/2j , tome então uma sequênciaestritamente crescente (nj) : N→ N tal que

∀m,n ≥ nj ⇒ ‖wm − wn‖ < εj .

Em particular, concluímos que

‖wnj+1 − wnj‖ < εj = 1/2j ,∀j ∈ N.

Definindo vj := wnj+1 − wnj , concluímos que

k∑j=1

‖vj‖ <k∑j=1

1/2j < 1,∀k ∈ N,

ou seja,∑‖vj‖ é limitada, e pela observação 2.11, é absoluta-

mente convergente. Por hipótese, isto implica que a série∑vj

converge em E. Mas seu limite é:

E 3 limk→+∞

k∑j=1

wnj+1 − wnj = limk→+∞

(wnk+1− wn1) =

( limk→+∞

wnk+1)− wn1 ,

o que implica que wn possui uma subsequência convergente emE, a saber, (wnj+1

). Como (wn) é de Cauchy, isso implica que(wn) converge em E.

Proposição 2.14. (Critério de Comparação.) Seja (E, ‖ · ‖)um espaço vetorial normado e sejam

∑vn e

∑wn duas séries

com valores em E, sendo∑wn absolutamente convergente. Se

existe n0 ∈ N tal que ‖vn‖ ≤ ‖wn‖,∀n ≥ n0, então∑vn é

absolutamente convergente.

Page 59: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 43

Prova:

Seja ε > 0 dado, e tome n1 ∈ N, n1 ≥ n0, tal que

|n∑j=0

‖wj‖ −m∑j=0

‖wj‖| =m∑

j=n+1

‖wj‖ < ε/2,∀m ≥ n ≥ n1.

Como ‖vn‖ ≤ ‖wn‖,∀n ≥ n0, temos que

|n∑j=0

‖vj‖−m∑j=0

‖vj‖| =m∑

j=n+1

‖vj‖ ≤m∑

j=n+1

‖wj‖ < ε/2,∀m ≥ n ≥ n1.

Portanto∑‖vn‖ é de Cauchy na reta, logo convergente

em R. Por definição,∑vn é absolutamente convergente.

Observação 2.15. Notamos na prova acima, que dado ε > 0, efazendo m→ +∞,

|n∑j=0

‖vj‖ −+∞∑j=0

‖vj‖| ≤ ε/2 < ε,∀n ≥ n1.

Ou seja, dado ε > 0, o mesmo n1 ∈ N, n1 ≥ n0 daconvergência de

∑‖wn‖ vale para

∑‖vn‖, desde que ‖vn‖ ≤

‖wn‖,∀n ≥ n0.

Corolário 2.16. (Teste da raiz.) Seja (E, ‖ · ‖) um espaço ve-torial normado e seja

∑vn : N→ E uma série tal que

lim supn→+∞

n√‖vn‖ < 1.

Então∑vn é absolutamente convergente.

Prova: Seja α = lim supn→+∞n√‖vn‖ e ε0 > 0 tal que

α+ ε0 < 1

Page 60: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

44 Capítulo 2. Funções Analíticas

Daí, existe n0 tal que

n√‖vn‖ < α+ ε0,∀n ≥ n0 ⇒ ‖vn‖ < (α+ ε0)n,∀n ≥ n0.

Portanto, existe n0 ∈ N tal que o termo ‖vn‖ é acotadopelo termo da progressão geométrica (convergente) de razão (α+

ε0) < 1. Da proposição acima, segue-se o resultado.

Corolário 2.17. (Teste da razão.) Seja (E, ‖ · ‖) um espaçovetorial normado e seja

∑vn : N → E uma série. Se existe

n0 ∈ N tal que ‖vn‖ 6= 0, ∀n ≥ n0, e tomando n ≥ n0 va-lha que lim supn→+∞

‖vn+1‖‖vn‖ < 1, então

∑vn é absolutamente

convergente.

Prova:

Proposição 2.18. Seja f(z) :=∑+∞n=0 an(z−z0)n uma série de

potências. Se∑an(z1− z0)n é limitada, então a série

∑an(z−

z0)n converge, ∀z ∈ B(z0, |z1 − z0|).

Prova:

Definição 2.19. (Aplicação analítica.) Seja U ⊂ C um aberto eE um espaço vetorial normado complexo. Uma função f : U →E é dita analítica se para cada z0 ∈ U , existe uma série depotências

∑n an(z − z0)n com raio de convergência Rz0 > 0 tal

que f(z) =∑+∞n=0 an(z − z0)n, ∀z ∈ B(z0, Rz0).

Page 61: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 45

Proposição 2.20. Seja E um espaço vetorial normado completoe f : B(z0, R) → E uma série de potências, isto é, f(z) =∑+∞n=0 an(z − z0)n, ∀z ∈ B(z0, R), R > 0. Então f é analítica.

Prova: Seja w0 ∈ B(z0, R). Precisamos mostrar que fse escreve localmente como uma série de potências em torno dew0. Para isso, tomemos r < R− |z0|, e provemos que existe umatal série convergindo uniformemente em B(w0, r).

Vejamos:

f(z) =

+∞∑n=0

an(z − z0)n =

+∞∑n=0

an(z − w0 + w0 − z0)n =

+∞∑n=0

an

n∑j=0

(nj

)(w0 − z0)n−j(z − w0)j .

Note que a série acima é absolutamente e uniformemente contí-nua, pois

|an|(|z − w0|+ |w0 − z0|)n ≤ |an|rn,∀n ∈ N.

Assim qualquer reenumeração da sequência que gera a série∑n

∑0≤j≤n

an

(nj

)(w0 − z0)n−j(z − w0)j

converge a um mesmo limite. Em particular,

f(z) =

+∞∑j=0

(

+∞∑n=j

an

(nj

)(w0 − z0)n−j)︸ ︷︷ ︸

:=bj

(z−w0)j =:

+∞∑j=0

bj(z−w0)j ,

com a série acima convergindo uniformemente para z ∈ B(z0, r).

Page 62: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

46 Capítulo 2. Funções Analíticas

Definição 2.21. Seja E um espaço vetorial normado. Umasequência dupla tomando valores em E é uma aplicação (cn,k) :

N×N→ E. A série dupla gerada por (cn,k) é a sequência dupla(sn,k) (denotada por

∑n,k cn,k) definida por:

sn,k :=

n∑m=0

k∑j=0

cm,j .

Finalmente, a série dupla∑n,k cn,k converge a s ∈ E se existe o

limite

limn→+∞,k→+∞

n∑m=0

k∑j=0

cm,j .

Proposição 2.22. (Produto de séries.) Sejam∑an e

∑bk duas

séries absolutamente convergentes. Seja dq :=∑qn=0

∑nj=0 aj ∗

bn−j. Então a série dupla∑n,k an ∗ bk é absolutamente conver-

gente e vale

limn→+∞,k→+∞

n∑m=0

k∑j=0

am ∗ bj = limq→+∞

dq.

Prova: Note que a série dupla∑n,k an · bk é absoluta-

mente convergente, pois

n∑m=0

k∑j=0

|am∗bj | =n∑

m=0

|am|∗k∑j=0

|bj | ≤+∞∑m=0

|am|∗+∞∑j=0

|bj | < +∞,∀n, k ∈ N.

Daí, concluímos que∑dn é uma série absolutamente

convergente. Para vermos isso, basta verificarmos que∑|dn| é

limitada. De fato,

n∑q=0

|dq| ≤n∑q=0

q∑j=0

|aj ||bn−j | ≤n∑

m=0

n∑j=0

|am∗bj | ≤+∞∑m=0

|am|∗+∞∑j=0

|bj | < +∞.

Page 63: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 47

Mostremos portanto que o limite de∑dq é o mesmo que o de∑

n,k an ∗ bk. Seja ε > 0 dado e seja n0 ∈ N tal que ∀n ≥ n0 e∀k ≥ n0, tenhamos

|n∑

m=0

k∑j=0

|am ∗ bj | −n0∑m=0

n0∑j=0

|am ∗ bj || < ε/2,∀n ∈ N

Seja então n1 = 2n0. Daí, dado qualquer (m, j) ∈ {0, . . . , n0} ×{0, . . . , n0}, temos que a parcela am ∗ bj é parcela da soma∑qn=0

∑nj=0 aj ∗ bn−j , ∀q ≥ n1. Assim sendo,

‖q∑

n=0

n∑j=0

aj ∗ bn−j −n0∑m=0

n0∑j=0

am ∗ bj‖ ≤ |q∑

m=0

q∑j=0

|am ∗ bj |−

n0∑m=0

n0∑j=0

|am ∗ bj || < ε/2,∀q ≥ n1,

donde concluímos por argumento de desigualdade triangular oresultado.

Definição 2.23. (Aplicação contínua.) Sejam (X, d) e (X, d)

dois espaços métricos. Uma aplicação f : X → X é dita contínuano ponto x ∈ X se dado ε > 0 existe δ > 0 tal que

y ∈ X, d(x, y) < δ ⇒ d(f(x), f(y)) < ε.

A aplicação f : X → X é dita contínua se é contínua∀x ∈ X.

Observação 2.24. É imediato da definição acima que uma apli-cação f : X → X é contínua, se e só se, a pré-imagem de qualqueraberto de X é sempre um subconjunto aberto de X.

Page 64: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

48 Capítulo 2. Funções Analíticas

Observação 2.25. Ainda em contextos métricos, é possível pro-var que uma aplicação f : X → X é contínua em x ∈ X se e sóse f é sequencialmente contínua em x ∈ X. Por definição, f édita sequencialmente contínua em x ∈ X se dada uma sequência(xn), xn ∈ X tal que xn → x quando n→ +∞ então a sequência(f(xn)) converge a f(x).

Definição 2.26. (Espaço métrico completo.) Um espaço mé-trico (X, d) é dito completo se toda sequência de Cauchy (xn),com xn ∈ X, converge para um ponto x ∈ X.

Definição 2.27. (Espaço de Banach.) Um espaço vetorialnormado cuja métrica oriunda da norma é completa é chamadode espaço de Banach.

Exemplo 2.28. Seja X = Rk, e ‖ · ‖ : Rk → [0,∞) uma normaqualquer. Prova-se que X com a métrica dada por d(v, w) :=

‖v − w‖,∀v, w ∈ Rk é um espaço métrico completo, e portanto,um espaço de Banach. Tal fato segue-se de que toda sequêncialimitada em Rk possui uma subsequência convergente (teoremade Bolzano-Weierstrass).

Definição 2.29. (Aplicação lipschitziana.) Sejam (X, d) e(X, d) espaços métricos. Uma aplicação F : X → X é dita serlipschitziana ou simplesmente Lipschitz se existe 0 ≤ λ tal que

d(F (x), F (y)) ≤ λ · d(x, y),∀x, y ∈ X.

Dizemos que λ é uma constante de Lipschitz de F . Denotamoso ínfimo das constantes de Lipschitz de F por Lip(F ), o qual é,ele mesmo, uma constante de Lipschitz.

Observação 2.30. Notamos que as aplicações lipschitzianas sãocontínuas: Se F é uma tal aplicação, supondo sem perda λ > 0,

Page 65: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 49

dados x ∈ X, ε > 0, tomando δ = ε/λ, temos

d(x, y) < δ ⇒ d(F (x), F (y)) ≤ λ · d(x, y) < λ · ε/λ = ε.

Observação 2.31. Se X, Y e Z são espaços métricos, com f :

X → Y e g : Y → Z ambas lipschitzianas, então a compostah = g ◦ f : X → Z também é Lipschitz com

Lip(g ◦ f) ≤ Lip(g) · Lip(f).

Uma subclasse relevante de aplicações Lipschitz é cons-tituída pelas contrações de um espaço métrico nele mesmo:

Definição 2.32. (Contração.) Seja (X, d) espaço métrico. Umaaplicação F : X → X é dita uma contração se existe 0 ≤ λ < 1

tal que

d(F (x), F (y)) ≤ λ · d(x, y),∀x, y ∈ X.

O próximo resultado corresponde à principal ferramentapara construir objetos em dimensão infinita, onde, ao contráriodo que ocorre no Rn, argumentos de compacidade são quasesempre inviáveis.

Teorema 2.33. (Ponto fixo para contrações.) Sejam (X, d)

um espaço métrico completo e F : X → X uma contração. Entãoexiste um único ponto p ∈ X tal que F (p) = p. Ademais, talponto fixo p é um atrator de F , isto é, fixado qualquer x ∈ X,Fn(x) → p quando n → +∞. (Fn(x) é definido indutivamentepor Fn(x) := F (Fn−1(x)).)

Prova: Sejam x ∈ X e xn = Fn(x), n ∈ N. Provaremosque xn é uma sequência de Cauchy. Para tal, primeiro mostremos

Page 66: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

50 Capítulo 2. Funções Analíticas

por indução que existe 0 ≤ λ < 1 tal que

d(xn+1, xn) ≤ λn · d(x1, x0),∀n ∈ N.

De fato, como F é contração, temos que existe λ < 1

tal que:

d(xn+1, xn) = d(F (xn), F (xn−1)) ≤ λ · d(xn, xn−1),

o que já implica a fórmula de indução para n = 1 (o caso n = 0

é trivial). Supondo a fórmula válida para um certo n ∈ N, paran+ 1, da última desigualdade, temos:

d(xn+2, xn+1) ≤ λ·d(xn+1, xn) ≤︸︷︷︸hip. indução

λ·λnd(x1, x0) = λn+1·d(x1, x0),

o que prova a indução desejada.

Dados m ≥ n, temos portanto:

d(xm, xn) ≤ (λn + · · ·+ λm) · d(x1, x0)

≤ (

+∞∑j=n

λj) · d(x1, x0) =λn

1− λd(F (x), x),

o que prova que xn é uma sequência de Cauchy, e como X é com-pleto, tal sequência converge, digamos, para p ∈ X. Afirmamosque p é ponto fixo de F . Realmente,

F (p) = F ( limn→+∞

xn) = limn→+∞

F (xn) = limn→+∞

xn+1 = p.

Notamos que a segunda igualdade acima se dá porque toda con-tração é contínua, e a última desigualdade se dá porque em umasequência convergente toda subsequência converge para o mesmolimite.

Page 67: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 51

É fácil ver que p é o único ponto fixo de F . De fato, sep, q ∈ X são pontos fixos de F , temos:

d(p, q) = d(F (p), F (q)) ≤ λ · d(p, q)⇒

(1− λ) · d(p, q) ≤ 0⇒ d(p, q) = 0⇔ p = q,

findando a prova do teorema.

Observação 2.34. Assinalamos que se p é o único ponto fixo deum iterado Fm,m ≥ 1 de uma aplicação F : X → X qualquer,então p é o único ponto fixo de F . De fato:

Fm(p) = p⇒ Fm(F (p)) = F (Fm(p)) = F (p),

ou seja, se p e F (p) são pontos fixos de Fm(p), logo F (p) = p.Isso é muito útil, pois nem sempre F é uma contração, mas mui-tas vezes um seu iterado é. Assim, a existência e unicidade pre-conizadas no teorema do ponto fixo para contrações continuamválidas para F se apenas um iterado positivo de F for contração.

Observação 2.35. (Continuidade do ponto fixo.) Seja X umespaço métrico. Suponha que X seja limitado, e seja d∞(F,G) adistância uniforme entre duas aplicações F,G : X → X. Se F eG são contrações em X, com p e q seus respectivos pontos fixos,vale que

d(p, q) = d(F (p), G(q)) ≤ d(F (p), F (q)) + d(F (q), G(q))

≤ λd(p, q) + d∞(F,G)⇒

d(p, q) ≤ 1

1− λd∞(F,G),

ou seja, os pontos fixos variam Lipschitz com a contração, emparticular, continuamente.

Page 68: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

52 Capítulo 2. Funções Analíticas

2.2 O Espaço Normado das Aplicações Lineares Contí-nuas

Uma aplicação A : E → E entre espaços vetoriais E eE sobre um corpo K é dita contínua se A(c · v +w) = c · v +w,para todo escalar c ∈ K e quaisquer vetores v, w ∈ E.

Um exemplo importante de aplicações Lipschitz é dadopelas aplicações lineares contínuas entre espaços vetoriais, comoveremos na próxima proposição.

Proposição 2.36. Sejam E, E espaços vetoriais normados. Asseguintes assertivas são equivalentes no que tange uma aplicaçãolinear L : E → E:

1. L é contínua;

2. L é contínua em algum ponto x0 ∈ E;

3. L é contínua em 0 ∈ E;

4. Existe um número real c > 0 tal que ‖L(x)‖ ≤ c,∀x ∈ Ecom ‖x‖ = 1.

5. L é aplicação Lipschitz, ou seja, existe um número realc > 0 tal que ‖L(x)− L(y)‖ ≤ c · ‖x− y‖,∀x, y ∈ E.

Prova:

As implicações 5⇒ 1⇒ 2 são claras. Resta-nos mostrarportanto 2 ⇒ 3 ⇒ 4 ⇒ 5.

(2 ⇒ 3) Seja ε > 0 dado. Como L é contínua em x0,existe δ > 0 tal que

‖x− x0‖ < δ ⇒ ‖L(x)− L(x0)‖ < ε.

Page 69: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2.2. O Espaço Normado das Aplicações Lineares Contínuas 53

Dado qualquer y ∈ E tal que ‖y − 0‖ = ‖y‖ < δ, podemosescrever:

‖y‖ < δ ⇔ ‖(y + x0)− x0‖ < δ ⇒ ‖L(y + x0)− L(x0)‖ < ε⇔

‖L(y)− L(x0 − x0)‖ = ‖L(y)− L(0)‖ < ε,

ou seja, L é contínua em 0 ∈ E.

(3 ⇒ 4) Provemos essa sentença por absurdo. Suponhaque para cada j ∈ N, exista xj ∈ E com ‖xj‖ = 1 tal que

‖L(xj)‖ ≥ j,∀j ∈ N.

Considere a sequência yj = (1/j) · xj . Como

‖yj‖ =1

j· ‖xj‖ =

1

j→ 0, quando j → 0,

da continuidade de L em 0 ∈ E temos que L(yj) → L(0) = 0 ∈E. Contudo, da linearidade de L e das propriedades de normasegue-se

‖L(yj)‖ =1

j· ‖L(xj)‖ ≥

1

j· j = 1,

o que implica que L(yj) 6→ 0, absurdo.

(4 ⇒ 5) Sejam x, y ∈ E. Se x = y, L(x)− L(y) = 0 e adesigualdade é óbvia, para qualquer c > 0. Assim, vamos suporx 6= y. Daí,

‖L(x)−L(y)‖ =‖L(x)− L(y)‖‖x− y‖

·‖x−y‖ = ‖L((x− y)

‖x− y‖)‖·‖x−y‖.

Como‖ (x− y)

‖x− y‖‖ =‖x− y‖‖x− y‖

= 1,

a assertiva 4 implica que

‖L(x)− L(y)‖ = ‖L((x− y)

‖x− y‖)‖ · ‖x− y‖ ≤ c · ‖x− y‖,

ou seja, L é Lipschitz.

Page 70: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

54 Capítulo 2. Funções Analíticas

Proposição 2.37. (Espaço L(E, E)/Norma do operador.)Sejam E e E dois espaços vetoriais normados. Então

L(E, E) := {T : E → E;T é operador linear limitado }

é um espaço vetorial. Ademais a aplicação ‖ · ‖ : L(E, E) →[0,+∞) dada por

‖T‖ := sup{‖T · x‖E : x ∈ E, ‖x‖E = 1}

define uma norma (chamada de norma do operador) em L(E, E).

Prova: Seja b ∈ R (ou C) um escalar e T1 : E → E,T2 : E → E dois operadores lineares. Então claramente T :=

T1 + b · T2 é um operador linear de E em E. Além disso T élimitado, pois se c1 e c2 são as constantes de Lipschitz (videproposição 2.36 acima) respectivamente de T1 e T2, temos

‖T (x)− T (y)‖E ≤ ‖T1(x)− T1(y)‖E + |b|‖T2(x)− T2(y)‖E ≤

c1‖x− y‖E + |b|c2‖x− y‖E ,∀x, y ∈ E,

o que implica que T é Lipschitz com constante c := c1 + |b|c2, eportanto limitado. Tal implica que L(E, E) é um espaço vetorial.

Só resta vermos que a aplicação ‖ · ‖ do enunciado émesmo uma norma em L(E, E). A proposição 2.36 nos garanteque tal aplicação está bem definida em L(E, E), com imagem em[0,+∞). Se T ≡ 0, claramente ‖T‖ = 0. Por outro lado, ‖T‖ = 0

implica que T · x = 0,∀x ∈ E com ‖x‖E = 1. Se v ∈ E, então

‖T · v‖E = ‖T · v

‖v‖E‖E · ‖v‖E ≤ ‖T‖ · ‖v‖E = 0,

donde concluímos que T ≡ 0.

Page 71: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2.2. O Espaço Normado das Aplicações Lineares Contínuas 55

Dado um escalar b ∈ R (ou C), temos que

‖bT‖ = sup{‖bT · x‖E : x ∈ E, ‖x‖E = 1} =

sup{|b|‖T · x‖E : x ∈ E, ‖x‖E = 1} = |b|‖T‖.

Finalmente, dados T1, T2 ∈ L(E, E), a desigualdade triangularvem de

‖T1+T2‖ = sup{‖(T1+T2)·x‖E : x ∈ E, ‖x‖E = 1} ≤

(pela desigualdade triangular em E)

sup{‖T1·x‖E+‖T2·x‖ : x ∈ E, ‖x‖E = 1} ≤

sup{‖T1·x‖E : x ∈ E, ‖x‖E = 1}+sup{‖T2·y‖E : y ∈ E, ‖y‖E = 1} =

‖T1‖+‖T2‖.

Proposição 2.38. Sejam E e E dois espaços vetoriais nor-mados, sendo E de Banach. Então o espaço vetorial L(E, E),dotado da norma do operador, é um espaço de Banach.

Prova: Seja Tn ∈ L(E, E) uma sequência de Cauchy.Em particular, como ‖(Tn−Tm)(v)‖E ≤ ‖Tn−Tm‖‖v‖E , concluí-mos que para cada v ∈ E, (Tn(v)) é uma sequência de Cauchyem E.

Portanto, definamos T : E → E por

T (v) = limn→+∞

Tn(v),∀v ∈ E.

Claramente T é linear:

T (v + w) = limn→+∞

Tn(c · v + w) = limn→+∞

c · Tn(v) + Tn(w) =

Page 72: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

56 Capítulo 2. Funções Analíticas

c· limn→+∞

Tn(v)+ limn→+∞

Tn(w) = c·T (v)+T (w),∀c ∈ R( ou C),∀v, w ∈ E.

Daí, é fácil ver que T ∈ L(E, E). De fato, seja ε > 0, e tomen0 ∈ N tal que ‖Tn − Tm‖ < ε, ∀n,m ≥ n0. Daí, dado v ∈ Ecom ‖v‖ = 1, temos:

‖Tn(v)‖E ≤ ‖Tn‖ ≤ ‖Tn0‖+ ‖Tn − Tn0

‖ < ‖Tn0‖+ ε, ∀n ≥ n0.

A continuidade da norma e a desigualdade acima implicam que‖T (v)‖E ≤ ‖Tn0

‖+ ε, ∀v ∈ E, ‖v‖E = 1, donde

sup‖v‖=1

{‖T (v)‖E} ≤ ‖Tn0‖+ ε⇒ T é limitado.

Só falta vermos que Tn → T na norma do operador.Dado v ∈ E tal que ‖v‖ = 1, vimos acima que ∀n,m ≥ n0, vale:

‖Tn(v)− Tm(v)‖E ≤ ‖Tn − Tm‖ < ε.

Novamente, fazendo m → +∞, fixando n ≥ n0, a continui-dade da norma e a última inequação implicam que ∀v ∈ E, com‖v‖E = 1 vale que ‖Tn(v)− T (v)‖E ≤ ε.

Donde concluímos que ∀n ≥ n0,

sup‖v‖E{‖Tn(v)− T (v)‖E} = ‖Tn − T‖ ≤ ε.

Estamos agora aptos a enunciar e provar importantescorolários do Teorema do Ponto Fixo conhecidos como versõesnão diferenciáveis do teorema da Função Inversa:

Teorema 2.39. (Perturbação da Identidade.) Sejam E umespaço de Banach, I : E → E a identidade em E e seja Φ : E →E uma contração em E. Então I+Φ é um homeomorfismo sobreE.

Page 73: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2.2. O Espaço Normado das Aplicações Lineares Contínuas 57

Prova: Sejam x, y ∈ E e h = I + Φ. Seja 0 < λ < 1 aconstante de Lipschitz de Φ. Então

‖I(x) + Φ(x)− I(y)− Φ(y)‖

≥ ‖x− y‖+ ‖Φ(x)− Φ(y)‖ ≥ ‖x− y‖ − λ · ‖x− y‖ =

(1−λ) · ‖x−y‖ ⇒ ‖h(x)−h(y)‖ ≥ (1−λ) · ‖x−y‖ 6= 0 se x 6= y;

donde obtemos a injetividade de h, e também a continuidadede h−1. Mostremos agora a sobrejetividade de h. Seja z ∈ E.Queremos ver que existe p ∈ E tal que h(p) = z ⇔ p + Φ(p) =

z ⇔ p = z − Φ(p). Por conseguinte definamos fz : E → E porfz(x) = z − Φ(x). Basta então acharmos um ponto fixo p parafz, que teremos h(p) = z. De fato, fz : E → E é contração:

‖fz(x)−fz(y)‖ = ‖z−Φ(x)−z+Φ(y)‖ = ‖Φ(y)−Φ(x)‖ ≤ λ·‖x−y‖.

Como E é espaço normado completo, segue-se do teorema doponto fixo para contrações que existe um único p ∈ E tal queh(p) = z, como queríamos. Isso nos dá ao mesmo tempo a so-brejetividade e uma nova prova da injetividade.

Lema 2.40. Seja E um espaço de Banach, L ∈ L(E,E) satis-fazendo ‖L‖ ≤ a < 1 e G ∈ L(E,E) isomorfismo com ‖G−1‖ ≤a < 1. Então:

a) (I + L) é isomorfismo e ‖(I + L)−1‖ ≤ 1/(1− a);

b) (I +G) é isomorfismo e ‖(I +G)−1‖ ≤ a/(1− a).

Prova:

a) Seja y ∈ E qualquer fixado. Defina u : E → E por

u(x) := y − L(x).

Page 74: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

58 Capítulo 2. Funções Analíticas

Os gráficos de y = x3 e y = x3 − δ2x nos mostram que somando uma contraçãoa um homeomorfismo com inversa não lipschitziana, o resultado pode não serum homeomorfismo. Mostram ademais que a soma de homeomorfismos pode

não ser um homeomorfismo.

Logo

|u(x1)− u(x2)| = |L(x2 − x1)| ≤ a · |x2 − x1|,

o que implica que u : E → E é uma contração. Pelo teo-rema do ponto fixo para contrações,

∃!z ∈ E/u(z) = z ⇔ ∃!z ∈ E/ z = y − L(z)

⇔ ∃!z ∈ E/y = z + L(z),

o que implica que (I + L) é isomorfismo.

Seja y ∈ E com |y| = 1 e seja x ∈ E tal que (L+I)−1(y) =

x. Como x+ L(x) = y, temos que |x| − a · |x| ≤ 1⇒ |x| ≤1/(1− a), donde se conclui que ‖(I + L)−1‖ ≤ 1/(1− a).

b) (I +G) = G · (I +G−1). Como

‖G−1‖ ≤ a < 1 ⇒︸︷︷︸ítem a)

(I +G−1) é inversível.

Page 75: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2.2. O Espaço Normado das Aplicações Lineares Contínuas 59

Daí, (I +G)−1 = (I +G−1)−1 ·G−1, o que implica que

‖(I+G)−1‖ ≤ ‖(I+G−1)−1‖ · ‖G−1‖ ≤ 1

1− a·a =

a

1− a.

Corolário 2.41. (Perturbação de uma aplicação bilips-chitz.) Sejam E, E espaços de Banach e Ψ : E → E uma apli-cação bilipschitz (sobrejetiva), isto é, f é invertível e lipschitzi-ana com inversa também lipschitziana. Seja Φ : E → E Lipschitztal que sua constante de Lipschitz Lip(Φ) < Lip(Ψ−1)−1. EntãoΨ + Φ : E → E é um homeomorfismo (sobrejetivo).

Prova: Considere h : E → E dado por

h := (Ψ + Φ)Ψ−1 = I + Φ ◦Ψ−1.

Dados x, y ∈ E,

‖Φ(Ψ−1(x))− Φ(Ψ−1(y))‖ ≤ Lip(Φ) · ‖Ψ1(x)−Ψ−1(y)‖ ≤

Lip(Φ)·Lip(Ψ−1)‖x−y‖ ⇒ ‖Φ◦Ψ−1(x)−Φ◦Ψ−1(y)‖ ≤ λ‖x−y‖,

ou seja, Φ ◦ Ψ−1 é uma λ−contração. Logo, pelo teorema daperturbação da identidade, h = (Ψ + Φ)◦Ψ−1 = I+ ΦΨ−1 é umhomeomorfismo (injetivo e sobre E). Portanto a composição

(Ψ + Φ)Ψ−1 ◦Ψ = Ψ + Φ

é um homeomorfismo, como queríamos mostrar.

Corolário 2.42. (Perturbação do Isomorfismo.) Sejam E, E

espaços de Banach e T : E → E um isomorfismo linear (so-brejetivo). Seja Φ : E → E Lipschitz tal que sua constante deLipschitz Lip(Φ) < ‖T−1‖−1. Então T + Φ : E → E é um ho-meomorfismo (sobrejetivo).

Page 76: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

60 Capítulo 2. Funções Analíticas

Prova: Imediata do corolário anterior.

2.3 Integração de Caminhos em Espaços Vetoriais

Definição 2.43. (Partição de um intervalo.) Uma parti-ção P de um intervalo [a, b] ⊂ R é uma coleção finita P =

{I1, . . . , Ij} de intervalos dois a dois disjuntos tais que I1 =

[x0, x1), . . . , Ij = [xj−1, xj ], com x0 = a, xj = b e x0 ≤ · · · ≤ xj .Note que uma partição P de um intervalo [a, b] fica inteiramentedeterminada pelo conjunto dos pontos AP := {a = x0, . . . , xj =

b}, o qual designaremos por conjunto dos pontos associados a P.

Definição 2.44. (Diâmetro de uma partição de um in-tervalo.) O diâmetro de uma partição P de um intervalo I é omáximo dos diâmetros (comprimentos) dos elementos de P.

Definição 2.45. (Integral de Riemann.) Seja I = [a, b] ef : I → E um caminho limitado, tomando valores em um espaçode Banach E. A integral de Riemann

∫If(x)dx ∈ E, se existir,

é o limite ∫I

f(x)dx := limdiam(P)→0

#P∑j=1

f(xj) · vol(Ij),

onde xj ∈ Ij e P = {Ij , j = 1, . . . ,#P}, e vol é o volume(comprimento) do intervalo.

Se existir a integral de Riemann de uma aplicação f ,então dizemos que f é integrável à Riemann, ou simplesmente,integrável. Uma soma do tipo

∑#Pj=1 f(xj) · vol(Ij), com xj ∈ Pj

e P = {C1, . . . , I#P} é chamada de soma de Riemann de f em

Page 77: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 61

relação a P, e denotada por s(f,P), ou apenas, por s(P) noscontextos em que f puder ser subentendida sem ambiguidades.

Definição 2.46. (Refinamento de uma partição.) Seja Puma partição de um intervalo I ⊂ Rn. Uma partição P de I édita um refinamento de P se todo elemento de P estiver contidoem algum elemento de P. Também escrevemos que P refina P.

Proposição 2.47. Sejam I um intervalo compacto, E um es-paço de Banach e f : I → E uma aplicação contínua. Então∃∫If(x)dx ∈ E.

Prova: Como f é contínua em I compacto, é uniforme-mente contínua. Seja ε > 0 e tome δ > 0 tal que

‖f(x)− f(y)‖ < ε/(2 vol(I)),∀x, y ∈ I, d(x, y) < δ.

Sejam P e P partições quaisquer, com diam(P) < δ ediam(P) < δ. Seja P uma partição que refina tanto P como P.Daí, comparando somas de Riemann em P e P, obtemos:

‖s(P)− s(P)‖ = ‖#P∑j

f(xj) · vol(Ij)−#P∑j

f(xj) · vol(Ij)‖.

Para cada Ij ∈ P, tomemos Ij,1, . . . , Ij,r(j) ∈ P tais que Ij =

∪r(j)i=1 Ij,i. Por conseguinte, reenumerando a soma de Riemann emP, chegamos a

‖s(P)−s(P)‖ = ‖#P∑j

f(xj)·vol(Ij)−#P∑j

(

r(j)∑i=1

f(xj,i)·vol(Ij,i))‖ ≤

#P∑j

‖f(xj) · vol(Ij)−r(j)∑i=1

f(xj,i) · vol(Ij,i))‖ =

Page 78: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

62 Capítulo 2. Funções Analíticas

=

#P∑j

‖r(j)∑i=1

(f(xj)− f(xj,i)) · vol(Ij,i))‖

≤#P∑j

r(j)∑i=1

‖f(xj)−f(xj,i)‖·vol(Ij,i) ≤ε

2 vol(I)·#P∑j

r(j)∑i=1

vol(Ij,i) = ε/2.

Trocando P por P acima, temos que ‖s(P) − s(P)‖ <ε/2, logo

‖s(P)− s(P)‖ ≤ ‖s(P)− s(P)‖+ ‖s(P)− s(P)‖ < ε,

implicando que f é integrável.

Definição 2.48. (Integral de Linha.) Sejam E, E espaços deBanach, U ⊂ E um aberto, g : U → L(E, E) uma aplicação C0 eγ ⊂ U uma curva C1 por partes, parametrizada por ϕ : [a, b]→γ. A integral de linha de g em γ é definida por:∫

γ

g :=

∫ b

a

g(ϕ(t)) · ϕ′(t)dt.

Temos a seguinte proposição:

Proposição 2.49. A integral de linha∫γg está bem definida, a

menos de sinal.

Prova: De fato, tomando ϕ : [a, b] → γ, ψ : [c, d] → γ

parametrizações de γ, obtemos que∫γ

g :=

∫ b

a

g(ϕ(t))·ϕ′(t)dt =

∫ b

a

g(ψ◦ψ−1◦ϕ(t))·(ψ◦ψ−1◦ϕ)′(t)dt =

∫ b

a

g(ψ(ψ−1 ◦ ϕ(t)) · ψ′(ψ−1(ϕ(t)) · (ψ−1 ◦ ϕ)′(t)dt =

Page 79: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 63

∫ b

a

(g(ψ(ψ−1 ◦ ϕ(t)) · ψ′(ψ−1(ϕ(t))) · (ψ−1 ◦ ϕ)′(t)dt =

(pela fórmula de mudança de variáveis na reta)∫ d

c

g(ψ(t)) · ψ′(t)dt.

Quando E = C e E é um espaço complexo, então L(E, E) 'E. Usando desta última identificação, a integral de linha apre-senta a forma particular de:

Definição 2.50. (Integral por caminhos complexa.) Sejaγ ⊂ C uma curva C1 por partes parametrizada por ϕ : [a, b]→ γ.Seja U ⊂ C um aberto e f : U → E uma função contínua.Designando por ∗ o sinal de produto por escalar, a integral porcaminhos complexa de f em γ é definida por:∫

γ

f(z)dz :=

∫ b

a

f(ϕ(t)) ∗ ϕ′(t)dt.

Note que a integral por caminhos complexa é simples-mente um caso particular da integral de linha, e o destaque comodefinição a parte se deve apenas pelo seu uso frequente em nossotexto.

Lema 2.51. Sejam E, E espaços de Banach, U ⊂ E um aberto,g : U → L(E, E) uma função contínua e ϕ : [a, b] → U , umcaminho C1 tendo por imagem uma curva γ. Dado ε > 0, existeuma poligonal ψ : [a, b]→ U , cuja integral de linha ε−aproximaa integral de linha∫

γ

g =

∫ b

a

g(ϕ(t)) · ϕ′(t)dt.

Page 80: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

64 Capítulo 2. Funções Analíticas

Prova: Como ϕ é contínua e [a, b] é compacto temos, emprimeiro lugar, que γ = ϕ([a, b]) é compacto e que supt∈[a,b]{|ϕ′(t)|} <+∞. Seja M := (supt∈[a,b]{|ϕ′(t)|} · (b − a) + 1) e seja ε > 0

dado. Para cada x ∈ γ, seja B(x, rx) ⊂ V tal que g(B(x, rx)) ⊂B(g(x), ε/3M). Extraímos então uma subcobertura finita da co-bertura {B(x, rx/3)} obtendo B := {B1 = B(x1, rx1/3), . . . , xl, rxl/3)}.

Seja δ0 = min{rxj/3, j = 1, . . . , l}. Note que se y, z ∈∪jBj são tais que ‖y − z‖ < δ0, então se y ∈ Bq, z ∈ Bp, temos

‖xq − z‖ ≤ ‖xq − y‖+ ‖y − z‖ ≤ rxq/3 + δ0 ≤ rxq ,

ou seja z ∈ B(xq, rxq ). Isto implica que

‖g(z)− g(y)‖ ≤ ‖g(z)− g(xq)‖+ ‖(g(xq)− g(y)‖ < ε/M.

Note ainda que se z, y ∈ B(xq, rxq ) para algum q = 1 . . . l, daconvexidade das bolas em um espaço vetorial normado, temosque o segmento [z, y] := {tz + (1 − t)y, t ∈ [0, 1] ⊂ R} estácontido em B(xq, rxq ) e portanto em V . Em particular, se doispontos x, x em γ distam menos que δ0, então o segmento que osune está contido em V , e diam(g([x, x]) < ε/M .

Seja agora α > 0 tal que

|t− s| < α⇒

{|ϕ(t))− ϕ(s)| < δ0

|ϕ′(t)− ϕ′(s)| < ε/(2(b− a) supt∈[a,b]{g(ϕ(t))})

Seja k ∈ N tal que (b− a)/k < α, e sejam t0 = a, . . . , tk = b taisque tj = a+ j

k (b− a), j = 0, . . . , k. Definimos então a poligonalψ : [a, b]→ Γ ⊂ V por

ψ(t) := ϕ(tj) + (ϕ(tj+1)− ϕ(tj)) · (t− tj) ·k

b− a,

para t ∈ [tj , tj+1], 0 ≤ j < k.

Page 81: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 65

Temos então:∥∥∥ ∫γ

g−∫

Γ

g∥∥∥ =

∥∥∥ k−1∑j=0

(

∫ tj+1

tj

g(ϕ(t))·ϕ′(t)dt−∫ tj+1

tj

g(ψ(t))·ψ′(t)dt)∥∥∥ ≤

k−1∑j=0

∫ tj+1

tj

∥∥∥g(ϕ(t)) · ϕ′(t)− g(ψ(t)) · ϕ(tj+1)− ϕ(tj)

tj+1 − tj

∥∥∥dt ≤k−1∑j=0

∫ tj+1

tj

‖g(ϕ(t)) · ϕ′(t)− g(ϕ(t)) · ϕ(tj+1)− ϕ(tj)

tj+1 − tj‖+

‖g(ϕ(t)) · ϕ(tj+1)− ϕ(tj)

tj+1 − tj− g(ψ(t)) · ϕ(tj+1)− ϕ(tj)

tj+1 − tj‖dt

Analisando cada parcela acima, temos:∫ tj+1

tj

‖g(ϕ(t))·(ϕ′(t)−ϕ(tj+1)− ϕ(tj)

tj+1 − tj)‖+

‖(g(ϕ(t)− g(ψ(t))) · (ϕ(tj+1)− ϕ(tj)

tj+1 − tj)‖dt

Norma do operador︷︸︸︷≤∫ tj+1

tj

‖g(ϕ(t))‖‖ϕ′(t)−ϕ(tj+1)− ϕ(tj)

tj+1 − tj‖dt+

∫ tj+1

tj

‖g(ϕ(t))−g(ψ(t))‖‖ϕ(tj+1)− ϕ(tj)

tj+1 − tj‖dt ≤

supt∈[a,b]

{‖g(ϕ(t))‖} ·∫ tj+1

tj

‖ϕ′(t)− ϕ(tj+1)− ϕ(tj)

tj+1 − tj‖dt+

∫ tj+1

tj

‖g(ϕ(t))−g(ψ(t))‖ supt∈[a,b]

‖ϕ′(t)‖dtDVM︷︸︸︷≤

supt∈[a,b]

{|g(ϕ(t))|} · ε

2(b− a) supt∈[a,b]{|g(ϕ(t))|}

∫ tj+1

tj

dt+

ε

M·∫ tj+1

tj

dt <ε

b− a·∫ tj+1

tj

dt.

Page 82: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

66 Capítulo 2. Funções Analíticas

Somando em j, concluímos que∥∥∥∫γ

g −∫

Γ

g∥∥∥ < k−1∑

j=0

ε

b− a·∫ tj+1

tj

dt = ε.

Lema 2.52. Sejam E, E espaços de Banach, gn, g : U →L(E, E) aplicações contínuas em um aberto U ⊂ E e ϕ : [a, b]→U , um caminho C1 por partes tendo por imagem uma curva γ.Se gn converge a g uniformemente em partes compactas, então∫

γ

gn =

∫ b

a

gn(ϕ(t)) · ϕ′(t)dt→∫γ

g =

∫ b

a

g(ϕ(t)) · ϕ′(t)dt

quando n→∞.

Prova: Sem perda, podemos supor `(γ) > 0. Seja ε > 0,e tome n0 tal que ‖gn(x)−g(x)‖ < ε/`(γ),∀x ∈ γ,∀n ≥ n0. Daí,∥∥∥∫

γ

gn−∫γ

g∥∥∥ =

∥∥∥∫ b

a

gn(ϕ(t)) ·ϕ′(t)dt−∫ b

a

g(ϕ(t)) ·ϕ′(t)dt∥∥∥ =

∥∥∥∫ b

a

(gn(ϕ(t))− g(ϕ(t))) · ϕ′(t)dt∥∥∥ ≤

≤∫ b

a

‖gn(ϕ(t))− g(ϕ(t))‖ · ‖ϕ′(t)‖dt <

`(γ)·∫ b

a

‖ϕ′(t)‖dt = ε.

O lema acima tem como consequência um resultado aná-logo para integrais por caminhos complexas. Todavia, tais resul-tados também podem ser facilmente provados com o auxílio doutilíssimo:

Page 83: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 67

Lema 2.53. Dada f : U ⊂ C → E e uma parametrização C1

ϕ : [a, b]→ γ de uma curva γ ⊂ U . Então, temos:∥∥∥∫γ

f(z)dz∥∥∥ ≤ sup

z∈γ{‖f(z)‖} · `(γ).

Prova:∥∥∥∫γ

f(z)dz∥∥∥ =

∥∥∥∫ b

a

f(ϕ(t)) ∗ ϕ′(t)dt∥∥∥ =

=∥∥∥ limn→+∞

n∑j=1

f(ϕ(tj)) ∗ ϕ′(tj) ·(b− a)

n

∥∥∥,onde tj = a+ (b− a) · j/n. Daí,∥∥∥ lim

n→+∞

n∑j=1

f(ϕ(tj)) ∗ ϕ′(tj) ·(b− a)

n

∥∥∥ =

= limn→+∞

∥∥∥ n∑j=1

f(ϕ(tj)) ∗ ϕ′(tj) ·(b− a)

n

∥∥∥ ≤≤ limn→+∞

n∑j=1

‖f(ϕ(tj))‖|ϕ′(tj)|·(b− a)

n=

∫ b

a

‖f(ϕ(t))‖|ϕ′(t)|dt ≤

≤ supz∈γ{‖f(z)‖} ·

∫ b

a

|ϕ′(t)|dt = supz∈γ{‖f(z)‖} · `(γ).

Corolário 2.54. Sejam fn, f : U → E aplicações contínuas emum aberto U ⊂ C e ϕ : [a, b] → U , um caminho C1 por partestendo por imagem uma curva γ. Se fn converge a f uniforme-mente em partes compactas, então∫γ

fn(z)dz =

∫ b

a

fn(ϕ(t))∗ϕ′(t)dt→∫γ

f(z)dz =

∫ b

a

f(ϕ(t))∗ϕ′(t)dt,

quando n→∞.

Page 84: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

68 Capítulo 2. Funções Analíticas

Prova: Pelo lema 2.53,

‖∫γ

fn(z)− f(z)dz‖ ≤ supz∈γ{‖fn(z)− f(z)‖} · `(γ).

Se `(γ) = 0, nada há a provar. Assim, suponhamos que `(γ) > 0.Tome n0 tal que supz∈γ{‖fn(z)−f(z)‖} < ε/`(γ), ∀n ≥ n0. Porconseguinte,∥∥∥∫

γ

fn(z)− f(z)dz∥∥∥ ≤ sup

z∈γ{‖fn(z)− f(z)‖} · `(γ) < ε,∀n ≥ n0.

Corolário 2.55. Sejam fn, f : U → E aplicações contínuasem um aberto U ⊂ C e ϕ : [a, b] → U , um caminho C1 porpartes tendo por imagem uma curva γ. Se

∑fn converge a f

uniformemente em partes compactas, então∫γ

∞∑n=0

fn(z)dz =

∞∑n=0

∫ b

a

fn(ϕ(t)) ∗ ϕ′(t)dt→∫γ

f(z)dz

=

∫ b

a

f(ϕ(t)) ∗ ϕ′(t)dt,

quando n→∞.

2.4 A Teoria de Cauchy-Goursat

Nesta seção adaptamos a teoria de Análise Complexapara aplicações holomorfas tomando valores em espaços de Ba-nach. Muitos dos teoremas daqui são adaptações de teoremasvistos em cursos básicos de Funções Analíticas de C. Em talnível elementar, uma boa referência é o livro do prof. MárcioSoares [20].

Page 85: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 69

Definição 2.56. (Aplicação Holomorfa.) Seja U ⊂ C umconjunto aberto e f : U → E, onde E é um espaço de Banach.Dizemos que f é holomorfa em z0 ∈ U se existe o limite

limz→z0

f(z)− f(z0)

z − z0= f ′(z0).

Neste caso, f ′(z0) é chamada de derivada holomorfa de f em z0.Se f é holomorfa em cada ponto de U , dizemos que f é holomorfaem U ou, simplesmente, que f é holomorfa.

Lembramos aqui a prova do Teorema de Cauchy-Goursatpara regiões triangulares, adaptando-o ao contexto de espaços deBanach.

Teorema 2.57. (Teorema de Cauchy-Goursat para re-giões triangulares.) Sejam U ⊂ C um aberto, E um espaçode Banach, f : U → E uma aplicação holomorfa e seja ∆ umtriângulo compacto contido em U . Então∫

f(z)dz = 0.

Prova: Realizemos uma construção indutiva para a provado teorema. Escrevamos ∆ = ∆0 e subdividamos este triânguloem quatro triângulos (∆1

0,∆20,∆

30,∆

40) a ele semelhantes, cujos

lados têm metade do comprimento de seus correspondentes notriângulo original. Ademais, orientamos os bordos de cada umdos triângulos no sentido horário.

Daí,∫∆0

f(z)dz =

∫∆1

0

f(z)dz+

∫∆2

0

f(z)dz+

∫∆3

0

f(z)dz+

∫∆4

0

f(z)dz.

Vejamos como se dá o passo de indução: supondo que temosconstruído um triângulo ∆n para um certo n ∈ N (por exemplo,

Page 86: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

70 Capítulo 2. Funções Analíticas

Figura 1 – Teorema de Cauchy-Goursat em região triangularO triângulo ∆ subdividido em quatro triângulos semelhantes, com metade do

lado e 1/4 de sua área.

já definimos, para n = 0, ∆0 := ∆). Daí, dividimos ∆n em 4

triângulos ∆1n,∆

2n,∆

3n,∆

4n semelhantes como explicado acima.

Definimos ∆n+1 := ∆jn, onde∣∣∣ ∫

∆jn

f(z)dz∣∣∣ = max{

∣∣∣ ∫∆1n

f(z)dz∣∣∣, ∣∣∣ ∫

∆2n

f(z)dz∣∣∣,

∣∣∣ ∫∆3n

f(z)dz∣∣∣, ∣∣∣ ∫

∆4n

f(z)dz∣∣∣}

Daí, ∣∣∣ ∫∆n

f(z)dz∣∣∣ ≤ 4 ·

∣∣∣ ∫∆n+1

f(z)dz∣∣∣

Ademais, se δn é o comprimento do maior lado do triângulo ∆n,é claro que

δn+1 = δn/2 = δ0/(2n),

`(∆n+1) = `(∆n)/2 = `(∆0)/(2n).

Como os triângulos ∆n, n ∈ N formam uma família encaixantede compactos não vazios, podemos tomar z0 ∈ ∩n∈N∆n. Como

Page 87: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 71

f é holomorfa, dado ε > 0, ∃τ > 0 tal que

|z−z0| < τ ⇒ |f(z)−f(z0)−f ′(z0)∗(z−z0)| ≤ ε

δ0 · `(∆)·|z−z0|.

Daí,∫∆n

f(z)− f(z0)− f ′(z0) ∗ (z − z0)dz =

=

∫∆n

f(z)dz −∫

∆n

f(z0) + f ′(z0) ∗ (z − z0)dz

(pois o Teorema de Cauchy-Goursat claramente vale para apli-cações holomorfas afins) ∫

∆n

f(z)dz.

Por conseguinte,∣∣∣ ∫∆

f(z)dz ≤ 4n∣∣∣ ∫

∆n

f(z)dz∣∣∣ =

= 4n∣∣∣ ∫

∆n

f(z)− f(z0)− f ′(z0) ∗ (z − z0)dz∣∣∣

(supondo n suficientemente grande de modo a que δn < τ)

4n · ε

δ0 · `(∆)·sup{|z−z0|} ·`(∆n) ≤ 4n · ε

δ0 · `(∆)· δ02n· `(∆)

2n≤ ε.

Como ε > 0 é arbitrário, segue-se que∫∆

f(z)dz = 0.

A partir da versão acima, é bastante fácil de provaruma versão similar para círculos (e curvas convexas) no lugar detriângulo.

Page 88: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

72 Capítulo 2. Funções Analíticas

Usando a definição de integral curvilínea complexa, sa-bemos que

∫γ

1z−z0 dz = 2πi, para qualquer curva fechada simples

γ contendo z0 na região aberta limitada de C que possui γ comofronteira. O resultado mais importante na teoria de aplicaçãoanalíticas é o seguinte:

Teorema 2.58. (Fórmula Integral de Cauchy.) Seja E umespaço de Banach sobre C, U ⊂ C um aberto simplesmente co-nexo e f : U → E uma aplicação holomorfa. Seja γ0 ⊂ U umaregião compacta cuja fronteira é uma curva de Jordan γ. Então,dado z0 ∈ int(γ0), vale:

f(z0) =1

2πi

∫γ

f(z)

z − z0dz.

Prova: Dado ε > 0, seja δ > 0 da continuidade uniformede f em γ0 tal que

‖z − z0‖ ≤ δ ⇒ ‖f(z)− f(z0)‖ < ε

2π.

Obviamente, podemos supor δ > 0 suficientemente pequeno demodo a que B(0, δ) ⊂ int(γ0). Chamemos de γδ a curva que é ocírculo de centro z0 e raio δ.

Ligando γ a γδ por meio de uma curva auxiliar Γ di-feomorfa a um intervalo compacto, conforme mostra a figura,usando a propriedade de que uma integral de linha muda desinal se trocamos a orientação e aplicando o teorema de Cauchy-Goursat, obtemos que

∫γ

f(z)

z − z0dz =

∫γδ

f(z)

z − z0dz.

Page 89: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 73

Figura 2 – Fórmula Integral de CauchyJustapondo as curvas Γ, γδ,−Γ, γ, e aplicando o Teorema de Cauchy-Goursat,

obtemos que a integral do círculo de raio delta em torno de z0 é zero.

Mas∥∥∥ ∫γδ

f(z)

z − z0dz−f(z0)2πi

∥∥∥ =∥∥∥∫

γδ

f(z)

z − z0dz−f(z0)

∫γδ

1

z − z0dz∥∥∥ =

∫γδ

f(z)− f(z0)

z − z0dz.

Como para z sobre a curva γδ, temos ‖f(z) − f(z0)‖ < ε/2π e‖z − z0‖ = δ, obtemos

∥∥∥∫γδ

f(z)− f(z0)

z − z0dz∥∥∥ < ε

2πδ· `(γδ) = ε.

Page 90: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

74 Capítulo 2. Funções Analíticas

Concluímos que∥∥∥∫γ

f(z)

z − z0dz − 2πif(z0)

∥∥∥ =∥∥∥ ∫

γδ

f(z)− f(z0)

z − z0dz∥∥∥ < ε,∀ε > 0,

logo ∫γ

f(z)

z − z0= 2πif(z0).

Corolário 2.59. (Estimativas de Cauchy.) Seja f uma fun-ção holomorfa limitada em um disco D(z, r), digamos |f(z)| <K,∀z ∈ D(z0, r). Então |f (n)(z0)| ≤ n!K

rn .

Prova: Seja γs = ∂B(z0, s), s < r. Do teorema acima,obtemos:

|f (n)(z0)| =∣∣∣ n!

2πi

∫γs

f(w)

(w − z0)n+1dw∣∣∣ ≤

n!

K

sn+1· `(γs) =

n!

K

sn+1· 2πs =

n!K

sn.

Como s < r é arbitrário, concluímos que

|f (n)(z0)| ≤ n!K

rn.

Teorema 2.60. (Teorema de Liouville.) Seja E um espaçode Banach complexo. Se f : C → E é holomorfa e limitada,então f é constante.

Prova: Pelas estimativas de Cauchy, dado z0 ∈ C e umdisco qualquer D(z0, r), temos

‖f ′(z0)‖ ≤supz∈C{‖f(z)‖}

r.

Page 91: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 75

Tomando r > 0 suficientemente grande, concluímos que f ′(z0) =

0. Como z0 ∈ C é arbitrário e C é conexo, temos que f é cons-tante.

Teorema 2.61. (Teorema Fundamental da Álgebra). Todo po-linômio p : C→ C não constante possui raiz em C.

Prova: Primeiro veremos que limz→∞ |p(z)| = +∞,onde p : C→ C é um polinômio não constante, digamos, p(z) =

a0 +a1 ∗z+ · · ·+an ∗zn, com an 6= 0. Como estamos analisandoo que ocorre quando |z| → +∞, podemos supor z 6= 0; assim,fazendo uso da desigualdade triangular, obtemos:

|p(z)| ≥ |z|n ·(|an| −

|an−1||z|

− . . . |a0||z|n

)Seja M > 0 qualquer. Tome K := max{2(M + 1), 2(M + 1) · n ·|aj |, j = 0, . . . n}. Temos então que |z| > K ⇒ |p(z)| > M , o quepor definição significa que

limz→+∞

|p(z)| = +∞.

Agora, suponha por absurdo que p não possua raízes, ouseja, p(z) 6= 0,∀z ∈ C. Logo, f(z) := 1/p(z) define uma funçãointeira, isto é, uma função holomorfa com domínio igual a C.Ademais, f é limitada:

• Como f é contínua, existe M > 0 tal que |f(z)| < M

para todo z na bola compacta B(0,K), onde K é a mesmaconstante do parágrafo anterior.

• Para z, |z| > K, temos que |f(z)| = 1/|p(z)| < 1/M .

Page 92: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

76 Capítulo 2. Funções Analíticas

Por conseguinte, tomando M := max{M, 1/M}, temos que |f(z) <

M , ∀z ∈ C. Sendo f função inteira e limitada, segue-se por Li-ouville que f é constante. Mas nesse caso, p(z) = 1/f(z) seriaconstante, absurdo.

Dizemos que N ⊂ C é um anel centrado em a ∈ C, seN é da forma

N = N (a, r1, r2) := {z ∈ C, r1 ≤ |z−a| ≤ r2, com r1, r2 > 0, a ∈ C}.

A fórmula integral de Cauchy nos permite ainda de-monstrar o seguinte teorema sobre aplicações holomorfas em umanel:

Teorema 2.62. (Séries de Laurent em Espaços de Ba-nach.) Sejam N ⊂ C um anel centrado em a ∈ C, V ⊂ Cuma vizinhança de N , e f : V → E uma aplicação holomorfatomando valores em um espaço de Banach E. Então existemúnicos An ∈ E,n ∈ Z tais que

f(z) =

+∞∑n=−∞

An(z − a)n,∀z ∈ N ,

a convergência do limite acima sendo absoluta e uniforme emN .

Prova: Sendo N um anel centrado em a ∈ C e f :

V → E, e orientando a fronteira de N conforme a figura, dadoz ∈ N \ ∂N , pela fórmula integral de Cauchy, temos:

f(z) =1

2πi

∫∂N

f(w)

w − zdw =

1

2πi

(∫γ2

f(w)

w − zdw−

∫γ1

f(w)

w − zdw)

=

Page 93: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 77

Figura 3 – Série de Laurent

1

2πi

(∫γ2

f(w)

w − a− (z − a)dw +

∫γ1

f(w)

z − a− (w − a)dw)

=

1

2πi

(∫γ2

f(w)

(w − a) ∗ (1− z−aw−a )

dw+

∫γ1

f(w)

(z − a) ∗ (1− w−az−a )

dw)

=

(note que para w ∈ γ2 vale |w − a| > |z − a|, ∀z ∈ N ; já paraw ∈ γ1 vale |w − a| < |z − a|)

1

2πi

(∫γ2

f(w)

(w − a)∗∞∑j=0

(z − aw − a

)jdw+

∫γ1

f(w)

z − a∗∞∑j=0

(w − az − a

)jdw).

As somas geométricas dentro das integrais convergem absoluta-mente e uniformemente em partes compactas de int(N ), logopodemos permutar seus limites com as integrais, e usando a li-nearidade das integrais, obtemos:

f(z) =1

2πi

[ ∞∑j=0

∫γ2

f(w)

(w − a)j+1dw ∗ (z − a)j+

∞∑j=1

∫γ1

f(w)(w − a)j−1dw ∗ (z − a)−j],

também chamada de Série de Laurent de f no anel N .

Para vermos a unicidade dos coeficientes de Laurent,basta notarmos que se f(z) =

∑+∞n=−∞An(z − a)n, então dado

Page 94: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

78 Capítulo 2. Funções Analíticas

k ∈ Z, e para qualquer círculo com centro em a e contido em N ,temos

1

2πi

∫γ

f(z)·(z−a)k+1dz =1

2πi

∫γ

+∞∑n=−∞

An(z−a)n+k+1dz = Ak,

uma vez que∫γ(z − a)n+k+1dz = 0, se n+ k+ 1 6= −1, e é igual

a 2πi, se n+ k + 1 = −1.

2.5 Resíduos

A fórmula integral de Cauchy e a teoria de séries de Lau-rent não apenas nos permitem provar teoremas profundos comoo Teorema Fundamental da Álgebra e o princípio do MóduloMáximo, como nos permitem calcular integrais e mais impor-tante ainda, raízes de funções holomorfa, especialmente polinô-mios. Essas técnicas são o objetivo desta seção. A força delaspode ser apreciada pelos exercícios 11 e 13 no final capítulo, eno programa que nos permite calcular raízes de polinômios, cujalistagem segue a seção.

Definição 2.63. (Resíduo). Seja f uma função holomorfa emB(a, ρ) \ {a}. O resíduo de f em a, denotado por res(f, a), é ocoeficiente b1 do termo 1/(z − a) da série de Laurent de f comcentro em a.

Vimos que quando temos uma singularidade (por defi-nição, isolada) a de f é γ é um círculo contido no domínio de fe contendo a como a única singularidade de f na região interior

Page 95: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2.5. Resíduos 79

ao círculo, então:∫γ

f(z)dz =

∞∑m=1

bm

∫γ

(z − a)−m +

∞∑n=0

an

∫γ

(z − a)ndz

= 2πib1 = 2πires(f, a).

Mais em geral, temos o

Teorema 2.64. (Resíduos de Cauchy). Seja f uma função ho-lomorfa num domínio U \ {p1, p2, . . . , ps}. Suponha que γ ⊂U \ {p1, p2, . . . , ps} é uma curva de Jordan C1 por partes, ori-entada no sentido anti-horário, tal que a região V fechada elimitada por ela está contida em U e contém todos os pontosp1, . . . , ps. Então,

1

2πi

∫γ

f(z)dz =

s∑j=1

res(f, pj).

Prova:

Para a prova do teorema, vamos fazer indutivamente aseguinte construção geométrica. Para cada v ∈ S1, considere oconjunto do lugar geométrico das semi-retas

Sv = {z ∈ C; z = pj + t · v,∃t ≥ 0,∃j = 1, . . . , s}

Veja que a coleção {Sv, v ∈ S1} tem cardinalidade infinita (defato, não enumerável), e portanto, existe v ∈ S1 tal que cadasemi-reta em Sv intersecta {p1, . . . , ps} exatamente em um únicoponto. Em particular, seja r > 0 o mínimo das distâncias entrecada pj e as demais semi-retas contidas em Sv. Tomando 0 <

r ≤ r tal que B(pj , r) ⊂ U , definimos ainda qj como o primeiroponto sobre a semi-reta {pj+tv, t ≥ 0}∩γ, ∀j = 1, . . . , s (tais qj ’s

Page 96: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

80 Capítulo 2. Funções Analíticas

Figura 4 – Resíduos

existem pelo teorema da Alfândega aplicado a cada semi-reta daforma {pj + tv, t ≥ 0} e a região V ).

Reordenando os pj se necessário, podemos supor que osqj estão ordenados segundo a parametrização de γ, isto é, seϕ : I → γ parametriza γ e qj = ϕ(tj), então j < k implicatj < tk. Designemos por qj o ponto em que o segmento pjqj

intersecta a γj := ∂B(pj , r). Temos então que

∫γ

f(z)dz −s∑j=1

∫γj

f(z)dz =

∫γ

f(z)dz −s∑j=1

∫γj

f(z)dz =

∫γ

f(z)dz +

s∑j=1

(∫qj qj

f(z)dz −∫qj qj

f(z)dz)−

s∑j=1

∫γj

f(z)dz

Note que a curva justaposição das curvas das integraisacima é limite de curvas de Jordan em torno de uma região emque f é holomorfa. Por conseguinte, sua integral é zero. Isto

Page 97: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2.5. Resíduos 81

q

qq

qq

1

23

5

p

pp

p

p

1

23

4

4

5

Figura 5 – Teorema dos Resíduos

implica que ∫γ

f(z)dz =

s∑j=1

∫γj

f(z)dz.

Mas pelo teorema de Laurent (vide página ??),∫γjf(z)dz =

2πires(f, pj), o que conclui a prova.

Teorema 2.65. Seja f uma função holomorfa num domínioU \ {p1, p2, . . . , ps}. Suponha que γ ⊂ U \ {p1, p2, . . . , ps} é umacurva de Jordan C1 por partes, orientada no sentido anti-horário,tal que a região S, fechada e limitada por ela, está contida emU e contém todos os pontos p1, . . . , ps. Suponha que todas assingularidades de f em S sejam somente polos. Então

1

2πi

∫γ

f ′(z)

f(z)dz = Z(f ;S)− P (f ;S),

onde Z(f ;S) é o número de zeros de f em S, contadas as suas

Page 98: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

82 Capítulo 2. Funções Analíticas

multiplicidades, e P (f ;S) é o número de polos de f em S, con-tadas as suas ordens.

Prova:

Fixado p ∈ S, as séries de Laurent de f e f ′ em talponto se escrevem respectivamente como:

f(z) =

+∞∑n=0

an(z − p)n +

k∑n=1

bn(z − p)−n

e

f ′(z) =

+∞∑n=1

nan(z − p)n−1 +

k∑n=1

−nbn(z − p)−n−1.

Portanto, se p é um polo de f de ordem k, necessariamente é umpolo de ordem k+1 para f ′. Como se um ponto não for polo de f ,não o será de f ′, isso implica que os polos de f são exatamenteos mesmos que os de f ′. Por outro lado, se p for uma raiz demultiplicidadem para f , ele será um zero de multiplicidadem−1

para f ′ (no caso de m = 1, não será um zero para f ′).

Isso implica que um ponto p é singularidade para f ′/f see só se, p é polo de f (as singularidades de f e f ′ são as mesmas,e por hipótese f não possui outro tipo de singularidade, excetopolo, em S), ou p é zero de f . No caso de p ser um polo de f deordem k = k(p), temos para z em uma certa vizinhança furadade p:

f ′(z)

f(z)=

∑+∞n=1 nan(z − p)n−1 +

∑kn=1−nbn(z − p)−n−1∑+∞

n=0 an(z − p)n +∑kn=1 bn(z − p)−n

=

(z − p)−k−1(∑+∞n=1 nan(z − p)n+k +

∑kn=1−nbn(z − p)−n+k

(z − p)−k∑+∞n=0 an(z − p)n+k +

∑kn=1 bn(z − p)−n+k

=

Page 99: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2.5. Resíduos 83

1

(z − p)·∑k−1n=0(k − n)bk−n(z − p)n +

∑+∞n=k(n− k)an−k(z − p)n∑k−1

n=0 bk−n(z − p)n +∑+∞n=k an−k(z − p)n

.

Note que denotando por

g(z) :=

k−1∑n=0

(k − n)bk−n(z − p)n +

+∞∑n=k

(n− k)an−k(z − p)n

e por

h(z) =

k−1∑n=0

bk−n(z − p)n +

+∞∑n=k

an−k(z − p)n,

tanto g como h são não nulas em p, logo seu quociente é holo-morfo em uma bola B ⊂ U centrada em p com raio suficiente-mente pequeno. Donde concluímos que em tal vizinhança de p,f se escreve como

f(z) =1

(z − p)· g(z)

h(z),

com g/h holomorfas e g(p)h(p) = −kbk/bk = −k. Logo, res(f, p) =

−k, a qual é o simétrico da ordem do polo de f em p.

Analogamente, se p é um zero de multiplicidade m =

m(p) de f , temos em uma vizinhança furada de p na qual

f(z) =(z − p)m−1

(z − p)m·∑+∞n=0(n+m)an+m(z − p)n∑+∞

n=0 an+m(z − p)n=

1

z − p· g(z)

h(z),

com g/h holomorfa em uma vizinhança de p e g(p)/h(p) =

mam/am = m, implicando que o resíduo res(f ′/f, p) é iguala multiplicidade de p como zero de f .

Page 100: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

84 Capítulo 2. Funções Analíticas

Pelo teorema de Resíduos, concluímos que

1

2πi

∫γ

f ′(z)

f(z)dz =

s∑j=1

res(f ′

f, zj) =

∑zj ,f(zj)=0

m(zj)−

∑zj ,zj é polo de f

k(zj) = Z(f, S)− P (f, S),

onde zj são as singularidades de f ′/f em S.

2.6 Programa de Cálculo de raízes de polinômios

Nessa seção, apresentamos um programa em linguagemC por nós escrito que permite entrar com um polinômio e umaregião retangular contendo uma possível raiz λ deste, com a fi-nalidade de calcular precisamente λ, usando da teoria vista deAnálise Complexa. Note que a mesma região funciona para cal-cular raízes associadas ao prolongamento de λ com respeito apolinômios com coeficientes suficientemente próximos aos do po-linômio inicial.

Para compilar o programa, deve-se digitar e salvar emuma mesma pasta os quatro arquivos listados abaixo, e digitarem um terminal (preferencialmente, linux):

gcc -o polintip polintip.c -lm

Os arquivos que compõem o programa são:

• polintip.c (principal)

• tipo.h

Page 101: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 85

• complex.c

• integra.c

/∗ Programa de Calcu lo de Raizes de Polinomios ∗//∗ Arquivo p r i n c i p a l : p o l i n t i p . c∗//∗ Autor : Augusto Armando de Castro Junior ∗//∗ Data : 06 de f e v e r e i r o de 2014.∗//∗ Entradas da Linha de Comando :− 4 entradas da reg iao − e , s , w, n −

cantos i n f e r i o r esquerdo e super io r d i r e i t o ;− Opcao de operacao − opc ;− no . de c o e f i c i e n t e s do primeiro pol inomio − n l ;− l i s t a de monomios do primeiro pol inomio ;− l i s t a de monomios do segundo pol inomio .∗/

#include <s td i o . h>#include <s t d l i b . h>#include <math . h>

#ifndef r e a l#define r e a l double#endif

#ifndef PI#define PI 3.1415926535897932384626433832795#endif

#define TAMAX 64#define TIPOCOMPLEX#define TIPO struct complex#include " t ipo . h"

Page 102: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

86 Capítulo 2. Funções Analíticas

#include "complex . c"#include " i n t e g r a . c"

#define SWAP(a , b) {auxc= ( a ) ; ( a)= (b ) ; (b)= auxc ; }

struct monom {TIPO v ;int g ;

} ;

struct po l i n {

int grau ;int tam ;struct monom mon [ TAMAX] ;

} ;

struct funr {struct po l i n pn ;struct po l i n pd ;

} ;

stat ic struct po l i n ZEROP= {0 , 1} ;stat ic struct funr ZEROR= {{0 , 1} , {0 , 1 , {1 . 0 , 0 . 0 , 0}}} ;

char _err= 0 ;

struct po l i n sump( struct pol in , struct po l i n ) ;struct po l i n subp ( struct pol in , struct po l i n ) ;struct po l i n mulp ( struct pol in , struct po l i n ) ;struct po l i n divp ( struct pol in , struct po l i n ) ;struct po l i n modp( struct pol in , struct po l i n ) ;struct funr divmodp ( struct pol in , struct po l i n ) ;struct po l i n der ivp ( struct po l i n ) ;TIPO homoval ( struct pol in , TIPO) ;TIPO ra iznewt ( struct pol in , TIPO) ;

struct funr sumf ( struct funr , struct funr ) ;

Page 103: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 87

struct funr subf ( struct funr , struct funr ) ;struct funr mulf ( struct funr , struct funr ) ;struct funr d i v f ( struct funr , struct funr ) ;struct funr d e r i v f ( struct funr ) ;

long d f s ob r e f ( struct pol in , TIPO ∗ , TIPO ∗ , TIPO ∗ , long ) ;

int i gua lp ( struct pol in , struct po l i n ) ;

struct funr a t r i p1 ( struct funr ) ;struct funr a t r i p2 ( struct pol in , struct po l i n ) ;

int main ( int argc , char ∗argv [ ] ){

char ∗ s t r , opc ;int n1 , j , k ;long t ;TIPO z1 , z2 , z [ 1024 ] , upi ;stat ic TIPO fun [ 4096 ] , z d f s f [ 4 0 9 6 ] ;

struct po l i n p1 , p2 ;struct monom auxc ;

i f ( argc < 6){p r i n t f ("Programa␣%s\nUso : ␣%s ␣<e>␣<s>␣<w>␣<n>␣<opc>␣n1␣<pol1>␣<pol2>\n" ,

argv [ 0 ] , argv [ 0 ] ) ;e x i t ( 0 ) ;

}z1 . re= a to f ( argv [ 1 ] ) ;z1 . im= ato f ( argv [ 2 ] ) ;z2 . re= a to f ( argv [ 3 ] ) ;z2 . im= ato f ( argv [ 4 ] ) ;opc= argv [ 5 ] [ 0 ] ;n1= a t o i ( argv [ 6 ] ) ;

Page 104: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

88 Capítulo 2. Funções Analíticas

for ( k=0, j= 7 ; j< 7+ n1∗ 3 ; j+= 3 , k++){p1 .mon [ k ] . v . re= a to f ( argv [ j ] ) ;p1 .mon [ k ] . v . im= ato f ( argv [ j+ 1 ] ) ;

p1 .mon [ k ] . g= a t o i ( argv [ j+ 2 ] ) ;i f (k> 0)

{i f ( p1 .mon [ k− 1 ] . g> p1 .mon [ k ] . g )SWAP(p1 .mon [ k−1] , p1 .mon [ k ] ) ;

}}

p1 . grau= p1 .mon [ k−1] . g ;p1 . tam= n1 ;

for ( k= 0 ; j< argc ; j+= 3 , k++){p2 .mon [ k ] . v . re= a to f ( argv [ j ] ) ;p2 .mon [ k ] . v . im= ato f ( argv [ j+ 1 ] ) ;

p2 .mon [ k ] . g= a t o i ( argv [ j+ 2 ] ) ;

}p2 . grau= p2 .mon [ k− 1 ] . g ;p2 . tam= k ;mostrapol ( "\n␣p1 : " , p1 , "(% l f+␣ i%l f ) " ) ;mostrapol ( "\n␣p2 : " , p2 , "(% l f+␣ i%l f ) " ) ;

t= gerare tang ( z1 , z2 , z , 4 80 ) ;

t= d f s ob r e f ( p1 , fun , zd f s f , z , t ) ;

i f ( t> 0){

Page 105: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 89

upi= a t r i c 2 ( 0 . 0 , 1 .0/(−2.0∗ PI ) ) ;

puts ( "\nSem␣ r a i z e s ␣em␣cima␣da␣ curva ; ␣ integrando . . . " ) ;z1= mulc ( i n t e g r c (&fun [ 2 0 4 8 ] , &fun [ 3 0 0 0 ] , fun , z , 1 , t ) ,

upi ) ;i f ( z1 . re> 0 . 2 )

{p r i n t f ( "\nHa␣%l3 . 0 f ␣␣ r a i z e s ␣na␣ r eg i a o \n" , z1 . re ) ;z2= mulc (

i n t e g r c (&fun [ 2 0 4 8 ] , &z d f s f [ 3000 ] , zd f s f , z , 1 , t ) ,upi ) ;

p r i n t f ( "Raiz : ␣%l f+␣ i ␣%l f \n" , z2 ) ;}

}else

{p r i n t f ( "Achamos␣uma␣ r a i z ␣na␣ curva : ␣%l f+␣ i ␣%l f \n" , z [ 0 ] ) ;

}switch ( opc ){case ’ . ’ :

p1 = mulp (p1 , p2 ) ;s t r = "produto" ;break ;

case ’+ ’ :p1 = sump(p1 , p2 ) ;s t r = "soma" ;break ;

case ’ / ’ :p1 = divp (p1 , p2 ) ;s t r = " d i v i s a o " ;break ;

case ’− ’ :p1 = subp (p1 , p2 ) ;

Page 106: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

90 Capítulo 2. Funções Analíticas

s t r = " d i f e r e n c a " ;break ; case ’ d ’ :p1= der ivp ( p1 ) ;s t r= " der ivada " ;break ;

case ’ a ’ :p r i n t f ( "Avaliado ␣em␣%l f+i ␣%l f ␣o␣ pol inomio ␣deu :

␣␣␣␣␣␣%l f+i ␣%l f \n ; ␣uma␣ r a i z ␣eh␣p(% l f+i ␣%l f )=␣%l f+i ␣%l f \n" ,p2 .mon [ 0 ] . v ,homoval (p1 , p2 .mon [ 0 ] . v ) ,ra iznewt (p1 , p2 .mon [ 0 ] . v ) ,homoval (p1 , ra iznewt (p1 , p2 .mon [ 0 ] . v ) ) ) ;

e x i t ( 1 ) ;default : puts ( "Calcu lo ␣de␣ r a i z e s ␣ r e a l i z a d o . " ) ;}

mostrapol ( "\nO␣ r e su l t ado ␣deu : ␣\n" , p1 , "(% l f+␣ i%l f ) " ) ;puts ( "" ) ;

}

mostrapol (char ∗ s t r , struct po l i n p , char ∗ s t r f ){int j ;char s [ 2 5 6 ] ;p r i n t f ( s t r ) ;for ( j= 0 ; j< (p . tam− 1 ) ; j++)

{s p r i n t f ( s ,

(p .mon [ j ] . g== 0)? "%s+␣" : "%sX^%d+␣" ,s t r f , p .mon [ j ] . g ) ;

p r i n t f ( s , p .mon [ j ] . v ) ;}

s p r i n t f ( s , "%sX^%d" ,s t r f , p .mon [ p . tam− 1 ] . g ) ;

p r i n t f ( s , p .mon [ p . tam− 1 ] . v ) ;

Page 107: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 91

}

mostrafun (char ∗ s t r , struct funr r , char ∗ s t r f ){int j ;char s [ 2 5 6 ] ;p r i n t f ( s t r ) ;p r i n t f ( " ( " ) ;for ( j= 0 ; j< ( r . pn . tam− 1 ) ; j++)

{s p r i n t f ( s ,

( r . pn .mon [ j ] . g== 0)? "%s+␣" : "%sX^%d+␣" ,s t r f , r . pn .mon [ j ] . g ) ;

p r i n t f ( s , r . pn .mon [ j ] . v ) ;}

s p r i n t f ( s , "%sX^%d)/ " ,s t r f , r . pn .mon [ r . pn . tam− 1 ] . g ) ;

p r i n t f ( s , r . pn .mon [ r . pn . tam− 1 ] . v ) ;

p r i n t f ( " ( " ) ;for ( j= 0 ; j< ( r . pd . tam− 1 ) ; j++)

{s p r i n t f ( s ,

( r . pd .mon [ j ] . g== 0)? "%s+␣" : "%sX^%d+␣" ,s t r f , r . pd .mon [ j ] . g ) ;

p r i n t f ( s , r . pd .mon [ j ] . v ) ;}

s p r i n t f ( s , "%sX^%d) " ,s t r f , r . pd .mon [ r . pd . tam− 1 ] . g ) ;

p r i n t f ( s , r . pd .mon [ r . pd . tam− 1 ] . v ) ;

}

struct po l i n mdcp( struct po l i n p , struct po l i n q ){

struct po l i n sobre = p ;struct po l i n sub = q ;struct po l i n r e s t o ;

Page 108: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

92 Capítulo 2. Funções Analíticas

while ( i gua lp ( r e s t o= modp( sobre , sub ) , ZEROP) ){sobre = sub ;sub = r e s t o ;

}return ( sub ) ;

}

struct funr a t r i p2 ( struct po l i n n , struct po l i n d){struct funr r ;struct po l i n m;i f ( i gua lp (d , ZEROP) )

{_err = 1 ;return (ZEROR) ;

}

m = mdcp(n , d ) ;r . pn= divp (n , m) ;r . pd= divp (d , m) ;

return ( r ) ;}struct funr a t r i p1 ( struct funr r ){struct po l i n m;i f ( i gua lp ( r . pd , ZEROP) )

{_err = 1 ;r . pn= ZEROP;return ( r ) ;

}

m = mdcp( r . pn , r . pd ) ;r . pn = divp ( r . pn , m) ;

Page 109: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 93

r . pd = divp ( r . pd , m) ;return ( r ) ;

}

struct po l i n mulp ( struct po l i n p1 , struct po l i n p2 ){struct po l i n p ;int ind , i , j , k ;int n , m= p1 . grau+ p2 . grau ;

p= ZEROP;

for (n= 0 , k= 0 ; n<= m; n++){ind= p2 . tam− 1 ;for ( i= 0 ; ( i< p1 . tam) && (p1 .mon [ i ] . g<= n ) ; i++)

{/∗ Obs : a busca abaixo pode ser otimizada , usando bsearch . ∗/

for ( j= ind ;( j>= 0) && (p2 .mon [ j ] . g > (n− p1 .mon [ i ] . g ) ) ;j−−);

i f ( p2 .mon [ j ] . g== (n− p1 .mon [ i ] . g ) ){p .mon [ p . tam ] . g= n ;p .mon [ p . tam ] . v= SM(p .mon [ p . tam ] . v ,

ML(p1 .mon [ i ] . v , p2 .mon [ j ] . v ) ) ;ind= j ;

}}

i f ( ! IGUAL(p .mon [ p . tam ] . v , ZERO)){p . tam++;p . grau= n ;

}

}

return (p ) ;

Page 110: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

94 Capítulo 2. Funções Analíticas

}

struct po l i n sump( struct po l i n p1 , struct po l i n p2 ){struct po l i n p ;int m, n , k , kax ;

kax= p1 . tam+ p2 . tam ;

for ( k= m= n= 0 ; (m< p1 . tam)&& (n< p2 . tam)&& (k< kax ) ; ){i f ( p1 .mon [ m] . g== p2 .mon [ n ] . g )

{p .mon [ k ] . v= SM(p1 .mon [ m] . v , p2 .mon [ n ] . v ) ;i f ( ! IGUAL(p .mon [ k ] . v , ZERO))

{

p .mon [ k ] . g= p1 .mon [ m] . g ;k++;

}m++;n++;

}else

{

i f ( p1 .mon [ m] . g< p2 .mon [ n ] . g ){p .mon [ k ] . g= p1 .mon [ m] . g ;p .mon [ k ] . v= p1 .mon [ m] . v ;m++;

}else

{p .mon [ k ] . g= p2 .mon [ n ] . g ;p .mon [ k ] . v= p2 .mon [ n ] . v ;n++;

Page 111: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 95

}k++;

}

}

for ( ;m< p1 . tam ; m++, k++){p .mon [ k ] . g= p1 .mon [ m] . g ;p .mon [ k ] . v= p1 .mon [ m] . v ;

}

for ( ; n< p2 . tam ; n++, k++){p .mon [ k ] . g= p2 .mon [ n ] . g ;p .mon [ k ] . v= p2 .mon [ n ] . v ;

}

p . grau= p .mon [ k− 1 ] . g ;p . tam= k ;

return (p ) ;}

struct po l i n subp ( struct po l i n p1 , struct po l i n p2 ){struct po l i n p ;int m, n , k , kax ;

kax= p1 . tam+ p2 . tam ;

for ( k= m= n= 0 ; (m< p1 . tam)&& (n< p2 . tam)&& (k< kax ) ; ){i f ( p1 .mon [ m] . g== p2 .mon [ n ] . g )

{p .mon [ k ] . v= SB(p1 .mon [ m] . v , p2 .mon [ n ] . v ) ;

Page 112: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

96 Capítulo 2. Funções Analíticas

i f ( ! IGUAL(p .mon [ k ] . v , ZERO)){p .mon [ k ] . g= p1 .mon [ m] . g ;k++;

}

m++;n++;

}else

{i f ( p1 .mon [ m] . g< p2 .mon [ n ] . g )

{p .mon [ k ] . g= p1 .mon [ m] . g ;

p .mon [ k ] . v= p1 .mon [ m] . v ;m++;}

else{p .mon [ k ] . g= p2 .mon [ n ] . g ;p .mon [ k ] . v= SB(ZERO, p2 .mon [ n ] . v ) ;n++;

}k++;

}

}

for ( ;m< p1 . tam ; m++, k++){p .mon [ k ] . g= p1 .mon [ m] . g ;p .mon [ k ] . v= p1 .mon [ m] . v ;

}

for ( ; n< p2 . tam ; n++, k++){p .mon [ k ] . g= p2 .mon [ n ] . g ;

Page 113: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 97

p .mon [ k ] . v= SB(ZERO, p2 .mon [ n ] . v ) ;}

p . grau= p .mon [ k− 1 ] . g ;

p . tam= k ;

return (p ) ;}

struct po l i n divp ( struct po l i n p1 , struct po l i n p2 ){struct po l i n p , paux , rp ;int gr ;i f ( p1 . grau< p2 . grau )

return (ZEROP) ;p= ZEROP;rp= p1 ;do {

paux . grau= paux .mon [ 0 ] . g= rp . grau− p2 . grau ;paux . tam= 1 ;paux .mon [ 0 ] . v= DV( ( rp .mon [ ( rp . tam)− 1 ] . v ) ,

( p2 .mon [ ( p2 . tam)− 1 ] . v ) ) ;p= sump(p , paux ) ;gr= rp . grau ;rp= subp ( rp , mulp (p2 , paux ) ) ;i f ( rp . grau== gr )

{rp . tam−−;rp . grau= rp .mon [ rp . tam− 1 ] . g ;

}

} while ( rp . grau>= p2 . grau ) ;

return (p ) ;}

Page 114: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

98 Capítulo 2. Funções Analíticas

struct po l i n modp( struct po l i n p1 , struct po l i n p2 ){struct po l i n p , paux , rp ;

i f ( p1 . grau< p2 . grau )return ( p1 ) ;

rp= p1 ;p= ZEROP;do {

paux . grau= paux .mon [ 0 ] . g= rp . grau− p2 . grau ;paux . tam= 1 ;paux .mon [ 0 ] . v= DV( rp .mon [ rp . tam− 1 ] . v , p2 .mon [ p2 . tam− 1 ] . v ) ;p= sump(p , paux ) ;

rp= subp ( rp , mulp (p2 , paux ) ) ;

} while ( rp . grau>= p2 . grau ) ;

return ( rp ) ;}

int i gua lp ( struct po l i n p1 , struct po l i n p2 ){int i ;

i f ( p1 . grau != p2 . grau )return ( 0 ) ;

i f ( p1 . tam!= p2 . tam)return ( 0 ) ;

for ( i= 0 ; i< p1 . tam ; i++)i f ( ( p1 .mon [ i ] . g!= p2 .mon [ i ] . g ) | |

( ! IGUAL(p1 .mon [ i ] . v , p2 .mon [ i ] . v ) ) )

Page 115: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 99

return ( 0 ) ;

return ( 1 ) ;

}

struct funr mulf ( struct funr r1 , struct funr r2 ){struct funr r ;struct po l i n m;m = mdcp( r1 . pn , r2 . pd ) ;r1 . pn= divp ( r1 . pn , m) ;r2 . pd= divp ( r2 . pd , m) ;m = mdcp( r1 . pd , r2 . pn ) ;r1 . pd= divp ( r1 . pd , m) ;r2 . pn= divp ( r2 . pn , m) ;r . pn = mulp ( r1 . pn , r2 . pn ) ;r . pd = mulp ( r1 . pd , r2 . pd ) ;return ( r ) ;

}

struct funr sumf ( struct funr r1 , struct funr r2 ){struct funr r ;struct po l i n m, n ;n = sump( mulp ( r1 . pn , r2 . pd ) , mulp ( r2 . pn , r1 . pd ) ) ;m = mdcp(n , r1 . pd ) ;n= divp (n , m) ;r . pd = divp ( r1 . pd , m) ;m = mdcp(n , r2 . pd ) ;r . pn= divp (n , m) ;r . pd= mulp ( r . pd , divp ( r2 . pd , m) ) ;return ( r ) ;

}

struct funr d i v f ( struct funr r1 , struct funr r2 )

Page 116: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

100 Capítulo 2. Funções Analíticas

{return ( mulf ( r1 , a t r i p2 ( r2 . pd , r2 . pn ) ) ) ;

}

struct funr subf ( struct funr r1 , struct funr r2 ){return ( sumf ( r1 , a t r i p2 ( subp (ZEROP, r2 . pn ) , r2 . pd ) ) ) ;

}

struct po l i n der ivp ( struct po l i n p){int i , j ;

i f (p . grau )p . grau−−;

for ( i= j= 0 ; j< p . tam ; j++){i f (p .mon [ j ] . g== 0)

continue ;

p .mon [ i ] . v= MLR(p .mon [ j ] . v , ( r e a l ) ( p .mon [ j ] . g ) ) ;p .mon [ i ++].g= p .mon [ j ] . g− 1 ;

}

p . tam= i ;

return ( p ) ;

}

struct funr d e r i v f ( struct funr r ){

Page 117: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 101

struct funr f ;struct po l i n m;

f . pn= subp (mulp ( der ivp ( r . pn ) , r . pd ) , mulp ( der ivp ( r . pd ) , r . pn ) ) ;

f . pd= mulp ( r . pd , r . pd ) ;

m = mdcp( f . pd , f . pn ) ;f . pd= divp ( f . pd , m) ;f . pn= divp ( f . pn , m) ;

return ( f ) ;}

/∗ Funcoes para d i a gno s t i c a r e x i s t e n c i a de r a i z e s em uma reg iao ∗/

long d f s ob r e f ( struct po l i n p ,TIPO ∗ d f s f , TIPO ∗ zd f s f , TIPO ∗z , long t )

{long i , j ;TIPO num, den ;

struct po l i n drv ;

drv= der ivp ( p ) ;

for ( i= 0 ; i< t ; i++){num= homoval ( drv , z [ i ] ) ;den= homoval (p , z [ i ] ) ;i f ( ! IGUAL(den , ZERO))

{d f s f [ i ]= DV(num, den ) ;z d f s f [ i ]= ML( d f s f [ i ] , z [ i ] ) ;

}

Page 118: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

102 Capítulo 2. Funções Analíticas

else{∗ d f s f= z [ i ] ;return ( 0 ) ;

}

}return ( i ) ;

}

TIPO homoval ( struct po l i n p , TIPO x){int j , k ;TIPO y ;

for ( j= p . tam− 1 , y= p .mon [ j ] . v ; j> 0 ; ){

for ( k= p .mon [ j ] . g− p .mon [ j− 1 ] . g ; k> 0 ; k−−){y= ML(y , x ) ;

}

y= SM(y , p .mon[−− j ] . v ) ;

}

for ( k= 0 ; k< p .mon [ 0 ] . g ; k++)y= ML(y , x ) ;

return ( y ) ;

}

Page 119: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 103

long curvaplp ( struct po l i n p ,TIPO ∗plsp , TIPO ∗ zplsp , TIPO ∗curv , long n)

{struct po l i n dera ;r e a l eps ;TIPO y ;long j= 0L ;eps= (AB( curv [ 0])> 0 . 1 ) ?0 . 0000000001 :AB( curv [ 0 ] ) /100000000 . 0 ;dera= der ivp ( p ) ;

for ( j= 0 ; j< n ; j++){y= homoval ( p , curv [ j ] ) ;i f (AB(y)> eps )

{p l sp [ j ]= DV( homoval ( dera , curv [ j ] ) , y ) ;zp l sp [ j ]= ML( curv [ j ] , p l sp [ j ] ) ;

}else

{p l sp [ 0]= curv [ j ] ;return ( 0L ) ;

}}

return ( j ) ;}

TIPO ra iznewt ( struct po l i n p , TIPO x0 ){struct po l i n dera ;r e a l eps ;TIPO x1 , aux ;int j= 0 ;eps= (AB( x0)> 0 .1 ) ?0 . 0000000001 :AB( x0 )/100000000 .0 ;dera= der ivp ( p ) ;

Page 120: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

104 Capítulo 2. Funções Analíticas

do{x1= x0 ;

aux= homoval ( dera , x0 ) ;

i f (AB( aux)> eps )x0= SB(x0 , DV( homoval (p , x0 ) , aux ) ) ;

else{i f (AB( homoval (p , x0))< eps )

return ( x0 ) ;else

{x0= SM(x0 , UM) ;

}}

j++;

} while ( (AB(SM(x1 , x0))>= eps ) && ( j< 10000 ) ) ;

return ( x0 ) ;}

/∗−−−− Arquivo t i p o . h −−−−−−−−−−−∗//∗Neste arquivo , d i f e r e n t e s t i p o s e macros correspondentessao d e f i n i d o s

∗/#ifdef TIPOREAL#define SM(x , y ) ( ( x)+ (y ) )#define SB(x , y ) ( ( x)− ( y ) )#define ML(x , y ) ( ( x )∗ ( y ) )#define DV(x , y ) ( ( x )/ (y ) )#define AT(x , y ) ( ( x)= (y ) )

Page 121: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 105

#define ATR(x , y ) ( ( x)= (y ) )#define IGUAL(x , y ) ( ( x)==(y ) )#define MEN(x , y ) ( ( x)< (y ) )#define MENI(x , y ) ( ( x)<= (y ) )#define TAM s izeof ( r e a l )#define ZERO (( r e a l ) ( 0 . ) )#define UM (( r e a l ) ( 1 . ) )#define STR "%8.3 l f ␣"#define TIP(x ) (x )

#endif

#i fde f TIPORACIONAL#define SM(x , y ) soma ( ( x ) , ( y ) )#define SB(x , y ) suba ( ( x ) , ( y ) )#define ML(x , y ) mula ( ( x ) , ( y ) )#define MLR(x , y ) mula ( ( x ) , aproxrea l ( y ) )#define DV(x , y ) d i v i ( ( x ) , ( y ) )#define AT(x , y ) ( ( x)= (y ) )#define ATR(x , y ) ( x)= a t r i b1 (y )#define IGUAL(x , y ) i g ua l ( ( x ) , ( y ) )#define MEN(x , y ) menor ( ( x ) , ( y ) )#define MENI(x , y ) menorigual ( ( x ) , ( y ) )#define TAM s izeof ( struct r a c i o n a l )#define STR "%6ld/%6ld ␣"#define TIP(x ) aproxrea l ( x )#define ZERO zera#define UM uma#endif

#i fde f TIPOCOMPLEX#define SM(x , y ) somc ( ( x ) , ( y ) )#define SB(x , y ) subc ( ( x ) , ( y ) )#define ML(x , y ) mulc ( ( x ) , ( y ) )#define MLR(x , y ) mulr ( ( x ) , ( y ) )#define DV(x , y ) d ivc ( ( x ) , ( y ) )#define AT(x , y ) ( ( x)= (y ) )

Page 122: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

106 Capítulo 2. Funções Analíticas

#define ATR(x , y ) ( x)= a t r i c 1 (y )#define IGUAL(x , y ) i g u a l c ( ( x ) , ( y ) )#define TAM s izeof ( struct complex )#define STR "%l f+␣ i ␣%l f "#define TIP(x ) a t r i c 2 ( ( x ) , 0 . 0 )#define ZERO zer c#define UM umc#endif

/∗−−−−− Arquivo complex . c −−−−−−−−−−∗//∗ Programa de numeros complexos ∗//∗Neste arquivo , implementamos numeros complexos ,independente da implementacao ja e x i s t e n t e em Ansi−C99∗/

#include <s td i o . h>#include <s t d l i b . h>#include <math . h>

#ifndef r e a l#define r e a l double#endif

#ifndef PI#define PI 3.1415926535897932384626433832795#endif

struct complex{r e a l re ;r e a l im ;

} ;char e r r =0;

stat ic struct complex ze r c= {0 . 0 , 0 . 0 } ;stat ic struct complex umc= {1 .0 , 0 . 0 } ;

Page 123: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 107

struct complex somc ( struct complex , struct complex ) ;struct complex subc ( struct complex , struct complex ) ;struct complex mulc ( struct complex , struct complex ) ;struct complex mulr ( struct complex , r e a l ) ;struct complex divc ( struct complex , struct complex ) ;

r e a l ccabs ( struct complex ) ;int i g u a l c ( struct complex z1 , struct complex z2 ){return ( ( z1 . re== z2 . re)&& ( z1 . im== z2 . im ) ) ; }#define a t r i c 1 ( z ) ( z )

long ge racu rva f e c ( struct complex , struct complex ,struct complex ∗ , long ) ;

struct complex a t r i c 2 ( r ea l , r e a l ) ;

struct complex a t r i c 2 ( r e a l re , r e a l im){struct complex z ;z . r e= re ;z . im= im ;

return ( z ) ;}

struct complex mulc ( struct complex z1 , struct complex z2 ){struct complex z ;z . r e= z1 . re ∗ z2 . re − z1 . im∗ z2 . im ;

z . im= z1 . re ∗ z2 . im + z1 . im∗ z2 . re ;

return ( z ) ;}

struct complex mulr ( struct complex z1 , r e a l r )

Page 124: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

108 Capítulo 2. Funções Analíticas

{z1 . re∗= r ;

z1 . im∗= r ;

return ( z1 ) ;}

struct complex somc ( struct complex z1 , struct complex z2 ){struct complex z ;z . r e= z1 . re + z2 . re ;z . im= z1 . im + z2 . im ;return ( z ) ;

}

struct complex divc ( struct complex z1 , struct complex z2 ){struct complex z ;r e a l m= z2 . re ∗ z2 . re+ z2 . im∗ z2 . im ;i f (m != 0 . 0 )

{z2 . re/= m;z2 . im/= −m;z . re= z1 . re ∗ z2 . re − z1 . im∗ z2 . im ;z . im= z1 . re ∗ z2 . im + z1 . im∗ z2 . re ;return ( z ) ;

}e r r= 1 ;return ( z2 ) ;

}

struct complex subc ( struct complex z1 , struct complex z2 ){z1 . re−= z2 . re ;z1 . im−= z2 . im ;return ( z1 ) ;

}

Page 125: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 109

r e a l ccabs ( struct complex z ){return ( s q r t ( z . re ∗ z . re+ z . im∗ z . im ) ) ;

}

long ge racu rva f e c ( struct complex z1 , struct complex z2 ,struct complex ∗z , long p)

{r e a l r1 , r2 , x , y ;int j , k , l , m;

p−= p%4;

i f (p<= 0)return ( 0 ) ;

r1= fabs ( z1 . re− z2 . re ) ;r2= fabs ( z1 . im− z2 . im ) ;

r1= ( r1>= r2 )? r1 / 4 . 0 : r2 / 4 . 0 ;r2= (8 . 0∗ r1 )/ ( r e a l ) ( p ) ;

p+= 4 ;for ( j= 0 , l= p/4 , k= (3∗p)/4− 1 ,

m= p− 1 , x= z1 . re− r1 , y= z1 . im− r1 ;x<= ( z1 . re+ r1 ) ;x+= r2 , y+= r2 , j++, l++, k−−, m−−)

{z [ j ] . r e= z [ k ] . r e= x ;z [ j ] . im= z1 . im− r1 ;

z [ k ] . im= z1 . im+ r1 ;

z [ l ] . im= z [ m] . im= y ;z [ l ] . r e= z1 . re+ r1 ;z [ m] . re= z1 . re− r1 ;

}

Page 126: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

110 Capítulo 2. Funções Analíticas

for ( ; j<= (p /4 ) ; j++){z [ j ] . r e= z1 . re+ r1 ;z [ j ] . im= z1 . im− r1 ;

}for ( ; k>= p/2 ; k−−)

{z [ k ] . r e= z1 . re+ r1 ;z [ k ] . im= z1 . im+ r1 ;

}

for ( ;m>= (3∗p ) /4 ; m−−){z [ m] . im= z1 . im+ r1 ;z [ m] . re= z1 . re− r1 ;

}z [ p+ 1]= z [ p]= z [ 0 ] ;

return ( p ) ;

}

long gerare tang ( struct complex z1 , struct complex z2 ,struct complex ∗z , long p)

{r e a l r , r i , d , dx , dy , x , y ;int j , k , l , m;

p−= p%4;

i f (p<= 0)return ( 0 ) ;

i f ( z1 . re> z2 . re ){r= z2 . re ;z2 . re= z1 . re ;

Page 127: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 111

z1 . re= r ;}

r= z2 . re− z1 . re ;

i f ( z1 . im> z2 . im){r i= z2 . im ;z2 . im= z1 . im ;z1 . im= r i ;

}

r i= z2 . im− z1 . im ;

d= (2 . 0∗ ( r+ r i ) ) / ( ( r e a l ) p ) ;

dx= r / c e i l ( r /d ) ;k= ( int ) ( c e i l ( r /dx)+ 0 . 1 ) ;dy= r i / c e i l ( r i /d ) ;m= ( int ) ( c e i l ( r i /dy)+ 0 . 1 ) ;

for ( j= 0 , l= k+ m, x= z1 . re ;x<= z2 . re ;x+= dx , j++, l++)

{z [ j ] . r e= x ;z [ j ] . im= z1 . im ;z [ l ] . im= z2 . im ;z [ l ] . r e= z1 . re+ ( z2 . re− x ) ;

}

for ( y= z1 . im ; y<= z2 . im ; y+= dy , j++, l++){z [ j ] . r e= z2 . re ;z [ j ] . im= y ;z [ l ] . r e= z1 . re ;z [ l ] . im= z1 . im+ ( z2 . im− y ) ;

Page 128: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

112 Capítulo 2. Funções Analíticas

}

p= l ;z [ p+ 1]= z [ p]= z [ 0 ] ;

return ( p ) ;

}

/∗−−− Arquivo in t e g ra . c −−−−−−−−−∗/

#define GAUX( i , j ) gaux [ ( i )∗ (n) + ( j ) ]#ifdef GRAFICO#define G( i , j ) g [ ( i )∗ (n+ 1) + ( j+ 1 ) ]#define GX( i ) g [ ( i )∗ (n+ 1 ) ]#else#define G( i , j ) g [ ( i )∗ (n) + ( j ) ]#endif

#ifndef TIPO#define TIPO r e a l#endif

/∗ In tegracao por Trapezio ∗/

TIPO in t e g r ( r e a l xa , r e a l x ,TIPO ∗ya ,TIPO ∗g ,TIPO ∗gaux , int n , long p)

{long k , l ;TIPO sum ;r e a l r= (x− xa )/ ( r e a l ) ( p ) , r r= fabs ( r ) / 2 . 0 ;

for ( k= 0 ; k< n ; k++){GAUX(p+1, k)= ZERO;for (G(0 , k)= sum= ya [ k ] , l= 0 ; l< p ; l++)

Page 129: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 113

{sum= SM(sum , MLR(SM(GAUX( l , k ) , GAUX( l+ 1 , k ) ) , r r ) ) ;

G( l+ 1 , k)= sum ;

}}

return ( sum ) ;}

/∗ In tegracao Curv i l inea ( r e a l ou complexa ) t i p o Trapezio ∗/

TIPO in t e g r c ( TIPO ∗ya , TIPO ∗g ,TIPO ∗gaux , TIPO ∗curv , int n , long p)

{long k , l ;TIPO sum ;

for ( k= 0 ; k< n ; k++){GAUX(p+ 1 , k)= GAUX(p , k)= GAUX(p− 1 , k ) ;

for (G(0 , k)= sum= ya [ k ] , l= 0 ; l< p ; l++){sum= SM(sum ,ML(MLR(SM(GAUX( l , k ) , GAUX( l+ 1 , k ) ) , 0 . 5 ) ,

SB( curv [ l +1] , curv [ l ] ) ) ) ;

G( l+ 1 , k)= sum ;}

}return ( sum ) ;

}

Page 130: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

114 Capítulo 2. Funções Analíticas

Figura 6 – Execução do programa de Cálculo de Raízes.Exemplos de uso do programa polintip, com conferência dos valores calculados.

Page 131: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2.7. Exercícios 115

2.7 Exercícios

1. Verifique se as seguintes séries convergem:

a)∑

1n2

b)∑

1n

c)∑

1n!

2. Mostre que se (zn), zn > 0 é tal que existe o limn→+∞zn+1

zn=

c, então existe limn→+∞ n√zn = c.

3. Calcule os limsups abaixo (obs.: algum pode ser +∞)):

a) lim sup n√

1

b) lim sup n√c, c > 0

c) lim sup n√

1/n

d) lim sup n√

1/n2

e) lim supn√n2

f) lim sup n√n!

g) lim sup n√n!/nn

h) lim sup n√an, onde (an) é a sequência de Fibonacci,

definida por a1 := 1, a2 := 1 e an+1 = an + an−1,∀n > 2.

4. Prove que um espaço vetorial normado E é completo se, esó se, toda série absolutamente convergente em E é con-vergente.

5. Seja (an) : N→ E uma sequência tomando valores em umespaço de Banach E. Uma reenumeração de (an) é uma

Page 132: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

116 Capítulo 2. Funções Analíticas

sequência (bn), onde bn = aϕ(n), ∀n ∈ N. Prove que se (bn)

é uma reenumeração de (an), e∑an é absolutamente con-

vergente, então∑bn é convergente ao mesmo valor limite

de∑an.

6. Mostre que toda sequência convergente a um ponto em umespaço métrico X é de Cauchy.

7. Seja X um espaço métrico, e x ∈ X. Mostre que todasequência de Cauchy (xn), xn ∈ X com subsequência con-vergente a x converge ela mesma a x.

8. Seja E um espaço de Banach e seja C ⊂ L(E) a coleçãodas aplicações lineares invertíveis de E em E. Mostre queC é um aberto e que a aplicação Inv : C → C dada porInv(A) := A−1 é contínua.

9. Seja f : C\{0} → C dada por f(z) := 1/z. Seja γ o círculode raio r > 0 e centro na origem. Calcule

∫γf(z)dz.

10. Seja f : C \ {0} → C dada por f(z) := 1zn , n > 1. Seja γ o

círculo de raio r > 0 e centro na origem. Calcule∫γf(z)dz.

11. Seja γ ⊂ C uma curva homeomorfa a um círculo e p : C→C um polinômio tal que sem raízes em γ. Mostre que

1

2πi

∫γ

p′(z)/p(z)dz = Z(p, γ),

onde Z(p, γ) é o número de raízes de p na região interior aγ, contadas as suas multiplicidades.

12. Use o exercício anterior para concluir que a aplicação queatribui a um polinômio complexo de grau n, suas n raízes,é contínua.

Page 133: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

2.7. Exercícios 117

13. Seja γ ⊂ C uma curva homeomorfa a um círculo e p : C→C um polinômio tal que sem raízes em γ. Suponha que

1

2πi

∫γ

p′(z)/p(z)dz = 1.

Mostre que

1

2πi

∫γ

zp′(z)/p(z)dz = z0,

onde z0 é a única raiz contida na região limitada que temγ como fronteira.

Page 134: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3
Page 135: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

119

3 Funções de Operador

Neste capítulo, nós nos aprofundaremos no estudo deoperadores lineares em dimensão qualquer, usando para isso ateoria de Análise Complexa vista anteriormente. Como um sub-produto, ao final escrevemos um programa que permite calcularum autoespaço (generalizado) sem conhecer com precisão o au-tovalor associado, sabendo-se somente que este se acha em umacerta região limitada. Embora tal técnica, hoje, possa não sermuito eficiente comparada às demais disponíveis, com o avançoda computação quântica poderá se tornar competitiva dada asua estabilidade.

3.1 Funções analíticas de operadores

Definição 3.1. (Espectro de um operador linear con-tínuo.) Seja E um espaço vetorial normado complexo e sejaA : E → E um operador linear contínuo. O espectro de A é oconjunto

sp(A) := {λ ∈ C, (λI −A) não possui inversa contínua}.

Observação 3.2. Devido ao Teorema da Aplicação Aberta deAnálise Funcional, se E é um espaço de Banach e A ∈ L(E),então se A for invertível, sua inversa é automaticamente contí-nua. Dessa forma, se E é um espaço de Banach e A : E → E

é linear contínua, seu espectro consiste do conjunto dos pontosλ ∈ C tal que (A − λI) não é injetiva ou não é sobrejetiva (ainversa de (A− λI) não existe). Em dimenão finita, todo opera-

Page 136: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

120 Capítulo 3. Funções de Operador

dor linear é automaticamente contínuo, e nesse caso particulartodas as menções à continuidade na definição de espectro sãoredundantes.

Estudaremos uma caracterização do espectro de A :

E → E quando A ∈ L(E), com E um espaço de Banach com-plexo e L(E) sendo o espaço de aplicações lineares contínuas deE em E.

A idéia para isso será estudarmos res(A) := sp(A)c,também conhecido como o conjunto resolvente de A. Ora, paraz ∈ res(A), sabemos que é um isomorfismo linear (contínuo) ooperador (zI−A). Lembramos que se E é um espaço de Banach,L(E) também é um espaço de Banach com a conhecida normado Operador. Para T ∈ L(E), sua norma é:

‖T‖op = supv∈E;‖v‖=1

{‖T (v)‖} = Lip(T ).

Antes de tudo, observemos que se A é contínuo, o con-junto resolvente de A é não vazio, e que o espectro é limitado.De fato, se |λ| > ‖A‖op, pelo Teorema da perturbação da Iden-tidade (λI−A) = λ · (I−A/λ) é isomorfismo . Pelo Teorema daPerturbação do Isomorfismo, também temos que res(A) é aberto- logo sp(A) é compacto, visto que é um subconjunto fechado elimitado de C.

Consideraremos então a aplicação resolvente ρ : res(A)→L(E) dada por ρ(z) := (zI − A)−1. Já vimos acima que queres(A) é aberto.

Mostraremos que esta aplicação é analítica, e adapta-remos o que conhecemos sobre raio de convergência de série de

Page 137: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 121

potências.

Para provarmos que ρ é holomorfa (possui derivada ho-lomorfa) usaremos a muito simples

Proposição 3.3. (Equação do resolvente.) É válida a se-guinte identidade:

ρ(λ)− ρ(µ) = (µ− λ)ρ(λ)ρ(µ).

Prova: De fato,

ρ(λ)− ρ(µ) = ρ(λ)ρ(µ)(µI −A)(λI −A)(ρ(λ)− ρ(µ)) =

ρ(λ)ρ(µ)(µI −A)(I − λρ(µ) +Aρ(µ)) =

ρ(λ)ρ(µ)(µI −A− λI +A) =

(µ− λ)ρ(λ)ρ(µ).

Corolário 3.4. Dada uma aplicação linear A ∈ L(E), a apli-cação resolvente associada ρ : res(A) → L(E) é holomorfa emres(A), com derivada holomorfa em λ igual a −ρ(λ)2.

Prova:

Como a inversão de operadores é uma aplicação contí-nua em um aberto L(E), segue -se que ρ é contínua como com-posta de aplicações contínuas.

Temos portanto que

ρ′(λ) = limµ→λ

ρ(µ)− ρ(λ)

λ− µ= limµ→λ−ρ(µ)ρ(λ) = −ρ(λ)2.

Page 138: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

122 Capítulo 3. Funções de Operador

Nosso próximo passo é demonstrar que o espectro deum operador contínuo é não vazio.

Teorema 3.5. Dada uma aplicação linear A ∈ L(E), o espectrode A é não vazio, e o raio espectral r(A) := sup |sp(A)| é iguala limn→+∞

n√‖An‖.

Prova:

Do que vimos acima, está claro que para z 6= 0 para que(zI − A) seja invertível é necessário e suficiente que (I − A/z)seja invertível. Inspirados na série geométrica, para z, |z| > 0,estudemos a convergência absoluta da série

∑n≥0(A/z)n, a qual

esperamos que convirja a (I − A/z)−1. Ora, tal série convergeabsolutamente se, e só se, a série

∑n≥0 ‖An‖op/|z|n converge

na reta. Chamando de an := ‖An‖op do critério de comparação(com a série geométrica) que esta última série converge para ztal que

lim sup n√an/|z| < 1⇒ |z| > lim sup n

√an = lim sup n

√‖An‖.

Notamos que a composição de aplicações lineares com A é contí-nua em L(E). Por exemplo, para a composição comA à esquerda,temos:

‖A◦B−A◦C‖op = ‖A◦(B−C)‖op ≤ ‖A‖op·‖B−C‖op,∀B,C ∈ L(E),

mostrando que tal aplicação de composição é Lipschitz. Temosassim da continuidade da composição que para |z| > lim sup n

√‖An‖,

Page 139: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 123

vale

(I −A/z) limn→∞

n∑j=0

(A/z)n = limn→∞

(I −A/z)n∑j=0

(A/z)n =

limn→∞

n∑j=0

(A/z)n −n+1∑j=1

(A/z)n = limn→∞

I − (A/z)n = I.

Efetuando contas similares, só que com a composição à direitacom (I−A/z), concluímos que para |z| > lim sup n

√‖An‖, existe

(zI − A)−1 = (1/z) ·∑∞n=0(A/z)n. Isso nos dá uma cota mais

fina para o raio da bola fechada onde se encontra sp(A).

Para mostrarmos que sup{|x|;x ∈ sp(A)} = lim sup n√‖An‖,

basta que adaptemos a teoria de funções holomorfas de C em C,para curvas holomorfas em espaços de Banach, o que já foi feitona seção 1.4.

Note que a série de Laurent de ρ em torno de zero é

ρ(z) =1

z

+∞∑j=0

(A/z)n.

Concluímos então que a série de Laurent de ρ converge paratodo z ∈ C tal que |z| > sup |sp(A)| e, é claro, não convergepara |z| < sup |sp(A)|, pois se convergisse, como vimos acima,existiriam pontos do espectro λ tais que a inversa [λI − A]−1

estaria definida, absurdo . Logo, sup |sp(A)| = lim sup n√‖An‖.

Podemos melhorar o resultado do último parágrafo, mos-trando que existe limn→+∞

n√‖An‖.De fato, note que λ ∈ sp(A)⇒

λn ∈ sp(An). Para ver isso, basta observar que

(λn −An) = (λ−A) ◦ (An−1 + λAn−1 + · · ·+ λn−1) =

(An−1 + λAn−1 + · · ·+ λn−1) ◦ (λ−A)

Page 140: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

124 Capítulo 3. Funções de Operador

implica que se λn ∈ res(An), então λ−A também é invertível.

Temos portanto que se λ ∈ sp(A),

|λn| ≤ r(An) ≤ ‖An‖,

e logo |λ| ≤ n√‖An‖, ∀n ∈ N, e daí, |λ| ≤ lim infn→+∞

n√‖An‖

donde concluímos

lim supn→+∞

n√‖An‖ = r(A) ≤ lim inf

n→+∞n√‖An‖.

Falta vermos que sp(A) 6= ∅. Para tal, basta usarmosdo Teorema de Liouville (Teorema 2.60, da página 74). Se porabsurdo, o espectro de A fosse vazio, ρ seria uma aplicação in-teira. Nesse caso, é fácil ver que ρ seria globalmente limitada: Seλ ∈ B(0, 2‖A‖), então ρ(λ) é uniformemente acotada por ρ sercontínua e B(0, 2‖A‖ ser compacta em C. Por outro lado,

‖ρ(λ)‖ = ‖(λI −A)−1‖ = [ inf‖v‖=1

‖λv −A(v)‖]−1 ≤

[|λ| − ‖A‖]−1 ≤ [|λ|/2]−1,∀λ; |λ| > 2‖A‖,

concluindo que se ρ fosse inteira, seria globalmente limitada eportanto constante pelo Teorema de Liouville, o que é absurdo.

Uma consequência imediata, e bastante importante disso,é que se o espectro de A está contido na bola unitária abertaB(0, 1), automaticamente todo iterado suficientemente grandede A será uma contração.

Uma última observação, é que outra prova de que existelim n

√‖An‖ pode ser obtida usando-se da subaditividade da sequên-

cia an := log(‖An‖). Tal se deve ao seguinte resultado elementar:

Page 141: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 125

Proposição 3.6. Seja (an) uma sequência de reais tais queam+n ≤ an + am. Então, sempre vale limn→+∞

1nan = inf an/n.

Em particular, se inf an/n > −∞, o limite acima existe em R.

Prova: É imediato que an ≤ n · a1, logo, (an/n) é li-mitada superiormente. Por outro lado, vale ainda que se k =

n ·m+ s, com 0 ≤ s < n, ak ≤ m · an + s · a1

an+k/(n+k) ≤ (an+ak)/(n+k) ≤ (an(m+1))/(n+k)+sa1/(n+k) ≤

(nan + ank)/(n+ k)n+ sa1/(n+ k) ≤

an/n+ sa1/(n+ k). (3.1)

Fazendo k → +∞, temos que

lim supj→+∞

aj/j = lim supk→+∞

an+k/(n+ k) ≤ an/n,

para todo n ∈ N fixado. Ora, mas então

lim supj→+∞

aj/j ≤ inf an/n ≤ lim infj→+∞

aj/j,

e portanto limn→+∞ an/n = inf an/n, podendo talvez este limiteser −∞.

Corolário 3.7. Existe limn→+∞n√‖An‖.

Prova: Sem perda de generalidade, suponha A 6= 0.Note que ‖An‖ ≤ ‖A‖n implica em que an := log(‖An‖) é suba-ditiva. Se inf an/n = −∞, tal implica que limn→+∞

n√‖An‖ =

0, e nada temos a provar. Caso inf an/n ≥ c > −∞, então

Page 142: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

126 Capítulo 3. Funções de Operador

1n log(‖An‖) → c implica que dado ε > 0, existe n0 ∈ N talque ∀n ≥ n0 vale

en(c−ε) < ‖An‖ < en(c+ε),

ou seja, limn→+∞n√‖An‖ = ec.

3.2 Noções Básicas de Teoria Espectral

Na seção 2.1.2, adaptamos a Teoria clássica de AnáliseComplexa com a finalidade de estudar a aplicação resolvente ρde um operador linear A : E → E fixado, onde E é um espaço deBanach. Usamos o fato de que ρ é uma aplicação holomorfa deum aberto de C em L(E). A idéia desta nova seção é estudar oespectro sob um foco diferente, cuja motivação é a seguinte. Dadoum polinômio p(z) =

∑mn=0 cnz

n, com cn ∈ C,∀n ∈ {0, . . . ,m},podemos avaliá-lo em L(E) (no lugar de avaliá-lo em C) pelafórmula:

L(E) 3 p(A) =

m∑n=0

cnAn.

Dizemos que p(A) é uma função polinomial do operador A. Comoas funções holomorfas são localmente limite uniforme de polino-miais, claro está que dada uma função f : U ⊂ C → C deve serpossível estender o conceito de função de operador para funçõesanalíticas quaisquer, obtendo-se f(A).

A definição precisa de f(A), das relações entre seu es-pectro e o espectro de A e suas consequências são o objetivo dapresente seção.

Definição 3.8. (Função de operador.) Seja A ∈ L(E) umoperador linear em um espaço de Banach E e f : U → C uma

Page 143: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 127

função holomorfa definida uma vizinhança (fechada) U não ne-cessariamente conexa de sp(A). Suponha que ∂U = C é com-posta de curvas fechadas, C1 por partes, orientadas com a ori-entação induzida no bordo. Definimos a função do operador Adada por f como

f(A) :=1

2πi

∫C

f(λ)ρ(λ)dλ

Denotamos por F(A) à coleção de todas as funções holomorfasem alguma vizinhança com fronteira C1 por partes de sp(A).

Teorema 3.9. (Cálculo Funcional.) Dadas f, g ∈ F(A),c ∈ C, valem:

1. c · f + g ∈ F(A) e (c · f + g)(A) = c · f(A) + g(A).

2. f · g ∈ F(A) e (f · g)(A) = f(A) · g(A).

3. Se f possui expansão em série de Taylor f(λ) =∑∞k=0 anλ

n,absolutamente convergente em uma vizinhança de sp(A),então f(A) =

∑∞n=0 anA

n.

Prova: Para o item 1, devemos esclarecer que por h =

c · f + g entendemos a função obtida somando-se na intersecçãodos domínios de f e g. O resultado é consequência óbvia dalinearidade da integral.

Para mostrarmos o item 2, usamos a equação do resol-vente:

f(A) · g(A) = − 1

4π2

∫C1

f(λ)ρ(λ)dλ

∫C2

g(µ)ρ(µ)dµ =

− 1

4π2

∫C1

(∫C2

f(λ)g(µ)ρ(λ)ρ(µ)dµ)dλ =

Page 144: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

128 Capítulo 3. Funções de Operador

− 1

4π2

∫C1

(∫C2

f(λ)g(µ)ρ(λ)− ρ(µ)

µ− λdµ)dλ =

− 1

4π2

∫C1

f(λ)(∫

C2

g(µ)

µ− λdµ)ρ(λ)dλ+

+1

4π2

∫C2

g(µ)(∫

C1

f(λ)

µ− λdλ)ρ(µ)dµ =

(pois tomamos C2 exterior a C1)

1

2πi

∫C1

f(λ)g(λ)ρ(λ)dλ = (f · g)(A).

Quanto ao item 3, sabemos do curso elementar de Aná-lise Complexa que qualquer série de potências converge abso-lutamente em bolas abertas em torno de um centro, logo, sea série

∑anλ

n converge em uma vizinhança de sp(A), estãoexiste ε0 tal que existe o limite (uniforme)

∑∞n=0 anλ

n,∀λ; |λ| ≤sup sp(A) + ε0 = r. Em particular, denotando por S1

r a esferaunitária de centro 0 e raio r, obtemos:

f(A) =1

2πi

∫S1r

(

∞∑n=0

anλn)ρ(λ)dλ =

1

2πi

∞∑n=0

∫S1r

anλnρ(λ)dλ =

1

2πi

∞∑n=0

an

∫S1r

λn(

∞∑j=0

Aj

λj+1)dλ =

∞∑n=0

anAn.

Observação 3.10. Podemos fazer melhor: em verdade o item3 ainda vale se f possuir expansão em série de Taylor f(λ) =∑∞k=0 an(λ− λ0)

n, absolutamente convergente em uma vizinhançade sp(A). Neste caso, temos f(A) =

∑∞n=0 an(A− λ0I)

n. Defato,

f(A) =1

2πi

∫S1r(λ0)

(

∞∑n=0

an(λ− λ0)n)(λI − λ0I + λ0I −A)

−1dλ =

Page 145: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 129

1

2πi

∞∑n=0

an

∫S1r(λ0)

(λ− λ0)n 1

(λI − λ0I)− (A− λ0I)dλ =

1

2πi

∞∑n=0

an

∫S1r(λ0)

(λ− λ0)n 1

λ− λ0(

1

1− A−λ0Iλ−λ0

)dλ =

1

2πi

∑n

an

∫S1r(λ0)

(λ− λ0)n∑j

(A− λ0I)j

(λ− λ0)j+1

dλ =

1

2πi

∑n

∑j

an

∫S1r(λ0)

(λ− λ0)n(A− λ0I)

j

(λ− λ0)j+1

dλ =

1

2πi

∞∑n=0

an

∫S1r(λ0)

1

λ− λ0(A− λ0I)

ndλ =

∞∑n=0

an(A− λ0I)n 1

2πi

∫S1r(λ0)

1

λ− λ0dλ =

∞∑n=0

an(A− λ0I)n.

O próximo teorema (junto com o anterior) pode ser con-siderado o proto-teorema Espectral, isto é, uma versão não lapi-dada (e portanto, mais geral) do teorema Espectral.

Teorema 3.11. (Mapeamento espectral.) Se f ∈ F(A), en-tão sp(f(A)) = f(sp(A)). Em particular, se A é invertível, entãosp(A−1) = (sp(A))−1 := {µ−1, µ ∈ sp(A)}.

Prova:

(f(sp(A)) ⊂ sp(f(A)))

Seja λ ∈ sp(A). A idéia é tentar escrever

f(λ)I − f(A) = (λI −A) · g(A), (∗)

com g ∈ F(A). Daí, como os operadores de A comutam, ficaclaro que se f(λ) não estivesse em sp(f(A)), então g(A) · (f(λ)−

Page 146: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

130 Capítulo 3. Funções de Operador

f(A))−1 seria inversa de (λI − A), absurdo. A própria fórmulaacima nos indica como definir g em uma vizinhança de sp(A):

g(z) =

{f(λ)−f(z)

λ−z , se z 6= λ

f ′(λ), caso z = λ.

Como g é holomorfa em um disco furado com centro em λ eé contínua em λ (pois f é holomorfa em λ), segue-se que g éholomorfa inclusive em λ, possuindo assim o mesmo domínio quef . Do Teorema do Cálculo Funcional, segue-se que g(A) satisfaz(*).

(sp(f(A)) ⊂ f(sp(A)))

Agora seja µ ∈ sp(f(A)) e suponha por absurdo que µ /∈f(sp(A)). Neste caso, f(λ)−µ 6= 0,∀λ ∈ sp(A) e portanto h(z) =

(f(z) − µ)−1 está definida (e é holomorfa) em uma vizinhançade sp(A). Ora, do Teorema do Cálculo Funcional, segue-se que

h(A) · (f(A)− µI) = I,

o que implica que µ /∈ sp(f(A)), absurdo.

Se A é invertível, então 0 /∈ sp(A), logo f(z) = 1/z éuma função holomorfa definida na vizinhança C \ {0} de sp(A).Ora, do teorema do Cálculo Funcional, de f(z) · z = z · f(z) = 1,concluímos que f(A)·A = A·f(A) = I, ou seja, que f(A) = A−1.Da parte provada acima do Mapeamento Espectral, concluímosque sp(A−1) = sp(f(A)) = f(sp(A)) = (sp(A))−1.

Definição 3.12. (Componente espectral.) Seja A : E → E

um operador linear definido em um espaço de Banach E. Umconjunto X ⊂ sp(A) é dito uma componente espectral se ele éaberto e fechado em sp(A).

Page 147: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 131

Note que como sp(A) é compacto, toda componente es-pectral também o é. Note ainda que se X é uma componenteespectral, o mesmo vale para Xc (o complementar de X emsp(A)).

Definição 3.13. (Projeção espectral.) Seja X uma compo-nente espectral do espectro de um operador linear A. Seja PX :

V → C definida em uma vizinhança não conexa V = VX ∪ VXcde sp(A), onde VX ⊃ X (respectivamente, VXc ⊃ Xc), tal que

PX(z) = 1,∀z ∈ VX ;PX(z) = 0,∀z ∈ VXc .

A aplicação ΠX := PX(A) ∈ L(E) é dita projeção espectralassociada a X.

Teorema 3.14. Seja A ∈ L(E) um operador linear em um es-paço de Banach, e seja X ⊂ sp(A) um conjunto espectral. En-tão existe uma decomposição A−invariante E ⊕ E = E tal quesp(A|E) = X e sp(A|E) = Xc.

Prova: Pelo teorema do Cálculo Funcional, vale queΠX e ΠXc comutam com A e entre si (todos os operadores deA comutam entre si), que I = ΠX + ΠXc , e 0 = ΠX ·ΠXc (poisPX(z) · PXc(z) = 0. Ademais, notamos que PX(z) = PX(z) ·PX(z) (resp. PXc(z) = PXc(z) ·PXc(z)) vale que ΠX = ΠX ·ΠX

(resp. ΠXc = ΠXc ·ΠXc .

Em particular, vale ainda que A = ΠX · A + ΠXc · A.Definindo E := ΠX(E) e E := ΠXc(E), temos que E + E =

I(E) = E e se v ∈ E ∩ E, então

ΠX(v) = v = ΠXc(v)⇒ ΠX ·ΠXc(v) = v ⇒ v = 0,

o que implica que E e E estão em soma direta.

Page 148: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

132 Capítulo 3. Funções de Operador

Finalmente, da comutatividade existente entre A e asprojeções espectrais, concluímos abaixo a A−invariância dos es-paços E e E:

A(E) = A(ΠX(E)) = ΠX(A(E)) ⊂ ΠX(E) = E;

A(E) = A(ΠXc(E)) = ΠXc(A(E)) ⊂ ΠXc(E) = E.

Agora, mostremos que sp(A|E) = X e que sp(A|E) =

Xc.

Primeiramente, observe que como E e E são invariantespor A, também o são por A− λI. Desse modo,

A− λI é invertível⇔

(A− λI)|E é invertível e (A− λI)|E é invertível.

Em outras palavras, res(A) = res(A|E) ∩ res(A|E), o que equi-vale a dizer que

sp(A) = sp(A|E) ∪ sp(A|E).

Seja r /∈ sp(A), e defina g : VX ∪ VXc → C por g(z) =

PX(z) ∗ z+ r ∗PXc . Isso implica que g(A) = ΠX ·A+ rΠXc . Ouseja, g(A) = (A|E , I|E)

Ora, o mapeamento espectral, junto com o mesmo raci-ocínio acima (baseado na invariância dos espaços E, E) aplicadoa g no lugar de A nos dão:

X ∪ {r} = sp(g(A)) = sp(A|E) ∪ {r};

e analogamente, poderíamos concluir que

Xc ∪ {r} = sp(A|E) ∪ {r}.

Page 149: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

3.3. Programa de Cálculo de projeções espectrais 133

Como r não pertence a sp(A), não pertence a nenhum dos sub-conjuntos sp(A|E), sp(A|E), X e Xc, donde concluímos quesp(A|E) = X e sp(A|E) = Xc.

3.3 Programa de Cálculo de projeções espectrais

Nessa seção, apresentamos um programa em linguagemC por nós escrito que permite entrar uma matriz e uma regiãoquadrada contendo um possível autovalor λ de um operador A,com a finalidade de calcular, usando da teoria vista de Análisecomplexa a projeção espectral associada λ. Note que a mesmaregião funciona para calcular a projeção espectral associada aoprolongamento de λ com respeito a operadores suficientementepróximos de A.

Para compilar o programa, deve-se digitar e salvar emuma mesma pasta os arquivos listados abaixo, além dos arquivos"tipos.h"e "integra.c"da listagem do final do segundo capítulodeste livro. e digitar em um terminal (preferencialmente, linux):

gcc -o proj proj.c -lm

Após a listagem, temos uma figura com a tela de exe-cução do exemplo que demos na introdução. Para quem preferircopiar e colar, a listagem abaixo também se encontra no link:

https://groups.google.com/

forum/?fromgroups#!forum/funcoesdeoperador29cbm

Page 150: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

134 Capítulo 3. Funções de Operador

/∗ Programa de Calcu lo de Projecoes Espec t ra i s ∗//∗ Arquivo p r i n c i p a l : pro j . c∗//∗ Autor : Augusto Armando de Castro Junior ∗//∗ Data : 15 de a b r i l de 2013.∗/

#include <s td i o . h>#include <s t d l i b . h>#include <math . h>

#ifndef r e a l#define r e a l double#endif

#ifndef PI#define PI 3.1415926535897932384626433832795#endif

struct complex{r e a l re ;r e a l im ;

} ;char e r r =0;

stat ic struct complex ze r c= {0 . 0 , 0 . 0 } ;stat ic struct complex umc= {1 .0 , 0 . 0 } ;

struct complex somc ( struct complex , struct complex ) ;struct complex subc ( struct complex , struct complex ) ;struct complex mulc ( struct complex , struct complex ) ;struct complex mulr ( struct complex , r e a l ) ;struct complex divc ( struct complex , struct complex ) ;int i g u a l c ( struct complex z1 , struct complex z2 )

Page 151: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 135

{return ( ( z1 . re== z2 . re)&& ( z1 . im== z2 . im ) ) ; }#define a t r i c 1 ( z ) ( z )struct complex a t r i c 2 ( r ea l , r e a l ) ;

long cu rva r e s o l v en t e ( struct complex ∗ , int , int , struct complex ∗ , long ) ;

long ge racu rva f e c ( struct complex , struct complex , struct complex ∗ , long ) ;

#define TIPOCOMPLEX#define TIPO struct complex#include " t ipo . h"#include " e q l i n . c"#include " i n t e g r a . c"

/∗ Numero de d i v i s o e s na in tegracao : ∗/#define ITERA 640/∗ dimensao ( ao quadrado ) maxima das matr i zes : ∗/#define DIMAX2 36

int main ( int argc , char ∗argv [ ] ){char ∗ s t r ;r e a l p1 , q1 , p2 , q2 ;struct complex r1 , z1 , z2 ;stat ic struct complex mat [ (2∗ ITERA+ 1)∗ DIMAX2] ,

matsai [ ITERA∗ DIMAX2] ,z [ ITERA∗ 2 ] , s , ∗sum ;int n , co l , i , j , dimat ;long p ;

i f ( argc < 6){p r i n t f ("Programa␣%s\n" ,

argv [ 0 ] ) ;

p r i n t f ("Uso : ␣%s ␣z1 . re ␣ z1 . im␣z2 . re ␣ z2 . im␣dim␣mat [ 0 ] . r e ␣mat [ 0 ] . im . . . \ n" ,

Page 152: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

136 Capítulo 3. Funções de Operador

argv [ 0 ] ) ;puts ( "Onde : " ) ;puts ( " z1 . re , ␣ z1 . im : ␣ coordenadas ␣do␣ centro ␣da␣ r eg i a o " ) ;puts ( " z2 . re , ␣ z2 . im : ␣ coordenadas ␣de␣um␣ponto␣ f o r a ␣da␣ r eg i a o . " ) ;puts ( "dim : ␣dimensao␣do␣ espaco ␣em␣que␣a␣matr iz ␣atua" ) ;e x i t ( 0 ) ;

}

z1 . re = a to f ( argv [ 1 ] ) ;z1 . im = ato f ( argv [ 2 ] ) ;z2 . re = a to f ( argv [ 3 ] ) ;z2 . im = ato f ( argv [ 4 ] ) ;dimat = a t o i ( argv [ 5 ] ) ;

s= a t r i c 2 ( 0 . 0 , 1 . 0/ (2∗ PI ) ) ;

i f ( ( dimat∗ dimat )∗ 2 >= ( argc− 5) ){p r i n t f (

"Numero␣de␣ entradas ␣eh␣menor␣que␣a␣dimensao␣%dx%d␣da␣matr iz " ,dimat , dimat ) ;

e x i t (−1);}

for ( i= 0 , j= 6 ; i< ( dimat∗ dimat ) ; i++, j+= 2){mat [ i ] . r e= a to f ( argv [ j ] ) ;mat [ i ] . im= ato f ( argv [ j +1 ] ) ;

}

p= ge racu rva f e c ( z1 , z2 , z , ITERA) ;

cu rva r e s o l v en t e (mat , dimat , dimat , z , p ) ;i n t e g r c (&mat [ (ITERA+ 1)∗ dimat∗ dimat ] , matsai ,

&mat [ dimat∗ dimat ] , z , dimat∗ dimat , p ) ;

sum= &matsai [ dimat∗ dimat∗ (p− 1 ) ] ;for ( i= 0 ; i< dimat∗dimat ; i++)

{

Page 153: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 137

sum [ i ]= mulc (sum [ i ] , s ) ;}

p r i n t f ( "A␣matr iz ␣de␣ pro j ecao ␣eh : ␣\n" ) ;mostramatriz (sum , dimat , 0 , 0 ,

dimat , dimat , "%l7 . 4 f+␣ i%l7 . 4 f ␣" ) ;

puts ( "\nQue␣ as ␣ f o r c a s ␣ cegas ␣ se ␣domem, ␣da␣ luz ␣que␣a␣alma␣tem !\ n" ) ;}

struct complex a t r i c 2 ( r e a l re , r e a l im){struct complex z ;z . r e= re ;z . im= im ;

return ( z ) ;}

struct complex mulc ( struct complex z1 , struct complex z2 ){struct complex z ;z . r e= z1 . re ∗ z2 . re − z1 . im∗ z2 . im ;

z . im= z1 . re ∗ z2 . im + z1 . im∗ z2 . re ;

return ( z ) ;}

struct complex mulr ( struct complex z1 , r e a l r ){z1 . re∗= r ;

z1 . im∗= r ;

return ( z1 ) ;}

Page 154: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

138 Capítulo 3. Funções de Operador

struct complex somc ( struct complex z1 , struct complex z2 ){struct complex z ;z . r e= z1 . re + z2 . re ;z . im= z1 . im + z2 . im ;return ( z ) ;

}

struct complex divc ( struct complex z1 , struct complex z2 ){struct complex z ;r e a l m= z2 . re ∗ z2 . re+ z2 . im∗ z2 . im ;i f (m != 0 . 0 )

{z2 . re/= m;z2 . im/= −m;z . re= z1 . re ∗ z2 . re − z1 . im∗ z2 . im ;z . im= z1 . re ∗ z2 . im + z1 . im∗ z2 . re ;return ( z ) ;

}e r r= 1 ;return ( z2 ) ;

}

struct complex subc ( struct complex z1 , struct complex z2 ){z1 . re−= z2 . re ;z1 . im−= z2 . im ;return ( z1 ) ;

}

long ge racu rva f e c ( struct complex z1 , struct complex z2 ,struct complex ∗z , long p)

{r e a l r1 , r2 , x , y ;int j , k , l , m;

p−= p%4;

Page 155: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 139

i f (p<= 0)return ( 0 ) ;

r1= fabs ( z1 . re− z2 . re ) ;r2= fabs ( z1 . im− z2 . im ) ;

r1= ( r1>= r2 )? r1 / 4 . 0 : r2 / 4 . 0 ;r2= (8 . 0∗ r1 )/ ( r e a l ) ( p ) ;

p+= 4 ;for ( j= 0 , l= p/4 , k= (3∗p)/4− 1 , m= p− 1 ,

x= z1 . re− r1 , y= z1 . im− r1 ;x<= ( z1 . re+ r1 ) ;x+= r2 , y+= r2 , j++, l++, k−−, m−−)

{z [ j ] . r e= z [ k ] . r e= x ;z [ j ] . im= z1 . im− r1 ;z [ k ] . im= z1 . im+ r1 ;

z [ l ] . im= z [ m] . im= y ;z [ l ] . r e= z1 . re+ r1 ;z [ m] . re= z1 . re− r1 ;

}

for ( ; j<= (p /4 ) ; j++){z [ j ] . r e= z1 . re+ r1 ;z [ j ] . im= z1 . im− r1 ;

}for ( ; k>= p/2 ; k−−)

{z [ k ] . r e= z1 . re+ r1 ;z [ k ] . im= z1 . im+ r1 ;

}

Page 156: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

140 Capítulo 3. Funções de Operador

for ( ;m>= (3∗p ) /4 ; m−−){z [ m] . im= z1 . im+ r1 ;z [ m] . re= z1 . re− r1 ;

}z [ p+ 1]= z [ p]= z [ 0 ] ;

return ( p ) ;

}

long cu rva r e s o l v en t e ( struct complex ∗mat , int co l , int n ,struct complex ∗z , long p)

{long i , j ;struct complex mataux [ 2 5 6 ] ;

for ( i= 1 ; i<= p ; i++){for ( j= 0 ; j< n ; j++)

{memcpy(&mataux [ j ∗ 2∗ c o l ] ,

&mat [ j ∗ c o l ] , c o l ∗ s izeof ( struct complex ) ) ;mataux [ j ∗ 2∗ c o l+ j ]= subc ( mataux [ j ∗ 2∗ c o l+ j ] , z [ i− 1 ] ) ;

}invmatudo (mataux , co l , &mat [ i ∗ n∗ c o l ] ) ;

}

}

Page 157: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 141

/∗−−−− Arquivo e q l i n . c −−−−−∗/

#define SIST( i , j ) s [ ( i ) ∗ ( ( c o l )+1) + j ]

int e s ca l a tudo (TIPO ∗ s , TIPO ∗x , int imax , int c o l ){int jaux , iaux , indx ;int ct= 0 , i , j , k , kant , n , tm ;TIPO s i i , m;

n= ( imax< co l )? imax : c o l ;

for ( i= k= kant= 0 ; i< n ; i++){indx= i ;ATR( s i i , ZERO) ;do{

for ( iaux= i ; iaux< imax ; iaux++)i f ( ! ( IGUAL( s [ iaux ∗ c o l+ i+ k ] , ZERO ) ) ){ATR( s i i , s [ iaux ∗ c o l+ i+ k ] ) ;indx= iaux ;break ;

}i f (IGUAL( s i i , ZERO) )

k++;}while ( (IGUAL( s i i , ZERO)) && ( ( i+ k)< co l ) ) ;

i f ( k != kant ){ct++;kant= k ;

}

i f ( ! IGUAL( s i i , ZERO) ){i f ( indx != i )

{

Page 158: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

142 Capítulo 3. Funções de Operador

tm=( co l − ( i+k ) )∗ TAM;memcpy ( ( char ∗)x ,

(char ∗)&s [ indx∗ c o l+ i+ k ] , tm ) ;memcpy ( ( char ∗)&s [ indx∗ c o l+ i+ k ] ,

(char ∗)&s [ i ∗ c o l+ i+ k ] , tm ) ;memcpy ( ( char ∗)&s [ i ∗ ( c o l+ 1)+ k ] ,

(char ∗)x , tm ) ;}

for ( iaux= i+ 1 ; iaux< imax ; iaux++){m= DV( s [ iaux ∗ c o l+ i+ k ] , s i i ) ;for ( jaux= i ; jaux< co l ; jaux++)

ATR( s [ iaux ∗ c o l+ jaux ] ,SB( s [ iaux ∗ c o l+ jaux ] ,

ML( s [ i ∗ c o l+ jaux ] ,m) ) ) ;}

}}

return ( c t ) ;}

TIPO detudo (TIPO ∗ s , int c o l ){

int jaux , iaux , indx ;int ct= 0 , i , j , tm ;TIPO s i i , m, muda , x [ 2 0 4 8 ] ;

ATR(muda , UM) ;

for ( i= 0 ; i< co l ; i++)

Page 159: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 143

{ATR( s i i , ZERO) ;for ( iaux= i ; iaux< co l ; iaux++)

i f ( ! IGUAL( s [ iaux ∗ c o l+ i ] , ZERO ) ){

ATR( s i i , s [ iaux ∗ c o l+ i ] ) ;indx= iaux ;break ;

}

i f ( IGUAL( s i i , ZERO) )ct++;

else{i f ( indx != i )

{ATR(muda , SB(ZERO, muda ) ) ;tm=( co l − i )∗ TAM;memcpy ( ( char ∗)x ,

(char ∗)&s [ indx∗ c o l+ i ] , tm ) ;memcpy ( ( char ∗)&s [ indx∗ c o l+ i ] ,

(char ∗)&s [ i ∗ c o l+ i ] , tm ) ;memcpy ( ( char ∗)&s [ i ∗ ( c o l+ 1 ) ] ,

(char ∗)x , tm ) ;}

for ( iaux= i+ 1 ; iaux< co l ; iaux++){m= DV( s [ iaux ∗ c o l+ i ] , s i i ) ;for ( jaux= i ; jaux< co l ; jaux++)

ATR( s [ iaux ∗ c o l+ jaux ] ,SB( s [ iaux ∗ c o l+ jaux ] ,

ML( s [ i ∗ c o l+ jaux ] , m) ) ) ;}

}}

for ( i= 0 ; i< co l ; i++)

Page 160: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

144 Capítulo 3. Funções de Operador

{ATR(muda , ML(muda , s [ i ∗ ( c o l+ 1 ) ] ) ) ;}

return ( muda ) ;

}

int eq l inudo (TIPO ∗ s , int co l , TIPO ∗x ){int imax= col− 1 , c t= 0 , i , j ;TIPO aux ;

ct= esca la tudo ( s , x , imax , c o l+ 1 ) ;

i f ( IGUAL(SIST( imax , imax ) , ZERO))return(++ct ) ;

for ( i= imax ; i >= 0 ; i−−){ATR(aux , ZERO) ;for ( j= i+ 1 ; j <= imax ; j++)ATR(aux , SB( aux , ML(SIST( i , j ) , x [ j ] ) ) ) ;

ATR(x [ i ] , DV(SM( aux , SIST( i , c o l ) ) , SIST( i , i ) ) ) ;}

return ( 0 ) ;}

/∗−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−∗//∗ funcao i n t invmatudo () ∗//∗−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−∗//∗ Obje t i vo : Inve r t e r uma matriz . ∗/

Page 161: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 145

/∗−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−∗/

int invmatudo (TIPO ∗ s , int co l , TIPO ∗ s inv ){int i , j , k , imax= co l ;TIPO aux , d1 , d2 ;

i f ( c o l== 2){aux= s inv [ 0]= s [ 0 ] ;s inv [ 1]= s [ 1 ] ;s inv [ 2]= s [ 4 ] ;s inv [ 3]= s [ 5 ] ;d1= ML(aux , s inv [ 3 ] ) ;d2= ML( s inv [ 1 ] , s inv [ 2 ] ) ;d1= SB(d1 , d2 ) ;i f (IGUAL(d1 , ZERO))

{puts ( "matr iz ␣nao␣ i n v e r s i v e l " ) ;return ( 1 ) ;

}s inv [ 0]= DV( s inv [ 3 ] , d1 ) ;s inv [ 3]= DV(aux , d1 ) ;d1= SB(ZERO, d1 ) ;s inv [ 1]= DV( s inv [ 1 ] , d1 ) ;s inv [ 2]= DV( s inv [ 2 ] , d1 ) ;return ( 0 ) ;

}

for ( i= 0 ; i< co l ; i++){for ( j= 0 ; j< i ; j++)

s [ ( i ∗ 2 + 1)∗ c o l+ j ]= s [ ( j ∗ 2 + 1)∗ c o l+ i ]=ZERO;

}for ( i= 0 ; i< co l ; i++)

s [ ( i ∗ 2+ 1) ∗ c o l + i ]= UM;

Page 162: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

146 Capítulo 3. Funções de Operador

i f ( e s ca l a tudo ( s , s inv , imax , 2∗ c o l ) )return ( 0 ) ;

for ( i= imax− 1 ; i >= 0 ; i−−){aux= s [ i ∗ 2∗ c o l+ i ] ;for ( j= i ; j< 2∗ c o l ; j++)

s inv [ i ∗ ( co l−1)+ j ]= s [ i ∗ 2∗ c o l+ j ]= DV( s [ i ∗ 2∗ c o l+ j ] , aux ) ;for ( k= i− 1 ; k>= 0 ; k−−)

{aux= s [ k∗ 2∗ c o l+ i ] ;for ( j= co l ; j< 2∗ c o l ; j++)

{s [ k∗ 2∗ c o l+ j ]= SB( s [ k∗ 2∗ c o l+ j ] , ML(aux , s [ i ∗ 2∗ c o l+ j ] ) ) ;

}/∗−−−− nao esca lona duas veze s s , ja sa i com s inv −−−−∗/

}

}

for ( i= 0 ; i< co l ; i++)for ( j= 0 ; j< co l ; j++)

{s inv [ i ∗ c o l+ j ]= s [ i ∗ 2∗ c o l+ co l + j ] ;s [ i ∗ 2∗ c o l+ j ]= ( i== j )?UM:ZERO;

}return ( 1 ) ;

}

int mostramatriz (TIPO ∗ s , int co l , int l i n i , int c o l i n i ,int nl , int ncol , char ∗ s t r )

{int i , j ;

Page 163: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 147

Figura 7 – Execução de programa de Cálculo de ProjeçõesExemplos de uso do programa proj, entre o quais se vê o da Introdução deste

livro.

Vide: https://groups.google.com/forum/?fromgroups#!forum/funcoesdeoperador29cbm

int l f im= l i n i+ nl , c o l f im= c o l i n i+ nco l ;

for ( i= l i n i ; i< l f im ; i++){putchar ( ’ | ’ ) ;for ( j= c o l i n i ; j< co l f im ; j++)

p r i n t f ( s t r , s [ i ∗ c o l+ j ] ) ;puts ( " | " ) ;

}return ( n l ∗ nco l ) ;

}

Page 164: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

148 Capítulo 3. Funções de Operador

3.4 Exercícios

1. Mostre que se o resolvente de um operador A está definidosobre uma curva compacta C, então existe uma vizinhançaV ∈ L(E) de A, em que o mesmo ocorre para todo opera-dor em V .

2. Seja p(x) = a0 + a1x+ · · ·+ an−1xn−1 + xn um polinômio

mônico de grau n e seja U um aberto com fronteira regulartal exista uma única raiz λ1 de p contida em U , e estapossua multiplicidade 1. (Vide o exercício 11 da página116, para ver um método fáctível de como saber se umaregião U contém uma tal raiz em seu interior ). Seja A amatriz companheira de p, isto é, a matriz

A :=

0 . . . 0 −a0

1. . .

... −a1

0. . . . . .

...... . . . 1 0 −an−2

0 . . . 1 −an−1

,

cujo polinômio característico é justamente p(x). Considerea matriz

Πλ1 :=1

2πi

∫∂U

(zI −A)−1dz.

Mostre que qualquer coluna v não nula de Πλ1é um auto-

vetor de A. Seja então w := A · v. Se vj é alguma entradanão nula de v conclua que λ1 = wj/vj .

Isso nos dá uma outra maneira efetiva, embora mais one-rosa do ponto de vista computacional, de calcular raízesde polinômios.

Page 165: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

149

4 Operadores com autovalores

dominantes

Neste capítulo analisaremos como calcular um autova-lor de um operador quando este possui um módulo estritamentemaior que todos os outros. Vamos assumir que seu autoespaço eo autoespaço generalizado associado a esse autovalor coincidam.Veremos que nesse caso, existe um cone de vetores que é levadodentro dele mesmo pelo operador, e que o autoespaço do autova-lor dominante é um atrator para os vetores deste cone. Ou seja,iterando repetidas vezes por A o cone, suas imagens convergempara o autoespaço do autovalor dominante. Como sempre, istonos dá também uma maneira eficiente de calcular as raízes deum polinômio quando estas têm todas módulos distintos e sãosem multiplicidade.

Em geral, o cone de que falamos no parágrafo anteriornão é dado de imediato. Veremos um caso particular de operadorcom autovalor dominante cuja teoria tem grande importânciatecnológica: quando a matriz do operador tem todas as entradasestritamente positivas. Nesse caso, o cone em questão é clara-mente o dos vetores com todas as entradas positivas. Veremosque nesse caso particular, temos de fato um autovalor dominante,positivo, de multiplicidade 1. Tal é o resultado do Teorema dePerron, demonstrado na primeira década do século passado. TalTeorema e suas generalizações são fundamentais em Teoria Er-gódica e de processos estocásticos e corresponde ao coração daeficientíssima máquina de busca em Internet da Google, sendo

Page 166: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

150 Capítulo 4. Operadores com autovalores dominantes

um exemplo vivo do poder e da importância da Matemática paraa tecnologia e o mundo moderno.

4.1 Calculando autovalores dominantes e seus autoes-paços

Suponha que A : Cn → Cn é um operador linear comautovalores λ1, . . . , λs. Suponha que λ1 seja dominante, ou seja,|λ1| > |λj |,∀j = 1, . . . , s. Se tomarmos uma base ordenada(e1, . . . , en) de Cn, então algum dos vetores ej possui algumacomponente não nula no autoespaço generalizado de λ1, pois sepossuísse somente nos outros autoespaços generalizados, a basenão conseguiria gerar o espaço todo. Suponha que o autoespaçode λ1 e seu autoespaço generalizado coincidam. Vejamos o queocorre quando iteramos um vetor ej que possua uma componentev1 não nula no autoespaço de λ1:

An(v) = λn1 v1 +An(w),

com w ∈ ⊕sj=2E(λj). Ora, vimos no capítulo sobre noções deTeoria Espectral, que, não importa que norma completa ponha-mos em um espaço de Banach as taxas assintóticas exponenciaisde crescimento da norma de um operador serão dadas pelo seuraio espectral. No caso em questão, o raio espectral é |λ1|, eo raio espectral de A|⊕sj=2E(λj) é estritamente menor que |λ1|.Portanto,

An(v)

‖An(v)‖=

λ1nv1

‖An(v)‖+

An(w)

‖An(v)‖Claramente, a segunda parcela acima converge a zero exponen-cialmente rápido. Como a norma do membro a esquerda é um,claro está que

limn→∞

|λn1 v1|/‖An(v)‖ = 1.

Page 167: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.2. Cones e Métricas Projetivas 151

Claro está que, em geral, a sequência não converge a um auto-vetor específico, embora sua distância a esfera unitária do auto-espaço E(λ) convirja a zero. Assim, qualquer iterado suficiente-mente grande dessa sequência será uma boa aproximação paraum elemento de E(λ) de norma 1.

Seja |λ1| > q > max{|λj |, j = 2, . . . , s} Chamemos deW := ⊕sj=2E(λj). Seja n0 tal que ‖An(w)‖ < |q|n‖w‖,∀w ∈W ,∀n ≥ n0, e tome γ = max{‖[Aj |W ]‖, j = 0, . . . , n0} Note quetemos então que a coleção

{v ∈ Cn; v = v1 + w, com v1 ∈ E(λ1), w ∈ ⊕sj=2E(λj), ‖v1‖}

4.2 Cones e Métricas Projetivas

Nesta seção relembraremos alguns resultados sobre a te-oria de cones e métricas projetivas associados a operadores line-ares. Mais precisamente apresentaremos o teorema de Birkhoff oqual garante a contração, na métrica projetiva, de operadores li-neares restritos a cones estritamente invariantes. Enunciaremosaqui alguns resultados sobre a teoria, cujas provas podem servistas em [16, 21, 7].

Seja E um espaço vetorial. Dizemos que C ⊂ E\{0} éum cone se

t > 0 e v ∈ C ⇒ t · v ∈ C.

Um cone é dito convexo se

t1, t2 > 0 e v1, v2 ∈ C ⇒ t1 · v1 + t2 · v2 ∈ C,

tal condição permite combinar quaisquer direção do cone.

Mesmo na ausência de uma topologia, definiremos o fe-cho fechoC de C, como sendo o conjunto dos pontos w ∈ E

Page 168: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

152 Capítulo 4. Operadores com autovalores dominantes

tais que existem v ∈ C e uma sequência de elementos positivos(tn)n∈N, tendendo a zero, tais que w+tn ·v ∈ C para todo n ∈ N.Segue da definição de fecho que 0 ∈ fechoC qualquer que sejao cone C ⊂ E. Além disso estamos interessados em eliminar di-reções simétricas no cone, como por exemplo, semi-planos. Paratal exigiremos que

fechoC ∩ (− fechoC) = {0}.

Denominaremos os cones convexos com a propriedade acima decones projetivos. Passaremos agora a definir a métrica proje-tiva associada ao cone projetivo C. Sejam

α(v, w) = sup {t > 0;w − t · v ∈ C}

e

Figura 8 – Métrica Projetiva- Função α

β(v, w) = inf {s > 0; s · v − w ∈ C}.

Observe que {t > 0;w − t · v ∈ C} e {s > 0; s · v − w ∈

Page 169: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.2. Cones e Métricas Projetivas 153

Figura 9 – Métrica Projetiva- Função β

C} podem ser vazios. Assim, por se tratar de valores positivos,convencionaremos que sup ∅ = 0 e naturalmente inf ∅ = +∞.Definiremos agora

θ(v, w) = logβ(v, w)

α(v, w).

Convencionando que θ = +∞ se α = 0 ou β = +∞ e obser-vando que α(v, w) ≤ β(v, w), segue que θ(v, w) toma valores em[0,+∞]. A próxima proposição estabelece que θ é uma métricano espaço quociente C/ ∼, onde v ∼ w se, somente se, existet > 0 tal que v = t · w.

Proposição 4.1. Seja C um cone projetivo. Então θ(·, ·) : C ×C → [0,+∞] é uma métrica em C/ ∼, isto é,

• θ(v, w) = θ(w, v).

• θ(u,w) ≤ θ(u, v) + θ(v, w).

• θ(v, w) = 0 se somente se existe t > 0 tal que v = t · w

Page 170: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

154 Capítulo 4. Operadores com autovalores dominantes

A métrica θ é denominada métrica projetiva associadaao cone C. A dependência do cone é dada de forma monótona,isto é, dados dois cones C1 e C2 projetivos, tais que C1 ⊂ C2,denotado por θ1 = log β1

α1e θ2 = log β2

α2suas respectivas métricas

projetivas, temos que θ1 ≥ θ2. Com efeito, como {t > 0;w−t·v ∈C1} ⊂ {t > 0;w − t · v ∈ C2} e {s > 0; s · v − w ∈ C1} ⊂ {s >0; s · v −w ∈ C} segue-se que α1 ≤ α2 e β1 ≥ β2. Logo, θ1 ≥ θ2.

Outro fato interessante associado a métricas projetivas,é que dados E1 e E2 espaços vetoriais, T : E1 → E2 operadorlinear e C1, C2 cones projetivos tais que T (C1) ⊂ C2, temos que,T é uma contração fraca restrita a C1, mais precisamente,

θ2(L(v), L(w)) ≤ θ1(v, w), para todos v, w ∈ C1

Porém, podemos obter uma contração forte sob a hipótese deque o θ2-diâmetro de L(C1) é finito. Este resultado é devido aBirkhoff, que pode ser encontrado e.g. em [21, Proposição 2.3].

Teorema 4.2. Sejam E1 e E2 espaços vetoriais e sejam C1 ⊂E1 e C2 ⊂ E2 cones projetivos. Se L : E1 → E2 é um operadorlinear tal que L(C1) ⊂ C2 e D = sup {θ2(L(v), L(w)); v, w ∈C1} <∞ então

θ2(L(v), L(w)) ≤(1− e−D

)θ1(v, w),

para quaisquer v, w ∈ C1.

Calculemos a métrica projetiva no seguinte

Exemplo 4.3. O cone C+ dos vetores estritamente positivos éo cone

C+ := {v = (v1, . . . , vn) ∈ Rn; vj > 0,∀j = 1, . . . , n}

Page 171: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.2. Cones e Métricas Projetivas 155

Calculemos a métrica Θ+ associada a C+. Ora, dados v, w ∈ C+,

sv−w ∈ C+ ⇔ svj−wj > 0,∀j = 1, . . . , n⇔ s > wj/vj ,∀j = 1, . . . , n⇒

β+(v, w) = max{wj/vj , j = 1, . . . , n}.

Analogamente, obtemos que α+(v, w) = min{wk/vk, k = 1, . . . , n}.Desse modo, concluímos que

Θ+(v, w) = log(

maxj,k

{vjwkwjvk

, j = 1, . . . n, k = 1, . . . , n}).

Dado um cone C e um operador linear A deixa C estri-tamente invariante se A(C) ⊂ C e Θ-diam(A(C)) < +∞.

Teorema 4.4. Seja A : Rn → Rn um operador linear cujamatriz possua todas as entradas positivas. Então A deixa estri-tamente invariante o cone C+.

Prova: Claramente, A deixa o cone dos vetores estri-tamente positivos invariante. Seja m o mínimo das entradas deA. Atuando A em um vetor v ∈ C+ de norma do máximo iguala um, temos que A(v) tem sua menor entrada pelo menos iguala c (pois a imagem v por A é uma combinação linear de A emque alguma coluna aparece com coeficiente 1, já que a normado máximo de v é 1) . Comparando a distância de A(v) com,digamos, o vetor u = (1, . . . , 1), temos:

Θ+(A(v), u) = log(

maxj,k

{ [A(v)]j · 11 · [A(v)]k

, j = 1, . . . n, k = 1, . . . , n})≤

log(1/c) < +∞.

E portanto, dados v, w ∈ C+, usando de desigualdade triangular,

Θ+(A(v), A(w)) ≤ Θ+(A(v), 1)+Θ+(1, A(w)) ≤ 2 log(1/c) < +∞,

Page 172: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

156 Capítulo 4. Operadores com autovalores dominantes

o que mostra que o Θ+ - diâmetro da imagem de A é finito(invariância estrita).

Proposição 4.5. Seja (vt), vt ∈ C+,∀m ∈ N uma sequênciade vetores unitários (na norma do máximo, ou em outra), deCauchy na métrica Θ+. Então (vt) é de Cauchy na norma domáximo (ou em qualquer outra, uma vez que todas são equiva-lentes em Rn).

Prova: Ora, temos

Θ(vt, vs) = log(

maxj,k

{ [vt]j · [vs]k[vt]k · [vs]j

, j = 1, . . . n, k = 1, . . . , n})

;

por conseguinte, Θ(vt, vs)→ 0 quando t, s→ +∞ equivale a quemaxj,k

{ [vt]j ·[vs]k[vt]k·[vs]j

}→ 1 quando t, s → +∞. Como ‖vt‖max = 1,

temos que Escolhendo k tal que [vs]k seja igual a 1, temos então:

‖maxj,k

[vt]j · [vs]k[vt]k · [vs]j

‖ ≥[vt]j · [vs]k[vt]k · [vs]j

≥ [vt]j[vs]j

Vemos portanto que lim supt,s→+∞[vt]j[vs]j

≤ 1, ∀j = 1, . . . , n. (Ló-gico que aqui, vale a mesma desigualdade permutando t e s). Poroutro lado, se para algum j, lim inft,s→+∞

[vt]j[vs]j

< 1, trocando os

papéis de t e s, teríamos lim supt,s→+∞[vt]j[vs]j

> 1, absurdo. Donde

concluímos que para todo j, limt,s→+∞[vt]j[vs]j

= 1.

Por conseguinte, para todo j ∈ {1, . . . , n}, temos

‖[vt]j − [vs]j‖ ≤ ‖vt‖max ·∥∥∥ [vt]j

[vs]j− 1∥∥∥ =

∥∥∥ [vt]j[vs]j

− 1∥∥∥→ 0,

quando t, s→ +∞, completando a prova da proposição.

Page 173: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.2. Cones e Métricas Projetivas 157

Unindo essa proposição ao teorema que a antecede, ob-temos:

Corolário 4.6. Seja A uma matriz com todas as entradas (es-tritamente) positivas. Então, A possui um autovalor dominantepositivo. Ademais, dado qualquer vetor v ∈ C+, a sequênciaAm(v)‖Am(v)‖ converge a o único autovetor unitário de entradas pos-tivas do autovalor dominante.

Prova: Comecemos pelo "ademais". Dos teoremas an-teriores, sabemos que Aj(v)

‖Aj(v)‖ converge a um vetor unitário w ∈C+. Note que este vetor é único, independente do vetor v ∈ C+,pois se tomássemos v ∈ C+, a sequência ϕm dada por

ϕm :=

{At(v)‖At(v)‖ , se m = 2tAt(v)‖At(v)‖ , se m = 2t+ 1

é Θ+-Cauchy, e normalizada, portanto, pela proposição anterior,converge uniformemente, mostrando que o limite é o mesmo ve-tor w, para as sequências

(At(v)‖At(v)‖

)e(

At(v)‖At(v)‖

).

Daí, por um lado,

Am+1(w)

‖Am(w)‖= A

( Am(w)

‖Am(w)‖

)→ A(w), quando m→ +∞,

o que implica ainda que

limm→+∞

‖Am+1(w)|‖‖Am(w)‖

= ‖A(w)‖ > 0,

Por outro lado,

Am+1(w)

‖Am+1(w)‖→ w, quando m→ +∞.

Page 174: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

158 Capítulo 4. Operadores com autovalores dominantes

Logo, da continuidade de A,

Am+1(w)

‖Am(w)‖= A

( Am(w)

‖Am(w)‖

)→ A(w),

donde obtemos:

A(w) = limm→+∞

Am+1(w)

‖Am(w)‖= limm→+∞

Am+1(w)

‖Am+1(w)‖·‖A

m+1(w)|‖‖Am(w)‖

= ‖A(w)‖w.

Portanto, w é autovetor unitário do autovalor λ = ‖A(w)‖.

Antes de mostrarmos que λ é autovalor dominante, mos-tremos que dado qualquer vetor v ∈ C+, a distância

d(Am(v)

λmv,< w > ∩C+)→ 0,

onde < w > é o espaço gerado por w.

Como o operador Am é positivo, ∀m ∈ N se um vetor vpossui todas as suas entradas maiores ou iguais ás de um vetor v,então [Am(v)]q ≥ [Am(v)]q, ∀q ∈ {1, . . . , n}. Assim sendo, dadov ∈ C+, tomando vk = min{v1, . . . , vn}, temos que v/vk temsuas entradas maiores ou iguais aos do vetor unitário w, logo

[Am(v)]qλm

≥ vk[Am(w)]q‖Am(w)‖

→ vkwq

Por outro lado, tomando wk uma constante igual a min{wl, l =

1, . . . , n}, escrevendo c = ‖v‖maxwk temos c · w − v é um vetorcom todas as entradas não negativas e por conseguinte

c[Am(w)]q

λm≥ [Am(v)]q

λm

Concluímos que

vk[Am(1)]qλm

≤ [Am(v)]qλm

≤ c [Am(w)]qλm

.

Page 175: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.2. Cones e Métricas Projetivas 159

Observe que para todo v ∈ C+,

limm→∞

[Am(v)]q[Am(v)]q

wqwq

= limm→∞

[Am(v)]q[Am(w)]q

[Am(w)]qAm(v)q

= 1,

o que implica que

limm→∞

[Am(v)]q[Am(v)]q

=wqwq,∀v ∈ C+,∀q, q ∈ {1, . . . , n}.

Seja [Ams (v)]qλmswq

uma subsequência convergente; então ob-teríamos

[Ams(v)]qλmswq

λmswq[Ams(v)]q

=[Ams(v)]q‖Ams(v)‖

wqwq

‖Ams(v)‖[Ams(v)]q

→ 1, quando s→ +∞

Logo, necessariamente,

lims→+∞

[Ams(v)]qλmswq

=[Ams(v)]qλmswq

e em particular, [Ams (v)]qλms converge a um múltiplo positivo de w.

É fácil agora mostramos que o autovalor λ é dominante.Para vermos isso, note que os vetores no dado um vetor v /∈<w >, e que não esteja na soma dos autoespaços generalizadoscomplementares a < w >, temos que Cn = Rn⊕Rn implica quepodemos escrever

v = v + iv, com v, v ∈ Rn.

Ora, somando uma constante c > 0 suficientementegrande, digamos c = 2‖v‖max, temos que (considerando abaixoc como o vetor com todas as entradas igual a c): v + c ∈ C+,v + c ∈ C+, ou seja,

v = (v + c)− c+ i((v + c)− c)

Page 176: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

160 Capítulo 4. Operadores com autovalores dominantes

Do que vimos antes, concluímos que d(Am(v)λm , < w >) converge

a zero.

Ora, mas isso implica que dado qualquer outro autovetorv de autovalor λ, v /∈< w >, temos:

d(Am(v)

λm, < w >) = d(v, < w >)

|λm|λm

→ 0, quando m→ +∞.

Como d(v, < w >) > 0, isso só pode significar que λm

λm → 0

quando m→ +∞, ou seja, λ > λ.

Observação 4.7. Note que da dominância do autovalor λ, te-mos que

Am(v)

λm→ wv, quando m→ +∞,

para algum wv ∈< w >. De fato, como vimos no capítulo sobrenoções de Teoria Espectral, como todos as outras componen-tes espectrais estão contidas em um bola de raio r estritamentemenor que λ temos que

lim supn→+∞

n√‖An(v)‖ ≤ r < λ, ∀v ∈ ⊕

λ∈sp(A)\{λ}E(λ),

onde E(λ) denota o autoespaço generalizado associado ao auto-valor λ.

Portanto, escrevendo de modo único v = wv + v, comwv ∈< w > e v ∈∈ ⊕

λ∈sp(A)\{λ}E(λ), temos

Am(v)

λm=Am(wv)

λm+Am(v)

λm→ wv, quando m→ +∞,

Deixamos os detalhes desta observação como exercício para oleitor.

Page 177: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.2. Cones e Métricas Projetivas 161

O algoritmo usado pela Google em seu programa parabusca em Internet é uma variante deste que acabamos de ver.De fato, a Google concebeu dois programas. Um, conhecido comoCrawler, varre a Internet e seus sites, de modo a catalogar pági-nas associadas a qualquer palavra chave que se possa imaginar.Com estes dados, para cada palavra chave arma-se uma imensatabela de referência cruzada entre sites. Por exemplo, se umapalavra têm 1000 sites que a referenciem de alguma forma, cria-se uma matriz 1000 por 1000, em cuja entrada aij coloca-se umnúmero positivo medindo o que se diria ser a probabilidade detransição do i-ésimo site para o j−ésimo site, ou mais simples-mente, o valor do i−ésimo site se confrontado com o j−ésimosite. Tal valor, nunca é posto como zero - artificialmente, na piordas hipóteses é posto um ε > 0 mínimo, para garantir que amatriz tenha todas as suas entradas positivas.

Daívem a parte mais importante do algoritmo, o PageRank Algorithm que é a que vimos: o cálculo do autovetor domi-nante da matriz construída. O autovetor dominante nos mostraa tendência assintótica da matriz. De fato, na prática, iterandoa matriz umas poucas vezes, qualquer vetor ficará rapidamenteperto do autoespaço dominante. Isso é um tipo de simplificaçãomuito especial da ação do operador, em certo sentido maior atédo que quando somos capazes de diagonalizá-lo. Pois significaque a ação de iterados de matriz, vistos sob normalização ade-quada, se comporta aproximadamente como uma multiplicaçãopor apenas um autovalor (o dominante, os outros ficam desprezí-veis), na direção dominante. O autovetor dominante é um vetorde rank dos sites: a i−ésima entrada do autovetor dominante dizqual a importância do i−ésimo site para a palavra chave, dandosua ordem na busca que se fez.

Page 178: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

162 Capítulo 4. Operadores com autovalores dominantes

O processo é melhorado quanto mais usuários o utili-zam, pois a Google calibra dinamicamente a matriz (aumen-tando os valores de sites mais escolhidos pelo usuário) conformeos usuários prefiram páginas diferentes daquelas pelo algoritmosugeridas. Claro, mudanças artificiais nos valores da matriz po-deriam ser usadas também para gerar uma espécie de censura,colocando determinados sites para o fim da fila...

4.3 Programa de Cálculo de Autovalores Dominantes deOperadores Positivos

Nessa seção, apresentamos um programa para o Cálculodo autovalor dominante e respectivo autovetor de um operadorcuja matriz tem todas as entradas positivas.

Também no código abaixo, está o procedimento domin,para cálculo de autovalor e autovetor dominante, em caso dematrizes reais que possuam autovalor real dominante.

#include <s td i o . h>#include <s t d l i b . h>#include <math . h>

#ifndef r e a l#define r e a l double#endif

#ifndef PI#define PI 3.1415926535897932384626433832795#endif

char _err= 0 ;

#define DIMAX2 1024

Page 179: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.3. Programa de Cálculo de Autovalores Dominantes de OperadoresPositivos 163

r e a l domipos ( r e a l ∗ , r e a l ∗ , r e a l ∗ , int , int ) ;r e a l domin ( r e a l ∗ , r e a l ∗ , r e a l ∗ , int , int ) ;

int main ( int argc , char ∗argv [ ] ){char ∗ s t r ;r e a l lambda ;

stat ic r e a l mat [ DIMAX2] , mataux [ 2∗ DIMAX2] , vet [ DIMAX2 ] ;int n , co l , i , j ;long p ;

i f ( argc < 2){p r i n t f (

"Programa␣%s\n␣Uso : ␣%s␣␣<numcols>␣<mat11>␣<mat12>␣ . . . \ n" ,argv [ 0 ] , argv [ 0 ] ) ;e x i t ( 0 ) ;

}

c o l= a t o i ( argv [ 1 ] ) ;

i f ( ( c o l ∗ c o l ) >= ( argc− 1) ){p r i n t f (

"No . ␣de␣ entradas ␣menor␣que␣a␣dimensao␣%dx%d␣ d i ta ␣da␣matr iz " ,co l , c o l ) ;e x i t (−1);

}for ( i= 0 , j= 2 ; i< ( c o l ∗ c o l ) ; i++, j++)

{mat [ i ]= a to f ( argv [ j ] ) ;

}

puts ( "Matriz ␣ i n i c i a l : " ) ;mostramatriz (mat , co l , 0 , 0 , co l , co l , "%l7 . 4 f ␣" ) ;

Page 180: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

164 Capítulo 4. Operadores com autovalores dominantes

lambda= domipos ( mat , mataux , vet , co l , 5 ) ;

p r i n t f ( "\n␣Autovalor ␣dominante : ␣%l f \n" , lambda ) ;

puts ( "\n␣Autovetor ␣dominante : " ) ;

mostramatriz ( vet , co l , 0 , 0 , 1 , co l , "%l9 . 7 f ␣" ) ;

puts ( "\nQue␣ as ␣ f o r c a s ␣ cegas ␣ se ␣domem, ␣da␣ luz ␣que␣a␣alma␣tem !\ n" ) ;}

r e a l norml ( r e a l ∗mat , int l i n , int co l , r e a l (∗ ab ) ( ) ){int i , j ;r e a l somaux , soma= 0 . 0 ;for ( i= 0 ; i< l i n ; i++)

{for ( somaux= 0 . 0 , j= 0 ; j< co l ; j++)

{somaux+= ab ( mat [ i ∗ c o l+ j ] ) ;

}i f ( somaux > soma)

soma= somaux ;}

return ( soma ) ;}

r e a l domipos ( r e a l ∗mat , r e a l ∗pr , r e a l ∗vet ,int co l , int i t )

{int t , n , i , imax , j , k , tam ;r e a l sum , soma , ∗aux , ∗aua , max ;

tam= co l ∗ c o l ;

Page 181: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.3. Programa de Cálculo de Autovalores Dominantes de OperadoresPositivos 165

aua= pr ;aux= &pr [ tam ] ;soma= norml ( mat , co l , co l , f abs ) ;i f ( soma== 0 . 0 )

return ( 0 . 0 ) ;for ( t= 0 ; t< tam ; t++)

{aua [ t ]= aux [ t ]= mat [ t ] / soma ;

}

for (n= 0 ; n< i t ; n++){soma= 0 . 0 ;for ( i= 0 ; i< co l ; i++)

for ( j= 0 ; j< co l ; j++){sum= 0 . 0 ;for ( k= 0 ; k< co l ; k++)

{sum+= aux [ i ∗ c o l+ k ]∗ aux [ k∗ c o l+ j ] ;

}aua [ i ∗ c o l+ j ]= sum ;soma+= fabs (sum ) ;

}for ( t= 0 ; t< tam ; t++)

{aux [ t ]= aua [ t ]/= soma ;

}p r i n t f ( "\ nIterado ␣2^%d␣normalizado ␣da␣matr iz ␣ i n i c i a l : \ n" ,

n+1);mostramatriz ( aux , co l , 0 , 0 , co l , co l , "%l9 . 7 f ␣" ) ;

}for ( i= 0 ; i< co l ; i++)

{imax= 0 ;max= 0 . 0 ;vet [ i ]= aua [ i ∗ c o l ] ;

Page 182: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

166 Capítulo 4. Operadores com autovalores dominantes

for ( j= 1 ; j< co l ; j++)vet [ i ]+= aua [ i ∗ c o l+ j ] ;

i f ( f abs ( vet [ i ])> max){max= fabs ( vet [ i ] ) ;imax= i ;

}}

for ( k= 0 , sum= 0 . 0 ; k< co l ; k++){sum+= mat [ imax∗ c o l+ k ]∗ vet [ k ] ;

}/∗ Retorna o au tova lo r dominante . O autove tor dominante ,com soma 1 , f i c a armazenado em ve t . ∗/

return (sum/vet [ imax ] ) ;

}

r e a l domin ( r e a l ∗mat , r e a l ∗pr , r e a l ∗vet ,int co l , int i t )

{int t , n , i , imax , j , k , l , tam ;r e a l sum , soma , ∗aux , ∗aua , ∗v , max , automax ;v= &pr [ 2∗ tam ] ;∗v= 1 ;for ( l= 1 ; l< co l ; l++)

v [ l ]= 0 ;for ( l= 0 ; l< co l ; l++)

{tam= co l ∗ c o l ;aua= pr ;aux= &pr [ tam ] ;soma= norml ( mat , co l , co l , f abs ) ;i f ( soma== 0 . 0 )

return ( 0 . 0 ) ;

Page 183: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.3. Programa de Cálculo de Autovalores Dominantes de OperadoresPositivos 167

for ( t= 0 ; t< tam ; t++)

{aua [ t ]= aux [ t ]= mat [ t ] / soma ;

}

for (n= 0 ; n< i t ; n++){soma= 0 . 0 ;for ( i= 0 ; i< co l ; i++)

for ( j= 0 ; j< co l ; j++){sum= 0 . 0 ;for ( k= 0 ; k< co l ; k++)

{sum+= aux [ i ∗ c o l+ k ]∗ aux [ k∗ c o l+ j ] ;

}aua [ i ∗ c o l+ j ]= sum ;soma+= fabs (sum ) ;

}for ( t= 0 ; t< tam ; t++)

{aux [ t ]= aua [ t ]/= soma ;

}

}for ( i= 0 ; i< co l ; i++)

{imax= 0 ;max= 0 . 0 ;vet [ i ]= aua [ i ∗ c o l ] ;for ( j= 1 ; j< co l ; j++)

vet [ i ]+= aua [ i ∗ c o l+ j ] ;i f ( f abs ( vet [ i ])> max)

{max= fabs ( vet [ i ] ) ;imax= i ;

}

Page 184: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

168 Capítulo 4. Operadores com autovalores dominantes

}for ( k= 0 , sum= 0 . 0 ; k< co l ; k++)

{sum+= mat [ imax∗ c o l+ k ]∗ vet [ k ] ;

}v [ l ]= 0 ;v [ l+ 1]= 1 ;

/∗ Retorna o au tova lo r dominante . O autove tor dominante ,com soma 1 , f i c a armazenado em ve t . ∗/

}

return (sum/vet [ imax ] ) ;

}

int mostramatriz ( r e a l ∗ s , int co l ,int l i n i , int c o l i n i ,int nl , int ncol , char ∗ s t r )

{int i , j ;int l f im= l i n i+ nl , c o l f im= c o l i n i+ nco l ;

for ( i= l i n i ; i< l f im ; i++){putchar ( ’ | ’ ) ;for ( j= c o l i n i ; j< co l f im ; j++)

p r i n t f ( s t r , s [ i ∗ c o l+ j ] ) ;puts ( " | " ) ;

}return ( n l ∗ nco l ) ;

}

4.4 Exercícios

1. Prove a observação 4.7.

Page 185: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.4. Exercícios 169

Figura 10 – Cálculo de Autovalores Dominantes.

Page 186: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

170 Capítulo 4. Operadores com autovalores dominantes

Figura 11 – Execução do programa domincoloq.

Page 187: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

4.4. Exercícios 171

Figura 12 – Execução com matriz 4 por 4.

Page 188: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3
Page 189: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

173

5 O Operador Adjunto

Vimos no primeiro capítulo, que embora tenham dimen-sões complementares e sejam invariantes, nem sempre o núcleoe a imagem de um operador de um espaço nele têm intersec cãotrivial. De fato, se um operador A : Cn → Cn tivesse r autovalo-res distintos, digamos, λ1, . . . , λr, e para cada Tj := (λjI − A),ker(Tj) e Tj(Cn) fossem espaços complementares, então A se-ria diagonalizável (exercício 1, da página 195). Mesmo no casoem que o operador é diagonalizável, não é muito clara a geo-metria formada pelos espaços invariantes. Seria o ângulo entreeles muito agudo? Seriam perpendiculares esses espaços? Paraentendermos melhor essa geometria, definimos um outro opera-dor A∗, chamado de operador adjunto de A. Basicamente, seusautoespaços tem uma relação de ortogonalidade com os autoes-paços de A. Tais relações serão vistas com precisão, e bastantegeneralidade, no texto a seguir.

Seja E um espaço vetorial normado. O espaço dual deE, denotado por E∗, é o espaço vetorial dado por

E∗ := {ı : E → RC; ı é funcional linear contínuo.}

É claro que devido às completudes de R e C, E∗ é sempre umespaço de Banach com a norma do operador:

‖ı‖op := supx∈E,‖x‖=1

{|ı(x)|}

Se E é um outro espaço normado, e A ∈ L(E, E), entãodado ∈ E∗, podemos definir um funcional linear A∗() ∈ E∗

Page 190: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

174 Capítulo 5. O Operador Adjunto

por:A∗()(x) = ◦A(x),∀x ∈ E.

Note que a aplicação A∗ : E∗ → E∗ dada por 7→ A∗() é, elamesma, linear, denominada a adjunta de A.

Proposição 5.1. (Propriedades do Operador Adjunto) Aaplicação ∗ : L(E, E) → L(E∗, E∗) que a cada A ∈ L(E, E)

atribui seu adjunto A∗ é um isomorfismo isométrico linear talque valem

a) (TA)∗ = A∗T ∗, ∀A ∈ L(E, E), T ∈ L(E, E);

b) se A possui uma inversa limitada, A∗ também o possui e(A∗)−1 = (A−1)∗; em particular, se E = E, temos sp(A) ⊃sp(A∗).

c) ∗ é contínua na topologia uniforme (da norma do operador).Se E for reflexivo, ∗ também é contínua na topologia fracano espaço de aplicações lineares, mas o é na topologia fortese e só se, E possui dimensão finita.

Prova: ∗ é claramente linear, e isometria:

‖A‖L(E,E) = sup‖x‖≤1

‖A(x)‖ = sup‖x‖≤1

supl∈E∗,‖l‖≤1

|l(A(x)| =

sup|l|≤1

supx∈E,‖x‖≤1

|(A∗l)(x)| = sup‖l‖≤1

‖A∗(l)‖ = ‖A∗‖.

A segunda igualdade acima deve-se, claro, ao Teorema de Hahn-Banach.

Agora, seja l ∈ E∗; temos portanto que

((TA)∗(l))(x) = l(TA(x)) = (A∗(l ◦ T ))(x) = (A∗T ∗(l))(x).

Page 191: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 175

Da definição de ∗, é fácil ver que (IE)∗ = IE∗ .

Da propriedade a), temos

IE∗ = (IE)∗ = (A ◦A−1)∗ = ((A−1)∗ ◦A∗),

analogamente para IE∗ no lugar de IE∗ , concluímos b).

Por ser isometria, é claro que ∗ é contínua na norma dooperador. Dados An → A na topologia fraca de L(E, E), temosfixado l ∈ E∗ que

(An∗(l))(x) = l(An(x))→ l(A(x)) = (A∗(l))(x),

implicando que (An)∗(l) converge a A∗(l) na topologia fraca-*de E∗, a qual é igual a topologia fraca de E∗, por E ser reflexivo.Temos portanto que An∗ → A∗ na topologia fraca de L(E, E).

Para vermos que em dimensão infinita, seja Tn atuandoem `1(N) dado por

Tn((a1, a2, . . . )) = (an+1, an+2, . . . )

Note que Tn tem como adjunto o deslocamento de n a direitaem `∞(N), dado por

(Tn)∗((a1, a2, . . . )) = (0, . . . 0︸ ︷︷ ︸n×

, a1, a2, . . . )

De fato, dadas sequências (aj) e (bj) respectivamente em `1(N)

e `∞(N) temos

+∞∑j=1

[Tn((aj))]jbj =

+∞∑j=1

aj+nbj =

+∞∑j=n+1

ajbj−n =

+∞∑j=1

aj [(Tn)∗((bj))]j

Claramente, Tn → 0 na topologia forte de `1(N), mastal não ocorre com (Tn)∗. Sabemos que todo espaço de Banach

Page 192: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

176 Capítulo 5. O Operador Adjunto

separável é isomorfo a algum espaço quociente de `1(N), e daíé fácil construir exemplo análogo em qualquer espaço de Ba-nach separável. Dado um espaço de Banach E de dimensão in-finita qualquer, tomando um conjunto enumerável linearmenteindependente e o fecho de seu subespaço gerado, obtemos umsubespaço E ⊂ E fechado e separável, no qual podemos definiraplicações como acima, que depois estendemos ao espaço inteiro.O que demonstra que quando a dimensão é infinita, ∗ não é con-tínua na topologia forte.

Embora a definição acima seja bastante geral, nos res-tringiremos nessa seção a estudar operadores definidos em espa-ços vetoriais normados cuja norma ‖ · ‖ provém de um produtointerno < ·, · >, via a fórmula usual ‖v‖ =

√< v, v >,∀v ∈ E.

Veremos que nesse caso, a definição do operador adjunto é li-geiramente diferente, pois faz uso do isomorfismo sesquilinearexistente entre o espaço E e seu dual dado pelo Lema de Riesz.Para explicarmos melhor como isso se dá, começamos por lem-brar a seguir algumas definições e fatos referentes a tais espaços:

Definição 5.2. (Espaço de Hilbert.) Um espaço vetorial nor-mado E é dito um espaço de Hilbert se sua norma provém de umproduto interno e se ele é completo.

Definição 5.3. (Espaço Ortogonal.) Seja E um espaço do-tado de um produto interno e E um subespaço vetorial de E. Oespaço ortogonal a E, denotado por E⊥ é definido como:

E⊥ := {v ∈ E;< x, v >= 0,∀x ∈ E}.

Claramente E⊥ é um subespaço vetorial fechado de Ee temos E = E ⊕ E⊥.

Page 193: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 177

Definição 5.4. (Base Ortonormal.) Seja E um espaço ve-torial dotado de produto interno. Uma base ortonormal é umconjunto β ⊂ E tal que valem ‖v‖ = 1,∀v ∈ β, < v,w >=

0,∀v, w ∈ β, com v 6= w e finalmente, dado x ∈ E existem esca-lares não nulos α1, . . . , αn, . . . e v1, . . . , vn, · · · ∈ E satisfazendo

x =

∞∑j=1

αjvj .

Outra definição útil em espaços dotados de produto in-terno:

Definição 5.5. (Subespaço ortogonal.) Seja E um espaçovetorial munido de um produto interno e E ⊂ E um seu subes-paço vetorial. O espaço ortogonal de E é o conjunto:

E⊥ := {x ∈ E,< x, v >= 0,∀v ∈ E},

o qual claramente é um subespaço vetorial de E.

O próximo exemplo mostra que em um espaço vetorialdotado com um produto interno, mas não completo, podemoster um subespaço fechado cujo espaço ortogonal é trivial.

Exemplo 5.6. Seja E = (C0([0, 1];R), < ·, · >) o espaço dasfunções contínuas com domínio no intervalo [0, 1], dotado doproduto interno < f, g >:=

∫ 1

0f(t) · g(t)dt. Seja (gn), gn ∈ E

uma sequência de Cauchy em E sem limite em E. Por exemplo,tome

gn :=

0, para t ∈ [0, 1/2− 1/(n+ 1)];

1/2 + (t− 1/2) · (n+ 1)/2, se t ∈ (1/2− 1/(n+ 1),

1/2 + 1/(n+ 1));

1, para t ∈ [1/2 + 1/(n+ 1), 1].

Page 194: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

178 Capítulo 5. O Operador Adjunto

Daí, defina o funcional linear g : E → R por:

g(f) := limn→∞

< f, gn >,∀f ∈ E.

É fácil de verificar que g é contínuo. De fato, se fj ∈ E, fj → 0,temos:

limj→∞

|g(fj)| ≤ limj→∞

limn→∞

‖fj‖‖gn‖ ≤ limj→∞

‖fj‖ = 0,

sendo a primeira desigualdade devido a Cauchy-Schwarz, e a se-guinte porque a sequência (gn) é limitada (com norma menor doque 1, em nosso caso específico). Considere E = ker(g). Como gé contínuo, segue-se que E é fechado em E. Note que qualquerfunção contínua f : [0, 1] → R que se anule em [1/2, 1] pertencea E, o que mostra que esse espaço não é trivial. Por outro lado,E 6= E, uma vez que qualquer função contínua f : [0, 1] → Rtal que f(t) > 0,∀t ∈ (1/2, 1) não está contida em E. Contudo,E⊥ = {0}. Tal é demonstrado, em grande generalidade, na pró-xima proposição.

Proposição 5.7. Seja E um espaço vetorial dotado de um pro-duto interno, (gn), gn ∈ E uma sequência de Cauchy não con-vergente em E e g : E → R o funcional linear dado por

g(x) = limn→∞

< x, gn > .

Então:

• g é contínuo;

• E = ker(g) é um subespaço fechado (em E) próprio de E;

• E⊥ = {0}.

Page 195: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 179

Prova: A prova dos dois primeiros itens é análoga aosargumentos já vistos no exemplo acima. Para o último item,procedamos por absurdo.

De fato, se um vetor w 6= 0 pertencesse a E⊥, pode-ríamos escrever qualquer vetor v em E como v = v− < v,w >

w/‖w‖2+ < v,w > w/‖w‖2. Ora,

< v − < v,w >

‖w‖2w,w >=< v,w > −< v,w >

< w,w >< w,w >= 0,

o que implica que v− < v,w > w/‖w‖2 ∈ (E⊥)⊥ = E, pois Eé fechado em E. Não há perda em normalizar w, isto é, suporque ‖w‖ = 1. Afirmamos que w realiza a norma de g. De fato, sev ∈ E é outro vetor de norma 1, não colinear a w, vimos acimaque v = v − v+ < v,w > w, com v ∈ ker(g). Daí,

|g(v)| = |g(v)+ < v,w > g(w)| = | < v,w > |‖g(w)‖ <

(aplicando Cauchy-Schwarz em sua forma estrita, e supondo semperda g 6≡ 0)

‖v‖‖w‖‖g(w)‖ = ‖g(w)‖,

o que implica que ‖g‖ = ‖g(w)‖, como afirmamos. Observe aindaque ‖g‖ = limn→∞ ‖gn‖. De fato,

limn→∞

‖gn‖ = limn→∞

< gn, gn >√< gn, gn >

= limn→∞

<gn√

< gn, gn >, gn >≥

(novamente, por Cauchy-Schwarz)

limn→∞

< w, gn >= |g(w)| = ‖g‖.

Para a outra desigualdade, começamos por observar que paracada j ∈ N, vale g(gj/‖gj‖) = limn→∞ < gj/‖gj‖, gn >≤ ‖g‖.Por outro lado, como gn é de Cauchy, ela é limitada, digamos,

Page 196: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

180 Capítulo 5. O Operador Adjunto

com norma acotada por M > 0 e ainda como gn 6→ 0, dadoε > 0, existe n0 ∈ N tal que

‖ gj‖gj‖

− gn‖gn‖

‖ < ε/M,∀j, n ≥ n0.

Isso implica que

| < gj‖gj‖

, gn > − <gn‖gn‖

, gn > | ≤ ‖gj‖gj‖

− gn‖gn‖

‖M < ε,∀j, n ≥ n0,

e por conseguinte, limn→∞√< gn, gn > = limj→∞ g(gj) ≤ ‖g‖.

Desse modo,

limn→∞

< gn −< gn, w >

‖w‖2w, gn −

< gn, w >

‖w‖2w > =

= limn→∞

< gn− < gn, w > w, gn > =

= limn→∞

< gn, gn > − << gn, w > w, gn > =

= limn→∞

< gn, gn > − < gn, w >2 = ‖g‖2 − ‖g(w)‖2 = 0.

Daí, concluímos que existe limn→∞ gn, e este seria ummúltiplo não nulo de w, o que contradiz a hipótese de que asequência gn não converge em E.

É bastante fácil ver que dado um espaço vetorial E mu-nido com um produto interno e um seu subespaço vetorial dedimensão finita E ⊂ E, temos E = E ⊕ E⊥. Para tal, basta verque dado v ∈ E, existe um ponto vE que minimiza a distânciaentre v e E, e que v − v ∈ E⊥ (vide exercício 2)..

Usaremos isto no próximo

Lema 5.8. (Identidade de Parseval Fraca, ou Teoremade Pitágoras.) Seja E um espaço vetorial com produto interno

Page 197: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 181

e seja E ⊂ E um subespaço vetorial de dimensão finita, o qualdotamos do produto interno oriundo de E. Suponha que β =

{v1, . . . , vn} seja uma base ortonormal de E. Então, dado v ∈ E,este se escreve de maneira única como v = α1v1+· · ·+αnvn+v⊥,onde α1 =< v, v1 >, . . . , αn =< v, vn > e v⊥ ∈ E⊥, valendo

‖v‖2 = (

n∑j=1

|αj |2) + ‖v⊥‖2.

Em particular, vale ‖v‖2 ≥∑∞j=1 |αj |2.

Prova: Como E tem dimensão finita, em particular éfechado em E, implicando que E = E⊕ E⊥. Assim, dado v ∈ E,podemos escrever v = v + v⊥, com v ∈ E e v⊥ ∈ E⊥. Ademais,v =

∑nj=1 αj vj , com

αj =< v, vj >=< v + v⊥, vj >=< v, vj >,

devido à ortogonalidade existente entre v⊥ e vj .

Finalmente, temos

< v, v >=<

n∑j=1

αj vj + v⊥,

n∑j=1

αj vj + v⊥ >=

(devido às relações de ortogonalidade existentes entre os diversosvetores v1, . . . vn e v⊥)

n∑j=1

|αj |2 < vj , vj > + < v⊥, v⊥ >= (

n∑j=1

|αj |2) + ‖v⊥‖2.

Observação 5.9. Note que a prova acima pode ser facilmenteadaptada para o caso em que E seja somente completo, nãonecessariamente de dimensão finita (exercício 3).

Page 198: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

182 Capítulo 5. O Operador Adjunto

Lema 5.10. Seja E um espaço de Hilbert e seja E ⊂ E umsubespaço fechado próprio. Então, dado v /∈ E, existe v ∈ E talque

infx∈E{‖v − x‖} = ‖v − v‖.

Ademais, v − v = w ∈ E⊥, o que implica que E⊥ 6= {0}.

Prova: Seja δ = inf x∈E{‖v − x‖}. Seja (xj), xj ∈ E

uma sequência que minimiza a distância entre v e E. Não háperda em supor que ‖xj − v‖ ≤ 2δ + 1 para uma tal sequênciaminimizante. Comecemos mostrando que < xj−v, x > convergeuniformemente a zero, para x ∈ E ∈ B(0, ‖v‖+ 2δ + 1).

De fato, para α ∈ R (ou C, se o espaço for complexo),temos:

δ2 ≤< (v − xj) + αx, (v − xj) + αx >⇔

δ2 ≤< (v − xj), (v − xj) > + < (v − xj), αx > +

+ < αx, (v − xj) > +|α2| < x, x >⇔

(Fazendo α = r < (v−xj), x >, onde r ∈ R é qualquer, obtemos:)

δ2 ≤< (v − xj), (v − xj) > +2r| < v − xj , x > |2+

+r2| < v − xj , x > |2‖x‖2,∀r ∈ R,⇔

δ2 ≤< (v−xj), (v−xj) > +r(2+r‖x‖2)| < v−xj , x > |2,∀r ∈ R.

Tomando r < 0, |r|(‖v‖+ 2δ + 1) < 1 temos que

δ2 ≤< (v − xj), (v − xj) > +r| < v − xj , x > |2. (5.1)

Seja ε > 0 dado. Tome |r| < ε2 e seja j0 tal que

| < (v − xj), (v − xj) > −δ2| < r2,∀j ≥ j0.

Page 199: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 183

Tal implica que

| < v − xj , x > | < ε,

ou a desigualdade 5.1 não seria satisfeita.

Mostremos que (xj) é de Cauchy. De fato,

0 ≤ ‖xj−xm‖2 =< xj−xm, xj−xm >=< xj−v+v−xm, xj−xm >=

< xj − v, xj − xm︸ ︷︷ ︸:=x∈E

> − < xm − v, xj − xm > .

converge a zero quando j,m → +∞, pela parte inicialmenteprovada neste lema.

Concluímos que (xj) é de Cauchy, e como a sequênciaminimizante tomada é arbitrária, concluímos (por argumentocanônico de Análise) que toda sequência minimizante possui omesmo limite, digamos v ∈ E. Como v /∈ E, segue-se que w =

v− v 6= 0. Como limj→+∞ < v−xj , x >→ 0, ∀x ∈ E, concluímosda continuidade do produto interno que w ∈ E⊥.

Observação 5.11. Note que é imediato do lema acima que seE é um espaço de Hilbert e E é um seu subespaço fechado, entãoE = E⊕ E⊥. A mesma prova serve para mostrar que se E é umespaço vetorial dotado de produto interno (não necessariamentecompleto) e E é um subespaço vetorial completo de E, entãotambém vale E = E ⊕ E⊥.

Teorema 5.12. (Representação de Riesz.) Seja E um es-paço de Hilbert. Então, dado um funcional linear contínuo f ∈E∗, existe um único w ∈ E tal que f(x) =< x,w >, ∀x ∈ E.

Page 200: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

184 Capítulo 5. O Operador Adjunto

Prova: Suponha que f 6= 0, pois este caso é imediato.Seja E = ker(f). Como f é contínuo, E é fechado em E. Pelolema anterior, ker(f)⊥ 6= {0}. Seja w 6= 0 um vetor em ker(f)⊥

tal que f(w) = 1, e seja w := w/ < w, w >. Daí, dado v ∈ E,escrevendo v = (v− < v, w > w/ < w, w >)+ < v, w > w, éclaro que v := (v− < v, w > w/ < w, w >) ∈ ker(f), temos:

f(v) = f(v)+f(< v, w > w/ < w, w >) =< v, w >

< w, w >f(w) =< v,w > .

Finalmente, para vermos a unicidade, basta aplicarmosmais uma vez o lema: w e z são tais que f(v) =< v,w >=<

v, z >, ∀v ∈ E, então vale:

< v,w >=< v, z >,∀v ∈ E ⇔< v, z − w >=

= 0,∀v ∈ E ⇔ z − w ∈ E⊥ = {0},

implicando que z = w.

Corolário 5.13. Seja E um espaço de Hilbert. Então a aplica-ção F : E → E∗ dada por

F (w) =< ·, w >,

é um isomorfismo (sesqui)linear isométrico de E em E∗.

Observação 5.14. (Representação dos funcionais lineares emE∗, quando E é espaço vetorial com produto interno, não ne-cessariamente completo.) Seja E um espaço vetorial dotado deum produto interno, e f : E → R

C um funcional linear contí-nuo. Então, pelo teorema de extensão de operadores lineares (o

Page 201: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 185

conhecido B.L.T.), o funcional linear f possui uma única ex-tensão contínua f : E → R

C, onde E é o completamento deE. Analogamente, dado f : E → R

C um funcional linear contí-nuo, sua restrição a E determina um único funcional contínuof : E → R

C. Em ambos os casos, como E é denso em E, obtemosque ‖f‖ = ‖f‖. Isso implica que E∗ é isometricamente isomorfoa E∗, via aplicação F : E∗ → E∗ dada por F (f) = f , em que fé a única extensão contínua de um funcional f com domínio emE ao completamento E. Ora, do Teorema de Representação deRiesz, temos que qualquer funcional linear contínuo f (definidono espaço de Hilbert E, completamento de E) é da forma:

f(x) =< x, w >,∀x ∈ E,

onde w ∈ E é um vetor constante, unicamente determinado porf . Ora, se f = F−1(f), então f = f |E . Em particular, tomando-se uma sequência wn → w, onde wn ∈ E, é claro que para x ∈ Evale

f(x) = f(x) =< x, w >= limn→∞

< x,wn >,

o que nos fornece uma representação (não única) para os funci-onais lineares em E, simplesmente em termos de sequências emE.

A mais importante conclusão a que chegamos a partir daobservação acima é que embora nem todo funcional linear em E∗

(quando E não é completo) possa ter uma representação do tipof(x) =< x,w >,∀x ∈ E, com w ∈ E, vetor constante, mesmoassim, os funcionais desse tipo podem ser usados para aproximarqualquer funcional em E∗, pois formam um subconjunto densode E∗. Desse modo, estamos aptos a fazer a seguinte:

Page 202: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

186 Capítulo 5. O Operador Adjunto

Definição 5.15. (Operador Adjunto em Espaços vetoriaiscom produto interno.) Seja A : E → E um operador linearcontínuo, definido no espaço vetorial E, dotado de produto in-terno < ·, · >. O adjunto, se existir, de A é o único operadorlinear A∗ : E → E dado por:

< A · x, y >=< x,A∗ · y >,∀x, y ∈ E.

Exemplo 5.16. Seja E = (C0([−1, 1];C), < ·, · >) o espaçodas funções contínuas com domínio no intervalo [0, 1], dotado doproduto interno < f, g >:=

∫ 1

0f(t) · g(t)dt. Seja (gn), gn ∈ E

uma sequência de Cauchy em E, normalizada, sem limite emE. Vamos definir uma aplicação A : E → E tal que A∗ nãoesteja definido. Seja p1, p2, . . . a base ortonormal de E dada pelanormalização dos polinômios de Legendre. Seja y ∈ E vetor nãonulo fixado. Defina A(pj) := limn→∞

<pj ,gn><y,y> y Daí,

< A(pj), y >= limn→∞

< pj , gn >

< y, y >,∀pj ,

e portanto, A∗(y)(·) = limn→∞ < ·, gn >, ou seja, não existew ∈ E tal que < A(x), y >=< x,A∗(y) >.

Compare a definição acima com a de operador adjuntoem espaços normados. No caso de espaços vetoriais dotados comproduto interno, identificamos E com seu mergulho em E∗. Comisso, temos que em espaços dotados de produto interno, tanto ooperador como seu adjunto atuam no mesmo domínio, E.

Propriedades importantes acerca do espectro de opera-dores auto-adjuntos são assinaladas na próxima proposição:

Proposição 5.17. (Propriedades do Operador Adjunto.)Dado um operador A : E → E em um espaço de Hilbert complexo

Page 203: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 187

E, temos quesp(A) = sp(A∗)

Prova: Note que o adjunto Hilbertiano é definido demaneira um pouco diferente do de Banach. De fato, temos que

< x, y >=< (λ−A)(λ−A)−1(x), y >=< (λx−A(x))−1, y >=

< x, (λx−A(x))−1∗(λy −A∗)(y) >,∀x, y ∈ E,

implicando (Mutatis Mutandis) que (λx−A(x))−1∗ = (λy −A∗). Permutando os papéis de A e seu adjunto, obtemos queo conjunto resolvente de um é o conjugado do outro, o mesmovalendo para seus espectros.

A despeito de toda a teoria abstrata vista até agora, agrande motivação e utilidade de se considerar operadores adjun-tos reside na próxima importante

Proposição 5.18. Seja A : H → H um operador linear limi-tado com domínio em um espaço de Hilbert H. Então ker(A) =

ran(A∗)⊥ e ran(A) = ker(A∗)⊥.

Prova: Dado v ∈ ker(A) e w ∈ H qualquer, temos:

< v,A∗(w) >=< A(v), w >= 0,

e portanto a imagem de A∗ é perpendicular ao ker(A), e recipro-camente, dado v ∈ ran(A∗)⊥, temos que

0 =< v,A∗(w) >=< A(v), w >, ∀w ∈ H,

e portanto A(v) = 0, isto é, v ∈ ker(A).

Page 204: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

188 Capítulo 5. O Operador Adjunto

Por outro lado, como A∗∗ = A, do que recém prova-mos temos que ker(A∗) = ran(A∗)⊥ e portanto ker(A∗)⊥ =

ran(A∗)⊥⊥

= ran(A∗).

Pensando no contexto de dimensão finita, lembramosque parte da dificuldade em obtermos uma forma de Jordan di-agonal em geral consiste em que ker(A− λI) e ran(A− λI) nãosão em geral espaços complementares podendo ter intersec cãonão trivial. Tais espaços são invariantes para A, têm dimensãocomplementar, mas podem não estar em soma direta. A pro-posição anterior no permite obter um espaço complementar aker(A− λI), embora em geral não invariante por A, se A 6= A∗.Mesmo assim, o fato do aplicação de passar ao adjunto ser umisomorfismo, nos permite até em dimensão infinita levar e trazercálculos funcionais de um operador para o seu adjunto e vice-versa. Tal será explorado de maneira muito esperta na próximaseção, na prova de uma versão aprimorada do Teorema Ergódicode Von Neumann. Por outro lado, quando A = A∗, e a dimen-são for finita, a proposição anterior nos dá que ker(A − λI) eran(A − λI) estão em soma direta, e a mesma prova da Formade Jordan nos dá que A é diagonalizável. Tal é provado, em maiorgeneralidade inclusive, no Apêndice do livro.

Um operador A tal que A = A∗ é dito auto-adjunto.

Proposição 5.19. Seja E um espaço dotado de produto internoe seja A : E → E um operador auto-adjunto. Então qualquer(possível) autovalor de A pertence a R. Ademais, se v1 e v2 sãoautovetores correspondentes a autovalores λ1 6= λ2, então são

Page 205: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

5.1. Aplicação: generalizando o Teorema de von Neumann 189

ortogonais.

Prova: Suponha que λ ∈ C seja um autovalor de A.

Temos, portanto:

λ < v, v >=< v, λv >=< v,Av >=

(pois A é auto-adjunta)

< Av, v >=< λv, v >= λ < v, v > .

Como v 6= 0, segue-se que λ = λ, ou seja, λ ∈ R.

Finalmente,

λ1 < v1, v2 >=< Av1, v2 >=< v1, Av2 >= λ2 < v1, v2 > ⇒︸︷︷︸λ1 6=λ2

< v1, v2 >= 0,

ou seja, v1 e v2 são ortogonais se são autovetores associados aautovalores distintos.

Observação 5.20. É fato que se A é um operador linear autoadjunto, então seu espectro está contido em R.

5.1 Aplicação: generalizando o Teorema de von Neu-mann

Vimos no capítulo anterior que se o raio espectral deum operador A ∈ L(E) é estritamente menor que 1, então anorma de An converge exponencialmente rápido para zero. Emparticular, An(v) converge a zero para qualquer vetor v ∈ E.

Page 206: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

190 Capítulo 5. O Operador Adjunto

Nessa seção, pretendemos estudar o que podemos dizer sobre asequência (An(v)), v 6= 0 quando n→ +∞ no caso em que o raioespectral é menor ou igual a 1. Será que tal sequência possuilimite em algum sentido? Os próximos exemplos nos indicamque hipóteses adicionais são necessárias para que o limite de talsequência exista à Césaro, o que tende em geral a ser o máximoque podemos esperar.

Exemplo 5.21. Seja A ∈ L(R2) a aplicação linear cuja matrizna base canônica é dada por

A :=

(1 1

0 1

)

Do capítulo 1 temos que

An :=

(1 n

0 1

)

Desse modo, vemos que para v = (0, 1), An(v) = (n, 1), a qualconverge a infinito com velocidade polinomial.

Exemplo 5.22. Seja A ∈ L(R2) a aplicação linear cuja matrizna base canônica é dada por

A :=

(1/2 −

√3/2√

3/2 1/2

),

que corresponde a rotação de π/3. Ora, tal implica que todoponto não nulo é periódico de período mínimo igual a 6. Por-tanto, a sequência (An(v)), v 6= 0 é periódica, não convergindoquando n→ +∞.

Page 207: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 191

Note no segundo exemplo que, embora a sequência nãoconvirja sua média converge à Cesàro, ou seja, as médias,

1

N

N−1∑n=0

An(v)

convergem, quando N → +∞. (No exemplo em questão, conver-gem para zero).

Exemplo 5.23. Seja `2 o espaço de Hilbert das sequências qua-drado somáveis de números complexos, e considere A : `2 → `2

dada porA((x1, x2, . . . )) := (x2, . . . )

Dado N ∈ N, observe que I, A,A2, . . . , AN são isometrias (sobresua imagem) quando restritos ao subespaço

EN := {x ∈ `2;x = (0, . . . , 0︸ ︷︷ ︸N vezes

x1, . . . )}.

Claramente, a norma de A, e portanto a de An é menor ou igual a1, para todo n ≥ 0 e o acima mostra que de fato sua norma é iguala 1. Mais ainda, é fácil de verificar que 1

N

∑N−1n=0 A

n tambémuma isometria sobre sua imagem quando restrita a EN . Logo,essa soma a Cesàro não converge em norma a zero. Entretanto,na topologia forte (pontual) é fácil ver que tal soma converge azero (exercício 4).

Teorema 5.24. (Ergódico de Von Neumann, generali-zado.) Seja V um operador em um espaço de Hilbert H sa-tisfazendo ‖V n‖ < C para todo n. Então

1

N

N−1∑n=0

V n(f)→ P (f),∀f ∈ H,

Page 208: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

192 Capítulo 5. O Operador Adjunto

onde P é uma projeção (não necessariamente ortogonal) sobre{f ;V (f) = f} =: F (V ).

Prova:

Note que F (V ) é claramente um subespaço fechado deH, já que é o núcleo de V − I, onde I é a identidade, logo, é onúcleo de uma aplicação contínua. Observamos também que

PN (f) :=1

N

N−1∑n=0

∥∥∥V n(f)∥∥∥ ≤ (1/N) ·N‖f‖ ≤ C‖f‖.

E que se f ∈ F (V ) = ker(I − V ), então PN (f) = f, ∀N . Por-tanto, 1

N

∑N−1n=0 V

n(f) → P (f),∀f ∈ F (V ). Vejamos agora oque ocorre no espaço ran(I − V ) =: E(V ). Se f ∈ E(V ), entãoexiste g ∈ H tal que f = g − V (g), logo temos:∥∥∥ 1

N

N−1∑n=0

V n(f)∥∥∥ =

∥∥∥ 1

N

N−1∑n=0

V n(g − V (g))∥∥∥ =

1

N

∥∥∥g − V N (g)∥∥∥ ≤ 1

N(‖g‖+ C‖g‖)→ 0 quando N → +∞.

Notamos que converge também para zero para toda f ∈E(V ). Neste caso, existem E(V ) 3 fj → f e daí,∥∥∥ 1

N

N−1∑n=0

V n(fj)−1

N

N−1∑n=0

V n(f)∥∥∥ =

1

N

∥∥∥N−1∑n=0

V n(fj − f)∥∥∥ ≤

≤ 1

N

N−1∑n=0

C‖fj − f‖ ≤ C‖fj − f‖ → 0,

implicando a afirmação que fizemos.

Note que devido aos limites acima serem distintos emF (V ) e E(V ) temos que F (V ) ∩ E(V ) = {0}. Se mostrarmosque F (V )⊕ E(V ) = H, então teremos concluído a prova.

Page 209: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 193

Para ver isso, devemos considerar F (V ∗) : = ker(I−V ∗)e E(V ∗) = ran(I − V ∗). Como ‖V n‖ ≤ C,∀n ∈ N, vale tambémque ‖(V ∗)n‖ ≤ C, ∀n ∈ N. De fato, para qualquer operadorlinear contínuo A : H → H vale que (A∗)n = (An)∗ e além domais

‖A‖ = sup‖v‖=1

‖A(v)‖ = sup‖v‖=1

sup‖w‖=1

< A(v), w >=

sup‖w‖=1

sup‖v‖=1

< v,A∗(w) >= sup‖w‖=1

‖A∗(w)‖ = ‖A∗‖.

Logo, obtemos pelas mesmas contas que já fizemos paraV que F (V ∗) e E(V ∗) têm intersecção trivial. Mas

F (V )⊥ = ker(I − V )⊥ = ran(I − V ∗) = E(V ∗),

eE(V )⊥ = ran(I − V )⊥ = ker(I − V ∗) = F (V ∗).

Donde concluímos que

(F (V ) + E(V ))⊥ = F (V ∗) ∩ E(V ∗) = {0},

ou seja, H = F (V ) + E(V ), como queríamos demonstrar.

Observação 5.25. Note que se V fosse autoadjunto, a projeçãoseria ortogonal. Uma versão ainda mais elaborada do TeoremaErgódico Von Neumann foi apresentada por Thiago Bomfim emsua monografia de curso e trabalho de iniciação científica. Taltrabalho foi medalha de prata no V Simpósio Nacional / Jorna-das de Iniciação Científica, em 2011, e encontra-se disponível nolink:

http://www.colmat.ufba.br/monografias?page=1

Page 210: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

194 Capítulo 5. O Operador Adjunto

Note o que o Teorema acima nos diz em particular: seum operador de norma menor ou igual a 1 possuir autovalor1, ele nos dá um modo de calcular seu autoespaço (note quenesse caso, o autoespaço generalizado de 1 é um autoespaço ) Sepor outro lado, tal espaço for trivial, então qualquer média deBirkhoff como do Teorema converge a zero.

Para os próximos exemplos aplicando o teorema ante-rior, falaremos um pouco de transformações que preservam medi-das. Dado um conjunto X, uma medida finita µ : A → [0,+∞),A ⊂ P(X) é uma função de conjunto tal que

1. µ(∅) = 0.

2. µ é σ−aditiva:

µ(∪∞n=1An) =

∞∑n=1

µ(An),

para toda união de conjuntos dois a dois disjuntos An dacoleção A.

Em geral, pede-se que a coleçãoA seja uma σ−álgebra, isto é, queseja fechada para uniões enumeráveis, intersecções enumeráveise passagem ao complemento de seus membros.

Dizemos que uma aplicação f : X → X preserva a me-dida µ se para todo A ∈ A, então f−1(A) ∈ A e vale que

µ(A) = µ(f−1(A)).

Dado um intervalo limitado I ⊂ R um exemplo bemconhecido de medida finita é a que atribui a cada subintervalode I o seu comprimento. Claramente, a menor σ−álgebra que

Page 211: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Augusto Armando de Castro Júnior 195

contém tais intervalos contém todos os abertos (e fechados) em I

e de fato coincide com a menor σ−álgebra que contém os abertosde I, também chamada de σ−álgebra de Borel de I.

Pensemos na seguinte situação-exemplo:

Seja f : S1 → S1 a aplicação dada por f(z) := α ∗z, α = eiθ ∈ S1, π/θ é irracional, onde o produto em questãoé a multiplicação usual em C. Ou seja, f é dita uma rotaçãoirracional do círculo S1.

Dado um segmento de arco em S1, via coordenadas po-lares, podemos identificá-lo com um intervalo da reta de mesmocomprimento, e dessa forma transportar a medida do intervaloI = [0, 2π) para S1 de maneira natural. Também uma funçãoϕ : S1 → R

C é dita integrável se∫S1

|ϕ|dm :=

∫ 2π

0

|ϕ|(eit)dt < +∞,

e nesse caso, sua integral é∫S1

ϕdm :=

∫ 2π

0

ϕ(eit)dt < +∞.

Dado p ≥ 1, a exemplo dos espaços `p, podemos conside-rarLp(S1,m) como o espaço das funções contínuas dotado da norma

‖ϕ‖p := p

√∫S1

|ϕ|pdm

e definir Lp(S1,m) como o completamento de Lp(S1,m). Noteque a integral também se estende de maneira natural ao com-pletamento.

Page 212: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

196 Capítulo 5. O Operador Adjunto

Em particular para p = 2, é possível provar que talcompletamento é um espaço de Hilbert.

Interessantemente, U(ϕ) := ϕ ◦ f é uma isometria emcada um dos espaços Lp(S1,m), se estendendo continuamente demaneira única ao completamento. Note que ϕ ≡ 1 é autovetordo autovalor 1 desse operador.

Concluímos do Teorema 5.24 que dado ϕ ∈ L2(S1,m)

que existe ϕ ∈ L2(S1,m) tal que

∥∥∥ 1

N

N−1∑n=0

ϕ ◦ fn − ϕ∥∥∥

2→ 0 quando N → +∞.

Page 213: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

5.2 Exercícios

1. Se um operador A : Cn → Cn tem λ1, . . . , λr autovalo-res distintos, e para cada Tj := (λjI − A), j = 1, . . . , r,ker(Tj) e Tj(Cn) são espaços complementares, mostre queA é diagonalizável.

2. Mostre que se E é um espaço dotado de produto internoe E ⊂ E é um subespaço de dimensão finita, então E =

E ⊕ E⊥.

3. Mostre que se E é um espaço dotado de produto internoe E ⊂ E é um subespaço completo, então E = E ⊕ E⊥.Enuncie e prove com tal hipótese uma versão mais geraldo teorema de Pitágoras (lema 5.8 da página 178).

4. Prove que na topologia forte no espaço dos operadores asoma de Birkhoff do exemplo 5.23 da página 189 convergea zero.

Page 214: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3
Page 215: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

199

Conclusão

Chegamos ao fim de nosso texto, e não somos ainda ca-pazes de construir um computador quântico, nem o reator defusão nuclear. Vimos alguns algoritmos para um problema bá-sico em Matemática, e muito útil em todas as modelagens queenvolvam problemas lineares ou quadráticos: o cálculo de auto-espaços e autovalores. Podemos aplicar tais técnicas a calcularposições de times esportivos, buscar páginas na Internet comrespeito a uma palavra chave. Tais cálculos, aplicados por exem-plo sobre uma matriz de variância-covariância das temperaturasde nosso planeta, permitem perceber correlações estatísticas detemperatura entre as diversas regiões da Terra. Em uma superfí-cie suave, permitem calcular as linhas de curvatura principais emcada ponto. Tantos diferentes problemas, resolvidos com apenasum método... Imaginem quantos outros podemos resolver comtoda a Matemática feita e por fazer! Imaginem...

Page 216: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3
Page 217: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

201

Referências

[1] Armando Castro, Curso de Teoria Espectral, preprintUFBA (2014).

[2] Armando Castro, Curso de Topologia e Análise, preprintUFBA (2013).

[3] Armando Castro, New criteria for hyperbolicity based onperiodic sets, Bulletin of the Brazilian Mathematical Society42 (3), 455-483 (2011).

[4] Armando Castro, Curso de Equações Diferenciais Ordiná-rias; submetido a publicação pelo Projeto Euclides, IMPA.(2008)

[5] Armando Castro, Curso de Teoria da Medida, 2a. edição;Projeto Euclides, IMPA/CNPq, 2008.

[6] Armando Castro, N. Medeiros, V. Pinheiro, Isolated Pe-riodic Points and Zeros of Operator Functions, preprintUFBA (2008).

[7] V. Baladi. Positive transfer operators and decay of correla-tions. World Scientific Publishing Co. Inc., 2000.

[8] Thiago Bomfim, Uma generalização do teorema de John vonNeumann, Monografia de Curso, UFBA, (2009). Disponívelem http://www.colmat.ufba.br/monografias?page=1.

[9] T. Kato, Perturbation Theory for Linear Operators, Sprin-ger Verlag, 1980.

Page 218: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

202 Referências

[10] E. L. Lima, Curso de Análise I, Projeto Euclides, IM-PA/CNPq, 1982.

[11] E. L. Lima, Espaços Métricos, Projeto Euclides, IM-PA/CNPq, 1983.

[12] E. L. Lima, Curso de Análise II, Projeto Euclides, IM-PA/CNPq, 1985.

[13] E. L. Lima, Análise no Espaço Rn, Coleção MatemáticaUniversitária, IMPA/CNPq, 2002.

[14] N. Dunford, J. T. Schwartz, Linear Operators, IntersciencePublishers, New York, 1958.

[15] M. Reed, B. Simon, Methods of Modern Mathematical Phy-sics, vol I: Functional Analysis, Academic Press, New Yorkand London, 1975.

[16] C. Liverani, Decay of correlations, Annals of Math., 142,239–301, 1995.

[17] R. Mañé, Ergodic Theory and Differentiable Dynamics,Springer Verlag, Berlin, 1987.

[18] W. Rudin, Functional Analysis, McGraw-Hill Book Com-pany, 1973.

[19] W. Rudin, Real and Complex Analysis, 3d. Edition,McGraw-Hill Book Company, 1987.

[20] M. G. Soares, Cálculo em uma variável complexa, ColeçãoMatemática Universitária, IMPA/CNPq, 2001.

[21] M. Viana, Stochastic dynamics of deterministic systems,Colóquio Brasileiro de Matemática, 1997.

Page 219: Aplicações de Análise a Álgebra Linearsp(A), sabemos do curso de Álgebra linear que temos dois es-paçosinvariantesporA.Nestesespaços,Aagerespectivamente comooprodutopelosescalares3

Referências 203

[22] K. Yosida, Functional Analysis, 6th. Edition, Springer-Verlag, 1980.