![Page 1: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/1.jpg)
Universidade Federal de Campina Grande
Centro de Ciências e Tecnologia
Unidade Acadêmica de Matemática e Estatística
Curso de Graduação em Matemática
Soluções de Sistemas de EquaçõesDiferenciais Lineares
por
Michel Barros Silva
sob orientação do
Prof. Dr. Severino Horácio da Silva
Campina Grande - PB
Novembro de 2011
![Page 2: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/2.jpg)
Universidade Federal de Campina Grande
Centro de Ciências e Tecnologia
Unidade Acadêmica de Matemática e Estatística
Curso de Graduação em Matemática
Michel Barros Silva
Soluções de Sistemas de EquaçõesDiferenciais Lineares
Trabalho apresentado ao Curso de Graduação em Ma-
temática da Universidade Federal de Campina Grande
como requisito parcial para a obtenção do título de Ba-
charel em Matemática.
Orientado por Severino Horácio da Silva
Campina Grande - PB
Curso de Matemática, modalidade Bacherelado
![Page 3: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/3.jpg)
Soluções de Sistemas de EquaçõesDiferenciais Lineares
por
Michel Barros Silva
Trabalho de Conclusão de Curso defendido e aprovado em: 23/11/2011 pela
Comissão Examinadora constituída pelos professores:
Prof. Dr. Severino Horácio da Silva
Orientador
UAME/CCT/UFCG
Prof. Alânnio Barbosa Nóbrega
Examinador
UAME/CCT/UFCG
Com nota igual a
Campina Grande - PB
Novembro/2011
![Page 4: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/4.jpg)
Dedicatória
Aos meus pais, Diogo e Joana, e
aos meus irmãos Diego e Wagner.
iv
![Page 5: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/5.jpg)
Agradecimentos
Inicialmente agradeço aos meus pais, Diogo e Joana. Ao meu pai por todo co-
nhecimento e sabedoria, a minha mãe por todo carinho e cuidado, e a ambos por toda
dedicação, atenção e amor. Um lho não poderia desejar pais melhores.
Aos meus irmãos, Diego e Wagner. A Diego por sempre me fazer ir, não impor-
tando com que humor eu esteja e a Wagner por seu cuidado comigo desde pequeno.
Aos meus amigos: Keytt, Magna, Jamilly, Jonas e Jogli.
A Fabrício e Aline, os meus amigos desde o primeiro período, com quem muito
estudei e me diverti.
A Raquel, Débora e Maria, grandes amigas que eu conheci no curso.
A Lorena com quem eu partilhei os últimos períodos na Universidade, por ter me
ajudado tirando dúvidas, resolvendo exercícios, compartilhando almoços e caminhadas
para o CX.
Ao professor Daniel Cordeiro, pelas as suas orientações em demonstrações mate-
mática e por sempre exigir o melhor de seus alunos.
Ao professor Severino Horácio, meu orientador, por sua orientação, estímulo,
paciência e fé nesses últimos períodos que me deram ânimo para sempre fazer mais e
nunca desistir.
v
![Page 6: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/6.jpg)
Resumo
Neste trabalho usamos exponenciais de matrizes para encontrar soluções de sis-
temas de equações diferenciais lineares com coecientes constantes e estudamos alguns
problemas Hamiltonianos como o modelo de oscilação de uma mola e a interação gra-
vitacional de dois corpos.
vi
![Page 7: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/7.jpg)
Abstract
This Work we used exponential of matrices to nd solution of systems of linear
dierential equations with constant coecients and we study some Hamiltonian pro-
blems like oscillation model of a spring and the gravitational interaction of two bodies
vii
![Page 8: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/8.jpg)
Sumário
1 Preliminares 4
1.1 Teorema do Ponto Fixo de Banach . . . . . . . . . . . . . . . . . . . . 4
1.2 Exponencial de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Sistemas de Equações Diferenciais Lineares 21
2.1 Teorema de Existência e Unicidade . . . . . . . . . . . . . . . . . . . . 21
2.2 Sistemas de Equações Diferenciais Lineares . . . . . . . . . . . . . . . . 24
2.3 Solução de Sistema de Equações Diferenciais Através de Exponencial de
Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Sistemas Hamiltonianos 40
3.1 Sistemas Hamiltonianos . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.1 Colchete de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.2 O Oscilador Harmônico . . . . . . . . . . . . . . . . . . . . . . 44
3.1.3 Oscilador Forçado Não-Linear . . . . . . . . . . . . . . . . . . . 45
3.1.4 Sistema Newtoniano Geral . . . . . . . . . . . . . . . . . . . . . 46
3.1.5 Problema de N corpos . . . . . . . . . . . . . . . . . . . . . . . 47
3.1.6 O Problema de Kepler . . . . . . . . . . . . . . . . . . . . . . . 48
A Conceitos e Resultados da Álgebra Linear 50
A.1 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . 50
A.2 Diagonalização de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 55
A.3 Autovalores e Autovetores Complexos . . . . . . . . . . . . . . . . . . . 58
A.4 Forma Canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 66
Referências Bibliográcas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1
![Page 9: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/9.jpg)
Introdução
O estudo das equações diferenciais começou com os métodos do Cálculo Diferen-
cial e Integral, descobertos por Newton e Leibntiz, para resolver problemas motivados
por considerações físicas e geométricas. Estes métodos, na sua evolução, conduzi-
ram gradualmente à consolidação das Equações Diferenciais como um novo ramo da
Matemática, que em meados do século XVIII se transformou numa das disciplina ma-
temáticas mais importantes e o método mais efetivo para a pesquisa cientíca. As
contribuições de matemáticos ilustres como Euler, Lagrange e Laplace expandiram
notavelmente o conhecimento das equações diferenciais no Cálculo das Variações, na
Mecânica Celeste e na Dinâmica dos Fluidos, (veja [9]).
Inicialmente, procurava-se expressar as soluções em termos de funções elementa-
res. Posteriormente, passou-se a considerar satisfatório expressar a solução na forma de
uma integral (quadratura). Entretanto, logo se vericou que o número de equações que
podiam ser resolvidas em termos de funções elementares era muito pequeno. No século
XIX os fundamentos da Análise Matemática experimentaram uma revisão e reformula-
ção geral visando maior rigor e exatidão, começando a pôr em dúvida certos métodos de
resoluções de equações. Passou-se a considerar como questão prévia em cada problema
a existência e unicidade de soluções satisfazendo dados iniciais. A importância dessa
consideração reside em que, sabendo-se a priori da existência da solução, sua busca se
torna justicável e promissora, uma vez que a solução assim obtida pode ser vericada
a posteriori, (veja [9] e [2]).
Nesse trabalho apresentamos alguns resultados da teoria das Equações Diferenci-
ais Ordinárias, com enfoque no estudo de soluções de sistemas de equações diferenciais
lineares com coecientes constantes, bem como alguns exemplos e aplicações desta
teoria. Esse texto está organizado como segue: no Capítulo 1 apresentamos alguns
conceitos e resultados preliminares que serão utilizados nos capítulos posteriores. No
2
![Page 10: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/10.jpg)
3
Capítulo 2, demonstramos o Teorema de Existência e Unicidade de Solução e traba-
lhamos com sistemas de equações diferenciais lineares com coecientes constante. Para
isso, utizamos o conceito de exponencial de matrizes. No Capítulo 3 fazemos uma
introdução ao estudo dos sistemas lineares Hamiltonianos. Finalmente, no Apêndice,
apresentamos alguns conceitos e resultados básicos da Álgebra Linear.
![Page 11: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/11.jpg)
Capítulo 1
Preliminares
Neste capítulo, apresentamos alguns conceitos e resultados necessários para de-
monstrarmos o Teorema de Existência e Unicidade de solução para o problema de valor
inicial, proposto em [9], e para resolvermos sistemas de equações diferenciais lineares
com coecientes constantes.
1.1 Teorema do Ponto Fixo de Banach
Uma métrica num conjunto X é uma função d : X×X → R, que associa a cada
par ordenado de elementos x, y ∈ X um número real d(x, y), chamado a distância de
x a y, de modo que sejam satisfeitas as seguintes condições para quaisquer x, y, z ∈ X:
d1) d(x, x) = 0;
d2) Se x 6= y, então d(x, y) > 0;
d3) d(x, y) = d(y, x);
d4) d(x, z) ≤ d(x, y) + d(y, z).
Denição 1.1.1. Um espaço métrico é um par (X, d), onde X é um conjunto e d é
uma métrica em X.
Exemplo 1.1.1. Seja X um espaço vetorial munido de uma norma | · |. Então
d : X ×X → R, d(x, y) = |x− y|
4
![Page 12: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/12.jpg)
CAPÍTULO 1. PRELIMINARES 5
é uma métrica sobre X, a qual é chamada de métrica induzida pela norma | · |. De
fato, dados x, y, z ∈ X, temos
d(x, x) = |x− x| = 0.
Se x 6= y, então
d(x, y) = |x− y| > 0.
Temos ainda
d(x, y) = |x− y| = |y − x| = d(y, x).
Finalmente, observe que, pela desigualdade triangular,
d(x, z) = |x− z|≤ |x− y|+ |y − z|= d(x, y) + d(y, z).
Assim
d(x, z) ≤ d(x, y) + d(y, z).
Portanto d é uma métrica de X.
Exemplo 1.1.2. Seja Bb a bola de Rn de centro na origem e raio b e I = [a, b] ⊂ R.Considere X =C (I, Bb) o espaço das funções contínuas ϕ : I → Bb. Dena d :
X ×X → R por,
d(ϕ1, ϕ2) = supt∈I|ϕ1(t)− ϕ2(t)|.
Note que d dene uma métrica em X. De fato, dados ϕ1, ϕ2, ϕ3 ∈ X, temos
d(ϕ1, ϕ1) = supt∈I|ϕ1(t)− ϕ1(t)| = 0.
Se ϕ1 6= ϕ2, então
d(ϕ1, ϕ2) = supt∈I|ϕ1(t)− ϕ2(t)| > 0.
Temos ainda
d(ϕ1, ϕ2) = supt∈I|ϕ1(t)− ϕ2(t)|
= supt∈I|ϕ2(t)− ϕ1(t)|
= d(ϕ2, ϕ1).
Finalmente, observe que, pela desigualdade triangular, para todo t ∈ I
|ϕ1(t)− ϕ3(t)| ≤ |ϕ1(t)− ϕ2(t)|+ |ϕ2(t)− ϕ3(t)|,
![Page 13: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/13.jpg)
CAPÍTULO 1. PRELIMINARES 6
donde, calculando o supremo, obtemos
supt∈I|ϕ1(t)− ϕ3(t)| ≤ sup
t∈I(|ϕ1(t)− ϕ2(t)|+ |ϕ2(t)− ϕ3(t)|)
≤ supt∈I|ϕ1(t)− ϕ2(t)|+ sup
t∈I|ϕ2(t)− ϕ3(t)|.
Assim
d(ϕ1, ϕ3) ≤ d(ϕ1, ϕ2) + d(ϕ2, ϕ3).
Portanto d é uma métrica em X.
Denição 1.1.2. Um ponto xo de uma aplicação f : X → X é um ponto x ∈ Mtal que f(x) = x.
Exemplo 1.1.3. Toda função contínua f : [0, 1] → [0, 1] possui um ponto xo. De
fato, considere a função contínua ϕ : [0, 1]→ R, dada por
ϕ(x) = f(x)− x.
Como 0 ≤ f(x) ≤ 1 para todo x ∈ [0, 1], segue-se que
ϕ(0) = f(0) ≥ 0 e ϕ(1) = f(1)− 1 ≤ 0.
Pelo Teorema do Valor Intermediário (veja [5]), existe x ∈ [0, 1] tal que ϕ(x) = 0, isto
é, f(x) = x.
Denição 1.1.3. Sejam X, Y espaços métricos. Uma aplicação f : X → Y chama-se
um contração quando existe uma constante c, com 0 ≤ c < 1, tal que
d(f(x), f(y)) ≤ c · d(x, y)
para quaisquer x, y ∈ X.
Exemplo 1.1.4. Seja U ⊂ Rn aberto e convexo. Se f : U → Rn é uma aplicação
diferenciável tal que |f ′(x)| ≤ c < 1 para todo x ∈ U e algum c ∈ R, pela Desigualdade
do Valor Médio, (veja [6]),
|f(x)− f(y)| ≤ |f ′(x)| |x− y|≤ c|x− y|.
Portanto f é uma contração.
Denição 1.1.4. Uma sequência (xn) num espaço métrico M chama-se uma sequên-
cia de Cauchy quando, para todo ε > 0 dado, existe n0 ∈ N tal que
m,n > n0 ⇒ d(xm, xn) < ε.
![Page 14: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/14.jpg)
CAPÍTULO 1. PRELIMINARES 7
Denição 1.1.5. Diz-se que o espaço métrico X é completo quando toda sequência
de Cauchy em X converge para um elemento de X. Um espaço vetorial normado que
é completo, com a métrica induzida pela norma, chama-se um espaço de Banach.
Exemplo 1.1.5. Um subespaço fechado de um espaço métrico completo é completo.
De fato, seja F ⊂M fechado, com M completo. Dada uma sequência de Cauchy (xn)
em F , existe limxn = a ∈ M . Como F é fechado em M , tem-se a ∈ F . Logo F é
completo.
Exemplo 1.1.6. O espaço X =C (I, Bb) das funções contínuas denidas como no
Exemplo 1.1.2 é um espaço métrico completo. Com efeito, seja ϕn uma seguência de
Cauchy em X. Então, dado ε > 0, existe n0 ∈ N tal que para todo m,n ≥ n0,
d(ϕm(t), ϕn(t)) < ε,
ou seja,
supt∈I|ϕm(t)− ϕn(t)| < ε.
Daí,
|ϕm(t)− ϕn(t)| < ε, ∀ t ∈ I.
Logo (ϕ1(t), ϕ2(t), · · · ) é uma sequência de Cauchy em Bb. Como Bb é um subespaço
métrico fechado do espaço métrico completo Rn, Bb é um espaço completo. Assim
existe ϕt ∈ Bb tal que ϕm(t) → ϕt, quando t → ∞. Considere a função ϕ : I → Bb,
dada por
ϕ(t) = ϕt = limn→∞
ϕn(t)
Armamos que:
i) ϕ ∈ X;
ii) ϕn → ϕ.
De fato, sendo ϕn funções contínuas de I em Bb é fácil ver que ϕ : I → Bb é uma
função contínua. Além disso, dado t ∈ I, temos
|ϕn(t)− ϕ(t)| = |ϕn(t)− ϕt|,
onde, para n sucientemente grande, segue que,
|ϕn(t)− ϕt| < ε.
Como vale para todo t ∈ I, obtemos
supt∈I|ϕn(t)− ϕ(t)| < ε,
isto é,
d(ϕn(t), ϕ(t)) < ε.
Portanto X é um espaço métrico completo.
![Page 15: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/15.jpg)
CAPÍTULO 1. PRELIMINARES 8
Teorema 1.1.1 (Teorema de Banach). Se X é um espaço métrico completo, toda
contração f : X −→ X possui um único ponto xo em X. Mais precisamente, se
escolhermos um ponto qualquer x0 ∈ X e pusermos
x1 = f(x0), x2 = f(x1), . . . , xn+1 = f(xn), . . .
a sequência (xn) converge em X e a = limxn é o único ponto xo de f .
Demonstração. Provemos inicialmente a unicidade. Se f(a) = a e f(b) = b, como f é
uma contração, temos
d(a, b) = d(f(a), f(b)) ≤ c · d(a, b),
ou seja,
(1− c) · d(a, b) ≤ 0.
Como 1−c > 0, concluímos que d(a, b) = 0, isto é, a = b. Provemos agora a existência,
para isso, provemos que (xn) é uma sequência de Cauchy em X. Ora
d(x1, x2) = d(f(x0), f(x1)) ≤ c · d(x0, x1),
d(x2, x3) = d(f(x1), f(x2)) ≤ c · d(x1, x2) ≤ c2 · d(x0, x1)
e, por recorrência, temos
d(xn, xn+1) ≤ cn · d(x0, x1), ∀n ∈ N.
Então para n, p ∈ N quaisquer, segue que
d(xn, xn+p) ≤ d(xn, xn+1) + d(xn+1, xx+2) + . . .+ d(xn+p−1, xn+p)
≤ [cn(1 + c+ . . .+ cp−1)] · d(x0, x1)
≤ cn
1− c· d(x0, x1).
Calculando o limite quando n→∞, obtemos
limn→∞
d(xn, xn+p) ≤ limn→∞
cn
1− c· d(x0, x1).
Como
limn→∞
cn = 0,
então
limn→∞
d(xn, xn+p) = 0,
concluindo que (xn) é uma sequência de Cauchy em X. Logo existe a ∈ X tal que
limn→∞ xn = a. Provemos que a é ponto xo de F . De fato, como f é contínua, temos
f(a) = f(limxn)
= lim f(xn)
= limxn+1
= a,
o que conclui a demonstração.
![Page 16: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/16.jpg)
CAPÍTULO 1. PRELIMINARES 9
Corolário 1.1.1. Seja X um espaço métrico completo. Se F : X −→ X é contínua e,
para algum m, Fm é uma contração, então existe um único ponto p xo por F . Mais
ainda, p é um atrator de F , isto é, Fm(x)→ p quando n→∞. Onde Fm(x) é denido
por F (Fm−1(x)).
Demonstração. Seja p o ponto xo atrator de Fm dado pelo Teorema de Banach. Seja
n = mk + l com 0 ≤ l < m. Dado x ∈ X, F l(x) é um ponto de X. Como p é atrator
de Fm(x), temos [Fm]k(F l(x))→ p, quando k →∞, pois F l(j), 0 ≤ l < m é nito.
Da relação F n(x) = [Fm]k(F l(x)) e do fato que quando n→∞, tem-se k →∞, segue
que F n(x) → p, quando n → ∞, isto é, p é um atrator de F . Provemos agora que
F (p) = p. Com efeito,
p = limF n(F (p))
= limF n+1(p)
= limF (F n(p))
= F (limF n(p))
= F (p).
1.2 Exponencial de Matrizes
Começamos essa seção recordando que o espaço M(n) das matrizes n × n com
entradas reais, munido das operações de soma e multiplicação por escalar usuais, é um
espaço vetorial real.
Dada uma matriz A ∈M(n), seja
||A|| = sup|x|≤1|Ax| = sup
|x|=1
|Ax|.
É fácil vericar que || · || dene uma norma em M(n). Além disso, para A,B ∈ M(n)
temos
||AB|| ≤ ||A|| ||B||.
Em particular
||A2|| ≤ ||A||2
e por recorrência
||Am|| ≤ ||A||m.
![Page 17: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/17.jpg)
CAPÍTULO 1. PRELIMINARES 10
Escrevendo
A0 = I, A1 = A e Am+1 = AmA
para as potencias, Am, de A ∈M(n).
Denimos a matriz exponencial de uma matriz A ∈M(n) por
eA = I + A+1
2!A2 +
1
3!A3 + . . .+
1
j!+ . . . =
∞∑j=0
1
j!Aj.
Veriquemos se a série da exponencial de matriz converge. No caso n = 1, temos
e(a) = (ea) é a série de Taylor da exponencial escalar e a série converge. No caso geral,
usando ||.|| de matrizes em M(n), obtemos∣∣∣∣∣∣∣∣∣∣N∑j=0
1
j!Aj
∣∣∣∣∣∣∣∣∣∣ ≤
N∑j=0
∣∣∣∣∣∣∣∣ 1
j!Aj∣∣∣∣∣∣∣∣
=N∑j=0
1
j!||Aj||
=N∑j=0
1
j!||AA . . . A︸ ︷︷ ︸
j vezes
||
≤N∑j=0
1
j!||A|| . . . ||A||︸ ︷︷ ︸
j vezes
=N∑j=0
1
j!||A||j.
Daí, fazendo N →∞ segue que∣∣∣∣∣∣∣∣∣∣∞∑j=0
1
j!Aj
∣∣∣∣∣∣∣∣∣∣ ≤
∞∑j=0
1
j!||A||j
= e||A||.
Assim a série∞∑j=0
1
j!Aj
é absolutamente convergente, logo é convergente.
Fixado uma matriz A ∈M(n) e dado t ∈ R, temos que tA ∈M(n). Logo
etA = I + tA+t2
2!A2 +
t3
3!A3 + . . . =
∞∑j=0
1
j!tjAj ∈M(n).
![Page 18: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/18.jpg)
CAPÍTULO 1. PRELIMINARES 11
Exemplo 1.2.1. Considere a matriz diagonal
D =
λ1 0 . . . 0
0 λ2 . . . 0...
......
...
0 0 . . . λn
.
Note que, para cada j ∈ N
Dj = diag(λj1, λj2, . . . , λ
jn).
Assim,
eD =∞∑j=0
1
j!Dj
=∞∑j=0
1
j!diag(λj1, λ
j2, . . . , λ
jn)
= diag
(∞∑j=0
1
j!λj1,
∞∑j=0
1
j!λj2, . . . ,
∞∑j=0
1
j!λjn
)= diag(eλ1 , eλ2 , . . . , eλn).
Em particular, temos e0 = I e eI = diag(e, e, . . . , e) = eI
Exemplo 1.2.2. Considere agora a matriz
(0 0
c 0
), note que
(0 0
c 0
)2
=
(0 0
c 0
)(0 0
c 0
)
=
(0 0
0 0
)
portanto,
(0 0
c 0
)j
= 0 ∈M(2) para cada j ≥ 2, de modo que
exp
(0 0
c 0
)=
(1 0
0 1
)+
(0 0
c 0
)+
1
2
(0 0
0 0
)+ . . .
=
(1 0
c 1
).
Dada uma matriz A ∈ M(n), se existe um n tal que An = 0, então chamamos essa
![Page 19: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/19.jpg)
CAPÍTULO 1. PRELIMINARES 12
matriz de Matriz Nilpotente, essas matrizes são da forma
Nc(n) =
0 0 . . . 0 0
c 0 . . . 0 0
0 c . . . 0 0
. . . . . . . . . . . . . . .
0 0 . . . c 0
.
Por exemplo, para uma matriz Nc ∈M(4), temos
Nc(4) =
0 0 0 0
c 0 0 0
0 c 0 0
0 0 c 0
Nc(4)2 =
0 0 0 0
0 0 0 0
c2 0 0 0
0 c2 0 0
Nc(4)3 =
0 0 0 0
0 0 0 0
0 0 0 0
c3 0 0 0
Nc(4)4 =
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
.
Donde, por denição temos a exponencial da matriz Nc(4)
eNc(4) = I +Nc(4) +1
2Nc(4)2 +
1
3!Nc(4)3 +
1
4!Nc(4)4 + . . .
= I +Nc(4) +1
2Nc(4)2 +
1
3!Nc(4)3
=
1 0 0 0
c 1 0 0c2
2!c 1 0
c3
3!c2
2!c 1
.
Usando indução pode-se demonstrar que
eNc(n) =
1 0 0 . . . 0 0
c 1 0 . . . 0 0c2
2!c 1 . . . 0 0
c3
3!c2
2!c . . . 0 0
......
......
......
cn−1
(n−1)!cn−2
(n−2)!cn−3
(n−3)! . . . c 1
.
Exemplo 1.2.3. Considere a matriz
(0 b
−b 0
), temos
(0 b
−b 0
)2
=
(0 b
−b 0
)(0 b
−b 0
)
=
(−b2 0
0 −b2
)
![Page 20: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/20.jpg)
CAPÍTULO 1. PRELIMINARES 13(0 b
−b 0
)3
=
(0 b
−b 0
)(−b2 0
0 −b2
)
=
(0 −b3
b3 0
)(
0 b
−b 0
)4
=
(b4 0
0 b4
)e
(0 b
−b 0
)5
=
(0 b5
−b5 0
).
Por recorrência, temos (0 b
−b 0
)2j
= (−1)j
(b2j 0
0 b2j
)para as potencias pares e(
0 b
−b 0
)2j+1
= (−1)j
(0 b2j+1
−b2j+1 0
)para potências ímpares. Calculando a exponencial da matriz temos
exp
(0 b
−b 0
)=
(1 0
0 1
)+
(0 b
−b 0
)+
(−b2 0
0 −b2
)1
2!+
(0 −b3
b3 0
)1
3!+ . . .
Lembrando que as séries de Taylor do cosb e senb são dadas por
cosb = 1− 1
2!b2 +
1
4!b4 − 1
6!b6 + . . . =
+∞∑j=o
(−1)j
(2j)!b2j
e
senb = b− 1
3!b3 +
1
5!b5 − 1
7!b7 + . . . =
+∞∑j=0
(−1)j
(2j + 1)!b2j+1,
obtemos que
exp
(0 b
−b 0
)=
(a11 a12
a21 a22
),
onde
a11 = 1− 1
2!b2 +
1
4!b4 − 1
6!b6 + . . . = cosb
a12 = b− 1
3!b3 +
1
5!b5 − 1
7!b7 + . . . = senb
a21 = −b+1
3!b3 − 1
5!b5 +
1
7!b7 − . . . = −senb
a22 = 1− 1
2!b2 +
1
4!b4 − 1
6!b6 + . . . = cosb.
Logo
exp
(0 b
−b 0
)=
(cosb senb
−senb cosb
).
![Page 21: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/21.jpg)
CAPÍTULO 1. PRELIMINARES 14
Conforme denimos no Apêndice, dizemos que as matrizes A,B ∈ M(n) são
conjugadas se existe Q ∈M(n) invertível tal que AQ = QB, ou seja,
A = QBQ−1
Teorema 1.2.1. Se A,B,Q ∈ M(n) são tais que AQ = QB,então eAQ = QeB. Em
particular, se as matrizes A e B de M(n) são conjugadas, então também as matrizes
eA e eB são conjugação e além disso, podemos usar a mesma matriz de conjugação; ou
seja, se Q ∈M(n) é invertível e A = QBQ−1, então
eA = eQBQ−1
= QeBQ−1.
Demonstração. Como AQ = QB, segue que
A2Q = AAQ
= AQB
= QBB
= QB2
e, por recorrência, AjQ = QBj, para j ∈ N. Assim
eAQ =
(∞∑j=0
1
j!Aj
)Q
=∞∑j=0
1
j!AjQ
=∞∑j=0
1
j!QBj
= Q
(∞∑j=0
1
j!Bj
)= QeB.
Exemplo 1.2.4. Pelo Exemplo A.2.1 do Apêndice sabemos que existem matrizes
A =
1 0 1
0 −2 1
0 0 −1
, Q =
1 1 0
0 −2 1
0 −2 0
e
D =
1 0 0
0 −1 0
0 0 −2
![Page 22: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/22.jpg)
CAPÍTULO 1. PRELIMINARES 15
tais que A = QDQ−1. Como já sabemos como calcular a exponencial de um matriz
diagonal, então
eD =
e 0 0
0 e−1 0
0 0 e−2
.
Logo, pelo Teorema 1.2.1,
eA = QeBQ−1 = Q
e 0 0
0 e−1 0
0 0 e−2
Q−1.
Passamos agora ao problema de calcular a exponencial de uma matriz qualquer
na Forma Canônica de Jordan (veja Apêndice). Para isso prescisamos saber calcular a
exponencial de uma matriz em blocos e a exponencial de uma matriz nilpotente.
Para uma matriz de Jordan cujos os blocos são de ordem 1× 1, temosA1 0 . . . 0
0 A2 . . . 0...
......
...
0 0 . . . Ak
j
=
Aj1 0 . . . 0
0 Aj2 . . . 0...
......
...
0 0 . . . Akk
como cada bloco é de ordem 1x1 então a matriz de Jordan é uma matriz diagonal, logo
a sua exponencial é
ediag(A1,A2,...,Ak) = diag(eA1 , eA2 , . . . , eAk).
Portanto basta calcular a exponencial de cada bloco individualmente.
Note que podemos decompor cada bloco de Jordan de autovalor λ na soma de
uma matriz diagonal, com o autovalor na diagonal, com uma matriz nilpotente N1(l),
ou seja
Jλ(l) = λI −N1(l), λI ∈M(l).
Foi demostrado no Exemplo 1.2.1 como calcular a exponencial de uma matriz diagonal
e no Exemplo 1.2.2 para matriz nilpotente. Temos que essas matrizes comutam, de
fato
λ 0 0 . . . 0 0
0 λ 0 . . . 0 0
0 0 λ . . . 0 0...
......
......
...
0 0 0 . . . 0 λ
0 0 0 . . . 0 0
1 0 0 . . . 0 0
0 1 0 . . . 0 0...
......
......
...
0 0 0 . . . 1 0
![Page 23: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/23.jpg)
CAPÍTULO 1. PRELIMINARES 16
=
0 0 0 . . . 0 0
λ 0 0 . . . 0 0
0 λ 0 . . . 0 0...
......
......
...
0 0 0 . . . λ 0
por outro lado,
0 0 0 . . . 0 0
1 0 0 . . . 0 0
0 1 0 . . . 0 0...
......
......
...
0 0 0 . . . 1 0
λ 0 0 . . . 0 0
0 λ 0 . . . 0 0
0 0 λ . . . 0 0...
......
......
...
0 0 0 . . . 0 λ
=
0 0 0 . . . 0 0
λ 0 0 . . . 0 0
0 λ 0 . . . 0 0...
......
......
...
0 0 0 . . . λ 0
.
Portanto matrizes diagonais e nilpotente comutam. Assim pelo Corolário 2.3.1 temos
que,
eJλ(l) = eλI+N1(l)
= eλIeN1(l)
= eλeN1(l).
Portanto a exponencial de um bloco de Jordan é dado por,
eJλ(l) = eλ
1 0 0 . . . 0 0
1 1 0 . . . 0 0
12!
1 1 . . . 0 0
13!
12!
1 . . . 0 0...
...... . . .
......
1(l−1)!
1(l−2)!
1(l−3)! . . . 1 1
∈M(l).
![Page 24: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/24.jpg)
CAPÍTULO 1. PRELIMINARES 17
Consideremos agora para blocos associados a autovalores complexos. Assim, como
escrito anteriomente,
Ja,b(h) = A0a,b(h) +N1,I(h)
onde, J0a,b(h) = diag(Ja,b, Ja,b, . . . , Ja,b) ∈M(h) e
Nc,I(h) =
0 0 0 . . . 0 0
cI 0 0 . . . 0 0
0 cI 0 . . . 0 0...
...... . . .
......
0 0 0 . . . cI 0
∈M(h),
temos que N1,I(h)h = 0, logo essa matriz é nilpotente e pelo Exemplo 1.2.2 temos
eNc,I(h) =
I 0 0 . . . 0 0
cI I 0 . . . 0 0
c2
2!I cI I . . . 0 0
c3
3!I c2
2!I cI . . . 0 0
......
... . . ....
...
ch−1
(h−1)!Ich−2
(h−2)!Ich−3
(h−3)! . . . cI I
∈M(h).
Pelo Exemplo 2.3.1 sabemos que eJa,b = eaRb ∈M(2), onde
Rb =
cosb senb
−senb cosb
portanto,
eJ0a,b(h) = diag(eJa,b , eJa,b , . . . , eJa,b)
= diag(eaRb, eaRb, . . . , e
aRb)
= eadiag(Rb, Rb, . . . , Rb).
Note que as natrizes J0a,b(h) e N1,I(h) comutam,
eJa,b 0 0 . . . 0
0 eJa,b 0 . . . 0
0 0 eJa,b . . . 0...
...... . . .
...
0 0 0 . . . eJa,b
0 0 0 . . . 0
cI 0 0 . . . 0
0 cI 0 . . . 0...
...... . . .
...
0 0 0 . . . 0
![Page 25: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/25.jpg)
CAPÍTULO 1. PRELIMINARES 18
=
0 0 0 . . . 0
cIeJa,b 0 0 . . . 0
0 cIeJa,b 0 . . . 0...
...... . . .
...
0 0 0 . . . 0
por outro lado,
0 0 0 . . . 0
cI 0 0 . . . 0
0 cI 0 . . . 0...
...... . . .
...
0 0 0 . . . 0
eJa,b 0 0 . . . 0
0 eJa,b 0 . . . 0
0 0 eJa,b . . . 0...
...... . . .
...
0 0 0 . . . eJa,b
=
0 0 0 . . . 0
cIeJa,b 0 0 . . . 0
0 cIeJa,b 0 . . . 0...
...... . . .
...
0 0 0 . . . 0
.
Usando o Corolário 2.3.1, obtemos
eJa,b(h) = eJ0a,b(h)+N1,I(h)
= eJ0a,b(h)eN1,I(h),
portanto a exponencial dos blocos de Jordan é dada por
eJa,b(h) = ea
Rb 0 0 . . . 0 0
Rb Rb 0 . . . 0 0
12!Rb Rb Rb . . . 0 0
13!Rb
12!Rb Rb . . . 0 0
......
......
......
1(h−1)!Rb
1(h−2)!Rb
1(h−3)!Rb . . . Rb Rb
.
Qualquer matriz A é linearmente conjugada a uma matriz J em forma de Jordan e
pelo Teorema 1.2.1 a exponencial de qualquer matriz A ∈M(n) é dada pela exponencial
de J conjugada pela mesma matriz que conjuga A e J , ou seja,
eA = QeJQ−1.
![Page 26: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/26.jpg)
CAPÍTULO 1. PRELIMINARES 19
Exemplo 1.2.5. Considere uma matriz A ∈M(3) qualquer cujo polinômio caracterís-
tico é pA(λ) = (λ− 7)3. Se seu polinômio mínimo for
mA(λ) = (λ− 7)3
então a sua forma de Jordan possui um bloco J7(n) ∈ M(3) com o autovalor 7 na
diagonal, ou seja
J7(3) =
7 0 0
1 7 0
0 1 7
logo a exponencial de J7(3) é
eJ7(3) =
e7 0 0
e7 e7 0e7
2e7 e7
e a exponencial de A é dado por,
eA = QeJQ−1
= Q
e7 0 0
e7 e7 0e7
2e7 e7
Q−1.
Mas se seu polinômio mínimo for
mA(λ) = (λ− 7)2
sua forma de Jordan possui pelo menos um bloco J7(n) ∈M(2) , ou seja
J = diag(J7(2), J7(1)) =
7 0 0
1 7 0
0 0 7
e sua exponencial é,
ediag(J7(2),J7(1)) =
e7 0 0
e7 e7 0
0 0 e7
assim a exponencial de A é dado por,
eA = QeJQ−1
= Q
e7 0 0
e7 e7 0
0 0 e7
Q−1.
![Page 27: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/27.jpg)
CAPÍTULO 1. PRELIMINARES 20
Exemplo 1.2.6. Considere a matriz
A =
1 0 −2
−5 6 11
5 −5 −10
.
Seu polinômio característico é
pA(λ) = (λ− 1)(λ+ 2− i)(λ+ 2 + i),
Conforme Exemplo A.3.2 (Apêndice). Sabemos que existem Q,D ∈M(3) tais que
D = Q−1AQ =
1 0 0
0 −2 1
0 −1 −2
.
Separando D em dois blocos, obtemos
D1 = (1) e D2 =
(−2 1
−1 −2
),
pelo Exemplo 1.2.1, temos
eD1 = e1
e pelo Teorema A.3.1 (veja Apêndice), segue que
eD2 = e
−2 1
−1 −2
= e−2
(cos1 sen1
−sen1 cos1
).
Assim
eD =
e 0 0
0 e−2cos1 e−2sen1
0 −e−2sen1 e−2cos1
.
Portanto, pelo Teorema 1.2.1 a exponencial de A é dado por,
eA = QeDQ−1
=
1 2 0
1 −3 1
0 3 −1
e 0 0
0 e−2cos1 e−2sen1
0 −e−2sen1 e−2cos1
0 1 −1
12−1
212
32−3
212
=
e−2cos1 + 3e−2sen1 e− e−2cos1− 3e−2sen1 −e+ e−2cos1 + e−2sen1
−5e−2sen1 e+ 5e−2sen1 −e− e−2cos1− 2e−2sen1
5e−2sen1 −5e−2sen1 e−2cos1 + 2e−2sen1
.
![Page 28: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/28.jpg)
Capítulo 2
Sistemas de Equações Diferenciais
Lineares
Nesse capítulo apresentamos o Teorema de Existência e Unicidade de soluções e,
utilizando exponencial de matrizes, estudamos soluções de sistema de equações dife-
renciais com coecientes constantes.
2.1 Teorema de Existência e Unicidade
Nesta seção vamos considerar o caso geral de equações diferenciais ordinárias em
Rn. Mas precisamente, dada uma aplicação f : U → Rn, denida em cada ponto (t, y)
de um aberto de U de R× Rn ≡ Rn+1, dizemos que
dy
dt= f(t, y)
é a equação diferencial ordinária em Rn denida por f . Uma solução dessa equação
diferencial ordinária, às vezes denominada curva integral da equação, é um caminho
y : I → Rn denido e derivável num intervalo I de R, com gráco inteiramente contido
em U e velocidade determinada por f , ou seja, tal que, para cada t ∈ I,
(t, y(t)) ∈ U edy
dt= f(t, y(t)).
Fixemos um ponto (t0, y0) ∈ U e uma solução y : I → Rn de
dy
dt= f(t, y).
Se t0 ∈ I e também y(t0) = y0, dizemos que essa solução satisfaz a condição inicial
21
![Page 29: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/29.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 22
y(t0) = y0, ou seja, y(t) satisfaz o problema de valor-inicial
dy
dt= f(t, y), y(t0) = y0.
Teorema 2.1.1 (Teorema de Picard). Seja f contínua e lipschitziana em Ω = Ia×Bb,
onde Ia = t; |t− t0| ≤ a, Bb = x; |x−x0| ≤ b. Se |f | ≤M em Ω, então existe uma
única solução de
x′ = f(t, x), x(t0) = x0 (2.1)
em Iα, onde α = mina, bM.
Demonstração. Seja X =C (Iα, Bb) o espaço métrico completo das funções contínuas
ϕ : Iα −→ Bb, com a métrica da convergência uniforme
d(ϕ1, ϕ2) = supt∈Iα|ϕ1 − ϕ2|. (2.2)
Para ϕ ∈ X, seja F (ϕ) : X −→ E denida por
F (ϕ)(t) = x0 +
∫ t
t0
f(s, ϕ(s))ds, (2.3)
t ∈ Iα. Destacamos as seguintes propriedades de F :
i) F (X) ⊆ X
ii) F n é uma contração, para n sucientemente grande.
De fato, para todo t ∈ Iα,
|F (ϕ(t))− x0| =
∣∣∣∣∫ t
t0
f(s, ϕ(s))ds
∣∣∣∣≤
∫ t
t0
|f(s, ϕ(s))|ds
≤∫ t
t0
Mds
= M(t− t0)≤ Mα
≤ b.
Logo F (X) ⊆ X. Quanto a (ii), para todo par ϕ1, ϕ2 ∈ X e todo n ≥ 0, temos
|F n(ϕ1)(t)− F n(ϕ2)(t)| ≤Kn|t− t0|n
n!· d(ϕ1, ϕ2), t ∈ Iα, (2.4)
onde K é a constante de Lipschitz de f . Vericamos esta desigualdade por indução em
n. Para n = 0 é válida. Suponha que seja válida para n = l, isto é,
|F l(ϕ1)(t)− F l(ϕ2)(t)| ≤K l|t− t0|l
l!· d(ϕ1, ϕ2), t ∈ Iα.
![Page 30: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/30.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 23
Então
|F l+1(ϕ1)(t)− F l+1(ϕ2)(t)| = |F (F l(ϕ1))(t)− F (F l(ϕ2))(t)|
≤∫ t
t0
|f(s, F l(ϕ1))(s)− f(s, F l(ϕ2))(s)|ds
≤∫ t
t0
K|F l(ϕ1)(s)− F l(ϕ2)(s)|ds.
Por hipótese de indução, obtemos
|F l+1(ϕ1)(t)− F l+1(ϕ2)(t)| ≤ K
∫ t
t0
K l|t− t0|l
l!d(ϕ1, ϕ2)ds
= K l+1 |t− t0|l+1
(l + 1)!d(ϕ1, ϕ2).
Logo,
|F l+1(ϕ1)(t)− F l+1(ϕ2)(t)| ≤ kl+1 |t− t0|l+1
(l + 1)!d(ϕ1, ϕ2).
Portanto a desigualdade (2.4) é válida. Calculando o supremo em (2.4), segue que
d(F n(ϕ1), Fn(ϕ2)) ≤
knαn
n!· d(ϕ1, ϕ2).
E para n grandeKnαn
n!< 1
pois é o termo geral de uma série cuja soma é eKα. Portanto F n é uma contração em
X. Pelo Corolário 1.1.1, existe uma única ϕ ∈ X tal que F (ϕ) = ϕ, e isto, prova o
teorema.
Proposição 2.1.1. Seja f contínua e Lipschitziana em Ω = [a, b] × E, E um espaço
métrico. Então, para todo (t0, x0) ∈ Ω existe uma única solução de
x′ = f(t, x), x(t0) = x0
em I = [a, b].
Demonstração. Considere X =C (I, E) e F : X −→ X denida por
F (ϕ)(t) = x0 +
∫ t
t0
f(s, (ϕ(s))ds.
Seguindo os passos da demostração do Teorema 2.1.1, obtemos que F tem um único
ponto xo pois, para n grande, F n é uma contração.
Corolário 2.1.1 (Equações Lineares). Sejam A(t) e b(t) respectivamente matrizes
n× n e n× 1 de funções contínuas num intervalo I. Para todo (t0, x0) ∈ I ×Rn existe
uma única solução de x′ = A(t)x+ b(t), x(t0) = x0 denida em I.
![Page 31: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/31.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 24
Demonstração. Seja I =⋃n In, onde In ⊆ In+1 são intervalos compactos que contém
t0. f(t, x) = A(t)x+b(t) satisfaz as hipóteses da Proposição 2.1.1 em cada intervalo In.
Seja ϕn a única solução neste intervalo passando por (t0, x0). É claro que ϕn+1|In = ϕn.
Logo ϕ(t) = ϕn(t), t ∈ In está bem denida em I. É claro também que ϕ é a única
solução em I passando por (t0, x0).
2.2 Sistemas de Equações Diferenciais Lineares
Nessa seção, estudamos equações diferenciais ordinárias lineares homogêneas de
primeira ordem com coecientes constantes, ou seja, trata-se do estudo dos campos
lineares
f(x) = TA(x),
onde o operador linear f = TA : Rn −→ Rn é dado por TA(x) = Ax sendo A = (aij)n×n
uma n × n matriz real e x um vetor coluna, ou seja, o produto da matriz A com o
vetor-coluna n× 1 formado pelas coordenadas canônicas de x ∈ Rn.
Denição 2.2.1. Dizemos que um caminho x : R −→ Rn é uma solução da equação
diferencial linear autônoma
x′ = Ax (2.5)
se x é derivável em R e, para cada t ∈ R,
x′(t) = Ax(t).
As funções coordenadas xi : R −→ R de x(t) são soluções do sistemas associ-
ado à matriz A, ou seja, do sistema de equações diferencias lineares homogêneas com
coecientes constantes:
x′1(t) = a11x1(t) + a12x2(t) + · · ·+ a1nxn(t)
x′2(t) = a21x1(t) + a22x2(t) + · · ·+ a2nxn(t)
...
x′n(t) = an1x1(t) + an2x2(t) + · · ·+ annxn(t).
Exemplo 2.2.1. Considere a equação diferencial linear escalar
x′ = ax, x(0) = k
onde a ∈ R e x é um vetor,
x′ = ax,
![Page 32: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/32.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 25
ou seja,
a =x′
x.
Donde
a = (lnx)′.
Integrando ambos os menbros desta equação em relação a t, segue que∫adt =
∫(lnx)′dt.
Daí
at+ c = lnx,
calculando a exponencial, obtemos
eat+c = elnx,
isto é,
eatec = x.
Logo, chamando ec = k,
x = eatk,
demonstrando assim a existencia de solução. Pelo Teorema 2.1.1 temos que x(t) =
e−atk é a única solução do problema de valor inicial.
Exemplo 2.2.2.
A =
(2 0
0 −3
)encontremos a solução para a equação x′ = Ax. Chamando x = (x1, x2) e x′ = (x′1, x
′2),
temos (x′1x′2
)=
(2 0
0 −3
)(x1
x2
),
daí,x′1 = 2x1
x′2 = −3x2.
Pelo Exemplo 2.2.1, obtemos
x1(t) = e2tk1 e x2(t) = e−3tk2.
Assim, para k = (k1, k2), segue que
x(t) =
(k1e
2t
k2e−3t
)
=
(e2t 0
0 e−3t
)(k1
k2
)
![Page 33: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/33.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 26
é a solução que satisfaz a condição inicial x(0) =
(k1
k2
).
Exemplo 2.2.3. Seja D = diag(λ1, λ2, . . . , λn), com λ1, . . . , λn ∈ R. Considere a
equação
x′ = Dx
ou equivalentemente,
x′ =
λ1 . . . 0...
......
0 . . . λn
x1
...
xn
.
Logo para cada 1 ≤ j ≤ n, a equação x′j(t) = λjxj(t), tem solução única da forma
xj(t) = kjeλjt. Portanto a solução do problema de valor inicial
x′ = diag(λ1, . . . , λn)x, x(0) = (k1, . . . , kn)t
é dada por x(t) = diag(eλ1t, eλ2t, . . . , eλnt)x(0).
Exemplo 2.2.4. Considere a matriz
A =
(λ 0
1 λ
).
Encontremos a solução da equação
x′ = Ax. (2.6)
Seja x = (x1, x2), então x′ = (x′1, x′2). De (2.6) temos(
x′1x′2
)=
(λ 0
1 λ
)(x1
x2
)⇒
x′1 = λx1
x′2 = x1 + λx2.
De x′1 = λx1, temos x1(t) = k1eλt. Substituindo na segunda equação obtemos, x2(t) =
k1eλt + λx2, usando o fator de integração (e−λt), segue que
e−λtx2(t) = k1eλte−λt + λx2e
−λt,
daí,
e−λtx2(t) = k1 + λx2e−λt,
assim
k1 = e−λtx2(t)− λx2e−λt
= (e−λtx2(t))′.
![Page 34: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/34.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 27
Integrando em relação a t, obtemos∫k1dt =
∫(e−λtx2(t))
′dt,
daí,
k1t+ k2 = e−λtx2(t),
isolando x2(t), obtemos
x2(t) = k1teλt + k2e
λt.
Assim,
x(t) = (x1(t), x2(t))t
= (k1eλt, k1te
λt + k2eλt)t
= eλt
(1 0
t 1
)(k1
k2
)
é a solução de (2.6) com a condição inicial x(0) = (k1, k2)t.
Proposição 2.2.1. Seja v ∈ Rn um autovetor de A ∈ M(n) com autovalor λ ∈ R.Então
x(t) = eλtv, t ∈ R
é a solução de x′ = Ax, x(0) = v
Demonstração. Seja v um autovetor de A associado ao autovalor λ ∈ R, então Av = λv.
Considere x(t) = eλtv, temos
x′(t) = λeλtv
= eλtλv
= eλtAv
= Aeλtv
= Ax(t).
Logo, x(t) = eλtv é solução de x′(t) = Ax(t) com x(0) = v.
Proposição 2.2.2. Se Q conjuga as matrizes reais A,B ∈M(n), então Q transforma
as solução de y′ = By nas soluções de x′ = Ax. Mais precisamente, se A = QBQ−1,
então são equivalentes as armações:
• y(t) é uma solução de y′ = By
• Qy(t) é uma solução de x′ = Ax
![Page 35: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/35.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 28
Demonstração. Suponha que y(t) é uma solução de y′ = By. Considere x(t) = Qy(t).
Como Q independe de t,
x′(t) = Qy′(t)
= QBy
= AQy
= Ax(t).
Logo, x(t) = Qy(t) é solução de x′ = Ax. Reciprocamente, suponha que x(t) é solução
de x′ = Ax. Considere y(t) = Q−1x(t), daí
y′(t) = Q−1x′(t)
= Q−1Ax
= BQ−1x
= By(t).
Logo y(t) é solução de y′ = By.
Exemplo 2.2.5. Considere as matrizes
A =
1 0 1
0 −2 1
0 0 −1
, Q =
1 1 0
0 −2 1
0 −2 0
e D =
1 0 0
0 −1 0
0 0 −2
tais que
AQ =
1 −1 0
0 2 −2
0 2 0
= QD.
Como D é uma Matriz diagonal, a solução de y′ = Dy, com y(0) = (l1, l2, l3)t, é dada
por
y(t) = diag(et, e−t, e−2t)y(0)
= (l1et, l2e
−t, l3e−2t)t
=
et 0 0
0 e−t 0
0 0 e−2t
l1
l2
l3
.
![Page 36: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/36.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 29
Pela Proposição 2.2.2, a solução de x′ = Ax é dada por x(t) = Qy(t), assim
x(t) = Qy(t)
=
1 1 0
0 −2 1
0 −2 0
l1e
t
l2e−t
l3e−2t
=
l1et + l2e
−t
−2l2e−t + l3e
−2t
−2l2e−t
.
Podemos obter as coodenadas cartesianas da condição inicial x(0) = (k1, k2, k3)t em
termos das coordenadas de y(0). De fato,
x(0) = Qy(0) k1
k2
k3
=
1 1 0
0 −2 1
0 −2 0
l1
l2
l3
k1
k2
k3
=
l1 + l2
−2l2 + l3
−2l2
.
Donde l1 = k1 − k32, l2 = −k3
2e l3 = k2 − k3. Por outro lado podemos calcular as
coordenadas de y(0), em termos das coodenadas de x(0), pois, de
y(0) = Q−1x(0)
resulta que, l1
l2
3
=
1 0 12
0 0 −12
0 1 −1
k1
k2
k3
.
Proposição 2.2.3. Sejam A ∈ M(n) uma matriz diagonalizável, com Q,D ∈ M(n),
tais que Q é invertível e Q−1AQ = D = diag(λ1, . . . , λn). Então, dado 1 ≤ i ≤ n e
escrevendo Qei = vi, o caminho si : R −→ Rn denido por si(t) = eλitQei = eλitvi,
t ∈ R é a solução de x′ = Ax com valor inicial x(0) = vi. Além disso, qualquer solução
x : R −→ Rn de x′ = Ax é uma combinação linear de s1, . . . , sn, a saber,
x(t) =n∑j=1
ljsj(t) =n∑j=1
ljeλjtvj
dene a única solução de x′ = Ax, x(0) =∑ljvj = Q(l1, . . . , ln).
![Page 37: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/37.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 30
Demonstração. Seja a equação diferencial y′ = Dy. Como D é uma matriz diagonal,
a solução geral é dada por
y(t) = diag(eλ1t, . . . , eλnt)y(0).
Daí,
y(t) = (l1eλ1t, l2e
λ2t, . . . , lneλnt)t
= l1eλ1t
1
0...
0
+ l2eλ2t
0
1...
0
+ . . .+ lneλnt
0
0...
1
=
n∑j=1
ljeλjtej
com y(0) =∑n
j=1 ljej. Pela Proposição 2.2.2, a solução geral de x′ = Ax é dada por
x(t) = Qy(t). Daí
x(t) = Qy(t)
= Q∑
ljeλjtej
=∑
ljeλjtQej,
como, por hipótese, Qei = vi, 1 ≤ i ≤ n, segue que
x(t) =∑
ljeλjtvj
e
x(0) =n∑j=1
ljeλj0vj
=n∑j=1
ljvj
=n∑j=1
ljQej
=n∑j=1
Q(ljej)
= Qn∑j=1
ljej
= Q(l1, · · · , ln).
Em paricular, tomando y(0) = ei, a solução básica y(t) = eλitei de y′ = Dy fornece a
solução básica si(t) = eλitvi de x′ = Ax.
![Page 38: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/38.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 31
Se A ∈M(n) é uma matriz semelhante a uma matriz diagonal D, ou seja,
Q−1AQ = D = diag(λ1, λ2, . . . , λn)
então, pela Proposição 2.2.3, cada vetor-coluna Qej = vj de Q dá origem a uma solução
básica sj(t) = eλjtvj do sistema x′ = Ax. Note que Dej = λjej para cada vetor ej da
base canônica de Rn, resulta que
Avj = AQej
= QDej
= Qλjej
= λjQej
= λjvj.
Assim cada vetor vj é levado por A em um múltiplo desse próprio vetor.
Exemplo 2.2.6. Dadas as matrizes
A =
1 0 1
0 −2 1
0 0 −1
, Q =
1 1 0
0 −2 1
0 −2 0
e D =
1 0 0
0 −1 0
0 0 −2
.
Pela Proposição 2.2.3, temos que a solução de x′ = Ax é dada por
x(t) =∑
ljeλjtvj ,
ou seja,
x(t) = l1et
1
0
0
+ l2e−t
1
−2
−2
+ l3e−2t
0
1
0
=
l1et + l2e
−t
−2l2e−t + l3e
−2t
−2l2e−t
.
2.3 Solução de Sistema de Equações Diferenciais Atra-
vés de Exponencial de Matrizes
Lembrando que para A ∈M(n) e t ∈ R, temos
etA =∞∑j=0
1
j!tjAj ∈M(n)
= tI + tA+t2
2!A2 +
t3
3!A3 + . . . ,
![Page 39: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/39.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 32
obtemos o seguinte resultado:
Proposição 2.3.1. Dados uma matriz A ∈ M(n) e x0 ∈ Rn, os caminhos t 7−→ etA
em M(n) e t 7−→ etAx0 em Rn são deriváveis e
d
dtetA = AetA ∈M(n),
d
dtetAx0 = AetAx0 ∈ Rn.
Demonstração. Dados A ∈M(n) e t ∈ R, temos ||tA|| = |t|||A||, de modo que
||1t(etA − I)− A|| =
∣∣∣∣∣∣∣∣(etA − I)− tAt
∣∣∣∣∣∣∣∣=
1
|t|||(etA − I)− tA||
=1
|t|
∣∣∣∣∣∣∣∣(tI + tA+t2A2
2!+t3A3
3!+ . . .
)− I − tA
∣∣∣∣∣∣∣∣=
1
|t|
∣∣∣∣∣∣∣∣t2A2
2!+t3A3
3!+t4A4
4!+ . . .
∣∣∣∣∣∣∣∣=
1
|t|
∣∣∣∣∣∣∣∣∣∣∞∑j=2
1
j!tjAj
∣∣∣∣∣∣∣∣∣∣ .
Rescrevendo essa iqualdade, obtemos
||1t(etA − I)− A|| = 1
|t|
∣∣∣∣∣∣∣∣∣∣ limn→∞
n∑j=2
1
j!tjAj
∣∣∣∣∣∣∣∣∣∣ .
Daí, usando a desigualdade triangular e a contínuidade da norma, segue que
||1t(etA − I)− A|| ≤ 1
|t|limn→∞
n∑j=2
1
j!
∣∣∣∣tjAj∣∣∣∣ . (2.7)
Como ||Aj|| ≤ ||A||j, temos
limn→∞
n∑j=2
1
j!
∣∣∣∣tjAj∣∣∣∣ ≤ limn→∞
n∑j=2
1
j!||tA||j . (2.8)
De (2.7) e (2.8), segue que
||1t(etA − I)− A|| ≤ 1
|t|limn→∞
n∑j=2
1
j!||tA||j .
Donde,
||1t(etA − I)− A|| ≤ 1
|t|
[||t2A2||
2!+||t3A3||
3!+||t4A4||
4!+ . . .
].
![Page 40: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/40.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 33
Já que ||An|| ≤ ||A||n, resulta
||1t(etA − I)− A|| ≤ 1
|t|
[||tA||2
2!+||tA||3
3!+||tA||4
4!+ . . .
]≤ 1
|t|
[||tA||2 + ||tA||3 +
||tA||4
2!+||tA||5
3!+ . . .
]=
1
|t|||tA||2
[1 + ||tA||+ ||tA||
2
2!+ . . .
]=
1
|t|||tA||2e||tA||
=|t|2
|t|||A||2e|t| ||A||
= |t| ||A||2e|t| ||A||.
Então, para |t| < 1, temos
||1t(etA − I)− A|| ≤ |t| ||A||2e||A||. (2.9)
Daí, escrevendo X(t) = etA, temos X(0) = I e por denição de derivada, obtemos
X ′(0) = A. Fixemos t, u ∈ R. Dado j ∈ N pelo binômio de Newton, temos
1
j!(t+ u)j =
1
j!
j∑l=0
(j
l
)
=
j∑j=0
tl
l!
uj−l
(j − l)!
=∑r+s=j
tr
r!
us
s!,
donde,
1
j!(tA+ uA)j =
1
j!(t+ u)jAj
=
[ ∑r+s=j
tr
r!
us
s!
]Aj
=∑r+s=j
tr
r!Arus
s!As.
Assim, para cada n ∈ N,n∑j=0
1
j!(tA+ uA)j =
n∑j=0
∑r+s=j
1
r!trAr
1
s!usAs
=
(n∑r=0
1
r!(tA)r
)(n∑s=0
1
s!(uA)s
).
![Page 41: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/41.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 34
Passando ao limite com n→ +∞, resulta etA+uA = etAeuA e portanto,
X(t+ u) = e(t+u)A
= etA+uA
= etAeuA
= X(t)X(u)
ou seja,
X(t+ u) = X(t)X(u) ∈M(n)
para qualquer t, u ∈ R. Disso decorre que X(t) é derivável em R, valendo
X ′(t) = X ′(0)X(t) = AX(t)
para cada t ∈ R. Além disso, dado x0 ∈ Rn, podemos aplicar todas essas matrizes em
x0 para concluir que x(t) = X(t)x0 = etAx0 é derivável em R e x′(t) = Ax(t), para
cada t ∈ R.
Corolário 2.3.1. Dados matrizes A e B em M(n), temos:
1. se AB = BA então eAeB = eA+B = eBeA;
2. a matriz eA sempre é invertível, com (eA)−1 = e−A.
Demonstração. Se A,B são tais que BA = AB, então B(tA) = (tA)B, donde BetA =
etAB. Denindo x(t) = etAetBx0 e derivando, temos
x′(t) = AetAetBx0 + etABetBx0
= AetAetBx0 +BetAetBx0
= (A+B)etAetBx0
= (A+B)x(t)
logo x(t) = etAetBx0 é solução de x′ = (A + B)x com condição inicial x(0) = x0. Mas
pela Proposição 2.3.1, t 7→ et(A+B)x0 é também solução de x′ = (A+B)x com condição
inicial x(0) = x0. Assim etAetBx0 = et(A+B)x0. Tomando t = 1, obtemos
eA+Bx0 = eAeBx0.
Como isso vale para todo x0 ∈ Rn, as matrizes eA+B e eAeB são iquais. Em particular,
como A−A = 0 e e0 = I, então
e−AeA = e−A+A = e0 = I = e0 = eA−A = eAe−A.
![Page 42: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/42.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 35
Exemplo 2.3.1. Considerando as matrizes(a 0
0 a
)(0 0
c 0
)=
(0 0
ac 0
)=
(0 0
c 0
)(a 0
0 a
)usando o Corolário 2.3.1 e os Exemplos 1.2.1 e 1.2.2 podemos calcular a exponencial
da matriz (a 0
c a
)da seguinte maneira,
exp
(a 0
c a
)= exp
[(a 0
0 a
)+
(0 0
c 0
)]
= exp
(a 0
0 a
)exp
(0 0
c 0
)
=
(ea 0
0 ea
)(1 0
c 1
)
=
(ea 0
cea ea
)
= ea
(1 0
c 1
).
Exemplo 2.3.2. Considere as matrizes(0 b
−b 0
)(a 0
0 a
)=
(0 ab
−ab 0
)=
(a 0
0 a
)(0 b
−b 0
).
Calculemos a exponencial da matriz (a b
−b a
).
Note que, usando o Corolário 2.3.1 e os Exemplos 1.2.1 e 1.2.3, obtemos
exp
(a b
−b a
)= exp
[(a 0
0 a
)+
(0 b
−b 0
)]
= exp
(a 0
0 a
)exp
(0 b
−b 0
).
=
(ea 0
0 ea
)(cosb senb
−senb cosb
)
= ea
(cosb senb
−senb cosb
).
![Page 43: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/43.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 36
Corolário 2.3.2. Se A ∈M(n) e x0 ∈ Rn, então o caminho
x(t) = etAx0
dene a única solução de x′ = Ax com condição inicial x(0) = x0.
Exemplo 2.3.3. Dada a matriz
A =
(λ1 0
0 λ0
),
considere a equação diferencial x′ = Ax com x(0) = x0. Como já sabemos como
calcular a exponencial de um matriz diagonal, temos
x(t) = etAx0
= exp
(tλ1 0
0 tλ2
)x0
=
(etλ1 0
0 etλ2
)x0
logo etAx0 é uma solução de x′ = Ax com x(0) = x0.
Exemplo 2.3.4. Considere agora o problema de valor inicial, x′ = Ax, x(0) = x0,
onde
A =
(λ 0
1 λ
).
A solução do problema de valor inicial é dada, pelo Corolário 2.3.2, por
x(t) = etAx0.
Mas procedendo como no Exemplo 2.3.1, obtemos
etA = etλ
(1 0
t 1
).
Logo
x(t) = etλ
(1 0
t 1
)x0
é a solução de x′ = Ax com x(0) = x0.
Exemplo 2.3.5. Encontre a solução da equação x′ = Ax com x(0) = x0, onde
A =
(0 b
−b 0
)
![Page 44: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/44.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 37
com b ∈ R. Pelo Corolário 2.3.2, segue que a solução procurada é
x(t) = eAtx0.
Calculando a exponencial de At, de maneira análoga ao Exemplo 1.2.3, obtemos,
eAt = e
t
0 b
−b 0
= e
0 bt
−bt 0
=
(cosbt senbt
−senbt cosbt
).
Daí,
x′(t) = AeAtx0
=
(0 b
−b 0
)(cosbt senbt
−senbt cosbt
)
=
(0 b
−b 0
)e
t
0 b
−b 0
.
Proposição 2.3.2. Seja w ∈ Cn um autovetor complexo de A ∈ M(n) com autovalor
complexo associado λ = a+ ib, com b 6= 0. Seja w = u+ iv a decomposição de w dada
por u = w+w2
e v = w−w2i
, com u, v ∈ Rn. Então
x(t) = eat[(cosbt)u− (senbt)v]
y(t) = eat[(senbt)u− (cosbt)v]
denem as únicas soluções de x′ = Ax, com x(0) = u e y(0) = v, respectivamente.
Demonstração. Seja w ∈ Cn um autovetor complexo de A ∈ M(n) com autovalor
complexo associado λ, temos Aw = λw, escrevendo z(t) = eλtw, obtemos
z′(t) = λeλtw
= eλtλw
= eλtAw
= Aeλtw
= Az(t)
de modo que z(t) é uma solução complexa de x′ = Ax. Escrevendo w = u + iv, com
u, v ∈ Rn e λ = a+ ib, com b 6= 0, a formula de Euler garante que
z(t) = e(a+ib)tw
= eat(cosbt+ isenbt)(u+ iv)
= eat[(cosbt)u− (senbt)v] + ieat[(senbt)u+ (cosbt)v],
![Page 45: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/45.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 38
de modo que escrevendo z(t) = x(t) + iy(t), resulta
x(t) = eat[(cosbt)u− (senbt)v]
y(t) = eat[(senbt)u+ (cosbt)v].
Mostremos agora que a parte real e a parte imaginária da solução complexa z(t) de
x′ = Ax, são soluções de x′ = Ax. Primeiramente mostremos para x(t) = eat[(cosbt)u−(senbt)v], isto é,
x′(t) = aeat[(cosbt)u− (senbt)v]− eat[(bsenbt)u+ (bcosbt)v]
= aeat(cosbt)u− aeat(senbt)v − eat(bsenbt)u− eat(bcosbt)v= eatcosbt(au− bv)− eatsenbt(av + bu).
Usando a Proposição A.3.2 (veja Apêndice), obtemos,
x′(t) = eat(cosbt)Au− eat(senbt)Av= A(eat(cosbt)u− eat(senbt)v)
= Ax(t).
Analogamente para y(t) = eat[(senbt)u+ (cosbt)v]
y′(t) = aeat[(senbt)u+ (cosbt)v] + eat[(bcosbt)u− (bsenbt)v]
= aeat(senbt)u+ aeat(cosbt)v + eat(bcosbt)u− eat(bsenbt)v= eatcosbt(av + bu) + eatsenbt(au− bv)
= eat(cosbt)Av + eat(senbt)Au
= A(eat(cosbt)v + eat(senbt)u)
= Ay(t).
Exemplo 2.3.6. No exemplo A.3.2 calculamos que w = (2,−3 + i, 3− i) = (2, 3, 3) +
i(0, 1,−1) = u+ iv é um autovetor complexo de
A =
1 0 −2
−5 6 11
5 −5 −10
associado ao autovalor complexo −2 + i. Assim pela Proposição 2.3.2,
x(t) = e−2tcost
2
−3
3
− e−2tsent 0
1
−1
![Page 46: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/46.jpg)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 39
e
y(t) = e−2tsent
2
−3
3
+ e−2tcost
0
1
−1
denem as soluções reais de x′ = Ax com condições iniciais x(0) = u = (2,−3, 3) e
y(0) = v = (0, 1,−1).
Exemplo 2.3.7. Dada a matriz
A =
(a b
−b a
)temos que a ± ib são os autovalores complexos associados a w = (1, i) e w = (1,−i),respectivamente. Pela Proposição 2.3.2, temos que
x(t) = eatcosbt
(1
0
)− eatsent
(0
1
)= eat(cosbt,−senbt)
e
y(t) = eatsenbt
(1
0
)+ eatcost
(0
1
)= eat(senbt, cosbt),
são soluções de x′ = Ax, com x(0) = (1, 0) e y(0) = (0, 1). Temos que se s1(t) e s2(t)
são soluções de x′ = Ax, então s1(t) + cs2(t) também é solução de x′ = Ax. De fato
s′1(t) = As1(t) e s′2(t) = As2(t), donde derivando
s1(t) + cs2(t)
temos,
s′1(t) + cs′2(t) = As1(t) + Acs2(t)
= A(s1(t) + cs2(t)).
Logo
s′1(t) + cs′2(t) = A(s1(t) + cs2(t))
Portanto s1(t) + cs2(t) é solução de x′ = Ax, para qualquer c ∈ R.Donde k1x(t) + k2y(t) é solução de x′ = Ax, ou seja,
eat(k1cosbt+ k2senbt,−k1senbt+ k2cosbt) =
= eat
(cosbt senbt
−senbt cosbt
)(k1
k2
)é a solução de x′ = Ax, x(0) = (k1, k2).
![Page 47: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/47.jpg)
Capítulo 3
Sistemas Hamiltonianos
Nesse Capítulo, seguindo [8], introduzimos o conceito de sistemas Hamiltonianos
de equações diferenciais ordinárias e exibimos alguns modelos que tem essa caracterís-
tica.
3.1 Sistemas Hamiltonianos
Um Sistema Hamiltoniano é um sistema de 2n equações diferenciais ordinárias
da forma
q′ = Hp, p′ = −Hq, (3.1)
isto é,
q′i =∂H
∂pi(t, q, p), p′i = −∂H
∂qi(t, q, p), i = 1, · · · , n, (3.2)
onde H = H(t, q, p), chamado de Hamiltoniano, é uma função real diferenciável de-
nida para (t, q, p) ∈ U , onde U é um aberto em R×Rn×Rn. Os vetores q = (q1, · · · , qn)
e p = (p1, · · · , pn) são chamados de vetores posição e momento, respectivamente, e t
representa o tempo. As variáveis q e p são chamadas variáveis conjugadas, ou seja, p é
conjugada a q. O número n ∈ N é chamado de grau de liberdade do sistema.
Denimos o vetor z ∈ Rn × Rn, a matriz simétrica J de ordem 2n × 2n e o
gradiente de H por
z =
q
p
, J = Jn =
0 I
−I 0
e 5z H = 5H =
∂H∂z1...
∂H∂z2n
, (3.3)
40
![Page 48: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/48.jpg)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 41
onde 0 é uma matriz n × n identicalmente nula e I é uma matriz identidade n × n.
Note que, de (3.1) e (3.3), segue que
z′ = J 5H(t, z) (3.4)
= J
∂H∂z1...
∂H∂z2n
. (3.5)
O Teorema de Existência e Unicidade garante que para cada (t0, z0) ∈ U , existe
uma única solução z = φ(t, t0, z0) de (3.4) denida para t próximo de t0 que satisfaz a
condição inicial φ(t0, t0, z0) = z0. Denimos φ em uma vizinhança aberta do conjunto
(t, t0, z) ∈ U : t = t0 em Rn. Além disso, essa solução é maximal no sentido que
existe t− = t−(t0, z0) e t+ = t+(t0, z0), possivelmente ±∞, tal que φ(t, t0, z0) é denido
para t− < t < t+ e
limt→t±
φ(t, t0, z0) = ∂U, (3.6)
onde ∂U denota a fronteira de U , (veja [1]).
No caso quando H é independente de t, então U é algum conjunto aberto em
R2n e H : U → R, nesse caso a equação diferencial (3.4) é autonôma e o sistema
Hamiltoniano é chamado de conservativo. As soluções nesse caso são desenhadas como
curvas parametrizadas em U ⊂ R2n e o conjunto U é chamado de espaço de fase. Pelo
Teorema de Existência e Unicidade, existe uma única curva passando por cada ponto
de U , e duas soluções não pode se cruzam em U .
Uma integral primeira de (3.4) é uma função F : U → R diferenciável que é
constante ao longo das soluções de (3.4), ou seja, F (φ(t, z0)) = F (z0) para todo t ∈ R.
As superfícies de nível F−1(c) ⊂ R2n, sendo c constante, são invariantes, ou seja, se
φ(t, z0) é uma solução com z0 ∈ F−1(c), então φ(t, z0) ∈ F−1(c), para todo t ∈ R.
3.1.1 Colchete de Poisson
Sejam H,F,G : U → R, U ⊂ R × Rn × Rn, funções diferenciaveis, denimos o
colchete de Poisson de F e G por
F,G(t, q, p) =n∑i=1
[∂F
∂qi(t, q, p)
∂G
∂pi(t, q, p)− ∂F
∂pi(t, q, p)
∂G
∂qi(t, q, p)
]. (3.7)
![Page 49: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/49.jpg)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 42
O colchete de Poisson satisfaz a identidade de Jacob,
F, G,H+ G, H,F+ H, F,G = 0. (3.8)
Se F (t, q, p) é uma função diferenciável, denido no aberto U ⊂ R × Rn × Rn, pela
regra da cadeia, temos
dF
dt(t, q, p) =
∂F
∂t+∂F
∂q1q′1 + · · ·+ ∂F
∂qnq′n +
∂F
∂p1p′1 + · · ·+ ∂F
∂pnp′n,
agrupando os termos, obtemos
dF
dt(t, q, p) =
∂F
∂t+
n∑k=1
(∂F
∂qkq′k +
∂F
∂pkp′k
).
Pelas equações (3.2), segue que
dF
dt(t, q, p) =
∂F
∂t+
n∑k=1
(∂F
∂qk
∂H
∂pk− ∂F
∂pk
∂H
∂qk
).
Logo, por (3.7),dF
dt(t, q, p) =
∂F
∂t(t, q, p) + F,H(t, q, p). (3.9)
Teorema 3.1.1. Seja H,F,G : U → R, U ⊂ R× Rn × Rn e indepedente do tempo t.
Então
(i)F é uma integral primeira de (3.4) se, e somente se, F,H = 0.
(ii) H é uma integral primeira para (3.4).
(iii) Se F e G são integrais primeira para (3.4), então F,G também é.
(iv) F,H é a taxa de variação de F com relação ao tempo ao longo das soluções
de (3.4).
Demonstração. (i) Seja F uma integral primeira, como F não depende de t, então de
(3.9), obtemosdF
dt(t, q, p) = 0,
ou seja,∂F
∂t(t, q, p) + F,H(t, q, p) = 0.
Como F independe de t, segue que
F,H = 0.
![Page 50: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/50.jpg)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 43
Reciprocamente, se F,H = 0, de (3.9) obtemos
dF
dt(t, q, p) =
∂F
∂t(t, q, p).
Como F independe de t, obtemos
dF
dt(t, q, p) = 0.
Logo F é uma integral primeira.
(ii) Note que
H,H =∂H
∂q· ∂H∂p− ∂H
∂p· ∂H∂q
= 0,
Logo, de (i), H é uma integral primeira.
(iii) Da identidade de Jacob, temos
F, G,H+ G, H,F+ H, F,G = 0,
como F e G são integrais primeira, temos
F, G,H = 0 e G, H,F = 0.
Assim
H, F,G = 0.
Logo F,G é uma integral primeira.
(iv) De (3.9), temos
dF
dt(t, q, p) =
∂F
∂t(t, q, p) + F,H(t, q, p)
como F independe de t, segue que
dF
dt(t, q, p) = F,H(t, q, p)
Portanto F,H é a taxa de variação de F com relação ao tempo ao longo das soluções
de (3.4)
Em muitos casos o sistema Hamiltoniano H é a energia total do sistema físico,
nesses casos o teorema diz que a energia é uma quantidade conservativa.
No caso conservativo, quando H é independente de t, um ponto crítico de H, isto
é, um ponto onde o gradiente é zero, é um ponto de equilíbrio do sistema de equações
diferenciais (3.1) ou (3.4), ou seja, uma solução constante. Um ponto de equilíbrio ζ
do sistema (3.4) é estável se dado ε > 0, existe δ > 0 tal que ||ζ − φ(t, z0)|| < ε para
todo t em ||ζ − z0|| < δ.
![Page 51: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/51.jpg)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 44
Teorema 3.1.2. Se ζ é um mínimo ou máximo local de H, então ζ é estável.
Demonstração. Sem perda de generalidade, suponha que ζ = 0, H(0) = 0 e que 0
é um minimo local de H. Fixe ε > 0. Sendo H(0) = 0 e 0 um mínimo de H,
existe η > 0 tal que H(z) é positivo para 0 < ||z|| ≤ η. Seja x = min(ε, η) e
M = maxH(z) : ||z|| = x. Como H(0) = 0 e H é contínua, existe δ > 0 tal que
H(z) < M para ||z|| < δ. Se ||z0|| < δ, então H(z0) = H(φ(t, z0)) < M , para todo t.
||φ(t, z0)|| < x ≤ ε para todo t pois, caso contrário, existiria t0 tal que ||φ(t0, z0)|| = x,
mas H(φ(t0, z0)) ≥M , o que é uma contradição.
3.1.2 O Oscilador Harmônico
O oscilador harmonico é uma equação diferencial ordinária linear autônoma de
segunda ordem da forma
x′′ + w2x = 0, (3.10)
onde w é uma constante positiva. Fazendo a mudança de variável u = x′/w, podemos
reescrever (3.10) como um sistema de duas equações de primeira ordem da forma x′
u′
= w
0 1
−1 0
x
u
. (3.11)
Note que (3.11) é um sistema Hamiltoniano com
H(x, u) =w
2(x2 + u2),
pois as equações se tornam
x′ = wu =∂H
∂u(3.12)
u′ = −wx = −∂H∂x
. (3.13)
A variável u é a velocidade escalar, então o plano xu é essencialmente o plano
velocidade-posição, ou o plano de fase. O Teorema de Existência e Unicidade garante
que para cada ponto (x0, u0), no plano de fase, existe uma única solução passando nesse
ponto para qualquer t0. Procedendo como no Exemplo 2.3.7, temos que a solução do
sistema (3.11) é dada por x
u
=
cos w(t− t0) sen w(t− t0)
−sen w(t− t0) cos w(t− t0)
x0
u0
.
![Page 52: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/52.jpg)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 45
Como o sistema independe de t, então H é uma integral primeira pelo Teorema
3.1.1. De fato,
H ′ = w · x · x′ + w · u · u′
= w · x · w · u− w · u · w · x
= 0.
Logo a solução ca no conjunto onde H é constante, que é um círculo no plano xu.
Além disso, a origem é uma solução de equilíbrio do sistema e é um mínimo local de
H, então a origem é estável.
3.1.3 Oscilador Forçado Não-Linear
Considere o sistema
x′′ + f(x) = g(t), (3.14)
onde x é um escalar e f, g são funções reais deriváveis de uma variavel escalar. Um
sistema mecânico dado por essas equações é ilustrado pela gura abaixo.
Aqui, x é o deslocamento de uma particula de massa 1 que é conectado a uma
mola não linear que possui a força de restituição −f(x) sujeita a uma força externa
g(t) e supondo que não existe atrito atuando. Essa equação equivale ao sistema
x′ = y =∂H
∂y, y′ = −f(x) + g(t) = −∂H
∂x, (3.15)
onde
H =1
2y2 + F (x)− xg(t), F (x) =
∫ x
0
f(s)ds. (3.16)
Muitas equações são desta forma, por exemplo:
i) O oscilador hamônico: x′′ + w2x = 0;
ii) A equação do pêndulo: θ′′ + sen θ = 0;
iii) A equação de Dung: x′′ + x+ αx3 = cos wt.
No caso quando g é desprezado, g ≡ 0, H é uma integral primeira, pois
H =1
2y2 + F (x)
![Page 53: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/53.jpg)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 46
não depende de t, assim as soluções cam nas curvas de nível de H. Portanto, o retrato
de fase é obtido marcando os pontos das curvas de nível.
Seja h = H(x0, y0). Resolvendo em relação a y, temos
h =1
2y2 + F (x),
ou seja,
y2 = 2h− 2F (x)
. Assim,
y = ±√
2h− 2F (x).
Logo,
y =dx
dt= ±
√2h− 2F (x). (3.17)
Note que, (3.17) é uma equação separável, então
dt =
(1
±√
2h− 2F (x)dx
). (3.18)
Integrando ambos os membros de (3.18), obtemos
t− t0 =
∫ x
x0
1
±√
2h− 2F (x)dr. (3.19)
A solução é obtida resolvendo (3.19).
3.1.4 Sistema Newtoniano Geral
O sistema n-dimensional análogo a (3.14) é
Nx′′ +5F (x) = g(t) (3.20)
onde x é um n-vetor, N = MI, sendo I a matriz identidade n × n e M um escalar
positivo, F é uma função derivável denida no aberto U ⊂ Rn, 5F é o gradiente de F
e g é uma função derivavel de t, para t em algum conjunto aberto em R.
Seja p = Nx′, temos
x′ = N−1p =∂H
∂pe p′ = −5 F (x) + g(t) = −∂H
∂x,
onde o Hamiltoniano é
H =1
2pTN−1p+ F (x)− xTg(t).
![Page 54: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/54.jpg)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 47
Se x representa o deslocamento de uma particula e N é uma matriz identidade
vezes um escalar positivo, então p é o momento linear da particula, 12pTN−1p é a energia
cinética e F a energia potêncial. Se g(t) ≡ 0, então
H =1
2pTN−1p+ F (x)
não depende de t. Logo, pelo Teorema 3.1.1, H é uma integral primeira.
No caso em que g(t) ≡ 0, se x0 é um ponto crítico do potêncial F , então
5F = 0.
Note que, em x0∂H
∂xi= 0 e
∂H
∂t= 0,
para i = 1, . . . , n. Assim,
5H =
(∂H
∂x1,∂H
∂x2, . . . ,
∂H
∂xn,∂H
∂t
)= 0
no ponto x0. Logo x0 é um ponto crítico de H, ou seja, um ponto crítico de F é um
ponto crítico de H, consequentemente é um ponto de equilíbrio para o Hamiltoniano.
Nesse caso, se x0 é o mínimo local para o potêncial F , então (x0, 0) é o mínimo
local para H e portanto é um ponto de equilíbrio estável pelo Teorema 3.1.2.
3.1.5 Problema de N corpos
Considere N corpos movendo-se no sistema Newtoniano, R3, em interação gra-
vitacional mútua, cada um de massa mi > 0 e posições descritas pelos vetores de
coordenadas cartesiana qi = (xi, yi, zi), i = 1, · · · , N . Da Física sabemos os seguintes
postulados:
i) 2 Lei de Newton: A força aplicada a um objeto é igual à massa do objeto multipli-
cado por sua aceleração, isto é,
Fij = mid2q
dt2. (3.21)
ii)Lei da Gravitação Universal: Dados dois corpos de massa m1 e m2, a uma distância
r entre si, esses dois corpos se atraem mutuamente com uma força que é proporcional
a massa de cada um deles e inversamente proporcional ao quadrado da distância que
os separa, ou seja,
Fij = −Gmimj(qi − qj)||qi − qj||3
, (3.22)
![Page 55: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/55.jpg)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 48
onde G = 6, 6732× 10−11m3kg/s2 é a constante de gravitação universal, (veja [8]).
Combinando esses dois postulados, obtemos um conjunto de 3N equações dife-
rênciais de segunda ordem da forma
mid2qidt2
= −N∑
j=1,j 6=i
Gmimj(qi − qj)||qi − qj||3
=∂U
∂qi, i = 1, · · · , N, (3.23)
onde
U =N∑
j=1,j 6=i
Gmimj
||qi − qj||(3.24)
é a energia potêncial.
As equações (3.23) podem ser reduzidas a um sistema de 6N equações de primeira
ordem da forma
midqidt
= pi
midpidt
= −N∑
j=1,j 6=i
Gmimj(qi − qj)||qi − qj||3
. (3.25)
Assimdqidt
=pimi
=∂H
∂pie
dpidt
= −N∑
j=1,j 6=i
Gmimj(qi − qj)||qi − qj||3
=∂H
∂qi, (3.26)
onde o Hamiltoniano é
H =N∑i=1
||pi||2
2mi
− U. (3.27)
3.1.6 O Problema de Kepler
O problema de Kepler é quando temos 2 corpos, consideramos que um dos corpos
de massa m2 esta xado na origem, isto é, q2 = (0, 0, 0) (dizemos que o corpo é tão
massivo, como o sol, que ele não se move). Considerando que o outro corpo tem massa
m1 e posição p1, de (3.23) as equações que descrevem o movimento desses corpos tem
a forma
m1d2q1dt2
=Gm1m2(q2 − q1)||q1 − q2||3
m2d2q2dt2
=Gm2m1(q2 − q1)||q2 − q1||3
.
Como q2 ≡ 0, essas equações dão o movimento do corpo de massa m1. Assim
m1d2q1dt2
=Gm1m2(q1)
||q1||3,
![Page 56: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/56.jpg)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 49
ou seja,d2q1dt2
=−µq1||q1||3
, (3.28)
onde q1 ∈ R3 é o vetor posição e µ = Gm2. Nesse caso, denindo p1 = q′1, obtemos
dp1dt
= − µq1||q1||3
.
Assim,dq1dt
= p1 =∂H
∂pe
dp1dt
= − µq1||q1||3
=∂H
∂q1,
onde o Hamiltoniano é
H =||p1||2
2− µ
||q1||.
![Page 57: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/57.jpg)
Apêndice A
Conceitos e Resultados da Álgebra
Linear
A.1 Autovalores e Autovetores
Denição A.1.1. Dizemos que duas matrizes reais A,B ∈ M(n) são linearmente
conjugadas, ou semelhantes, se existe uma matriz invertível Q ∈ M(n) tal que
AQ = QB, ou seja, tal que
A = QBQ−1.
Nesse caso, dizemos que Q conjuga A e B.
Denição A.1.2. Dados uma matriz real A ∈M(n) e um número real λ ∈ R, dizemos
que λ é um autovalor de A se existe um vetor v ∈ Rn tal que v 6= 0 e
Av = λv.
Nesse caso, dizemos que v é um autovetor associado a λ.
Dada uma matriz C ∈M(n), denimos o núcleo de C por
Nuc(C) = w ∈ Rn | Cw = 0.
Note que v é autovetor de A associado a λ se, e somente se, Av = λv, ou equivalente-
mente, (λI − A)v = 0, ou seja, v ∈ Nuc(λI − A). Se λ é um autovetor de A ∈ M(n),
dizemos que
Vλ = Nuc(λI − A) = v ∈ Rn | Av = λv
é um auto-espaço associado ao autovalor λ.
50
![Page 58: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/58.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 51
Lema A.1.1. Sejam A ∈ M(n) uma matriz real e λ um número real. Então as
seguintes armações são equivalentes:
(a) λ é um autovalor de A;
(b) existe um autovetor de A com autovalor associado λ ;
(c) Nuc(λI − A) 6= 0;(d) a matriz λI − A não é invertível;
(e) det(λI − A) = 0.
Demonstração. (a) ⇒ (b) Seja λ um autovalor de A ∈ M(n), então existe um vetor
v ∈ Rn tal que v 6= 0 e Av = λv. Logo v é um autovetor associado a λ.
(b)⇒ (c) Seja v um autovetor de A associado a λ, então de
Av = λv
temos,
λv − Av = 0,
donde,
(λI − A)v = 0,
assim
v ∈ Nuc(λI − A).
Logo
Nuc(λI − A) 6= 0
pois, v é um autovetor, ou seja, v 6= 0.
(c)⇒ (d) Suponha que o núcleo de λI −A é diferente de 0, então λI −A não
é invertível.
(d)⇒ (e) Seja λI − A uma matriz não invertível, então det(λI − A) = 0.
(e)⇒ (a) Se det(λI − A) = 0 então existe v 6= 0 em Rn tal que
(λI − A)v = 0,
daí,
λv − Av = 0,
assim,
λv = Av
ou seja, v é um autovetor de A associado ao autovalor λ.
Segue do Lema A.1.1 que os autovalores de A são as raízes reais do polinômio
p(λ) = pA(λ) = det(λI − A),
denominado polinômio característico da matriz A ∈M(n).
![Page 59: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/59.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 52
Exemplo A.1.1. Dada a matriz
A =
1 0 1
0 −2 1
0 0 −1
encontremos os autovalores de A. Calculando o polinômio característico
pA(λ) = det(λI − A)
=
∣∣∣∣∣∣∣λ− 1 0 −1
0 λ+ 2 −1
0 0 λ+ 1
∣∣∣∣∣∣∣= λ3 + 2λ2 − λ− 2
= (λ− 1)(λ+ 1)(λ+ 2)
Logo 1,−1,−2 são os autovalores de A.
Teorema A.1.1 (Teorema de Cayley-Hamilton). Uma matriz A ∈ M(n) anula seu
polinômio característico, isto é,
pA(A) = 0 ∈M(n).
Demonstração. Seja A uma matriz quadrada n × n arbitrária e p(t) seu polinômio
característico, digamos,
p(t) = det(tI − A) = antn + an−1t
n−1 + . . .+ a1t+ a0.
Agora, seja B(t) a adjunta clássica da matriz tI − A. Os elementos de B(t) são co-
fatôres da matriz tI−A, portanto, são polinômios em t de grau não excedende a n−1.
Assim,
B(t) = Bn−1tn−1 + . . .+B1t+B0,
onde os Bi, i = 0, · · · , n− 1, são matrizes quadradas n× n sobre um corpo R que são
independentes de t. Pela propriedade fundamental de adjunta clássica
(tI − A)B(t) = |tI − A|I
ou
(tI − A)(Bn−1tn−1 + . . .+B1t+B0) = (tn + an−1t
n−1 + . . .+ a1t+ a0)I.
Removendo os parênteses e agrupando os coecientes de t de potências correspondentes,
![Page 60: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/60.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 53
segue que
Bn−1 = I
Bn−2 − ABn−1 = an−1I
Bn−3 − ABn−2 = an−2I
. . . . . . . . .
B0 − AB1 = a1I
−AB0 = a0I.
Multiplicando a equação matricial acima por An, An−1, . . . , A, I, respectivamente, ob-
temos
AnBn−1 = An
An−1Bn−2 − AnBn−1 = an−1An−1
An−2Bn−3 − An−1Bn−2 = an−2An−2
. . . . . . . . .
AB0 − A2B1 = a1A
−AB0 = a0I.
Somando as equações matriciais acima,
0 = An + an−1An−1 + . . .+ a1A+ a0I.
Em outras palavras, p(A) = 0. Portanto, A é um zero de seu polinômio característico.
Lema A.1.2. Autovetores associados a autovalores distintos são linearmente indepen-
dentes.
Demonstração. Como todo autovetor é não-nulo, então nenhum autovetor é linear-
mente dependente, então o resultado vale para um autovetor. Para mais que um au-
tovetor vamos provar por contrapisitiva, ou seja, autovetores linearmente dependente
possuem ao menos dois autovetores associados iquais.
Provemos por indução, primeiramente veriquemos para dois autovetores. Se-
jam v1, v2 ∈ Rn autovetores linearmente dependentes de A ∈ M(n), associados aos
autovalores λ1 e λ2, respectivamente. Então existe a ∈ R tal que a 6= 0 e v2 = av1.
Temos
λ2v2 = Av2
= aAv1
= aλ1v1
= λ1av1
= λ1v2
![Page 61: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/61.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 54
donde,
λ2v2 − λ1v2 = 0,
ou seja,
(λ2 − λ1)v2 = 0.
Como v2 6= 0, então
λ2 − λ1 = 0.
Assim
λ2 = λ1.
Logo dois autovetores linearmente dependente possuem dois autovalores iquais. Su-
ponha que vale para k − 1 autovetores, ou seja, v1, v2, . . . , vk−1 ∈ Rn são autovetores
linearmente dependente de A associados aos autovalores λ1, . . . , λk−1, onde pelo menos
dois autovalores são iquais. Verequemos para k autovetores.
Sejam v1, v2, . . . , vk ∈ Rn autovetores linearmente dependente de A associados
aos autovalores λ1, . . . , λk, respectivamente. Se v1, . . . , vk−1 são linearmente depen-
dente, por hipótese de indução, para os autovetores v1, v2, . . . , vk, existe ao menos dois
autovalores iquais, e acaba a prova.
Suponha que v1, . . . , vk−1 são linearmente independente. Como v1, v2, . . . , vk for-
man um conjunto linearmente dependente e vk 6= 0 ∈ Rn, então vk é uma combinação
linear não trivial de v1, . . . , vk−1. Logo
vk =k−1∑i=1
aivi com algum ai 6= 0. (A.1)
Multiplicando (A.1) por λk, obtemos
λkvk =k−1∑i=1
aiλkvi. (A.2)
Por outro lado, aplicando (A.1) por A, segue que
Avk =k−1∑i=1
aiAvi ⇒ λkvk =k−1∑i=1
aiλivi. (A.3)
Subtraindo (A.2) de (A.3), obtemos
λkvk − λkvk =k−1∑i=1
aiλkvi −k−1∑i=1
aiλivi.
![Page 62: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/62.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 55
Daí,
0 =k−1∑i=1
aiλkvi −k−1∑i=1
aiλivi
=k−1∑i=1
(aiλkvi − aiλivi)
=k−1∑i=1
ai(λk − λi)vi.
Como estamos supondo v1, . . . , vk−1 linearmente independente, decorre que
ai(λk − λi) = 0, 1 ≤ i ≤ k − 1.
Sendo algum ai 6= 0, resulta que
λk = λi,
para algum 1≤ i ≤ k − 1 e acaba a demonstração.
A.2 Diagonalização de Matrizes
Denição A.2.1. Uma matriz A ∈ M(n) é dita diagonalizável se A é conjugada a
uma matriz diagonal.
Proposição A.2.1. Uma matriz A ∈ M(n) é diagonalizável se, e somente se, existe
uma base de Rn constituída de autovetores de A. Mais precisamente, dadas as matrizes
A,Q ∈ M(n), temos: as colunas de Q formam uma base de autovetores de A se,
somente se, Q é invertível e Q−1AQ é uma matriz diagonal.
Demonstração. Se Avj = λjvj para cada vetor de uma base do Rn, então a matriz D
do operador T = T1, nessa base, é simplesmente a matriz diagonal
D = diag(λ1, λ2, . . . , λn).
Daí, se Q é a matriz de colunas v1, . . . , vn, então
AQej = Avj
= λjvj
= λjQej
= Qλjej
= QDej
para todo j = 1, . . . , n. Assim,
AQv = QDv, ∀v ∈ Rn.
![Page 63: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/63.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 56
Logo,
AQ = QD,
ou seja, A e D são conjugadas por Q. Recíprocamente, observando que Dej = λjej
para cada vetor ej da base canônica do Rn resulta que
Avj = AQej
= QDej
= Qλjej
= λjQej
= λjvj,
ou seja, cada vetor coluna da matriz Q da conjugação de A com a matriz diagonal D
é necessariamente um autovetor de A.
Teorema A.2.1. Se a matriz A ∈ M(n) tem n autovalores distintos, então A é dia-
gonalizável.
Demonstração. Se A tem n autovalores distintos λ1, . . . , λn ∈ R associados aos au-
tovetores v1, . . . , vn ∈ Rn, então pelo Lema A.1.2, esses autovetores, v1, . . . , vn, são
linearmente independente. Logo forman uma base de Rn. Existe uma base de autove-
tores de A. Logo A é diagonalizável.
Exemplo A.2.1. Seja a matriz
A =
1 0 1
0 −2 1
0 0 −2
vimos que o seu polonômio característico é
pA(λ) = (λ− 1)(λ+ 1)(λ+ 2).
e seus autovalores são λ1 = 1, λ2 = −1 e λ3 = −2. Assim pelo teorema acima A é
diagonalizável e, pela Proposição A.2.1, A é semelhante a matriz diagonal
D =
1 0 0
0 −1 0
0 0 −2
.
Calculemos os autovetores associados aos autovalores. Conside v1 = (a, b, c) um auto-
vetor associado a λ1 = 1, então
λ1v = Av.
![Page 64: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/64.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 57
Donde a
b
c
=
1 0 1
0 −2 1
0 0 −1
a
b
c
=
a+ c
−2b+ c
−c
.
Da iqualdade acima, obtemos
a = a+ c
b = −2b+ c
c = −c⇒
a = a
c = 0
b = 0
assim a é qualquer e b = c = 0. Logo v1 = (1, 0, 0) é um autovetor associado a λ1 = 1.
Fazendo o mesmo procedimento para os autovalores λ2 e λ3. Para λ2 = −1, temos
λ2v = Av,
donde −a−b−c
=
a+ c
−2b+ c
−c
−a = a+ c
−b = −2b+ c
c = c
⇒c = c
c = −2a
b = c
.
Assim v2 = (1,−2,−2) é um autovetor associado a λ2 = −1. Para λ3 = −2, temos
λ3v = Av,
ou seja, −2a
−2b
−2c
=
a+ c
−2b+ c
−c
−2a = a+ c
−2b = −2b+ c
2c = c
⇒c = 0
a = 0
b = b.
Assim v3 = (0, 1, 0) é um autovetor associado a λ3 = −2. Como v1, v2 e v3 são as
colunas de Q, então
Q =
1 1 0
0 −2 1
0 −2 0
,
ou seja, AQ = QD. Portanto, D é a matriz diagonal associada a A.
![Page 65: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/65.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 58
A.3 Autovalores e Autovetores Complexos
Denição A.3.1. Um vetor não nulo w ∈ Cn é um autovetor complexo de uma matriz
real A ∈M(n) se existe γ ∈ C não real, tal que Aw = γw.
Proposição A.3.1. Dados uma matriz A ∈M(n), um número complexo não real γ e
um vetor não-nulo w ∈ Cn, temos:
• γ é um autovalor complexo de A se, e somente se, γ é um autovalor complexo de
A;
• w é um autovetor complexo de A com autovalor γ se, e somente se, w é um
autovetor complexo de A com autovalor γ;
• se w é um autovetor complexo de A então w,w é linearmente independente em
Cn.
Demonstração. Seja A uma matriz real, o polinômio característico pA(z) de A tem
coecientes reais e, portanto, pA(z) = pA(z). Considere γ um autovalor complexo de
A, então
pA(γ) = pA(γ) = 0 = 0
ou seja, γ também é um autovalor complexo de A.
Suponha agora w ∈ Cn um autovetor complexo de A com autovalor γ, ou seja,
Aw = γw.
Donde Aw = Aw, pois A é uma matriz de termos reais. Assim,
Aw = Aw = γw = γ w.
Logo w é um autovetor complexo de A associado a um autovalor complexo γ. Pro-
vemos agora que w,w é linearmente independente por contrapositiva. Suponha que
w e w são vetores linearmente dependente de A, associados aos autovalores γ e γ,
respectivamente. Então existe a ∈ R tal que a 6= 0 e w = wa. Daí,
γw = Aw
= aAw
= aγ w
= γaw
= γw.
Donde
γw − γw = 0⇒ (γ − γ)w = 0,
![Page 66: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/66.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 59
como w 6= 0, então
γ − γ = 0,
ou seja,
γ = γ.
Contradição, pois se γ é um número complexo não real, então γ 6= γ. Portanto w,wsão linearmente independente em Cn.
Podemos escrever w ∈ Cn, um autovetor complexo de A ∈M(n) como
w = u+ iv
com u, v ∈ R. Em particular
w = u+ iv = u− iv.
Daí,
w + w = (u+ iv) + (u− iv)
= 2u,
ou seja,
u =1
2(w + w).
Fazendo agora
w − w = (u+ iv)− (u− iv)
= u+ iv − u+ iv
= 2iv,
ou seja,
v =1
2i(w − w)
são os únicos vetores em Rn tais que w = u+ iv.
Proposição A.3.2. Sejam A ∈ M(n) uma matriz real e w ∈ Cn um autovetor com-
plexo de A associado ao autovalor complexo a + ib ∈ C, com b 6= 0. Escrevendo
w = u + iv com u, v ∈ Rn dados por u = w+w2
e v = w−w2i
, temos que u, v é linear-
mente independente em Rn e
Au = au− bvAv = bu+ av.
![Page 67: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/67.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 60
Demonstração. Suponha que w seja um autovetor complexo de A e sejam u, v ∈ Rn
tais que w = u+iv, como u = w+w2
e v = w−w2i
. Vamos supor que u, v seja linearmente
dependente em Rn, isto é, que exista α ∈ R tal que v = αu. De
v =w − w
2i
temos
w − w = 2iv
= 2iαu
= 2iα
(w + w
2
)= iα(w + w)
= iαw + iαw,
ou seja,
w − iαw = w + iαw,
donde,
w(1− iα) = w(1 + iα).
Como 1 − iα 6= 0 6= 1 + iα, w,w é linearmente dependente em Cn, o que contraria
a proposição A.3.1. Logo u, v é linearmente independente em Rn. Suponha agora
γ = a+ ib, com b 6= 0, o autovalor associado a w.
Au+ iAv = A(u+ iv)
= Aw
= γw
= (a+ ib)(u+ iv)
= (au− bv) + i(bu+ av)
= (au− bv) + i(bu+ av).
Igualando a parte real e imaginária, obtemos
Au = au− bvAv = bu+ av
como A ∈M(n) é uma matriz real, temos Au,Av ∈ Rn.
Exemplo A.3.1. Seja
A =
(a b
−b a
)
![Page 68: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/68.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 61
uma matriz e w ∈ C2 um autovetor de A, onde w = (1, i). Então w = (1, i) =
(1, 0) + i(0, 1), ou seja, u = (1, 0) e v = (0, 1). Daí,
Au =
(a b
−b a
)(1
0
)
=
(a
−b
)
= a
(1
0
)− b
(0
1
)= au− bv,
por outro lado,
Av =
(a b
−b a
)(0
1
)
=
(b
a
)
= b
(1
0
)+ a
(0
1
)= bu+ av.
Exemplo A.3.2. Seja A ∈M(n) uma matriz tal que
A =
1 0 −2
−5 6 11
5 −5 −10
.
calculando o seu polinômio característico, obtemos
pA(λ) = det(Iλ− A)
= λ3 + 3λ2 + λ− 5
= (λ− 1)(λ+ 2− i)(λ+ 2 + i)
os autovalores generalizados de A são 1 e −2± i, temos (1, 1, 0) o autovetor associado.
Tomando w = (z1, z2, z3) ∈ C3, para γ = −2 + i, temos
0 = ((−2 + i)I − A)w
=
−3 + i 0 2
5 −8 + i −11
−5 5 8 + i
z1
z2
z3
=
(−3 + i)z1 + 2z3
5z1 + (−8 + i)z2 − 11z3
−5z1 + 5z2 + (8 + i)z3
.
![Page 69: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/69.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 62
Tomando z1 = 2, temos z3 = 3−i e z2 = −3+i, de modo que w = (2,−3+i, 3−i) ∈ C3.
Daí,
Au = A
2
−3
3
=
−4
5
−5
= −2
2
−3
3
− 0
1
−1
= 2u− v.
Assim
Q =
1 2 0
1 −3 1
0 3 −1
e D =
1 0 0
0 −2 1
0 −1 −2
.
Teorema A.3.1. Seja A ∈ M(n) uma matriz real e λ1, λ2 as raízes do polinômio
característico pA(λ). Então ocorre exatamente um dos casos de classe de conjugação
de matrizes.
1. Se λ1, λ2 são reais e λ1 6= λ2 então
A ∼
(λ1 0
0 λ2
);
2. Se λ0 = λ1 = λ2, λ0 ∈ R:
(a) dim Nuc(λ0I − A) = 2, então
A ∼
(λ0 0
0 λ0
)= λ0I
(b) dim Nuc(λ0I − A) = 1, então
A ∼
(λ0 0
1 λ0
),
sendo as colunas da matriz de conjugação dadas por qualquer vetor u fora do
autoespaço Nuc(λ0I − A) e o autovetor v associado a λ0.
![Page 70: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/70.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 63
3. Se λ1 = a+ ib e λ2 = a− ib, com a, b ∈ R, b 6= 0, então
A ∼
(a b
−b a
)
sendo as colunas da matriz de conjugação dadas pela parte real e imaginárias de
qualquer autovetor complexo de A.
Demonstração. O caso 1 já foi demonstrado no caso geral de uma matriz n× n.Caso 2: Suponha que as raízes do polinômio característico de A sejam reais e
iquais, λ1 = λ2 = λ0 ∈ R. Então
pA(λ) = (λ− λ0)2
a) Se dim Nuc(λ0I − A) = 2, então dim Im(λ0I − A) = 0. Assim
λ0I − A = 0⇒ λ0I = A.
b) Se
dim Nuc(λ0I − A) = 1⇒ dim Im(λ0I − A) = 1
mas
(λ0I − A)(λ0I − A)2 = pA(A) = 0 ∈M(2).
Assim
dim Nuc(λ0I − A)2 = 2.
Daí,
(λ0I − A)[(λ0I − A)u] = 0,∀u ∈ Rn
e
Im(λ0I − A) ⊆ Nuc(λ0I − A)
Sendo
dim Im(λ0I − A) = dim Nuc(λ0I − A),
segue que,
Nuc(λ0I − A) = Im(λ0I − A).
Tomemos um vetor qualquer u ∈ R2 \ Nuc(λ0I − A), então u 6= 0 e (λ0I − A)u 6= 0.
Denindo
v = −(λ0I − A)u
obtemos que v 6= 0 e Au = λ0u+ v e pelo que vimos acima
v ∈ Im(λ0I − A) = Nuc(λ0I − A).
![Page 71: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/71.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 64
Assim v é um autovetor de A associado a λ0 e u, v é base de R2. Além disso a matriz
Q ∈M(2) de colunas Qe1 = u e Qe2 = v. Escrevendo
J =
(λ0 0
1 λ0
),
temos
Je1 = λ0e1 + e2 e Je2 = λ0e2.
Daí,
AQe1 = Au
= λ0u+ v
= λ0Qe1 +Qe2
= Q(λ0e1 + e2)
= QJe1
e
AQe2 = Av
= λ0v
= λ0Qe2
= Qλ0e2
= QJe2
Portanto
AQ = QJ.
Caso 3: Suponha λ = a + ib, λ = a − ib, b 6= 0, w = u + iv, com u, v ∈ Rn
autovetor associado a λ. Como u, v é LI em R2, a matriz real Q ∈M(n) de colunas
Qe1 = u, Qe2 = v é invertível e
Au = au− bv e Av = au+ av.
Escreva
J =
(a b
−b a
),
temos
Je1 = ae1 − be2 e Je2 = be1 + ae2.
logo
AQe1 = Au
= au− bv= aQe1 − bQe2= Q(ae1 − be2)= QJe1
![Page 72: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/72.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 65
e
AQe2 = Av
= bu+ av
= bQe1 + aQe2
= Q(be1 − ae2)= QJe2.
Portanto,
AQ = QJ.
Exemplo A.3.3. Considere a matriz
A =
(3 −1
1 1
).
Seu polinômio característico é da forma
pA(λ) = λ2 − 4λ+ 4 = (λ− 2)2,
então, λ = 2 é um autovalor de A com multiplicidade algebrica 2. Daí,
(A− Iλ)v = 0,
ou seja, (1 −1
1 −1
)(x
y
)=
(0
0
),
donde x = y. Assim, os autovetores de A são da forma (x, x), x 6= 0. Logo
Nuc(A− 2I) =
[(1
1
)].
Portanto, a matriz A é semelhante a matriz
J =
(2 0
1 2
)e a matriz Q de conjugação linear tem como colunas w e v, onde v é um autovetor de
A e w é um vetor fora do subespaço Nuc(A− 2I). Note que
(A− λI)2w = 0, (A− λI)w 6= 0,
isto é, (1 −1
1 −1
)=
(0 0
0 0
).
![Page 73: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/73.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 66
Assim
(A− λI)2w = 0⇔
(0 0
0 0
)(w1
w2
)=
(0
0
).
Logo podemos escolher w arbitrário desde que (A− 2I)w 6= 0. Escolha
w =
[1
0
]ou w =
[0
1
].
Portanto a matriz de conjugação Q é dada por
Q =
[1 1
0 1
].
Resolvendo,
y′ =
(2 0
1 2
)(y1
y2
)donde
y(t) =
(y1(t)
y2(t)
)=
(k1e
2t
k1te2t + k2
)é solução de y′ = Jy. Mas A ∼ J com matriz de conjugação Q,
AQ = QJ
e x(t) = Qy(t) é a solução procurada de x′ = Ax
A.4 Forma Canônica de Jordan
Teorema A.4.1. Seja T : V −→ V um operador linear, cujos polinômios característico
e mínimo são, respectivamente,
∆(t) = (t− λ1)n1 ...(t− λr)nr
e
m(t) = (t− λ1)m1 ...(t− λr)mr
onde os λi são escalares distintos. Então, T tem uma representação matricial diagonal
em blocos J , cujos elementos diagonais são da forma
Jij =
λi 0 0 . . . 0 0
1 λi 0 . . . 0 0
. . . . . . . . . . . . . . . . . .
0 0 0 . . . λi 0
0 0 0 . . . 1 λi
.
Para cada λi, os blocos correspondentes Jij têm as seguintes propriedades:
![Page 74: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/74.jpg)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 67
1. Existe, ao menos um Jij de ordem mi; todos os outros Jij são de ordem ≤ mi;
2. A soma das ordens dos Jij é ni;
3. O número dos Jij é igual à multiplicidade geométrica dos λi;
4. O número dos Jij de cada ordem possível é determinado de maneira única por T .
A Demostração pode ser encontrado em [3]
Exemplo A.4.1. Suponhamos que os polinômios característico e mínimo de um ope-
rador T são, respectivamente,
∆(t) = (t− 2)4(t− 3)3 e m(t) = (t− 2)2(t− 3)2.
Então, a forma canônica de Jordan de T é uma das seguintes matrizes
2 0 0 0 0 0 0
1 2 0 0 0 0 0
0 0 2 0 0 0 0
0 0 1 2 0 0 0
0 0 0 0 3 0 0
0 0 0 0 1 3 0
0 0 0 0 0 0 3
ou
2 0 0 0 0 0 0
1 2 0 0 0 0 0
0 0 2 0 0 0 0
0 0 0 2 0 0 0
0 0 0 0 3 0 0
0 0 0 0 1 3 0
0 0 0 0 0 0 3
A primeira matriz ocorre se T tem dois autovetores independentes pertencentes ao
seu autovalor 2, e a segunda matriz ocorre se T tem três autovetores independentes
pertencentes a 2.
Exemplo A.4.2. Considere o polinômio característico ∆(t) = (t− 2)3(t− 5)2. Como
t− 2 tem expoente 3 em ∆(t), então 2 deve aparecer três vezes na diagonal principal.
Semelhantemente, 5 deve aparecer duas vezes. Assim, as possíveis formas canônicas
de Jordan são2 0 0 0 0
1 2 0 0 0
0 1 2 0 0
0 0 0 5 0
0 0 0 1 5
2 0 0 0 0
1 2 0 0 0
0 0 2 0 0
0 0 0 5 0
0 0 0 1 5
2 0 0 0 0
0 2 0 0 0
0 0 2 0 0
0 0 0 5 0
0 0 0 1 5
2 0 0 0 0
1 2 0 0 0
0 1 2 0 0
0 0 0 5 0
0 0 0 0 5
2 0 0 0 0
1 2 0 0 0
0 0 2 0 0
0 0 0 5 0
0 0 0 0 5
2 0 0 0 0
0 2 0 0 0
0 0 2 0 0
0 0 0 5 0
0 0 0 0 5
.
A formar de Jordan é denida pela multiplicidade geometrica do polinômio caracterís-
tico.
![Page 75: Soluções de Sistemas de Equações Diferenciais Lineares](https://reader033.vdocuments.net/reader033/viewer/2022051404/5870b7151a28ab87318b4a38/html5/thumbnails/75.jpg)
Referências Bibliográcas
[1] Doering, C. I.; Lopes, A. O.: Equações Diferenciais Ordinárias, IMPA, Rio de
Janeiro 2007.
[2] Figueiredo, D; Neves, A.: Equações diferenciais aplicadas, IMPA, Rio de Janeiro
2002.
[3] Homan, K; Kunze, R.: Álgebra Linear, LTC, Rio de Janeiro 1979.
[4] Lima, E. L.: Espaços Métricos, IMPA, Rio de Janeiro 2009.
[5] Lima, E. L.: Curso de Análise Vol.1, IMPA, Rio de Janeiro 2010.
[6] Lima, E. L.: Curso de Análise Vol.2, IMPA, Rio de Janeiro 2009.
[7] Lipschutz, S.: Álgebra Linear, McGraw-Hill do Brasil, São Paulo 1978.
[8] Meyer, K. R.; Hall, G. R.: Introduction to Hamiltonian Dynamical Systems and
the N-Body Problem, Springer - Verlag, New York 1992.
[9] Sotomayor, J.: Lições de Equações Diferenciais Ordinárias, IMPA, Rio de Janeiro
1979.
68