notas de aula de mac5796 walter figueiredo mascarenhas...
TRANSCRIPT
-
Notas de aula de MAC5796
Walter Figueiredo Mascarenhas
Primeiro semestre de 2011
São Paulo, fevereiro-julho de 2011
-
ii
-
Sumário
1 Stops 11.1 Aviso aos navegantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Equações diferenciais ordinárias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3.1 Teoria básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.3.2 As funções A e B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3.3 Soluções por séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.3.4 Provas da seção 1.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 A fórmula de Dynkin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.5 Condições para aplicar a fórmula de Dynkin . . . . . . . . . . . . . . . . . . . . . . . 121.6 Stops no tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.7 O Processo de Ornstein Uhlenbeck . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.8 Solução da equação de Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . . . . . . . . . 161.9 Estimando os parâmetros para o processo de Ornstein-Ulhenbeck . . . . . . . . . . . 17
1.9.1 Provas da seção 1.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.10 Stops Fixos para o processo de Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . . . . 20
1.10.1 Provas da seção 1.10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231.11 Stops de queda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.11.1 As condições de Otimalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . 261.11.2 O movimento Browniano e o movimento Browniano geométrico . . . . . . . . 261.11.3 Determinando a função objetivo . . . . . . . . . . . . . . . . . . . . . . . . . 271.11.4 Provas da seção 1.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Referências Bibliográficas 35
iii
-
iv SUMÁRIO
-
Capítulo 1
Stops
1.1 Aviso aos navegantes
Este documento é uma versão preliminar das notas de aula do curso MAC5796. Como todaversão inicial, ela certamente contem erros de digitação. Por isso, agradecerei se você me enviaremails ([email protected]) relatando os problemas que encontrar.
O que está escrito aqui é um complemento ao que foi dito na sala de aula. Não se surpreenda sealguns conceitos aparecerem do nada: eles foram motivados (espero) durante as aulas. Por exemplo,não discuto aqui o que são stops nem defino o que é um tempo de parada.
1.2 Introdução
Nas próximas seções discutimos como calcular o valor esperado do ganho associado a stopsusando a fórmula de Dynkin. Esta fórmula é um resultado profundo sobre tempos de parada paraprocessos estocásticos de Feller-Dynkin. A discussão detalhada deste tipo de processo está alémda nossa proposta, mas se você tiver curiosidade para saber mais sobre eles o primeiro passo éestudar Øksendal (2007). O primeiro volume de Williams (2000a) apresenta uma discussão maisgeral e detalhada, mas é mais difícil. Nosso objetivo é ilustrar o uso destes conceitos em um exemploparticular: o processo de Ornstein-Uhlenbeck. Esperamos que ao ver esta teoria funcionando emexemplos concretos você se sinta motivado a estudar este assunto em mais profundidade, levando emconta os detalhes importantes que esconderemos debaixo do tapete nesta apresentação introdutória.
O capítulo começa com uma revisão da teoria de equações diferenciais, na seção 1.3. Em seguidaexplicamos como calcular o valor esperado de estratégias de stop usando estas equações diferenciais.
1.3 Equações diferenciais ordinárias
Esta seção apresenta resultados básicos sobre equações diferenciais ordinárias. A teoria destasequações é ampla e é descrita no livro Sotomayor (1979). Porém, nossos objetivos são mais modestos.Analisaremos apenas equações da forma
f ′′(x) + q(x) f ′(x)− p(x) f(x) = 0 (1.1)
1
-
2 STOPS 1.3
em um intervalo (x, x), onde permitimos x = −∞ ou x = +∞. Esta equação é a principal ferramentana nossa análise dos stops e esta seção descreve suas propriedades relevantes no nosso contexto.
Por exemplo, o cálculo do valor esperado do ganho associado a stops para o processo de Ornstein-Uhlenbeck leva à equação
f ′′(x)− xf ′(x)− rf(x) = 0, (1.2)
na qual q(x) = −x e p(x) = r. As soluções desta equação são complicadas e envolvem funçõeshipergeométricas e de Hermite, como o leitor constatará ao resolvê-la no Mathematica. Porém, ateoria apresentada aqui nos permite chegar à muitas conclusões a respeito das soluções da equação(1.2). Estas conclusões são suficientes para resolver os problemas de stops para o processo deOrnstein-Uhlenbeck que descreveremos nas próximas seções.
Nesta seção assumimos que as funções p, q : (x, x) 7→ R satisfazem as seguintes condições:
p(x) > 0 para todo x ∈ (x, x). (1.3)
A funções p e q são localmente Lipschitz: para todo x ∈ (x, x) existem �x e �x positivos tais que
∣x− y∣ ≤ �x ⇒ ∣p(x)− p(y)∣+ ∣q(x)− q(y)∣ ≤ �x ∣x− y∣ . (1.4)
Um critério simples que garante esta condição é a continuidade da derivada: uma função comderivada contínua é localmente Lipschitz.
Na próxima subseção apresentaremos aspectos básicos da teoria da equação (1.1). A subseção(1.3.2) apresenta duas famílias de soluções da equação (1.1) que simplificam a análise de proble-mas de stop. Finalmente, as provas dos lemas e corolários enunciados nas subseções seguintes sãoapresentadas na subseção 1.3.4.
1.3.1 Teoria básica
A primeira pergunta que surge ao considerarmos a equação (1.1) é: ela tem solução? No livroSotomayor (1979) você encontrará resultados que podem ser resumidos assim:
Teorema 1.3.1 Se os coeficientes p e q da equação (1.1) satisfazem a condição (1.4) então, paratodos x0 ∈ (x, x) e f0 e f ′0 existe uma, e apenas uma, função f : (x, x) 7→ R que tem derivadassegundas e satisfaz a equação (1.1) com as condições iniciais f(x0) = f0 e f ′(x0) = f ′0. ⊓⊔
Como Sotomayor (1979) ilustra, a teoria de equações diferenciais ordinárias é capaz de lidarcom problemas gerais e complexos. Felizmente, a nossa equação (1.1) tem uma característica que asimplifica e não precisamos de toda a teoria. Esta equação é linear, ou seja:
Teorema 1.3.2 Se as funções f, g : (x, x) 7→ R são soluções de (1.1) e � ∈ R então ℎ = f + �gtambém é uma solução. ⊓⊔
Em geral é difícil encontrar soluções em forma fechada para a equação (1.1). Porém, o próximolema explica como gerar outras soluções a partir de uma solução conhecida, mesmo para a equaçãonão homogênea, na qual o lado direito é diferente de zero:
-
1.3 EQUAÇÕES DIFERENCIAIS ORDINÁRIAS 3
Lema 1.3.1 (Variação dos parâmetros) Seja f uma solução da equação (1.1) e ℎ : (x, x) 7→ R umafunção contínua. Se f(x) ∕= 0 para todo x ∈ (x, x) e x0 é um ponto de (x, x) então, para
�(x, x0) = e−∫ xx0q(s)ds (1.5)
e
'(x, x0, g0, g
′0
)= g0 +
∫ xx0
�(t, x0)
f(t)2
(∫ tx0
f(s)
�(s, x0)(ℎ(s) + g0p(s)) ds+ f(x0) g
′0
)dt (1.6)
são tais que g(x) = f(x)'(x, x0, g0, g′0) é a única solução da equação não homogênea
ℒ(g) = g′′ + qg′ − pg = ℎ, (1.7)
com g(x0) = g0 e g′(x0) = g′0. ⊓⊔
A positividade de p na equação (1.1) tem conseqüências importantes para o estudo de stops.Para entendê-las é conveniente considerar o operador ℒ associado a equação (1.1):
ℒ(g) = g′′ + qg′ − pg. (1.8)
Esta expressão quer dizer que dada uma função g com derivadas segundas definimos uma outrafunção, ℒ(g), cujo valor no ponto x é
ℒ(g) (x) = g′′(x) + q(x) g′(x)− p(x) g(x) .
Podemos então expressar a equação (1.1) como ℒ(f) = 0 e analisar as conseqüências de ℒ(f) ≥ 0:
Lema 1.3.2 (Princípio do máximo) Seja f : (x, x) 7→ R uma função com derivadas segundas e[a, c] um subintervalo de (x, x) com f(a) ≥ 0 ou f(c) ≥ 0. Se ℒ(f) (y) ≥ 0 para todo y ∈ [a, b] entãomaxa≤b≤c f(b) = max { f(a) , f(c) }, i.e, o máximo de f é atingido nos extremos de [a, b]. ⊓⊔
Este lema tem os seguintes corolários:
Corolário 1.3.1 . Sejam f uma solução de (1.1), x0 ∈ (x, x) e g : [x0, x) 7→ R uma funçãocom derivadas segundas contínuas tal que ℒ(g) (x) ≥ 0 para todo x ∈ [x0, x). Se g(x0) ≥ f(x0) eg′(x0) ≥ f ′(x0) então, para todo x ∈ (x0, x),
g(x) ≥ f(x) e g′(x) ≥ f ′(x). (1.9)
Se g′′(x0) > f ′′(x0) então os ≥ na equação acima podem ser trocados por >. ⊓⊔
Corolário 1.3.2 . Seja f : (x, x) 7→ R uma função com derivadas segundas contínuas e ℒ(f) (y) ≥0 para todo y ∈ (x, x). Se x ∈ (x, x) é tal que f(x) ≥ 0 e f ′(x) = 0 então, para todo y ∈ (x, x)−{x }:
f(y) ≥ f(x) , y < x⇒ 0 ≥ f ′(y) e y > x⇒ f ′(y) ≥ 0. (1.10)
Se f ′′(x) > 0 então os ≥ na equação acima podem ser trocados por >. ⊓⊔
-
4 STOPS 1.3
1.3.2 As funções A e B
Esta seção apresenta famílias de soluções da equação (1.1) que simplificam a análise dos stops.O primeiro passo é usar o corolário (1.3.2) para obter uma família de soluções positivas de (1.1):
Definição 1.3.1 Dada uma equação diferencial ordinária (1.1) que satisfaz as condições (1.3) e(1.4), definimos A : (x, x) × (x, x) 7→ R como sendo a única função com derivadas segundas em xque satisfaz as seguintes condições para todo x, x0 ∈ (x, x):
A(x0;x0) = 1 e A′(x0;x0) = 0, (1.11)
A′′(x;x0) + q(x)A′(x;x0)− p(x)A(x;x0) = 0, (1.12)
onde A′ denota a derivada de A com respeito ao primeiro argumento. ⊓⊔
Ou seja, para um x0 fixo a função f(x) = A(x;x0) é a solução da equação (1.1) com a condiçãoinicial f(x0) = 1 e f ′(x0) = 0.
No lema 1.11 usamos o ‘;’ para distingüir parâmetros da variável com respeito a qual derivamosna equação (1.1). Ou seja, o sinal ′ indica derivação com respeito ao argumento que precede o ‘;’.Os demais argumentos são considerados como parâmetros e as derivadas com relação a eles sãoindicadas pelo símbolo de derivada parcial ∂.
O corolário 1.3.2 implica que se x < x0 < y então
A′(x;x0) < 0, A′(y;x0) > 0, A(x;x0) > 1, e A(y;x0) > 1. (1.13)
O próximo lema explica como obter outras soluções da equação (1.1) a partir de A:
Lema 1.3.3 Considere a função A em (1.3.1) e defina I : (x, x)× (x, x)× (x, x) 7→ R como
I(x; y, x0) =
∫ xy
e−∫ ty q(s)ds
A(t;x0)2 dt. (1.14)
A função B : (x, x)× (x, x)× (x, x) 7→ R definida por
B(x; y, x0) = A(y;x0)A(x;x0) I(x; y, x0) (1.15)
tem as seguintes propriedades:
B(y; y, x0) = 0 e B′(y; y, x0) = 1, (1.16)
B′′(x; y, x0) + q(x)B′(x; y, x0)− p(x)B(x; y, x0) = 0, (1.17)
onde B′ denota a derivada de B com respeito a primeira coordenada.Além disso, se g é uma solução de (1.1) para a qual especificamos g(y) e g′(y) então
g(x) = g(y)A(x;x0)
A(y;x0)+
(g′(y)− g(y) A
′(x;x0)
A(y;x0)
)B(x; y, x0) , (1.18)
ou seja, todas as soluções de (1.1) são combinações simples de A e B. ⊓⊔
-
1.3 EQUAÇÕES DIFERENCIAIS ORDINÁRIAS 5
As funções A, B e I simplificam a análise do problema de fronteira, no qual buscamos a soluçãof da equação (1.1) tal que f(a) = fa e f(c) = fc, onde x < a < c < x e fa e fc são valores préespecificados. Este é o problema fundamental no cálculo de stops e sua solução é expressa assim:
Lema 1.3.4 Considere x0, a, c ∈ (x, x), com a < c. A função
f(x; a, c) =A(x;x0)
I(c;x, x0)− I(a;x, x0)
(I(c;x, x0)
A(a;x0)U(a)− I(a;x, x0)
A(c;x0)V (c)
)(1.19)
é a única solução da equação diferencial (1.1) com f(a; a, c) = U(a) e f(c; a, c) = V (c). ⊓⊔
DefinindoÛ(a;x0) =
U(a)
A(a;x0)e V̂ (c; c0) =
V (c)
A(c;x0)
podemos expressar as derivadas parciais da função f de modo compacto. Usando o software Math-ematica concluímos que
∂f
∂a(x; a, c) = ℎa(a, c, x, x0)
(Û(a)− V̂ (c) + (I(c;x, x0)− I(a;x, x0))
Û ′(a)
I ′(a;x, x0)
), (1.20)
∂f
∂c(x; a, c) = ℎc(a, c, x, x0)
(Û(a)− V̂ (c) + (I(c;x, x0)− I(a;x, x0))
V̂ ′(c)
I ′(c;x, x0)
), (1.21)
onde
ℎa(a, c, x, x0) =A(x;x0) I(c;x, x0) I
′(a;x, x0)
(I(c;x, x0)− I(a;x, x0))2, (1.22)
ℎc(a, c, x, x0) = −A(x;x0) I(a;x, x0) I
′(c;x, x0)
(I(c;x, x0)− I(a;x, x0))2. (1.23)
A definição de I em (1.14) mostra que se a < x < c então
I(c;x, x0) > 0, I′(c;x, x0) > 0, I(a;x, x0) < 0 e I
′(a;x, x0) > 0,
e isto implica que ℎa e ℎc acima são positivos. Como conseqüência podemos focar nos termos quenão envolvem ℎa e ℎc nas equações (1.20) e (1.21) para analisar a otimalidade de a e c. Podemosconcluir, por exemplo, que se a < x < c e a e c maximizam o ganho como stops fixos então
Û(a)− V̂ (c) + (I(c;x, x0)− I(a;x, x0))Û ′(a)
I ′(a;x, x0)= 0,
Û(a)− V̂ (c) + (I(c;x, x0)− I(a;x, x0))V̂ ′(c)
I ′(c;x, x0)= 0, (1.24)
o que leva a equação surpreendentemente simples
Û ′(a)I ′(c;x, x0) = V̂′(c)I ′(a;x, x0).
Estas equações podem ser usadas para implementar métodos numéricos para calcular os valoresótimos de a e b ou analisar o seu comportamento, como faremos na sub seção 1.10.
-
6 STOPS 1.3
1.3.3 Soluções por séries
Em geral, não há soluções com fórmulas fechadas para a equação (1.1). Mesmo quando há, estassoluções podem ser complicadas. Este é o caso da equação (1.2): sua solução pode ser expressa emtermos de funções hipergeométricas e de Hermite. Porém estas funções não são simples e poucoajudam no entendimento das soluções. Por isso, é interessante estudar técnicas para obter soluçõesaproximadas simples para a equação (1.1), mesmo quando soluções com fórmulas fechadas sãoconhecidas.
A resolução por séries é um dos métodos para obter tais soluções aproximadas. O princípio ésimples e nós o ilustraremos no caso da equação (1.2). Suponha que gostaríamos de entender ocomportamento das soluções f(x) da equação (1.2) para x próximo de x0. O método de solução porséries consiste em procurar uma soluções aproximadas da forma
fn(x) =n∑k=0
ak (x− x0)k (1.25)
Derivando a expressão para f em (1.25) obtemos
fn′(x) =
n∑k=1
kak (x− x0)k−1 .
Derivando novamente e substituindo k por m+ 2 obtemos
fn′′(x) =
n∑k=2
k (k − 1) ak (x− x0)k−2 =n−2∑m=0
(m+ 1) (m+ 2) am+2 (x− x0)m .
Note também que
xfn′(x) = (x− x0) f ′(x) + x0f ′(x) =
n∑k=1
kak (x− x0)k +n∑k=1
x0kak (x− x0)k−1
Substituindo k por m na primeira soma acima e m+ 1 na obtemos que
xfn′(x) =
n∑m=1
mam (x− x0)m +n−1∑m=0
x0(m+ 1)am+1 (x− x0)m
= nan (x− x0)n +n−1∑m=0
(mam + x0(m+ 1)am+1) (x− x0)m .
Inserindo as expressões para fn, xf ′n e f ′′n acima na expressão para o operador ℒ, (1.8), obtemos
ℒ(fn) (x) =n−2∑m=0
(n+ 1) (n+ 2) an+2 (x− x0)n
−r
(an−1 (x− x0)n−1 + an (x− x0)n +
n−2∑m=0
am (x− x0)m)− ((n− 1) an−1 + nx0an) (x− x0)n−1
-
1.3 EQUAÇÕES DIFERENCIAIS ORDINÁRIAS 7
−nan (x− x0)n −n−2∑m=0
(mam + x0(m+ 1)am+1) (x− x0)m .
Escolhendo então os am de modo que
am+2 =(m+ 1)x0am+1 + (m+ r) am
(m+ 2) (m+ 1)(1.26)
eliminamos os somatórios na expressão acima e obtemos
ℒ(fn) (x) = − ((n− 1 + r) an−1 + nx0an + (n+ r) an (x− x0)) (x− x0)n−1
o que se torna muito pequeno se x− x0 for menor que 1 e n for grande. Dados então a0 e a1, quecorrespondem a f(x0) e f ′(x0), podemos obter todos os an’s a partir da recorrência (1.26).
A análise acima considera x próximo a x0 finito na equação (1.2), porém também é possívelusar esta equação para analisar o limite x → ∞. Neste caso o natural é desprezar o termo em r e�′′ e tentar o balanço (�′)2 − x�′ = 0. Isto leva a � = x2/2 + �1(x), para �1 pequena em relação ax2/2. Substituindo na equação (1.2) completa obtemos
�1′′(x) + 1 +
(x+ �1
′(x))2 − (x+ �1′(x))x− r ≈ 0
Desprezando os termos em �21 e �′′1 nesta equação obtemos x�1′(x) = r − 1 o que leva a �1(x) =
(r − 1) ln(x). Isto leva à aproximação
g0(x) = ex2/2+(r−1)ln(x) = xr−1ex
2/2.
Para validar esta aproximação calculamos ℒ(g0) (x) e obtemos, para x > 0 e r ∈ (0, 1),
ℒ(g0) (x) = (2− r) (1− r) ex2
2 xr−3 =(2− r) (1− r)
x2g0(x) > 0,
o que é muito menor que g0(x). Em termos intuitivos, isto é um bom sinal e indica que g0 é umaboa aproximação em termos relativos. Em termos precisos, como conseqüência do corolário 1.3.1aplicado a −g0 e −f a última equação prova o seguinte lema:
Lema 1.3.5 Se x0 > 0 e f é uma solução da equação (1.2) com f(x0) ≤ g0(x0) e f ′(x0) ≤ g0′(x0)então f(x) < g0(x) e f ′(x) < g′(x) para todo x > x0. ⊓⊔
Isto nos dá um modo de limitar superiormente as soluções de (1.2) para x grande: se x0 > 0 emmax { f(x0) /g(x0) , f ′(x0)/g′(x0) } > 0 então
f(x) < mg0(x) e f′(x) < mg0
′(x)
para x > x0.Podemos corrigir g0 para obter um limitante inferior para f . A idéia é tentar algo da forma
ga(x) = g0(x)(
1 +a
x
). (1.27)
Ou seja, para x→∞ fazemos uma expansão em séries de potências de 1/x. O Mathematica indica
-
8 STOPS 1.3
que, para a > 0 e 0 ≤ r ≤ 1,
ℒ(ga) (x) = −ex2
2 xr−4(ax2 − (2− r) (1− r)x− a (3− r) (2− r)
)≤ −e
x2
2 xr−4(ax2 − 2x− 6a
)Portanto, para a = 1 e x > xc, onde
xc =2 +√
28
2≈ 3.64575 (1.28)
xc é a maior raiz da equação
x2 − (2− r) (1− r)x− a (3− r) (2− r) = 0,
temos que ℒ(g1) (x) < 0. O mesmo argumento usado acima prova o seguinte lema
Lema 1.3.6 Se x0 > xc e f é uma solução da equação (1.2) com f(x0) ≥ g1(x0) e f ′(x0) ≥ g1′(x0)então f(x) > g1(x) e f ′(x) > g1′(x) para todo x > x0. ⊓⊔
Combinando os dois últimos lemas obtemos o seguinte resultado rigoroso sobre as soluções daequação (1.2):
Lema 1.3.7 Suponha que f é uma solução da equação, (1.2) e xc é dado por (1.28),
g0(x) = ex2/2 ∣x∣r−1 , e g1(x) = ex
2/2 ∣x∣r−1 (1 + 1/ ∣x∣) .
Se f(xc) > 0 e f ′(xc) > 0 então, para todo x > xc,
mg1(x) < f(x) < Mg0(x) e mg1′(x) < f ′(x) < Mg0
′(x).
para
m = min
{f(xc)
g1(xc),
f ′(xc)
g1′(xc)
}e M = min
{f(xc)
g0(xc),
f ′(xc)
g0′(xc)
}.
Por simetria, se x < −xc, f(x) > 0 e f ′(x) < 0 então
mg1(x) < f(x) < Mg0(x) e Mg0′(x) < f ′(x) < mg1
′(x).
⊓⊔
Há outros modos, até mesmo curiosos, para aproximar as soluções. Por exemplo, a função
f(x) = e
(x2
2+ 3(r−1)
2rln(
1+ rx2
3
))(1.29)
é uma boa aproximação mesmo para x enorme.Isto completa esta subseção. Esperamos que você perceba que nem sempre a solução em forma
fechada, como a que o Mathematica oferece para a equação (1.2), é a melhor ferramenta paraestudar estas equações. Usando as expansões em acima podemos entender o comportamento destassoluções para x pequeno e grande.
-
1.3 EQUAÇÕES DIFERENCIAIS ORDINÁRIAS 9
1.3.4 Provas da seção 1.3
Prova do lema 1.3.1. É fácil ver que g(x0) = g0. Derivando (1.6) obtemos
'′(x, x0, g0, g
′0
)=�(x, x0)
f(x)2
(∫ xx0
f(s)
�(s, x0)(ℎ(s) + g0p(s)) ds+ f(x0) g
′0
). (1.30)
e (1.6) leva a
g′(x) = f ′(x)'(x, x0, g0, g
′0
)+�(x, x0)
f(x)
(∫ xx0
f(s)
�(s, x0)(ℎ(s) + g0p(s)) ds+ g
′0f(x0)
), (1.31)
A equação ((1.5)) mostra que �(x0, x0) = 1 e
g′(x0) = f′(x0)'
(x0, x0, g0, g
′0
)+
1
f(x0)f(x0) g
′0 = g
′0.
Derivando mais uma vez chegamos a
g′′(x) = f ′′(x)'(x, x0, g0, g
′0
)+ f ′(x)'′
(x, x0, g0, g
′0
)+�(x, x0)
f(x)
f(x)
�(x, x0)(ℎ(x) + g0p(x))
+
(�′(x, x0)
f(x)− �(x, x0) f
′(x)
f(x)2
)(∫ xx0
f(s)
�(s, x0)(ℎ(s) + g0p(s)) ds+ f(x0) g
′0
),
Usando que f é solução de (1.1) e que �′(x, x0) = −q(x) �(x, x0) concluímos que
g′′(x) =(p(x) f(x)− q(x) f ′(x)
)'(x, x0, g0, g
′0
)+ f ′(x)'′
(x, x0, g0, g
′0
)+ ℎ(x) + p(x) g0
−(q(x) �(x, x0)
f(x)+�(x, x0) f
′(x)
f(x)2
)(∫ xx0
f(s)
�(s, x0)(ℎ(s) + g0p(s)) ds+ f(x0) g
′0
).
A equação (1.30) mostra que os termos f ′(x)'′(x, x0, g0, g′0) e
−�(x, x0) f′(x)
f(x)2
(∫ xx0
f(s)
�(s, x0)(ℎ(s) + g0p(s)) ds+ f(x0) g
′0
).
nesta equação cancelam e temos
g′′(x) = p(x)(g0 + f(x)'
(x, x0, g0, g
′0
))−
q(x)
(f ′(x)'
(x, x0, g0, g
′0
)− �(x, x0)
f(x)
∫ xx0
f(s)
�(s, x0)(ℎ(s) + g0p(s)) ds
)+ ℎ(x) .
Finalmente, a equações (1.6)e (1.31) levam a
g′′(x) = p(x) g(x)− q(x) g′(x) + ℎ(x) ,
o que prova o lema. ⊓⊔Prova do lema 1.3.2. Mostraremos que se o máximo é superior a max { f(a) , f(c) } ≥ 0 então
existe c ∈ (a, b) com ℒ(f) (c) < 0. De fato, tomando c ∈ (a, b) que maximiza f teríamos f ′(c) = 0
-
10 STOPS 1.3
e f ′′(c) ≤ 0 pelos critérios usuais de maximilidade. Isto implica que
ℒ(f) (c) = f ′′(c) + q(c) f ′(c)− p(c) f(c) = f ′′(c)− p(c) f(c) < 0.
Isto prova o lema. ⊓⊔Prova do corolário 1.3.1. Seja d = g − d. Mostraremos inicialmente que se d′′(x) > 0 então
d(y) > d(x) > 0 para todo y > x. De fato, a condições d′(x) = 0 e d′′(x) > 0 implicam que ovalor do máximo de d no intervalo [x, y] é superior a d(x). Pelo princípio do máximo (lema 1.3.2),d(y) = maxx≤c≤y > d(x). Agora mostramos que se d′′(x) > 0 então d′(y) > 0 para y > 0. De fatose existisse y > x com d′(y) < 0 então nem x nem y seriam pontos de máximo no intervalo [x, y], oque contraria o princípio do máximo. Se existisse y > x com d′(y) = 0 então
L′′(d)y = ℒ(d) (y)− q(y) d′(y) + p(y) d(y) = ℒ(d) (y) + p(y) d(y) > 0
e novamente nem x nem y seriam máximos de d no intervalo [x, y]. Isto completa a análise do casod′′(x) > 0.
A análise acima mostra que a solução A da equação (1.1) com A(x) = 1 e A′(x) = 0, que temA′′(x) = p(x) > 0, satisfaz estritamente as desiguldades em (1.10). Definindo então ℎ = ℒ(d), olema 1.3.1 mostra que, d = A', para
�(y) = e−∫ yx q(s)ds e '(y) =
∫ yx
�(t)
A(t)2
(∫ tx
A(s)
�(s)ℎ(s) + d(x) p(s)ds
)dt.
As desigualdades em (1.9) seguem então das propriedades de A provadas na análise do caso d′′(0) > 0e dos fatos que d(x) ≥ 0 e ℎ(y) ≥ 0. ⊓⊔
Prova do corolário 1.3.2 As desigualdades referentes a x > x0 seguem do corolário 1.3.2.Para analisar x < x0 basta aplicar o corolário 1.3.2 à função f̃(x) = f(−x) e x̃0 = −x0, que satisfazuma equação como 1.1, mas com q substituído por q̃(x) = −q(−x). ⊓⊔
Prova do lema 1.3.3. A equação (1.16) segue, por simples substituição e derivação, de (1.11).A equação (1.17) segue do lema (1.3.1). Para provar (1.18) note que o lado direito desta equaçãosatisfaz (1.1), vale g(x0) para x = x0, tem derivada g′(x0) para x = x0. O teorema 1.3.1 mostraentão que g deve ser igual ao lado direito de (1.18) para todo x. ⊓⊔
Prova do lema 1.3.4. Toda solução f da equação (1.1) com variável y pode ser escrita como
f(y) = �A(y;x0) + �B(y;x, x0) (1.32)
para � e � convenientes. Para satisfazer as condições f(a) = fa e f(c) = c devemos ter então
fa = �A(a;x0) + �B(a, x, x0) ,
fc = �A(c;x0) + �B(c, x, x0) .
-
1.4 A FÓRMULA DE DYNKIN 11
Isto dermina � e �:
� =B(c, x, x0) fa −B(a, x, x0) fc
A(a;x0)B(c, x, x0)−B(a, x, x0)A(c;x0),
� =A(a;x0) fc −A(c;x0) fa
A(a;x0)B(c, x, x0)−B(a, x, x0)A(c;x0).
Substituindo y por x na equação (1.32) e lembrando que pela equação (1.16) B(x;x, x0) = 0,obtemos que f(x) = �A(x;x0). Segundo a equação (1.15)
B(a, x, x0) = A(x;x0)A(a;x0) I(a;x, x0) e B(c, x, x0) = A(x;x0)B(c, x0) I(c;x, x0)
e temos que f(x) = �A(x;x0) é equivalente a
f(x) = A(x;x0)A(x;x0)A(c;x0) I(c;x, x0) fa −A(x;x0)A(a;x0) I(a;x, x0) fc
A(a;x0)A(x;x0)A(c;x0) I(c;x, x0)−A(x;x0)A(a;x0) I(a;x, x0)A(c;x0),
Dividindo o numerador e o denominador desta expressão por A(a;x0)A(x;x0)A(c;x0) obtemos(1.19) e o lema está provado. ⊓⊔
1.4 A fórmula de Dynkin
A fórmula de Dynkin se aplica a processos que satisfazem uma equação diferencial estocásticada forma
dXt = �(Xt) dt+ �(Xt) dBt. (1.33)
Para entender de fato esta equação você precisará estudar, em um primeiro passo, livros comoØksendal (2007) e em um segundo passo livros como o segundo volume de Williams (2000b). Nopasso zero é melhor ficar em exemplos concretos, como o movimento Browniano que discutimosanteriormente ou o processo de Ornstein-Uhlenbeck que discutiremos nas próximas seções.
O matemático russo Eugene Dynkin, que foi aluno de A. Kolmogorov, estudou em profundidadeo gerador infinitesimal do processo acima. Este gerador infinitesimal atua sobre funções suaves fde acordo com a expressão
Gf(x) = �2(x)
2f ′′(x) + �(x) f ′(x)
Dynkin observou que se � é um tempo de parada, � é um número positivo e a função f , oprocesso Xt e o tempo de parada � satisfazem as condições descritas logo abaixo na seção ?? então
E(e−��f(X� )
)= f(X0) + E
(∫ �0e−�s ((G− �) (f)) (Xs) ds
). (1.34)
onde ((G− �)) (f) (x) quer dizer
�2(x)
2f ′′(x) + �(x) f ′(x)− �f(x) . (1.35)
A fórmula de Dynkin (1.34) leva ao seguinte procedimento para calcular o ganho descontandoesperado quando iniciamos o processo pt com p0 = b e recebemos e−��U(a) quando acionamos ostop inferior e e−��V (c) quando acionamos o stop superior:
-
12 STOPS 1.5
Se encontrarmos uma função f tal que f(a) = U(a) e f(c) = V (c) e
�(s)2
2f ′′(s) + �(s) f ′(s)− �f(s) = 0. (1.36)
então a equação (1.34) mostra que
E(e−��U(a) ; p� = a
)+ E
(e−��V (c) ; p� = c
)= f(b) . (1.37)
Portanto, calcular o efeito da escolha dos stops se reduz a resolver a equação (1.36) com as condiçõesde contorno f(a) = U(a) e f(c) = V (c). Feito isto, o valor esperado do ganho é facilmente obtidoa partir de (1.37).
Nas próximas seções discutiremos como aplicar este procedimento. Finalmente, observamos quea fórmula de Dynkin (1.34) é uma conseqüência direta do teorema de parada opcional de Doob.Variantes dela podem ser derivadas diretamente da fórmula de Itô, como em Rogers (2010). Porémconsideramos melhor fazer referência a um fórmula concisa como (1.34) através de um nome mere-cido – Dynkin – do que mencionar todo o processo usado em sua derivação e suas variações.
1.5 Condições para aplicar a fórmula de Dynkin
A princípio, para aplicarmos a fórmula de Dynkin a função f : Rn 7→ R deve estar no domíniodo gerador infinitesimal
Gf(x) = �2(x)
2f ′′(x) + �(x) f ′(x).
Formalmente, isto quer dizer que
1. lim∣x∣→∞ f(x) = 0.
2. f tem derivadas segundas contínuas. (isto justifica o cálculo de Gf).
3. A função Gf é contínua e lim∣x∣→∞ Gf(x) = 0.
Porém, esta condição pode ser relaxada quando há um conjunto C tal que Xt ∈ C para todot ≤ � . Neste caso as condições de decaimento de f e Gf podem ser trocadas por
1. limk→∞ f(xk) = 0 para toda seqüência {xk, k ∈ N} ⊂ C com limk→∞ ∣xk∣ =∞.
2. limk→∞ Gf(xk) = 0 para toda seqüência {xk, k ∈ N} ⊂ C com limk→∞ ∣xk∣ =∞.
Por exemplo:
∙ No caso de stops inferiores e superiores Xt estará entre o limite inferior a e superior c parat ≤ � e não nos precisamos nos preocupar com o decaimento de f e Gf , pois nenhuma seqüência{xk, k ∈ N} com a ≤ xk ≤ c converge para infinito.
∙ O mesmo ocorre no limite móvel descrito na seção 1.11 pois neste caso ao limitarmos a quedatambém limitamos as trajetórias Xt para t ≤ � .
∙ No caso de stop superior, podemos ter xk → −∞ mas não xk → +∞. Portanto, precisamosnos preocupar apenas com os limites limx→−∞ f(x) e limx→−∞ Gf(x).
-
1.6 STOPS NO TEMPO 13
∙ Para limites inferiores ocorre o oposto: precisamos nos preocupar apenas com os limiteslimx→+∞ f(x) e limx→+∞ Gf(x).
1.6 Stops no tempo
A fórmula de Dynkin também vale para processos multidimensionais e isto permite incorporarstops que dependem do tempo no procedimento discutido nas seções anteriores. A idéia é encararXt na equação (1.33) como um vetor, ao invés de um número. Por exemplo, podemos fazer
dX1 = dt, (1.38)
dX2 = �(X2) dt+ �(X2) dBt. (1.39)
O gerador infinitesimal deste processo é
Gf(x) = ∂f∂t
(t, x) + �(x)∂f
∂x(t, x) +
�(x)2
2
∂2f
∂x2(t, x) .
e a estratégia descrita acima leva ao seguinte problema de valor inicial
�(x)2
2
∂2f
∂x2(t, x) +
∂f
∂t(t, x) + �(x)
∂f
∂x(t, x)− �f(x, t) = 0, (1.40)
f(t, a) = U(a) , f(t, c) = U(c) e f(T, x) = U(x) . (1.41)
O método padrão para resolver este problema é usar séries de Fourier. Primeiro resolvemos aequação (1.40) considerando f0(t, x) = f0(x) (sem dependência em t) e com a condição de fronteiraf(a) = U(a) e f(c) = U(c), como discutido anteriormente. Em seguida escrevemos
f(t, x) =∞∑n=0
e−�ntfn(x) ,
com �0 = 0 e os demais fn’s e �n’s escolhidos de modo que
∞∑n=0
e−�nT fn(x) = U(x) , (1.42)
�(x)2
2
∂fn∂x
(x) + �(x)∂fn∂x
(x)− (�+ �n)fn(x) = 0, (1.43)
fn(a) = 0, fn(c) = 0. (1.44)
Há uma vasta teoria sobre as equações acima (veja Figueiredo (1997) e Neves (2001)). Ela mostraque para funções � e � “razoáveis” existe uma seqüência {�n, n ∈ N} de expoentes e soluções{ gn, n ∈ N} não nulas correspondentes que geram todas as outras como combinações lineares,como uma base em um espaço vetorial. A idéia então é tomarmos fn = �nℎn com coeficientes�n apropriados. Pela nossa definição �0 = 1 e para calcular �n para n > 0 observamos que asfunções ℎn são ortogonais com respeito ao seguinte produto interno no espaço das funções contínuas
-
14 STOPS 1.7
f : [a, c] 7→ R com f(a) = f(c) = 0:
< f, g >=
∫ caw(s) f ′(s)g′(s)ds,
ondew(x) = e
∫ xa
2�(x)�(s)
ds. (1.45)
De fato, integrando por partes temos que
< ℎn, ℎm >= w(s)ℎn′(s)ℎm(s)
∣∣s=cs=a−∫ caℎm(s)w(s)
(ℎn′′(s)− 2�(s)
�(s)ℎn′(s)
)ds.
Como ℎn é solução de (1.43) deduzimos que
< ℎn, ℎm >= −2 (�n + �)∫ ca
w(s)
�(s)2ℎn(s)ℎm(s) ds. (1.46)
Trocando n por m nesta equação e subtraindo dela mesma obtemos que
2 (�m − �n)∫ ca
w(s)
�(s)2ℎn(s)ℎm(s) ds = 0.
Como �m ∕= �n a integral nesta última equação deve ser nula e (1.46) mostra que < ℎn, ℎm >= 0.Portanto, reescrevendo a equação (1.42) como
∞∑n=1
�ne−�nTℎn(x) = U(x)− ℎ0(x)
e tomando o produto interno com ℎn obtemos que
�ne−�nT
∫ caw(s)
(ℎn′(s))2ds =
∫ caw(s) (U(s)− ℎ0(s))′ ℎn′(s)ds
ou seja,
�n = e�nT
∫ ca w(s)
(U ′(s)− ℎ0′(s)
)ℎn′(s)ds∫ c
a w(s)(ℎn′(s))2ds
.
Finalmente, a fórmula de Dynkin diz que o valor esperado do ganho descontado é
g(a, c) = f(b, 0) =
∞∑n=0
fn(b) = f0(a, b, c) +
∞∑n=1
�n(a, c)ℎn(a, b, c) .
1.7 O Processo de Ornstein Uhlenbeck
O processo de Ornstein Uhlenbeck descreve preços que revertem a média. Ele satisfaz a equaçãodiferencial estocástica
dpt = � (�− pt) dt+ �dBt. (1.47)
Este processo é motivado pela equação diferencial determinística
dp
dt= � (�− p) , (1.48)
-
1.7 O PROCESSO DE ORNSTEIN UHLENBECK 15
a qual pode ser pensada como o limite de (1.47) quando � → 0. A equação determinística (1.48)tem solução
p(t) = �+ (p(0)− �) e−�t. (1.49)
O comportamento desta solução é simples: ela reverte exponencialmente para a média �. O processode Ornestein Uhlenbeck tem comportamento parecido. Só é adicionada a perturbação aleatória �dBt.
O gerador do processo de Ornstein Uhlenbeck é
G= �2
2
d2
dx2+ � (�− x) d
dx
e para usarmos o método descrito na nota sobre a fórmula de Dynkin para analisar os tempos deparada devemos resolver a equação diferencial
�2
2C ′′(x) + � (�− x)C ′(x)− �C(x) = 0. (1.50)
Ao invés de lidar diretamente com esta equação é interessante considerar a função D definida por
D(y) = C(�(�y + 1)) com � =�
�√
2�. (1.51)
Uma vez encontrada D, podemos recuperar C a partir da equação
C(x) = D
(x− ���
).
Note queD′(y) = ��C ′(�(�y + 1)) (1.52)
e
D′′(y) = �2�2C ′′(�(�y + 1)) =2�2�2
�2(�C(�(�y + 1))− � (�− �(�y + 1)))C ′(�(y + 1)). (1.53)
Usando a expressão para � na equação (1.51) obtemos que
2�2�2
�2=
1
�
e as equações (1.52) e (1.53) levam a seguinte equação, na qual r = �/�,
D′′(y) = rD(y) + yD′(y). (1.54)
Por exemplo, no caso do índice Bovespa no período de 04/01/2010 a 06/05/2011 o estimadorde máxima verosimilhança para o processo de Ornstein-Uhlenbeck leva a
� = 10.38, � = 66970, � = 0.1133 e � = 12683.
Avaliando numericamente � e r obtemos
� ≈ 0.042 e r ≈ 0.011.
-
16 STOPS 1.8
Ou seja, no exemplo do IBovespa � e r são da ordem de centésimos. Como � reflete a variação de xcom respeito a média e é razoável esperar stops ótimos a uns porcentos do preço médio, isto sugereque o y ótimo deve ser de ordem 1, de modo que ��y seja da ordem alguns porcentos do índice.
Infelizmente, a equação (1.54) não tem soluções simples em forma fechada. O Mathematica porexemplo expressa estas soluções em termos de funções hipergeométricas e de Hermite. Este modode expressar as soluções não ajuda no entendimento delas. É melhor procurar soluções assintóticas,que permitam analisar qualitativamente o seu comportamento. Na seções 1.3 e 1.10 analisamosestas soluções.
1.8 Solução da equação de Ornstein-Uhlenbeck
Nesta seção mostramos que a solução da equação diferencial estocástica de Ornstein Uhlenbeck(1.47) com condição inicial p0 é dada por
pt = �+ e−�t (p0 − �) +
�√�e−�t
∫ �t0
esdBs. (1.55)
e derivaremos algumas propriedades desta solução.Para verificar que pt na equação (1.55) é a solução da equação (1.47) com condição inicial p0
basta notar que p0 = p0 e usar a fórmula de Itô. Esta fórmula é descrita na página 44 de Øksendale diz que se o processo Xt satisfaz uma equação diferencial estocástica
dXt = �(Xt) dt+ �(Xt) dBt
e a função g : R2 → R tem derivadas parciais contínuas então o processo Yt = g(t,Xt) satisfaz aequação diferencial estocástica
dYt =∂g
∂tt,Xtdt+
∂g
∂xt,XtdXt +
�(Xt)2
2
∂g
∂xt,Xtdt.
A função g apropriada para o nosso caso é g(t, x) = e�t (x− �). Para esta g a última equação e aequação (1.47) mostram que Yt = e�t (Xt − �) satisfaz
dYt = �e�t (Xt − �) dt+ e�t (� (�−Xt) dt+ �dBt) = �e�tdBt.
Isto implica que
e�t (Xt − �) = Yt = p0 − �+ �∫ t
0e�sdBs.
Multiplicando esta equação por e−�t e somando � aos dois lados obtemos que
Xt = �+ e−�t (p0 − �) + �e−�t
∫ t0e�sdBs. (1.56)
Fazendo a mudança de variável s = u/� e notando que Bu/� tem a mesma distribuição que 1√�Buobtemos que, em termos de distribuição,∫ t
0e�sdBs =
1√�
∫ �u0
eudBu.
-
1.9 ESTIMANDO OS PARÂMETROS PARA O PROCESSO DE ORNSTEIN-ULHENBECK 17
Substituindo esta expressão em (1.56) obtemos (1.55)A integral
It =
∫ t0esdBs (1.57)
é um processo estocástico de um tipo muito especial. Ao ler Øksendal (2007) você descobrirá queela é um martingale com respeito à filtração {ℱt, t ≥ 0} definida pelo movimento Browniano Bt.Ou seja,
E(It∣ ℱs) = Is (1.58)
para todo 0 ≤ s ≤ t∞. Em particular,
E(It) = E(E(It∣ ℱ0)) = E(I0) = 0.
Tomando o valor esperado de pt em (1.55) obtemos
E(pt) = �+ e−�t (p0 − �) +�√�e−�tE(It) = �+ e−�t (p0 − �) , (1.59)
que é exatamente o que obteríamos para equação determinística (1.48).A teoria de integração estocástica nos permite obter mais resultados sobre It. Por exemplo, a
isometria de Itô, descrita na página 29 de Øksendal (2007), mostra que
E(I2t)
= E(∫ t
0e2sds
)=
1
2
(e2t − 1
)e podemos então calcular a variância de pt:
E(
(pt − E(pt))2)
= E(�2
�e−2�tI2�t
)=�2
2�
(1− e−2�t
).
Note que esta variância é limitada: ela nunca passa de �2/(2�). Combinando esta observação coma equação (1.59) e a igualdade E
(p2t)
= E(
(pt − E(pt))2)
+ E(pt)2 obtemos
E(p2t)
=�2
2�
(1− e−2�t
)+(�+ e−�t (p0 − �)
)2≤ �
2
2�+ max
{�2, (p0 − �)2
}, (1.60)
o que mostra que pt é um processo de variância limitada.
1.9 Estimando os parâmetros para o processo de Ornstein-Ulhenbeck
Esta seção explica como obter o estimador de máxima verosimilhança para o processo Ornstein-Uhlenbeck. Os resultados enunciados são provados na próxima subseção.
Lema 1.9.1 O log da verosimilhança correspondente a n + 1 amostras X̂ ={X̂0, X̂1, . . . X̂n
}do
processo de Ornstein Uhlenbeck, com X̂k tomada no instante tk, é
ℒ(X̂;�, �, �
)= −n
2log
(�2
2�
)− 1
2
n∑k=1
log(
1− e2(tk−1−tk))
-
18 STOPS 1.9
− ��2
n∑k=1
(X̂k − �− e�(tk−1−tk)
(X̂k−1 − �
))21− e2�(tk−1−tk)
. (1.61)
⊓⊔
A equação (1.61) simplifica consideravelmente se os tk’s são igualmente espaçados, i.e., se tk = k�para alguma constante �. Neste caso ela se torna
ℒ(X̂;�, �, �
)= −n
2log(z)− 1
2z
n∑k=1
(X̂k − X̂k−1 + X̂k−1y − w
)2(1.62)
para
y = 1− e−��, z =�2(1− e−2��
)2�
e w = �y. (1.63)
Para maximizar o log da máxima verosimilhança basta encontrar um minimizador y, z, w para
f(y, z, w) = nlog(z) +1
z
n∑k=1
(X̂k − X̂k−1 + X̂k−1y − w
)2(1.64)
e derivar �, � and � from equação (1.63):
� = − log(1− y)�
, �2 =2�z
y (2− y)e � = w/y. (1.65)
Felizmente, o próximo lema mostra há uma solução (y, z, w) explícita:
Lema 1.9.2 O minimizador da função f definida na equação (1.64), se existir, é único e dado por
ŷ = −
∑nk=1
(X̂k − X̂k−1 −Δ
)X̂k−1∑n
k=1
(X̂k−1 −X
)X̂k−1
, (1.66)
ŵ =1
n
(X̂n − X̂0 + ŷ
n∑k=1
X̂k−1
)= Δ + ŷX, (1.67)
ẑ =1
n
n∑k=1
(X̂k − X̂k−1 + X̂k−1ŷ − ŵ
)2, (1.68)
for
X =1
n
n∑k=1
X̂k−1 e Δ =X̂n − X̂0
n.
⊓⊔
1.9.1 Provas da seção 1.9
Prova do lema 1.9.1 Como vimos na seção P16-(1.8) o processo de Ornstein-Uhlenbeck satisfaz
Xt = �+ e−�t (X0 − �) + �e−�t
∫ t0e�udBu.
-
1.9 ESTIMANDO OS PARÂMETROS PARA O PROCESSO DE ORNSTEIN-ULHENBECK 19
Portanto, para s ≤ t,
(Xt − �)− e�(s−t) (Xs − �) = �e−�t∫ tse�udBu.
Como conseqüência, dados n+ 1 instantes t0 = 0, t1, . . . , tn o vetor
V = (Xt1 , . . . , Xtn)t ,
a matriz bidiagonal
A =
⎛⎜⎜⎜⎜⎜⎜⎜⎝
1
−e�(t0−t1) 1−e�(t1−t2) 1
.... . .
−e�(tn−1−tn) 1
⎞⎟⎟⎟⎟⎟⎟⎟⎠e o vetor e = (1, 1, . . . , 1, 1)′ são tais que
N = A (V − �e) (1.69)
tem distribuição normal multivariada com média zero e coordenadas independentes com variância
�2kk = �2e−2�tkE
⎛⎝(∫ tktk−1
e�sdBs
)2⎞⎠ = �2e−2�tk (∫ tktk−1
e2�udBu
)=�2
2�
(1− e2�(tk−1−tk)
).
Reescrevendo (1.69) comoV = A−1N + �e
concluímos que V tem distribuição normal multivariada com média �e e matrix de covariância
Σ = A−1ΣNA−t,
onde ΣN é a matriz diagonal com entradas �2kk dadas acima. Portanto,
Σ−1 = AtΣ−1N A
e a fórmula padrão para a verosimilhança da normal multivariada mostra que (a menos de con-stantes)
ℒ(X̂;�, �, �
)= −1
2log(det(Σ))− 1
2
(X̂ − �A−1e
)tΣ−1
(X̂ − �e
)=
−12
log(det(ΣN ))−1
2
(X̂ − �e
)tAtΣ−1N A
(X̂ − �e
)= −1
2log(det(ΣN ))−
1
2
∥∥∥Σ−1/2N A(X̂ − �e)∥∥∥2 . (1.70)Agora,
det(ΣN ) =n∏k=1
�2kk =
(�2
2�
)n n∏k=1
(1− e2�(tk−1−tk)
)
-
20 STOPS 1.10
e (A(X̂ − �e
))k
= X̂k − �− e�(tk−1−tk)(X̂k−1 − �
).
Combinando as últimas duas equações com (1.70) obtemos (1.61) e completamos esta prova. ⊓⊔Prova do lema 1.9.2 Igualando o gradiente de f a obtemos as seguintes equações
n∑k=1
(X̂k − X̂k−1 + X̂k−1y − w
)X̂k−1 = 0, (1.71)
n
z− 1z2
n∑k=1
(X̂k − X̂k−1 + X̂k−1y − w
)2= 0, (1.72)
n∑k=1
(X̂k − X̂k−1 + X̂k−1y − w
)= 0. (1.73)
A equação (1.73) leva à equação (1.67). Inserindo w em (1.71) obtemos
n∑k=1
(X̂k − X̂k−1 −Δ +
(X̂k−1 −X
)y)X̂k−1 = 0.
Resolvendo esta equação para y nós chegamos à equação (1.66). Finalmente, a equação (1.72) levaa (1.68) e esta prova está completa. ⊓⊔
1.10 Stops Fixos para o processo de Ornstein-Uhlenbeck
Nesta seção combinamos as técnicas discutidas nas seções anteriores para analisar o problemade stops inferiores e superiores para o processo de Ornstein-Uhlenbeck. Seguindo o processo descritona subseção 1.3.2, consideramos as soluções A0(x) da equação
f ′′(x)− xf ′(x)− rf(x) = 0, (1.74)
com A0(0) e A0′(0) = 1. Assumiremos que 0 < r < 1 mas estaremos mais interessados no caso r“pequeno”, ou seja, na faixa dos centésimos.
A nossa funções de utilidade inferior e superior serão o próprio preço, ou seja, U(x) = V (x) = x.Assumiremos que o preço inicial é b e buscaremos a ≤ b ≤ c que levem a um ganho máximo. Segundoa teoria na seção 1.4 e o lema P4-(1.3.2), isto leva ao problema de maximização da função
f(b, a, c) =A0(b)
I(c, b)− I(a, b)(I(c, b)G(a)− I(a, b)G(c)) (1.75)
para
I(x, b) =
∫ xb
e∫ tb sds
A0(t)2dt = e
−b2/2∫ xb
et2/2
A0(t)2dt e G(x) =
x
A0(x). (1.76)
As equações (1.20) e (1.21) mostram que
∂f
∂a(b, a, c) = ℎa(a, c, b)
(G(a)−G(c) + (I(c, b)− I(a, b)) G
′(a)
I ′(a, b)
), (1.77)
∂f
∂c(b, a, c) = ℎc(a, c, b)
(G(a)−G(c) + (I(c, b)− I(a, b)) G
′(c)
I ′(c, b)
), (1.78)
-
1.10 STOPS FIXOS PARA O PROCESSO DE ORNSTEIN-UHLENBECK 21
onde ℎa e ℎc são fatores positivos.A função f é ilustrada na figura 1.1 abaixo. Nesta seção exporemos as propriedades desta figura
usando a teoria desenvolvida neste texto.
Figura 1.1: O gráfico de f(b, a, c) com b = 0 e r = 0.01, com −12 < a < 0 e 0 < c < 12.
A figura 1.1 foi feita no Mathematica, calculando f a partir das combinações de funções Her-miteH e Hypergeometric1F1 que este programa usa para representar as soluções da equação (1.74).Note que a parte do gráfico para a < −10 e c > 10 está faltando e o gráfico parece recortado paravalores grandes de −a e c. Isto ocorre pois os valores destas funções são MUITO grandes para taisa e c e o Mathematica se perde nas contas. Em versões anteriores ele desenhava “lixo” para estesvalores. Na versão atual, 8.0.0.0, esse problema foi corrigido escondendo o lixo sob o tapete.
Parte desta figura pode ser entendida a partir do próximo lema.
Lema 1.10.1 As integrais I(+∞, b) = limc→∞ I(c, b) e I(−∞, b) = lima→−∞ I(a, b) são finitas e
lim∣x∣→∞
G(x) = 0 e lim∣x∣→∞
G′(x)
I(x, b)= +∞. (1.79)
Este lema e equação (1.75) leva as seguintes conclusões, que podem ser observadas no gráfico:
∙ Para c fixo,
lima→−∞
f(b, a, c) = − A0(b)I(c, b)− I(−∞, b)
I(−∞, b)G(c)
O limite acima é positivo para c > 0, porém o ele é minúsculo para c ≥ 4. Ao longo do topo,quando a decresce f(b, a, c) cresce muito lentamente. As a equações (1.77) e (1.79) indicam quea derivada parcial em a é negativa para −a grande e com isso não há máximo nesta direção:quanto menor o a melhor. Na prática isto significa que não devemos usar stops inferiores.
∙ Para a fixo,
limc→∞
f(b, a, c) =A0(b)
I(∞, b)− I(−∞, b)I(∞, b)G(a) .
Este limite é negativo para a < 0, porém o seu módulo é minúsculo para a < −4. O gráficotambém indica que é contraproducente tomar c > 4. Isto é confirmado pelas equações (1.77)
-
22 STOPS 1.10
e (1.79) que mostram que a derivada parcial de f com respeito a c é negativa para c grande eportanto é contraprodutivo aumentar c demais. Ou seja, devemos sim usar um stop superior.A figura também indica que o c ótimo, o topo do morro, não depende muito de a.
A discussão acima mostra que no caso do processo de Ornstein-Uhlenbeck devemos considerarapenas o stop superior. Deste ponto até fim desta seção mostraremos como aplicar a fórmula deDynkin para resolver este problema. Há uma restrição importante ao se aplicar a fórmula de Dynkin(1.34): a função f deve ser limitada. No caso de stops inferiores e superiores não é necessário sepreocupar com isto pois toda funcão contínua em um intervalo [a, c] finito é limitada. Porém, paraaplicar a fórmula de Dynkin com a = −∞ precisamos encontrar uma solução f da equação (1.74)tal que f(a) se mantenha limitado quando a → −∞. O limite a → −∞ de (1.75) fornece estasolução:
Lema 1.10.2 A função ℎ(x; c) dada por
ℎ(x; c) =A0(x)H(x)
H(c)G(c) , (1.80)
onde
H(x) =
∫ x−∞
et2/2
A(t)2dt, (1.81)
é uma solução da equação (1.74) tal que ℎ(c; c) = c e limx→−∞ ℎ(x; c) = 0. ⊓⊔
Portanto, para encontrar o stop superior ótimo dado o preço inicial b fixo devemos maximizar
ℎ(b; c) =A0(b)H(b)
H(c)G(c) .
Como A0(b)H(b) independe de c e é positivo, devemos então maximizar
g(c) =G(c)
H(c)=
c
H(c)A0(c).
Usando a equação (1.76) obtemos
H(c) =
∫ c−∞
et2/2
A(t)2dt =
∫ 0−∞
et2/2
A(t)2dt+
∫ c0
et2/2
A(t)2dt = H(0) + I(c, 0)
eg(c) =
c
H(0)A0(c) +A0(c) I(c, 0).
Note que H(0) depende apenas de r, via A0, mas não de c, portanto, podemos chamar este termode �r. Por exemplo, o Mathematica mostra que
�1/100 = 80.34014871205489.
O lema 1.3.1 com f = A0 e x0 = 0 mostra que B(x) = A0(x) I(x, 0) é a solução de (1.74) comB(0) = 0 e B′(0) = 1. Logo, nosso objetivo é maximizar
g(c) =c
�rA0(c) +B(c).
-
1.10 STOPS FIXOS PARA O PROCESSO DE ORNSTEIN-UHLENBECK 23
Note que esta função não depende de b. Ou seja, o stop superior c∗ que encontrarmos deveria serindependente de b. Há um problema porém: e se b for maior que c∗? A resposta é simples: pareimediatamente! Ou seja, não devemos esquecer da restrição c ≥ b, mas há um procedimento simplespara lidar com o caso c∗ > b.
1.10.1 Provas da seção 1.10
Prova do lema 1.10.1. O lema 1.3.7 mostra que
es2/2
A0(t)2 ≤
1
m2e−s
2/2t2−2r (1.82)
para t grande. Isto mostra que I(+∞, b) < +∞. Um argumento análogo mostra que I(−∞, b) éfinita. A equação (1.76) mostra que
G′(x)
I ′(x, b)= eb
2/2e−x2/2(A0(x)− xA0′(x)
)= eb
2/2e−x2/2
(1− xA0
′(x)
A0(x)
)A0(x)
O lema 1.3.7 mostra que existe xc e R > 0 tal se ∣x∣ ≥ xc então
−eb2/2x2 1R<
G′(x)
I ′(x, b)≤ −eb2/2x2R.
Isto leva à equação (1.79) e completa esta prova. ⊓⊔Prova do lema 1.10.2. É claro que ℎ(c; c) = A0(c)G(c) = c. Note que, para c fixo, f(x) =
A0(x)H(x) satisfaz
f ′(x) = A0′(x)H(x) +
ex2/2
A0(x). (1.83)
Derivando novamente,
f ′′(x) = A0′′(x)H(x) +
A0′(x)ex
2/2
A0(x)2 + x
ex2/2
A0(x)− A0
′(x)ex2/2
A0(x)2 .
Com A0 é solução da equação (1.74) temos
f ′′(x) =(xA0
′(x) + rA0(x))H(x) + x
ex2/2
A0(x)= rA0(x)H(x) + x
(A0′(x)H(x) +
ex2/2
A0(x)
)
e a equação (1.83) mostra que f ′′(x) = rf + xf ′. Logo, f é solução de (1.74). Isto mostra que ℎtambém é solução de (1.74). Para mostrar que limx→−∞ ℎ(x) = 0 usaremos o seguinte lema:
Lema 1.10.3 ∫ ∞x
t2−2re−t2/2dt ≤ x1−2re−x2/2
(1 +
1
x
)(1.84)
⊓⊔
O lema 1.3.7 mostra que se x < −xc então
A0(x) ≤Mex2/2 ∣x∣r−1 .
-
24 STOPS 1.11
Combinando isto com o lema 1.10.3 temos então que para x < −xc,
ℎ(x; c) ≤Mex2/2 ∣x∣r−1 × ∣x∣1−2r e−x2/2(
1 +1
∣x∣
)G(c)
H(c)≤ 2M G(c)
H(c)∣x∣−r .
Como r > 0 isto mostra que limx→−∞ ℎ(x; c) = 0 e completa a prova do lema 1.10.2. ⊓⊔Prova do lema 1.10.3. Tomando v = x� e u = e−x2/2 temos que∫ ∞x
t�e−t2/2dt =
∫ ∞x
udv = uv∣t=∞t=x −∫ ∞x
vdu = x�−1e−x2/2 + (� − 1)
∫ ∞x
t�−2e−t2/2dt.
Quando � ≤ 1 isto mostra que
0 ≤∫ ∞x
t�e−t2/2dt ≤ x�−1e−x2/2.
As duas últimas equações levam a∫ ∞x
t2−2re−t2/2 = x1−2re−x
2/2 + (1− 2r)∫ ∞x
t1−2re−t2/2dt ≤ x1−2re−x2/2 + x−2re−x2/2.
Isto prova o lema. ⊓⊔
1.11 Stops de queda
Esta seção discute stops baseados em quedas nos preços. Analisamos a situação na qual encer-ramos uma operação se o preço atingir um limite superior z ou tiver uma queda de um certo valord em relação ao preço máximo atingido desde o início da operação.
Esta situação é descrita na figura 1.2. Ela apresenta dois casos, ambos com preço inicial v. Noprimeiro caso o preço atinge um valor m superior a v mas logo em seguida tem uma queda ded unidades entre o instante em que o máximo m foi atingido e instante �1. Logo após a quedaencerramos a operação e recebemos uma utilidade U(m− d) descontada por uma taxa de juros�. No segundo caso o preço sobe e atinge um limite superior z no instante �2. Neste momentoliquidamos nossa posição e embolsamos uma utilidade U(m− d) descontada pela mesma taxa �.
dv
z
�1
�2
ganho e−��2U(z)
m
ganho e−��1U(m− d)
Figura 1.2: A determinação de stops de queda.
-
1.11 STOPS DE QUEDA 25
Em muitos casos a utilidade no parágrafo acima é o próprio preço. Porém considerar utilidadesmais gerais nos permite lidar com custos de transação ou mesmo o custo do aluguel de ações. Asituação descrita nesta seção se aplica mais a operações de compra, porém a a situação para vendaé análoga: colocamos um stop inferior fixo e uma tolerância máxima de subida no preço. Podemosentão descontar da utilidade o custo do aluguel em caso de venda de uma ação alugada.
Na verdade, lidaremos com um caso mais geral: permitiremos que o limite de queda d dependado máximo m. Equivalentemente, consideraremos que o stop de queda é dado por uma função�(m). Por exemplo, com os resultados apresentados aqui podemos analisar, por exemplo, a políticade parar após uma queda de 10% do preço, que corresponde a tomar �(m) = 0.9m. Além disso, aoestudar o limite z →∞ podemos entender também a estratégia de não usar limites superiores.
Em termos formais, dado uma função contínua � : R 7→ R e um processo de preços descritopela equação diferencial estocástica
dpt = �(pt) dt+ �(pt) dBt (1.85)
definimos o processo dos máximos:mt = sup
0≤s≤tpt
e os tempos de parada
�z = inf { t ≥ 0 tal que pt = z }, �� = inf { t ≥ 0 tal que pt ≤ �(mt) } (1.86)
e� = min { �z, �� }. (1.87)
Dado v ∈ (−∞, z] e uma função utilidade U : R 7→ R, o valor esperado do ganho será então
g(v, z, �) = E(e−��U(p� )
). (1.88)
Nas próximas subseção mostraremos que, sob as hipóteses descritas abaixo,
g(v, z, �) = e− (v,z,�)
(U(z)−
∫ zv
e (s,z,�)U(�(s))
B(�(s) , s)ds
), (1.89)
onde (v, z, �) =
∫ zv
A(�(s) , s)
B(�(s) , s)ds (1.90)
e A e B são funções com parâmetros x e v tais que, para v fixo, f(x) = A(x, v) e f(x) = B(x, v)são as soluções da equação diferencial
�(x)2
2f ′′(x) + �(x) f ′(x)− �f(x) = 0 (1.91)
que satisfazem as condições iniciais
A(v, v) = 1, A′(v, v) = 0, B(v, v) = 0 e B′(v, v) = 1. (1.92)
Esta seção se baseia em duas hipóteses:
-
26 STOPS 1.11
∙ A função � : R 7→ R satisfaz �(u) < u para todo u ∈ R e é localmente Lipschitz, ou seja paracada v ∈ R existem � e � positivos tais que, para u,w ∈ R com ∣u− v∣ < � e ∣w − v∣ < �,temos que ∣�(u)− �(w)∣ < � ∣u− w∣.
∙ As funções � e � na equação (1.85) são Lipschitz contínuas e �(x) > 0 para todo x ∈ R. Estassão as condições padrão para equações diferencias estocásticas (veja Øksendal (2007).)
Estas hipóteses estarão implícitas em tudo que enunciarmos e não as repetiremos.Acreditamos que a abordagem apresentada aqui é original, mas ela certamente foi motivada
pelos trabalhos Siegert (1953), Lehoczky (1977), Iglehart (1995) e Rogers (2010), que por sinaltambém se baseiam em, ou redescobrem, resultados de trabalhos anteriores.
1.11.1 As condições de Otimalidade
É fácil calcular a derivada de (1.89) com respeito a z:
∂g
∂z(v, z, �) = −A(�(z) , z)
B(�(z) , z)g(v, z, �)+e− (v,z,�)
(U ′(z)− U(�(z))
B(�(z) , z)−∫ zv
A(�(z) , z) e (s,z,�)U(�(s))
B(�(z) , z)B(�(s) , s)ds
)
=e− (v,z,�)
B(�(z) , z)
{U ′(z)B(�(z) , z)− U(�(z))− U(�(z))A(�(z) , z)
}1.11.2 O movimento Browniano e o movimento Browniano geométrico
Nesta seção analisamos o caso no qual a aleatoriedade vem de um processo da forma Xt =�t+�Bt, onde Bt é o movimento Browniano padrão. Ou seja, temos a equação diferencial estocástica
dXt = �dt+ �dBt,
a qual está associada a equação diferencial ordinária
1
2�2y′′ + ry′ − �y = 0.
Esta EDO tem soluções da forma
y(x) = C1e
1x + C2e
2x
onde = 1 e = 2 são as raízes da equação
1
2�22 + r − � = 0.
Ou seja,
1 = −1
�2
(√r2 + 2��2 + r
)< 0
e
2 =
1
�2
(√r2 + 2��2 − r
)> 0.
-
1.11 STOPS DE QUEDA 27
Segue que
A(x, v) =1
2 − 1
(
2e
1(x−v) − 1e2(x−v)), (1.93)
B(x, v) =1
2 − 1
(e2(x−v) − e1(x−v)
), (1.94)
Logo,
A′(x, v) =
12
2 − 1
(e1(x−v) − e2(x−v)
)= −12B(x, v) , (1.95)
B′(x, v) =1
2 − 1
(
2e
2(x−v) − 1e1(x−v))
=, (1.96)
1.11.3 Determinando a função objetivo
A determinação do valor esperado do ganho dados v e z e a função � se baseia na figura 1.3abaixo. Essa figura ilustra que, para v ≤ z, dado � > 0 existe �∗ tal que se 0 = � = v−u ≤ �∗ então∣∣∣∣g(v, z, �)− g(u, z, �)− U(�(v))−A(�(v) , v) g(v, z, �)B(�(v) , v) (v − u)
∣∣∣∣ ≤ � (v − u)e a fórmula (1.89) para g segue do seguinte lema:
Lema 1.11.1 Considere um intervalo [y, z], funções contínuas a, b : [y, z] 7→ R e uma funçãolimitada f : [y, z] 7→ R. Se para todo � > 0 existir �� > 0 tal que, para u, v ∈ [y, z] com 0 ≤ v−u ≤ ��,
∣f(u)− f(v)− (a(v) f(v) + b(v)) (u− v)∣ ≤ � (v − u) (1.97)
então, para todo u ∈ [y, z],
f(u) = e−∫ zu a(s)ds
(f(z)−
∫ zue∫ zs a(t)dtb(s) ds
). (1.98)
⊓⊔
Em termos intuitivos, este lema está relacionado à solução da equação diferencial ordinária
∂g
∂v(v, z, �) =
U(�(v))−A(�(v) , v) g(v, z, �)B(�(v) , v)
.
Ele toma conta de picuinhas técnicas envolvidas na solução desta EDO.Na figura 1.3, � = v − u > 0 é pequeno e � > 1 é uma constante de Lipschitz para � em [u, v]
tal que �(v) +�� < u. Ela decompõe o espaço amostral Ωu dos caminhos que começam com p0 = uem de três eventos disjuntos
Ωu = Ωu1 ∪ Ωu21 ∪ Ωu22,
descritos assim:
∙ Ωu1 é formado pelos caminhos que começam com p0 = u e atingem v antes de atingir �(v)+��.Cada ! ∈ Ωu1 atinge v pela primeira vez no tempo �1(!). Alguns deles atingem z antes deuma queda significativa, como o caminho terminando em �11. Outros tem a queda antes deatingir z, como o caminho terminando em �12 na figura 1.3.
-
28 STOPS 1.11
m12
�(m12)�12
u
v
�(v) + ��
�(v)− ��
z
�22
�22 − �
�21
�2
�1
�11
m22
�(m22)
Figura 1.3: Determinando o modelo para stops de queda.
∙ Os demais elementos de Ωu formam o conjunto Ωu2 = Ωu21∪Ωu22. Eles atingem o preço �(v)+��pela primeira vez no tempo �2(!). A partir dai temos duas possibilidades:
– Cada ! ∈ Ωu21 atinge v pela primeira vez no instante �21(!), e isto ocorre antes de !atingir �(v)− ��.
– Os elementos de Ωu22 atingem �(v)− �� no instante �22, antes de chegar a v.
A figura 1.3 decompõe a análise dos caminhos em Ωu em três partes.
1. Em uma primeira fase temos um problema de stops fixos, com limite inferior em �(v) + �� estop superior em v. Em seguida temos duas possibilidades:
2. A partir de �1 temos um novo problema de stop de queda. Ele é muito parecido ao problematodo, só que agora começamos em v ao invés de u.
3. A partir de �2 temos outro problema de stops fixos, com stop inferior em �(v) − �� e stopsuperior em v. O processo original certamente terminará até o instante �22 indicado na figura1.3 pois neste momento a queda de preço já é superior a u − �(u) pois, como � = v − u,�(v) ≤ �(u) + �� pela propriedade de Lipschitz e u− (�(v) + ��) ≥ u− �(u). Além disso, demodo parecido ao item (1) acima, o processo se renovará a partir do tempo �21.
Isto sugere a seguinte decomposição para g(u, v, �) = E(e−�U(�)):
g(u, v, �) = E(e−��U(p� ); Ω
u1
)+ E
(e−��U(p� ); Ω
u21
)+ E
(e−��U(p� ); Ω
u22
)(1.99)
onde E(f ;C) indica o valor esperado da função f restrita ao conjunto C, ou equivalentemente,E(f ;C) = E(1{C} f), onde 1{C} é a função indicadora de C. Usaremos então o conhecimentoadquirido sobre stops fixos na seção 1.4 para analisar os três termos desta soma. Estes resultadoslevam ao seguinte lema:
-
1.11 STOPS DE QUEDA 29
Lema 1.11.2 Dado y < z e � > 0, existe �∗ > 0 tal que se u, v ∈ [y, z] e 0 ≤ v − u ≤ �∗ então∣∣∣∣E(e−��U(p� ); Ωu1)− (1− A(�(v) , v)B(�(v) , v))g(v, z, �) (v − u)
∣∣∣∣ ≤ �3 (v − u) , (1.100)∣∣E(e−��U(p� ); Ωu21)∣∣ ≤ �3 (v − u) , (1.101)∣∣∣∣E(e−��U(p� ); Ωu22)− U(�(v))B(�(v) , v) (v − u)∣∣∣∣ ≤ �3 (v − u) . (1.102)
⊓⊔
Somando estas três desigualdades obtemos a hipótese (1.97) do lema ?? e a equação (1.89) seguedeste lema.
Na próxima subseção provamos os lemas 1.11.1 e 1.11.2. A prova do lema 1.11.1 é uma repetiçãodos argumentos usados para provar a existência e unicidade das soluções diferenciais ordináriaslineares e é apresentada no fim da subseção 1.11.4, pois a hipótese é um pouco diferente da usual:exigimos apenas derivadas à esquerda. A prova do lema 1.11.2 é técnica, mas em termos intuitivos elatem dois ingredientes: a propriedade forte de Markov dos processos que satisfazem a equação (1.85)e a solução obtida para o problema de stops fixos na seção 1.4. A propriedade forte de Markov dizque o processo que estamos estudando se renova a partir do instante �1 e por isso E(e−��U(p� ); Ωu1)pode ser expressa como um múltiplo de g(v, z, �), onde o fator de multiplicação reflete o ocor-rido até atingirmos �1. Em princípio esta idéia de renovação não se aplica a E(e−��U(p� ); Ωu21)e E(e−��U(p� ); Ωu22) pois o máximo atingido entre 0 e �2 afeta o processo após �2. Porém, comoa prova do lema mostra, este efeito é muito pequeno e é possível obter as estimativas (1.100) –(1.102). O efeito é tão pequeno que o argumento mais simples, porém impreciso, que desconsideraa dependência de �21 e �22 do passado t < �2 leva ao resultado correto.
1.11.4 Provas da seção 1.11
Prova do lema 1.11.1. Tome v ∈ [y, z]. Pela continuidade de a e b, que é uniforme no intervalofechado [y, z], e pela expansão e−x − 1 + x = O
(x2), dado � > 0 existe n ∈ N tal que os pontos
vk = v + k(z − v)/n, k = 0, . . . , n satisfazem, para k = 1, . . . , n,
∣f(vk)− f(vk−1)− (a(vk) f(vk) + b(vk)) (vk − vk−1)∣ ≤ � (vk − vk−1) , (1.103)∣∣∣e− ∫ vkvk−1 a(s)ds − 1 + a(vk) (vk − vk−1)∣∣∣ ≤ � (vk − vk−1) , (1.104)∣∣∣e− ∫ vkvk−1 a(s)ds − 1∣∣∣ ≤ �, (1.105)onde M = supv≤s≤z ∣a(s)∣+ ∣b(s)∣+ ∣f(s)∣. As condições acima implicam que
e∫ zvka(s)ds
f(vk)− e∫ zvk−1
a(s)dsf(vk−1) = e
∫ zvk−1
a(s)ds((e−∫ vkvk−1
a(s)ds − 1)f(vk) + f(vk)− f(vk−1)
)= e
∫ zvka(s)ds
b(vk) (vk − vk−1) + e∫ zvk−1
a(s)ds(�k − �k − �k)
-
30 STOPS 1.11
onde
�k = f(vk)− f(vk−1)− (a(vk) f(vk) + b(vk)) (vk − vk−1) , (1.106)
�k =(e−∫ vkvk−1
a(s)ds − 1− a(vk) (vk − vk−1))f(vk) , (1.107)
�k =(e−∫ vkvk−1
a(s)ds − 1)b(vk) (vk − vk−1) . (1.108)
As condições (1.97) e (1.103)– (1.104) implicam que
∣�k∣ ≤ � (vk − vk−1) , ∣�k∣ ≤M� (vk − vk−1) e ∣�k∣ ≤M� (vk − vk−1) .
Logo,∣∣∣e∫ zvk−1 a(s)ds (�k − �k − �k)− e∫ zvk a(s)dsb(vk) (vk − vk−1)∣∣∣ ≤ eM(z−v)(2M + 1)� (vk − vk−1) .Como
f(z) = e∫ zv a(s)dsf(v) +
n∑k=1
(e∫ ztka(s)ds
f(tk)− e∫ ztk−1
a(s)dsf(tk−1)
)temos que∣∣∣∣f(z)− e∫ zv a(s)dsf(v)− ∫ z
ve∫ zs a(t)dtb(s) ds
∣∣∣∣ ≤∣∣∣∣∣∫ zve∫ zs a(t)dtb(s) ds−
n∑k=1
e∫ zvka(s)ds
b(vk) (vk − vk−1)
∣∣∣∣∣++
n∑k=1
∣∣∣e∫ zvk a(s)dsf(vk)− e∫ zvk−1 a(s)dsf(vk−1)− e∫ zvk a(s)dsb(vk) (vk − vk−1)∣∣∣≤
∣∣∣∣∣∫ zve∫ zs a(t)dtb(s) ds−
n∑k=1
e∫ zvka(s)ds
b(vk) (vk − vk−1)
∣∣∣∣∣+ eM(v−z) (2M + 1) (v − z) �.Como a e b são contínuas e � > 0 é arbitrário, o termo na última linha converge para 0 quandon→∞ e �→ 0. Portanto,
f(z)− e∫ zv a(s)dsf(v)−
∫ zve∫ zs a(t)dtb(s) ds = 0,
de onde obtemos (1.98). ⊓⊔Prova do lema 1.11.2. Esta prova usa a teoria de processos de Markov, como descrita no
capítulo III de Williams (2000a). Essa teoria considera que o espaço amostral Ω do processo pt naequação (1.85) é o conjunto f : [0,∞) 7→ R e se baseia em uma família Px de probabilidades, umapara cada x ∈ R. Dentre outras propriedades, Px atribui probabilidade 1 ao subespaço das funçõesf ∈ Ω com f(0) = x. A teoria expressa a equação (??) como
g(u, z, �) = Eu(G), para G = e−��U(p� ) . (1.109)
-
1.11 STOPS DE QUEDA 31
e as equações (1.100)–(1.102) se tornam∣∣∣∣Ev(G; Ωu1)− (1− A(�(v) , v)B(�(v) , v))g(v, z, �) (u− v)
∣∣∣∣ ≤ �3 (v − u) , (1.110)∣Ev(G; Ωu21)∣ ≤
�
3(v − u) , (1.111)∣∣∣∣Ev(G; Ωu22)− U(�(v))B(�(v) , v) (u− v)
∣∣∣∣ ≤ �3 (v − u) , (1.112)Para provar estas desigualdades consideramos os tempos de parada �1 e �2 descritos na figura 1.3 edefinimos tempo de parada T = inf { �1, �2 } e o operador de shift associado: (�T!)(t) = !(t+ T ).Note que se ! ∈ Ω1 então T (!) = �1(!) e �(�T!) = �(!)− T (!), pois o ocorrido para 0 ≤ s ≤ �1 éirrelevante na determinação de mt = sup0≤s≤t !s para t ≥ �1. Logo, para tais !’s
(�T!)�(ΩT!) = !(�(ΩT!)− T (!)) = !�(!)
e(�TG)(!) = e
−��(�T!)U(
(�T!)�(�T!)
)= e−�(�(!)−T(!))U(!� ) = e
�T(!)G(!) . (1.113)
Segue então do teorema forte de Markov, enunciado na página 250 de Williams (2000a), que
Eu(G; Ωu1) = Eu(e−��1e�TG; Ωu1
)= Eu
(e−��1�TG; Ω
u1
)= Eu
(e−��1Ev(G); Ωu1
).
Como, por definição, Ev(G) = g(v, z, �) concluímos que
Eu(G; Ωu1) = Eu(e−��1 ; Ωu1
)g(v, z, d) . (1.114)
Esta equação indica a relevância de Eu(e−��1 ; Ωu1) e também motiva a análise de Eu(e−��1 ; Ωu1) e éresumida no seguinte lema, que é provado no fim desta seção:
Lema 1.11.3 Dadas as funções A e B em (1.92) e � : [y, z] 7→ R tal que �(u) < u e � > 1 existem�1,M1 > 0 tais que
�(v) + �(v − u) < v, (1.115)∣∣∣∣Eu(e−��1 ; Ωu1)− 1− A(�(v) , v)B(�(v) , v) (u− v)∣∣∣∣ ≤ M1 (u− v)2 , (1.116)∣∣∣∣Eu(e−��2 ; Ωu2)− 1B(�(v) , v) (u− v)∣∣∣∣ ≤ M1 (u− v)2 , (1.117)
Pu(Ωu2) ≤ M1 (v − u) , (1.118)
para todo u, v ∈ [y, z] e 0 ≤ v − u ≤ �1. ⊓⊔
A desigualdade (1.110) segue de (1.114) e (1.116) se tomarmos
0 ≤ v − u ≤ �2 = min{�1,
�
3M1
}.
-
32 STOPS 1.11
Substituindo U por 1 na equação (1.113) e � por �21 concluímos que, em Ωu21, e−��21 =e�T �T e
−��21 e portanto, fazendo b = �(v) + �� e notando que T = �2 em Ωu21, obtemos
Eu(e−��21 ; Ωu21
)= Eu
(e−��2��2e
−��21 ; Ωu21)
= Eu(e−��2Er
(e−��21
); Ωu21
)=
Eu(e−��2 ; Ωu21
)Eb(e−��21
)≤ Eu
(e−��2 ; Ωu2
)Eb(e−��21
). (1.119)
O mesmo argumento usado para provar o lema 1.11.3 mostra que existe uma constante M2 tal quese 0 ≤ v − u ≤ �1 então
Eb(e−��21
)≤M2 (v − u) .
Tomando o limite (monótono) � ↓ 0 na penúltima equação e usando (1.118) concluímos que
0 ≤ v − u ≤ �1 ⇒ Pu(Ωu21) ≤M2M1 (u− v)2 , (1.120)
ou seja, a probabilidade de Ωu21 é muito pequena. Como conseqüência, para que (1.111) seja satisfeitabasta tomarmos
0 ≤ v − u ≤ �3 = min
{�2,
�
3M1M2 supx∈[y,z] 1 + ∣U(x)∣
}.
Para analisar (1.112) note que se ! ∈ Ωu22 então
e−��(!)U(!� ) = e−��2(!)U(�(v)) + �1(!) + �2(!) (1.121)
para
�1(!) =(e−��(!) − e−��2(!)
)U(�(v)) e �2(!) = e
−��(!) (U(!� )− U(�(v)))
Note que se ! ∈ Ωu22 então !� ∈ [�(v)− ��, �(v) + ��]. Pela continuidade de U , podemos escolher�4 ∈ (0, �3] tal que
0 ≤ v − u ≤ �4 ⇒ ∣U(!� )− U(�(v))∣ ≤�
6M1,
para M1 no lema 1.11.3. Para tais !’s, e−�� ≤ e−��2 Logo, se 0 ≤ v − u ≤ �4 então (1.118) leva a
∣Eu(�2; Ωu21)∣ ≤ Eu(∣�2(!)∣ ; Ωu21) ≤Eu(e−��2 ; Ωu21)�
6M1≤ E
u(e−��2 ; Ωu2)�
6M1≤ �
6(v − u) . (1.122)
Além disso, �2(!) ≤ �(!) ≤ �22(!). Portanto
∣�1(!)∣ =∣∣∣e−��(!) − e−��2(!)∣∣∣ ∣U(�(v))∣ = e−��2(!) ∣∣∣1− e−�(�(!)−�2(!))∣∣∣ ∣U(�(v))∣
≤ e−��2(!)(
1− e−�(�22(!)−�2(!)))∣U(�(v))∣ .
Aplicando argumento usado em (1.119) com �21 substituído por �22, obtemos
∣Eu(�1; Ωu22)∣ ≤ Eu(e−��2(!)
(1− e−�(�22(!)−�2(!))
); Ωu22
)∣U(�(v))∣
= Eu(e−��2(!)Eb
(1− e−��22
)∣U(�(v))∣ ; Ωu22
)= Eu
(e−��2(!); Ωu22
)(1− Eb
(e−��22
))∣U(�(v))∣ .
-
1.11 STOPS DE QUEDA 33
O mesmo argumento usado para provar (1.116), substituindo g por 1, mostra que existe �5 ∈ (0, �4]e uma constante M2 tal que
0 ≤ v − u ≤ �5 ⇒ 0 ≤(
1− Eb(e−��22
))≤M3 (v − u) .
Logo, se para tais u e v, a penúltima equação e (1.118) mostram que
∣Eu(�1; Ωu22)∣ ≤ Eu(e−��2(!); Ωu2
)M2 ∣U(�(v))∣ (v − u) ≤M�M1M3 (u− v)2 , (1.123)
Segue então das equações (1.118), (1.122) (1.121), (1.122) e (1.123) que se 0 ≤ u− v ≤ �5 então∣∣∣∣Eu(e−��(!)U(!� ) ; Ωu22)− U(�(v))B(�(v) , v) (u− v)∣∣∣∣ ≤ ∣∣∣∣Eu(e−��(!)U(!� ) ; Ωu2)− U(�(v))B(�(v) , v) (u− v)
∣∣∣∣+∣∣∣Eu(e−��(!)U(!� ) ; Ωu21)∣∣∣+ ∣Eu(�1); Ωu22∣+ ∣Eu(�2); Ωu22∣≤ (M1M2 +M2M� +M�M1M3) (v − u)2 +
�
6(u− v) .
Basta tomarmos então
�∗ = min
{�5,
�
6 (M1M2 +M2M� +M�M1M3)
}para verificar (1.112) e completar esta prova. ⊓⊔
Prova do lema 1.11.3 É conveniente considerar as funções
ℎ1(u, v, r) = 1−Ar(�(v) + � (v − u) , v)Br(�(v) + � (v − u) , v)
Br(u, v) , (1.124)
ℎ2(u, v, r) =Br(u, v)
Br(�(v) + � (v − u) , v), (1.125)
onde o índice r enfatiza a dependência de A e B no parâmetro r = � na sua definição. A teoria deequações diferenciais mostra que esta dependência é contínua. Por hipótese e continuidade de �,�0 = infv∈[y,z](v − �(v))/(2�) é positivo para todo v ∈ [y, z]. Logo
v − u < �0 ⇒ �(v) + � (v − u) ≤v + �(v)
2= v − v − �(v)
2< v.
Isto mostra (1.115) e o denominador de ℎ1 e ℎ2 não se anula para tais u’s e v’s, pois a teoria daseção (1.4) mostra Br(x, v) < 0 para x < v. como Ar e Br são definidas em termos da equaçãodiferencial (1.91) elas tem derivadas parciais com respeito a u com uma certa constante de LipschitzΛ no compacto
{ (u, v, �) com 0 ≤ r ≤ �, u, v ∈ [y, z] com 0 ≤ v − u ≤ �0 },
Tomaremos
M1 = 1 + 2Λ + sup0≤r≤�
1
B(�(v) , v, �)e �1 = min
{1,
�02M1
}.
-
34 STOPS 1.11
Considerando a = �(v)− �� e c = v temos que Ar(c) = 1 e Br(c) = 0 e
Ar(c)Br(a)−Br(c)Ar(a) = Ar(v, v)Br(a, v)−Ar(a, v)Br(v, v) = Br(a, v)
Considerando agora uma utilidade V com V (a) = 0 e V (c) = 1 para o problema de stops fixos comb = u, stop inferior a e stop superior c obtemos da equação (P??-(??)) que
Eu(e−��1 ; Ωu1
)= 1 +
A�(a, v)
B�(a, v)B�(u, v) = ℎ1(u, v, �)
Usando ′ para denotar derivada com respeito a primeira coordenada, concluímos das propriedadesde A e B que ℎ1′(v, v, r) = Ar(�(v) , v) /Br(�(v) , v). Segue então do teorema do valor médio e dofato que ℎ1′(., v, r) tem constante de Lipschtz Λ que
Eu(e−��1 ; Ωu1
)= 1 +
A�(�(v) , v)
B�(�(v) , v)(u− v) + �1 com ∣�1∣ ≤ Λ (u− v)2 .
Como M1 > Λ, isto prova (1.116). Um argumento similar tomando V (a) = 1 e V (c) e usando aequação (P??-(??)) leva a
Eu(e−��2 ; Ωu2
)=
B�(u, v)
Br(�(v) + � (v − u) , v)= ℎ2(u, v, �) , ℎ2
′(v, v, r) = 1/Br(�(v) , v)
eEu(e−��2 ; Ωu2
)=
1
B�(�(v) , v)(u− v) + �2 com ∣�2∣ ≤ Λ (u− v)2 ,
mostrando (1.117). Finalmente, tomando o limite � ↓ 0 nesta desigualdade concluímos que
Pu(Ωu2) ≤1
B0(�(v) , v)(u− v) + Λ (u− v)2 ≤
(1
B0(�(v) , v)+ Λ
)(v − u) ≤M1 (v − u) .
Isto prova a equação (1.118) e completa a prova deste lema. ⊓⊔
-
Referências Bibliográficas
Figueiredo(1997) D. Figueiredo. Análise de Fourier e equações diferenciais parciais. IMPA,Projeto Euclides, 3o edição. Citado na pág. 13
Iglehart(1995) W. Glynn & L. Iglehart. Trading securities using trailing stops. ManagementScience, (41):1096–1106. Citado na pág. 26
Lehoczky(1977) J. Lehoczky. Formulas for stopped diffusion processes with stopping times basedon the maximum. The Annals of Probability, 5(4):601–607. Citado na pág. 26
Neves(2001) D. Figueiredo & A. Neves. Equações Diferenciais Aplicadas. Sociedade Brasileira deMatemática. Citado na pág. 13
Øksendal(2007) B. Øksendal. Stochastic differential equations. Springer Verlag, 6o edição. Citadona pág. 1, 11, 17, 26
Rogers(2010) N. Imkeller & L. Rogers. Trading to stops. Preprint disponível online no endereçohttp://www.statslab.cam.ac.uk/˜chris/papers.html, 2010. Citado na pág. 12, 26
Siegert(1953) D. Darling & A. Siegert. The first passage problem for a continuous markov process.Ann. Math. Statist., (24):624–639. Citado na pág. 26
Sotomayor(1979) J. Sotomayor. Lições de equações diferenciais ordinárias. IMPA, Projeto Eu-clides. Citado na pág. 1, 2
Williams(2000a) C. Rogers & D. Williams. Diffusions, Markov Processes and Martingales, vol-ume I. Cambridge University Press, 2o edição. Citado na pág. 1, 30, 31
Williams(2000b) C. Rogers & D. Williams. Diffusions, Markov Processes and Martingales, vol-ume II. Cambridge University Press, 2o edição. Citado na pág. 11
35
StopsAviso aos navegantesIntroduçãoEquações diferenciais ordináriasTeoria básicaAs funções A e BSoluções por sériesProvas da seção 1.3
A fórmula de DynkinCondições para aplicar a fórmula de DynkinStops no tempoO Processo de Ornstein UhlenbeckSolução da equação de Ornstein-UhlenbeckEstimando os parâmetros para o processo de Ornstein-UlhenbeckProvas da seção 1.9
Stops Fixos para o processo de Ornstein-UhlenbeckProvas da seção 1.10
Stops de quedaAs condições de OtimalidadeO movimento Browniano e o movimento Browniano geométricoDeterminando a função objetivoProvas da seção 1.11
Referências Bibliográficas