teoria della probabilita e calcolo stocastico per la finanza(pascucci)
Post on 28-Nov-2015
144 Views
Preview:
DESCRIPTION
TRANSCRIPT
Corso di Alta Formazione in
Finanza Matematica
Teoria della probabilita e calcolo stocastico applicati
alla finanza.
Docente: Andrea Pascucci
Contenuti: il corso intende fornire gli strumenti matematico-probabilistici e le
nozioni basilari per potere comprendere il settore della moderna finanza matematica
che si occupa degli strumenti derivati.
Indicazioni bibliografiche: per quanto riguarda una presentazione self-contained
di teoria della misura e integrazione astratta, si veda l’appendice in [3]. Per quanto
riguarda una presentazione degli elementi di teoria della probabilita si puo consultare,
in ordine crescente di difficolta, [1], [7], [11], [5], [9], [10], [8]. Per quanto riguarda la
valutazione di derivati si vedano [1] e [7], il secondo anche per l’implementazione di
metodi numerici.
1
2
Indice
1 Elementi di teoria della probabilita 5
1.1 Spazi di probabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Indipendenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Teorema di Radon-Nikodym . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Attesa condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Il modello binomiale 21
2.1 Il modello di mercato . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Portafoglio autofinanziante e di arbitraggio . . . . . . . . . . . . . . . . 23
2.3 Misura martingala o neutrale al rischio . . . . . . . . . . . . . . . . . . 26
2.4 Strategia adattata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5 Valutazione e copertura di derivati . . . . . . . . . . . . . . . . . . . . 29
3 Elementi di calcolo stocastico 33
3.1 Moto Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Moto Browniano ed equazione del calore . . . . . . . . . . . . . . . . . 36
3.3 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4 Regolarita delle traiettorie di un MB . . . . . . . . . . . . . . . . . . . 38
3.5 Integrale stocastico di processi semplici . . . . . . . . . . . . . . . . . . 43
3.6 Integrale di Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.7 Processi e formula di Ito . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.8 Metodo di Eulero per equazioni differenziali stocastiche . . . . . . . . . 53
3.9 Un’estensione della formula di Ito . . . . . . . . . . . . . . . . . . . . . 54
4 Modelli a tempo continuo per i derivati 57
4.1 Portafoglio autofinanziante e di arbitraggio . . . . . . . . . . . . . . . . 57
3
4 INDICE
4.2 Modello di Black&Scholes . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3 Equazione di Black&Scholes ed equazione del calore . . . . . . . . . . . 61
4.4 Valutazione neutrale al rischio . . . . . . . . . . . . . . . . . . . . . . . 62
4.5 Metodo Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.6 Put-Call parity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.7 Formula di Black&Scholes . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.8 Volatilita implicita e generalizzazioni del modello di Black&Scholes . . 65
4.9 Opzioni asiatiche e modelli con dipendenza dal passato . . . . . . . . . 65
Indice analitico 69
Capitolo 1
Elementi di teoria della probabilita
1.1 Spazi di probabilita
Nel seguito Ω indica un insieme non vuoto e P(Ω) l’insieme delle parti di Ω ossia la
famiglia di tutti i sottoinsiemi di Ω.
Definizione 1.1 (σ-algebra). Una famiglia F di sottinsiemi di Ω, F ⊆ P(Ω), si dice
σ-algebra se:
1. ∅ ∈ F ;
2. se A ∈ F allora Ac ≡ (Ω \ A) ∈ F ;
3. data una successione (An)n∈N di elementi di F si ha che∞⋃
n=1
An ∈ F .
Dato A ⊆ P, si pone
σ(A) =⋂F⊇A
F σ−algebra
F ,
ossia σ(A) e l’intersezione di tutte le σ-algebre contenenti A. Non e difficile verificare
(esercizio!) che l’intersezione di σ-algebre e ancora una σ-algebra. Si ha quindi che
σ(A) e la piu piccola σ-algebra contenente A ed e detta σ-algebra generata da A.
Esempio 1.2 (σ-algebra di Borel). Si indica con B(RN) la σ-algebra generata dalla
topologia euclidea di RN , ossia
B(RN) = σ(A | A aperto di RN).
5
6 Elementi di teoria della probabilita
Ove non ci sara confusione scriveremo semplicemente B = B(RN). Si puo provare che
B(R) = σ( ]a, b[ | a, b ∈ Q, a < b),e un analogo risultato vale in dimensione maggiore di uno.
Definizione 1.3 (Misura di probabilita). Data una σ-algebra F su Ω, si dice misura
di probabilita un’applicazione P : F → [0, 1] tale che:
1. P (∅) = 0;
2. per ogni successione (An)n∈N di elementi di F a due a due disgiunti vale
P
( ⋃n≥1
An
)=
∑n≥1
P (An);
3. P (Ω) = 1.
Definizione 1.4 (Spazio di probabilita). Una terna (Ω,F , P ) con F σ-algebra su Ω e
P misura di probabilita su F , si dice spazio di probabilita.
L’insieme Ω e detto spazio campione o spazio dei risultati: si puo pensare ad
ogni elemento ω di Ω come al risultato di un esperimento o allo stato di un fenomeno,
per esempio la posizione di una particella nello spazio o il prezzo di un titolo. Nel
seguito, gli elementi B di F verranno chiamati eventi e P (B) sara chiamata probabilita
dell’evento B. In particolare, un evento E ∈ F si dice impossibile (rispettivamente,
certo) se P (E) = 0 (P (E) = 1).
Per esempio, se Ω = R+ e lo spazio campione che rappresenta l’insieme dei possibili
prezzi di una particolare azione, allora P (]a, b[) rappresenta la probabilita che il prezzo
sia maggiore di a e minore di b.
Definizione 1.5. Una misura di probabilita definita su (RN ,B) e detta distribuzione.
Il prossimo esempio mostra come sia relativamente facile costruire una distribuzione
a partire dalla misura di Lebesgue.
Esempio 1.6. Sia f : R→ R una funzione misurabile (ossia tale che f−1(H) ∈ B per
ogni H ∈ B), f ≥ 0 e tale che∫R f(x)dx = 1. Posto
P (H) =
∫
H
f(x)dx, H ∈ B, (1.1)
si puo provare che, in base alle proprieta dell’integrale di Lebesgue, P e una distribu-
zione. In questo caso f si dice densita di P rispetto alla misura di Lebesgue.
1.1 Spazi di probabilita 7
Esempio 1.7 (Distribuzione uniforme). Dati a, b ∈ R con a < b, si dice distribuzione
uniforme su [a, b] la distribuzione con densita
f(x) =1
b− aχ[a,b](x), x ∈ R. (1.2)
In (1.2), χA indica la funzione caratteristica dell’insieme A definita da
χA(x) =
1, x ∈ A,
0, x /∈ A.
In questo caso, per ogni H ∈ B, P (H) = 1b−a
m(H ∩ [a, b]), con m(H) misura di
Lebesgue di H. Intuitivamente, P distribuisce uniformemente su [a, b] la probabilita
che la “particella” (o il prezzo di un titolo) si trovi in [a, b]; e invece impossibile che la
particella sia fuori da [a, b].
Si noti che per una distribuzione P della forma (1.1), con densita f , vale necessa-
riamente che
m(H) = 0 =⇒ P (H) = 0. (1.3)
La (1.6) si esprime dicendo che P e assolutamente continua rispetto alla misura di
Lebesgue.
Non tutte le distribuzioni sono del tipo (1.1) ossia non tutte le distribuzioni hanno
densita rispetto alla misura di Lebesgue. Per esempio, dato x0 ∈ RN , si consideri la
distribuzione Delta di Dirac definita da
δx0(H) =
1, x0 ∈ H,
0, x0 /∈ H,
per H ∈ B. Intuitivamente, con tale distribuzione si rappresenta la certezza di trovare
la particella nella posizione x0. Chiaramente la distribuzione Delta di Dirac δx0 non ha
densita rispetto a m, giacche non si annulla se valutata nell’evento x0 che ha misura
di Lebesgue nulla, contraddicendo la (1.3).
Vediamo altri esempi di distribuzioni definite specificando la loro densita rispetto
alla misura di Lebesgue m.
Esempio 1.8 (Distribuzione esponenziale). Dato λ > 0, la distribuzione con densita
fλ(x) = λe−λxχR+
(x), x ∈ R,
8 Elementi di teoria della probabilita
si dice distribuzione esponenziale (di parametro λ). In figura e rappresentato il grafico
di fλ corrispondente a λ = 1.
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 1 2 3 4 5 6
exponential distribution
Esempio 1.9 (Distribuzione di Cauchy). La distribuzione con densita
f(x) =1
π
1
1 + x2, x ∈ R,
si dice distribuzione di Cauchy.
Esempio 1.10 (Distribuzione normale reale). Siano dati µ ∈ R e σ > 0. La distribu-
zione con densita f(x) = Γ(x− µ, σ2) dove
Γ(x, t) =1√2πt
exp
(−x2
2t
), x ∈ R, t > 0, (1.4)
si dice distribuzione normale o di Gauss in R. Ricordiamo che Γ e la soluzione
fondamentale dell’operatore del calore 12∂xx − ∂t in R2.
Notazione: denotiamo Nµ,σ2 la distribuzione normale:
Nµ,σ2(H) =
∫
H
1
σ√
2πexp
(−(x− µ)2
2σ2
)dx
=
∫
RχH(x)
1
σ√
2πexp
(−(x− µ)2
2σ2
)dx, H ∈ B.
Poniamo anche Nµ,σ2 = δµ per σ = 0.
Per esercizio, verificare che le funzioni degli esempi precedenti sono densita nel senso
che hanno integrale su R pari a 1.
1.2 Variabili aleatorie
Sia (Ω,F , P ) uno spazio di probabilita.
1.2 Variabili aleatorie 9
Definizione 1.11 (Variabile aleatoria). Si dice variabile aleatoria (v.a.) una fun-
zione X, da Ω a valori in RN , misurabile ossia
X : Ω → RN t.c. X−1(H) ∈ F ∀H ∈ B.
Se N = 1 si parla di v.a. reale.
Data una v.a. X, si definisce PX : B → [0, 1] ponendo
PX(H) = P (X−1(H)), H ∈ B.
Si verifica (esercizio) che PX e una distribuzione detta distribuzione (o legge) di X.
Notazione: essendo X−1(H) = ω ∈ Ω | X(ω) ∈ H, si usa scrivere P (X ∈ H)
per indicare P (X−1(H)). Dunque
PX(H) = P (X ∈ H),
indica la “probabilita che la v.a. X appartenga ad H ∈ B”.
Notazione: per indicare che una v.a. X ha distribuzione PX scriveremo X ∼ PX .
Esempio 1.12. Consideriamo l’esempio classico del lancio di due dadi. In questo caso
Ω = (m,n) ∈ N × N | 1 ≤ m,n ≤ 6, F = P(Ω) e la misura P e definita da
P ((m,n)) = 136
per ogni (m,n) ∈ Ω. Definiamo su questo insieme la v.a. X(m,n) =
m + n. Allora
PX(7) = P (X = 7) = P (X−1(7)) =6
36,
poiche 6 sono le combinazioni di lanci con cui posso ottenere 7 rispetto ai 36 lanci
possibili. Analogamente abbiamo:
P (3 ≤ X < 6) = P(X−1 ([3, 6[)
)=
2 + 3 + 4
36=
1
4
Definizione 1.13 (Funzione di distribuzione). Sia X una v.a. reale su (Ω,F , P ). La
funzione ϕX : R→ [0, 1] definita da
ϕX(y) = P (X ≤ y) = P(X−1 ( ]−∞, y])
)
e detta funzione di distribuzione di X.
10 Elementi di teoria della probabilita
Osserviamo che diverse v.a. (anche definite su spazi di probabilita distinti) possono
avere la stessa distribuzione. Un esempio banale e il seguente: per esercizio provare che
una v.a. X definita sullo spazio di probabilita (Ω,F , P ) ha la stessa distribuzione PX
della v.a. identita id, id(y) = y, definita su (R,B, PX). Per esercizio provare anche che
se A,B ∈ F hanno la stessa probabilita P (A) = P (B), allora le v.a. χA e χB hanno la
stessa distribuzione.
Tuttavia, per le applicazioni che ci interesseranno, vedremo che ci sara sostanzial-
mente sufficiente conoscere la distribuzione di una v.a. X piuttosto che conoscere
esplicitamente X e lo spazio di probabilita su cui e definita.
Uno dei concetti fondamentali associati a una v.a. X e quello di valore atteso (o
media) definito come una media dei valori assunti da X. Per introdurre questa nozione,
occorre dare una definizione di integrale di X rispetto alla misura di probabilita P :
∫
Ω
XdP. (1.5)
La costruzione dell’integrale in (1.5) e analoga a quella dell’integrale di Lebesgue su
RN e ne diamo un breve cenno in modo schematico:
[I passo] si comincia col definire l’integrale di v.a. reali semplici. Ricordiamo che
una v.a. X : Ω → R si dice semplice se la cardinalita di X(Ω) e finita, ossia
X(Ω) = α1, . . . , αn.
In tal caso, posto Ak = X−1(αk) ∈ F per k = 1, . . . , n, vale
X =n∑
k=1
αkχAk(1.6)
ossia X e una combinazione lineare di funzioni caratteristiche. Volendo che∫Ω
χAdP =
P (A) per A ∈ F e che l’integrale sia un funzionale lineare, e ragionevole definire per
X in (1.6) ∫
Ω
XdP =n∑
k=1
αkP (Ak). (1.7)
[II passo] consideriamo ora una v.a. reale non-negativa ossia tale che X(ω) ≥ 0 per
ogni ω ∈ Ω e poniamo
∫
Ω
XdP = sup
∫
Ω
Y dP | Y v.a. semplice, 0 ≤ Y ≤ X
.
1.2 Variabili aleatorie 11
In generale sara∫Ω
XdP ≤ +∞ ossia non e detto che l’integrale di X converga. Questa
definizione puo ricordare quella di integrale di Riemann, se pensiamo che il concetto
v.a. semplice generalizza quello di funzione a scala o costante a tratti in R.
[III passo] consideriamo una v.a. reale X. Poniamo X+ = max0, X e X− =
max0,−X cosicche X+ e X− sono entrambe v.a. non-negative e vale X = X+−X−.
Se almeno uno fra∫Ω
X+dP e∫
ΩX−dP (definiti nel passo II) e finito, si dice che X e
P -integrabile e definiamo∫
Ω
XdP =
∫
Ω
X+dP −∫
Ω
X−dP.
In generale∫Ω
XdP puo essere finito o infinito (±∞). Se entrambi∫Ω
X+dP e∫Ω
X−dP
sono finiti, si dice che X e P -sommabile e si scrive X ∈ L1(Ω, P ); in questo caso∫
Ω
|X|dP =
∫
Ω
X+dP +
∫
Ω
X−dP < ∞.
[IV passo] infine se X : Ω → RN e una v.a. e X = (X1, . . . , XN), poniamo∫
Ω
XdP =
(∫
Ω
X1dP, . . . ,
∫
Ω
XNdP
).
Con questa definizione di integrale, si puo provare che tutti i risultati principali
della teoria dell’integrazione di Lebesgue su RN continuano a valere, in particolare
valgono i teoremi di passaggio al limite sotto al segno di integrale (di Beppo Levi e
della convergenza dominata di Lebesgue).
Notazione: nel seguito, se vorremo mettere in evidenza la variabile di integrazione,
useremo anche la notazione∫
Ω
XdP =
∫
Ω
X(ω)P (dω).
Per esempio, nel caso della misura di Lebesgue m, scriveremo indifferentemente∫
RN
f(x)dx =
∫
RN
f dm =
∫
RN
f(x)m(dx).
Possiamo ora dare la seguente
Definizione 1.14. Data una v.a. X : Ω → RN sommabile, il vettore di RN
E(X) ≡∫
Ω
XdP
si dice valore atteso di X.
12 Elementi di teoria della probabilita
Osserviamo che il valore atteso corrisponde alla media dei valori assunti da una
v.a., e non al valore piu probabile. Infatti se questi ad esempio coincidono nel caso
della distribuzione normale e invece evidente che per la distribuzione uniforme oppure
per la distribuzione bimodale questo non e vero:
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
1.1
-4 -3 -2 -1 0 1 2 3 4
Bimodal distribution
Si pone immediatamente il problema di come in pratica calcolare il valore atteso
di una data v.a. X. Il seguente teorema da una soluzione e nel contempo chiarisce
anche il fatto che E(X) dipende solo dalla distribuzione di X.
Teorema 1.15. Siano X : Ω → RN una v.a sullo spazio di probabilita (Ω,F , P ) e
g : RN → Rn una funzione misurabile. Allora
g X ∈ L1(Ω, P ) ⇐⇒ g ∈ L1(R, PX)
e in tal caso vale ∫
Ω
g(X)dP =
∫
RN
g dPX . (1.8)
Dimostrazione. Anzitutto e sufficiente considerare il caso N = n = 1. La dimostrazione
e basata su un metodo standard che in pratica riconduce il problema a considerare solo
il caso in cui g sia una funzione caratteristica. In questo caso, essendo g = χH con
H ∈ B, si ha
∫
Ω
χH(X)dP =
∫
X−1(H)
dP = P (X ∈ H) = PX(H) =
∫
H
dPX =
∫
RχHdPX .
Avendo dimostrato la tesi per le funzioni caratteristiche, dalla linearita dell’integrale
si ha la tesi anche per g semplice e misurabile. Applicando il teorema di Beppo-Levi si
poi ha la tesi anche per g misurabile a valori non negativi. Infine in generale si utilizza
la scomposizione di g in parte positiva e parte negativa e si utilizza ancora una volta
la linearita dell’integrale per concludere la prova.
1.2 Variabili aleatorie 13
Osservazione 1.16. Nel caso in cui la distribuzione di X sia assolutamente continua
rispetto alla misura di Lebesgue e quindi PX sia della forma (1.1) con densita f , allora
la (1.8) diventa ∫
Ω
g(X)dP =
∫
RN
g(x)f(x)dx. (1.9)
Definizione 1.17 (Varianza). Data X v.a. su uno spazio di probabilita (Ω,F , P ), si
definisce varianza di X
var(X) = E[(X − E(X))2]. (1.10)
La varianza fornisce una stima di quanto X si discosta in media dal valore atteso.
Utilizzando il Teorema 1.15, calcoliamo varianza e valore atteso di v.a. che abbiano
una delle distribuzioni introdotte precedentemente.
Esempio 1.18 (Distribuzione uniforme). Sia X una v.a. con distribuzione uniforme
su [a, b]:
X ∼ 1
b− aχ[a,b](y)dy.
Il valore atteso di X vale
E(X) =
∫
Ω
XdP =
∫
RyPX(dy) =
∫
R
y
b− aχ[a,b](y)dy =
a + b
2.
Verificare per esercizio che
var(X) =
∫
Ω
(X − E(X))2dP =
∫
R
(y − a + b
2
)2
PX(dy) =(a− b)2
12.
Esempio 1.19 (Distribuzione di Dirac). Se X ∼ δx0 allora
E(X) =
∫
Ryδx0(dy) =
∫
x0yδx0(dy) = x0 δx0 (x0) = x0,
var(X) =
∫
R(y − x0)
2δx0(dy) = 0.
Esempio 1.20 (Distribuzione esponenziale). Se X ∼ λe−λyχR+
(y)dy, allora
E(X) =
∫ +∞
0
yλe−λydy =1
λ, V ar(X) =
1
λ2.
Osservazione 1.21. Si noti che la funzione g(y) = y non e integrabile rispetto alla
distribuzione di Cauchy e dunque non possiamo parlare di valore atteso di una v.a. con
distribuzione di Cauchy.
14 Elementi di teoria della probabilita
Esempio 1.22 (Distribuzione normale). Se X ∼ Nµ,σ2 allora
E(X) =
∫
RyNµ,σ2(dy) =
∫
R
y
σ√
2πexp
(−(y − µ)2
2σ2
)dy =
(col cambio di variabili z = y−µ
σ√
2)
=1√π
∫
Rze−z2
dz +µ√π
∫
Re−z2
dy = µ.
Inoltre
var(X) =
∫
Ω
(X − µ)2dP =
∫
R
(y − µ)2
σ√
2πexp
(−(y − µ)2
2σ2
)dy =
(col cambio di variabili z = y−µ
σ√
2)
= σ2
∫
R
2z2
√π
e−z2
dz = σ2.
Verificare per esercizio l’ultima uguaglianza, integrando per parti.
Osservazione 1.23. Consideriamo una v.a. X ∼ Nµ,σ2 . Allora, dati α, β ∈ R, si ha
che (αX + β) ∼ Nαµ+β, α2σ2 . Infatti, per il Teorema 1.15, per ogni H ∈ B si ha
P ((αX + β) ∈ H) =
∫
Ω
χH(αX + β)dP =
∫
R
χH(αy + β)√2πσ
e−(y−µ)2/2σ2
dy =
(col cambio di variabili z = αy + β)
=
∫
H
1√2πσα
e−(z−αµ−β)2/2α2σ2
dz = Nαµ+β, α2σ2(H).
In particolareX − µ
σ∼ N0,1
dove N0,1 e detta distribuzione normale standard, e vale
P (X ≤ y) = P
(X − µ
σ≤ y − µ
σ
)= Φ
(y − µ
σ
)(1.11)
dove Φ e la funzione di distribuzione normale standard.
Definizione 1.24. Data X v.a. definiamo σ(X), la σ-algebra generata da X, come la
σ-algebra generata dalle controimmagini mediante X dei Borelliani. Precisamente
σ(X) = σ(X−1(H) | H ∈ B) .
1.3 Indipendenza 15
Ovviamente σ(X) ⊆ F e si puo provare per esercizio che σ(X) = X−1(H) | H ∈B. Nel seguito, specialmente per le applicazioni finanziarie, sara utile pensare ad una
σ-algebra come ad un insieme di informazioni. Per chiarire questa affermazione che
per ora risulta abbastanza incomprensibile facciamo un esempio elementare.
Esempio 1.25. Supponiamo di voler fare un modello per studiare la probabilita che
lanciando un dado il risultato sia un numero pari oppure dispari. Consideriamo Ω =
n ∈ N | 1 ≤ n ≤ 6, F = P(Ω) e la misura P definita da P (n) = 16
per ogni
n ∈ Ω. Consideriamo poi la v.a.
X(n) =
1, se n e pari,
−1, se n e dispari.
Chiaramente
σ(X) = 2, 4, 6, 1, 3, 5, ∅, Ω.In questo caso σ(X) e strettamente contenuta in F . Gli eventi di σ(X) sono quelli di
cui e necessario conoscere la probabilita al fine di sapere il comportamento di X. In
questo senso σ(X) contiene le informazioni su X.
1.3 Indipendenza
Definizione 1.26. Sia dato uno spazio di probabilita (Ω,F , P ) e un evento B con
P (B) > 0. Si definisce misura di probabilita condizionata a B e si indica con P (· | B),
la misura di probabilita su (Ω,F) definita modo seguente
P (A|B) =P (A ∩B)
P (B), A ∈ F .
Provare per esercizio che P (· | B) e una misura di probabilita su (Ω,F). La
probabilita condizionata P (A|B) rappresenta la probabilita dell’evento A ammesso che
sia “avvenuto” l’evento B.
Definizione 1.27. Si dice che due eventi A,B ∈ F sono indipendenti se:
P (A ∩B) = P (A)P (B). (1.12)
Osservazione 1.28. Nel caso in cui P (B) > 0, (1.12) equivale a P (A|B) = P (A) ossia
la probabilita dell’evento A e indipendente dal fatto che B sia accaduto o meno.
16 Elementi di teoria della probabilita
Definizione 1.29. Due σ-algebre G, H su Ω si dicono indipendenti se:
P (A ∩B) = P (A)P (B), ∀A ∈ G, ∀B ∈ H.
Due v.a. X, Y su (Ω,F , P ) si dicono indipendenti se lo sono le corrispondenti σ-algebre
σ(X) e σ(Y ).
Per esercizio provare che, date X, Y v.a. indipendenti, vale:
i) se Z e una v.a. σ(Y )-misurabile, allora X e Z sono indipendenti;
ii) se f, g sono funzioni reali B-misurabili, allora le v.a. f(X) e g(Y ) sono indipen-
denti.
Talvolta e utile il seguente risultato (non banale): se X, Y sono v.a. e Y e σ(X)-
misurabile, allora Y = f(X) per una certa funzione f B-misurabile.
Dare un esempio di X, Y ∈ L1(Ω, P ) tali che XY /∈ L1(Ω, P ). Il seguente teorema
afferma che occorre che X,Y non siano indipendenti. Vale infatti:
Teorema 1.30. Se X, Y ∈ L1(Ω, P ) sono v.a. reali indipendenti, allora si ha
XY ∈ L1(Ω, P ), E(XY ) = E(X)E(Y ).
Dimostrazione. Con un procedimento analogo a quello utilizzato nella prova del Teore-
ma (1.15), e sufficiente dare la prova nel caso di v.a. caratteristiche: X = χE, Y = χF
con E,F ∈ F . Per ipotesi X,Y sono indipendenti e quindi (provarlo!) anche E, F
sono indipendenti. Allora si ha
∫
Ω
XY dP =
∫
E∩F
dP = P (E ∩ F ) = P (E)P (F ) = E(X)E(Y ).
1.4 Teorema di Radon-Nikodym
Date due misure (qualsiasi) P,Q su (Ω,F), si dice che Q e P -assolutamente continua
in F se per ogni A ∈ FP (A) = 0 =⇒ Q(A) = 0.
In tal caso si scrive Q ¿ P in F . Se P, Q sono misure di probabilita, Q ¿ P in Fsignifica che gli eventi di F impossibili per P lo sono anche per Q (ma non e detto il
viceversa).
1.4 Teorema di Radon-Nikodym 17
Osservazione 1.31. L’assoluta continuita dipende dalla σ−algebra considerata. Se
G ⊆ F sono σ-algebre, allora Q ¿ P in G non implica che Q ¿ P in F .
Per esercizio provare che se Q ¿ P in F , allora per ogni A ∈ F si ha
P (A) = 1 =⇒ Q(A) = 1,
ossia gli eventi in F certi per P lo sono anche per Q (ma non e detto il viceversa).
Esempio 1.32. Abbiamo gia visto in (1.3) che, per σ > 0, Nµ,σ2 ¿ m in (R,B).
Inoltre e vero anche che m ¿ Nµ,σ2 (provarlo per esercizio): diremo in questo caso che
m e Nµ,σ2 sono equivalenti.
Esempio 1.33. La δx0 di Dirac non e m-assolutamente continua, infatti m(x0) = 0
ma δx0(x0) = 1.
Abbiamo gia osservato che se P e una distribuzione del tipo (1.1), ossia con densita
rispetto alla misura di Lebesgue m, allora P ¿ m. Ci si puo chiedere se tutte le misure
P tale che P ¿ m sono della forma (1.1). Il seguente importante risultato da una
risposta affermativa (vedi osservazione seguente).
Teorema 1.34. [Teorema di Radon-Nikodym] Sia (Ω,F , P ) uno spazio con misura
finita (ossia tale che P (Ω) < ∞). Se Q e una misura finita su (Ω,F) e Q ¿ P , allora
esiste una funzione non-negativa f : Ω → R tale che
i) f e F-misurabile;
ii) f ∈ L1(Ω, P );
iii) Q(A) =∫
AfdP , per ogni A ∈ F .
La funzione f e unica P -quasi sicuramente (ossia se g verifica le stesse proprieta di
f allora P (f = g) = 1) e si dice densita di Q rispetto a P in F o anche derivata di
Radon-Nikodym di Q rispetto a P in F e si scrive indifferentemente f = dQdP
oppure
dQ = fdP oppure Q(dω) = f(ω)P (dω)
Osservazione 1.35. Si dice che una misura P su (Ω,F) e σ-finita se esiste una
successione (Ωn)n∈N in F tale che
Ω =⋃
n∈NΩn e P (Ωn) < ∞, ∀n ∈ N.
Per esempio, la misura di Lebesgue su RN e σ-finita ma non finita (perche?). Il Teorema
1.34 si puo estendere al caso in cui P, Q siano σ-finite: in tal caso la tesi vale ancora
eccetto per il punto ii).
18 Elementi di teoria della probabilita
Come conseguenza del Teorema di Radon-Nikodym si ha che le distribuzioni con
densita rispetto a m sono solo quelle che sono m-assolutamente continue.
1.5 Attesa condizionata
Nelle applicazioni finanziarie, pensando che una v.a. X descriva il prezzo di un titolo
e che una σ-algebra G descriva un insieme di informazioni, e comprensibile che sia
importante definire il valore atteso di X condizionato a G, indicato con
E(X | G).
Scopo di questo paragrafo e di introdurne gradualmente la definizione precisa. Chi e
gia familiare con questa nozione puo andare direttamente alla Definizione 1.37.
Data una v.a. reale sommabile X e un evento B ∈ F con probabilita positiva,
definiamo attesa condizionata di X all’evento B come l’attesa di X rispetto alla
misura P (· | B) (vedi Definizione 1.26):
E(X|B) =1
P (B)
∫
B
XdP.
Indichiamo ora con G la σ-algebra generata da B:
G = σ(B) ≡ ∅, Ω, B, Bc.
Definiamo E(X | G), attesa di X condizionata a G, come la v.a. definita da
E(X|G)(ω) =
E(X|B), ω ∈ B,
E(X|Bc), ω ∈ Bc.(1.13)
Esercizio 1.36. Provare che
i) la v.a. E(X|G) e G-misurabile;
ii)∫
AXdP =
∫A
E(X| G)dP ∀A ∈ G.
Inoltre se Y e una v.a. che verifica le suddette proprieta, allora P (Y = E(X|G)) = 1,
ossia i), ii) caratterizzano E(X|G) con probabilita 1.
In particolare si noti che E(X|G) e G-misurabile anche se X non lo e. Intuitiva-
mente E(X|G) e il “valore atteso di X note le informazioni di G”, ossia la migliore
approssimazione di X in base alle informazioni di G.
La definizione precedente si puo generalizzare al caso di una generica σ-algebra nel
modo seguente.
1.5 Attesa condizionata 19
Definizione 1.37. Sia X una v.a. reale sommabile sullo spazio di probabilita (Ω,F , P )
e sia G una σ-algebra contenuta in F . Se Y e una v.a. tale che
i) Y e G-misurabile,
ii)∫
AXdP =
∫A
Y dP ∀A ∈ G,
allora si dice che Y e l’attesa di X condizionata a G e si scrive Y = E(X | G).
Affinche la definizione precedente sia ben posta occorre provare esistenza e unicita
dell’attesa condizionata.
Teorema 1.38. Sia X una v.a. reale sommabile sullo spazio di probabilita (Ω,F , P ) e
sia G una σ-algebra contenuta in F . Allora esiste una v.a. Y che soddisfa i),ii) della
Definizione 1.37, inoltre tali proprieta caratterizzano Y con probabilita 1.
Si noti che se Y = E(X|G) e Z e una v.a. diversa da Y ma tale che P (Z = Y ) = 1
allora anche Z = E(X|G): per questo motivo, volendo essere precisi, si dice che Y e Z
sono versioni dell’attesa condizionata di X a G.
Dimostrazione. Il teorema si puo provare come diretta conseguenza del Teorema di
Radon-Nikodym. E’ sufficiente provare la tesi nel caso in cui X sia una v.a. reale, non
negativa. Essendo X ∈ L1(Ω, P ), la misura Q definita da
Q(A) =
∫
A
XdP, A ∈ G,
e finita su G. Inoltre Q ¿ P in G e quindi per il Teorema 1.34 esiste Y v.a. G-misurabile
tale che Q(A) =∫
AY dP per ogni A ∈ G. L’unicita e lasciata per esercizio.
Le seguenti proprieta sono conseguenze immediate della definizione:
(1) se X e G-misurabile allora E(X|G) = X quasi sicuramente (nel seguito, q.s.);
(2) se X e G sono indipendenti (ossia se lo sono σ(X) e G) allora E(X|G) = E(X)
q.s.;
(3) E(X) = E(E(X|G)).
Inoltre si puo provare la validita delle seguenti proprieta (si noti l’analogia con le
proprieta dell’integrale). Siano X, Y ∈ L1(Ω,F , P ), a, b ∈ R e G, H σ-algebre di Ω:
(4) [linearita] E(aX + bY |G) = aE(X|G) + bE(Y |G) q.s.;
(5) [monotonia] se X ≤ Y q.s. allora E(X|G) ≤ E(Y |G) q.s.;
(6) [Beppo-Levi] se (Xn)n∈N, Xn ≥ 0 e una successione monotona crescente che
converge puntualmente a X q.s., allora limn→+∞
E(Xn|G) = E(X|G) q.s.;
(7) se XY ∈ L1(Ω,F , P ) e Y e G-misurabile allora E(XY |G) = Y E(X|G) q.s.;
20 Elementi di teoria della probabilita
(8) se H ⊆ G allora E(E(X|G)|H) = E(X|H) q.s.;
(9) se X,Y sono indipendenti allora E(XY |G) = E(X|G)E(Y |G) q.s.
Capitolo 2
Il modello binomiale
2.1 Il modello di mercato
Consideriamo il modello binomiale introdotto da Cox, Ross e Rubinstein in [4] per la
determinazione del prezzo di un derivato con scadenza al tempo T .
Il tempo t = 0 indica la data odierna e l’intervallo [0, T ] viene suddiviso in N
intervalli [tn−1, tn], n = 1, . . . , N , di uguale lunghezza. Il modello e a tempo discreto
nel senso che si considerano solo le date t0, t1, . . . , tN di contrattazione. Si suppone che
il mercato sia composto da:
1) un titolo non rischioso B (bond), corrispondente al deposito in banca;
2) un titolo rischioso S (stock), corrispondente, per esempio, ad un’azione quotata
in borsa;
3) un titolo H derivato su S, corrispondente, per esempio, ad un’opzione su S con
scadenza T .
Indichiamo con Bn = Btn , Sn = Stn e Hn = Htn rispettivamente il valore (prezzo)
del bond, dello stock e del derivato al tempo tn.
Se indichiamo con rn il tasso di interesse nell’intervallo temporale [tn, tn+1], allora
la “dinamica” del bond e data da
Bn+1 = Bn(1 + rn), n = 0, 1, . . . , N − 1.
Per semplicita supponiamo il tasso costante durante tutto il periodo [0, T ] dell’opera-
zione, rn = r per ogni n. Osserviamo che la dinamica del bond, una volta che sia noto
B0, e deterministica: Bn = B0(1 + r)n.
Per il titolo rischioso assumiamo una dinamica stocastica: in particolare assumiamo
che nel passaggio dal tempo tn al tempo tn+1 lo stock possa solo aumentare o diminuire
21
22 Il modello binomiale
il suo valore con tassi di crescita e decrescita costanti. Precisamente
Sn+1 = ξn+1Sn, n = 0, 1, . . . , N − 1. (2.1)
In (2.1) ξ1, . . . , ξN sono v.a. indipendenti e identicamente distribuite (i.i.d.) sullo spazio
di probabilita (Ω,F , P ), con distribuzione
ξn ∼ pδu + (1− p)δd, n = 1, . . . , N, (2.2)
dove p ∈]0, 1[ e u indica il tasso di crescita dello stock nel periodo [tn, tn+1] e d indica
il tasso di decrescita1. Assumiamo che
0 < d < u. (2.3)
Dunque vale
P (Sn+1 = uSn) = P (ξn+1 = u) = p, P (Sn+1 = dSn) = P (ξn+1 = d) = (1− p),
ossia
Sn+1 =
uSn, con probabilita p,
dSn, con probabilita 1− p.
Infine, per quanto riguarda il derivato H, supponiamo che ne sia noto il valore finale
alla scadenza T in dipendenza da ST , ossia
HT = F (ST ) (2.4)
dove F e una funzione data. In effetti i derivati presenti sui mercati reali non sono tutti
di questa forma, ma per semplicita ci limitiamo a questo caso. Un esempio significativo
e comunque il seguente.
Esempio 2.1 (Call europea). Per una call europea con strike K
F (x) = (x−K)+.
Osservazione 2.2. Il modello binomiale richiede come “input” i tre parametri u, d, p
che devono essere determinati a priori, osservando il comportamento del mercato, per
esempio in base ad analisi statistiche di dati storici dello stock. In questo senso, la
probabilita P viene a volte anche chiamata probabilita oggettiva o del mondo reale.
Vedremo che il modello permette di determinare, coerentemente ai parametri immessi
e ad altre ipotesi di tipo economico, il prezzo del derivato H.
1Lo stato u (up) corrisponde all’evento di crescita e lo stato d (down) all’evento di calo del valoredell’azione.
2.2 Portafoglio autofinanziante e di arbitraggio 23
Osservazione 2.3. In base alle ipotesi su ξn, possiamo calcolare facilmente la proba-
bilita che S2 valga u2S0:
P (S2 = u2S0) = P ((ξ1 = u) ∩ (ξ2 = u)) = p2,
dove l’ultima uguaglianza e conseguenza dell’indipendenza di ξ1 e ξ2. Analogamente:
P (S2 = udS0) = P ((ξ1 = u) ∩ (ξ2 = d)) + P ((ξ2 = u) ∩ (ξ1 = d)) = 2p(1− p).
In generale, si ha per n = 1, . . . , N ,
P (Sn = ujdn−jS0) =
(n
j
)pj(1− p)n−j, j = 0, . . . , n. (2.5)
La (2.5) corrisponde alla ben nota distribuzione binomiale che rappresenta infatti la
probabilita di ottenere j successi (j up) avendo compiuto n prove (n steps temporali),
essendo p la probabilita di successo della prova singola.
2.2 Portafoglio autofinanziante e di arbitraggio
Definizione 2.4. Siano date le v.a. reali αn, βn, γn per n = 0, . . . , N . Posto
Vn = αnSn + βnBn + γnHn, n = 0, . . . , N,
chiamiamo V = (Vn)n=0,...,N portafoglio.
Dunque Vn e una v.a. che indica il valore del portafoglio al tempo tn, mentre
αn rappresenta il numero di titoli rischiosi posseduti all’istante tn, βn rappresenta il
numero di bonds posseduti e γn rappresenta il numero di derivati posseduti allo stesso
istante. E’ ammesso che αn, βn o γn assumano valori negativi: per esempio, sono
ammessi la vendita allo scoperto del titolo rischioso e il prestito di soldi dalla banca.
(αn, βn, γn)n=0,...,N e anche detta strategia ed individua univocamente il portafoglio.
Definizione 2.5. Un portafoglio V si dice autofinanziante se vale
Vn+1 = αnSn+1 + βnBn+1 + γnHn+1, ∀n = 0, . . . , N − 1. (2.6)
Se V e autofinanziante allora vale
Vn+1 − Vn = αn(Sn+1 − Sn) + βn(Bn+1 −Bn) + γn(Hn+1 −Hn), n = 0, . . . , N − 1.
24 Il modello binomiale
Cio significa che la variazione del valore del portafoglio dal tempo tn a tn+1 e dovuto
solo alla variazione dei prezzi dei titoli e non al fatto che e stata introdotta o tolta
liquidita. Dunque per un portafoglio autofinanziante si stabilisce al tempo iniziale la
somma da investire e successivamente non si aggiunge o toglie liquidita2.
Ipotesi: in tutto il capitolo considereremo soltanto portafogli autofinanzianti.
Definizione 2.6. Si dice che un portafoglio autofinanziante V = (Vn)n=0,...,N e un
portafoglio di arbitraggio se
i) V0 = 0,
ed esiste n tale che
ii) P(Vn ≥ 0) = 1,
iii) P (Vn > 0) > 0.
Un portafoglio d’arbitraggio e tale che, pur richiedendo un investimento iniziale
nullo e (quasi) nessun rischio (P (Vn ≥ 0) = 1), ha la possibilita di assumere un valore
finale positivo.
Esempio 2.7. Supponiamo che u, d in (2.2) siano tali che d < 1 + r < u. Si intuisce
che l’idea di prendere in prestito soldi dalla banca per investirli nell’azione da una
probabilita positiva di guadagno, superiore al lasciare i soldi nel conto corrente, essendo
1 + r < u: cio corrisponde al punto iii) della Definizione 2.6. Tuttavia questa strategia
di investimento non corrisponde ad un (portafoglio di) arbitraggio, perche ci si espone
anche al rischio di perdita (essendo d < 1 + r, c’e una probabilita positiva che l’azione
renda meno rispetto al conto in banca) ossia e negata la proprieta ii).
Nel Paragrafo 2.5, dedicato alla valutazione del derivato H, assumeremo la seguente
fondamentale ipotesi di tipo economico:
Principio di Non Arbitraggio (PNA): non esistono portafogli di arbitraggio.
Vale il seguente risultato che dimostreremo alla fine del paragrafo.
2Per esempio, se supponiamo γn ≡ 0, la (2.6) e equivalente a
βn+1 = βn − (αn+1 − αn)Sn+1
Bn+1.
La formula precedente esprime come deve cambiare βn+1 se al tempo tn+1, essendo noti Sn+1 e Bn+1,vogliamo variare il numero di titoli rischiosi αn+1.
2.2 Portafoglio autofinanziante e di arbitraggio 25
Proposizione 2.8. Il PNA implica che
d < 1 + r < u (2.7)
in (2.2).
In effetti, sotto ulteriori ipotesi, il PNA e la (2.7) sono equivalenti (si veda la
Proposizione 2.12).
Osservazione 2.9. Assumendo il PNA, se U,W sono portafogli autofinanzianti tali
che P (UN = WN) = 1 allora si ha anche P (Un = Wn) = 1 per ogni n = 0, . . . , N − 1.
E’ utile, prima di vedere la dimostrazione seguente, provare a dimostrare la tesi da
soli, per esercizio.
Supponiamo che per assurdo sia P (Uk > Wk) > 0 per un certo k < N . Consi-
deriamo k = 0 e costruiamo un portafoglio d’arbitraggio: poniamo α = U0 − W0 e
V = W − U + αB0
B. Essendo U,W autofinanzianti, anche V lo e (verificarlo!). Inoltre
si ha
V0 = W0 − U0 + α = 0,
VN = UN −WN +α
B0
BN = q.s.
= α(1 + r)N
e dunque P (VN > 0) = P (α > 0) > 0 per ipotesi. Il caso k ≥ 1 e analogo.
Dimostrazione. (della Proposizione 2.8) Per assurdo sia 1 + r ≤ d < u. Usiamo l’idea
dell’Esempio 2.7 per costruire un portafoglio d’arbitraggio. Il portafoglio V = B0
S0S−B
e ovviamente autofinanziante, vale V0 = 0 e
VN =B0
S0
SN −BN ≥
(poiche d ≥ 1 + r allora SN ≥ S0(1 + r)N)
≥ B0(1 + r)N −BN = 0.
Inoltre, poiche SN = uNS0 con probabilita pN , e chiaro che l’evento
VN = B0uN −B0(1 + r)N > 0
ha probabilita positiva. Dunque abbiamo costruito un arbitraggio. Allo stesso modo
si prova che se d < u ≤ 1 + r allora il PNA e violato.
26 Il modello binomiale
2.3 Misura martingala o neutrale al rischio
Posto
q =1 + r − d
u− d, (2.8)
si ha
1 + r = qu + (1− q)d. (2.9)
Se supponiamo valida la (2.7) allora q ∈ ]0, 1[ e possiamo sostituire p con q in (2.2) e
definire una nuova misura di probabilita Q sullo spazio di probabilita (Ω,F) tale che3
Q(ξn = u) = q, Q(ξn = d) = 1− q. (2.10)
Osserviamo che la misura Q e equivalente a P .
Ricordando la (1.7) e indicando con EQ(S1) l’attesa della v.a. semplice S1 rispetto
alla misura Q, vale
1
1 + rEQ(S1) =
1
1 + r(uS0Q(S1 = uS0) + dS0Q(S1 = dS0))
=S0
1 + r(qu + (1− q)d) = S0.
Dunque Q l’unica misura di probabilita rispetto alla quale il valore attuale del titolo
rischioso e pari al valore scontato della corrispondente attesa al tempo successivo. Piu
in generale, e facile4 provare che
EQ(Sn) = (1 + r)nS0, n = 1, . . . , N. (2.11)
Economicamente, la (2.11) esprime la valutazione di Sn espressa da un investitore
neutrale al rischio in base al valore attuale del titolo.
Per questo motivo, Q e detta misura risk neutral o, piu frequentemente misura
martingala equivalente (a P ).
3Volendo essere precisi: possiamo supporre F = σ(ξ1, . . . , ξN ) e assumere la (2.10). Inoltre Q(A),per un generico A ∈ F , si definisce in modo ovvio assumendo che ξ1, . . . , ξN siano v.a. Q-indipendenti.
4
1(1 + r)n
EQ(Sn) =1
(1 + r)n
n∑
j=0
ujdn−jS0 Q(Sn = ujdn−jS0)
=S0
(1 + r)n
n∑
j=0
(n
j
)(uq)j(d(1− q))n−j = S0.
2.4 Strategia adattata 27
Nell’Osservazione 2.2 avevamo chiamato P misura oggettiva, da determinare in
base ad osservazioni sul mercato. La misura martingala Q e invece una misura definita
a posteriori a partire da P : non ha alcun “legame col modo reale”, ma e utile per
semplificare i conti.
Riassumendo i risultati degli ultimi paragrafi, nel modello binomiale il PNA implica
l’esistenza di una (unica) misura martingala equivalente.
2.4 Strategia adattata
In questo paragrafo proviamo il viceversa della Proposizione 2.8 e approfondiamo il con-
cetto di misura martingala equivalente. Chi non e interessato puo passare direttamente
al paragrafo successivo.
In questo paragrafo assumiamo le seguenti ipotesi:
i) vale la (2.7) (e di conseguenza si puo definire la misura Q come in (2.10));
ii) consideriamo solo portafogli autofinanzianti con investimenti solo in azioni e
bonds (ossia γn ≡ 0).
Poniamo
Fn = σ(ξ1, . . . , ξn), n = 1, . . . , N. (2.12)
La σ-algebra Fn indica le informazioni sul mercato disponibili fino al tempo tn. E’ com-
prensibile che abbiano un particolare interesse le strategie in cui αn e βn dipendano solo
da Fn: precisamente una strategia (αn, βn)n=0,...,N tale che αn, βn sono Fn-misurabili
per ogni n = 1, . . . , N , si dice strategia adattata e il portafoglio corrispondente si dice
adattato.
Osservazione 2.10. Moltiplicando per Sn ambo i membri della (2.9), si ha
quSn + (1− q)dSn = (1 + r)Sn
ossia, ricordando la (1.13), per ogni stato possibile S di Sn, si ha
EQ(Sn+1 | Sn = S) = (1 + r)S,
o, in altri termini, ricordando che Bn+1 = (1 + r)Bn, si ha
EQ
(Sn+1
Bn+1
| Fn
)=
Sn
Bn
. (2.13)
28 Il modello binomiale
La (2.13) si esprime dicendo che Sn
Bne una martingala5 (da cui il nome di Q). Nel
prossimo lemma mostriamo che un risultato analogo vale anche per i portafogli adattati.
Lemma 2.11. Per ogni portafoglio V adattato vale
EQ
(Vn+1
Bn+1
| Fn
)=
Vn
Bn
. (2.14)
In particolare vale
EQ (Vn) = (1 + r)nV0. (2.15)
Dimostrazione. Si ha
EQ
(Vn+1
Bn+1
| Fn
)=
(essendo V autofinanziante e per la linearita dell’attesa condizionata)
= EQ
(αn
Sn+1
Bn+1
| Fn
)+ EQ (βn | Fn) =
(per la proprieta (7) dell’attesa condizionata, essendo V adattato)
= αnEQ
(Sn+1
Bn+1
| Fn
)+ βn =
(per la (2.13))
= αnSn
Bn
+ βn =Vn
Bn
.
Proposizione 2.12. Se
d < 1 + r < u
allora non esistono portafogli d’arbitraggio adattati.
In altri termini, per fare un arbitraggio bisogna conoscere il futuro.
5Da (2.13) segue anche che
EQ
(Sn
Bn| Fk
)=
Sk
Bk, 0 ≤ k < n ≤ N.
Infatti, per esempio si ha, posto Zn = Sn
Bn,
E(Zn+1 | Fn−1) = E(E(Zn+1 | Fn) | Fn−1) = E(Zn | Fn−1) = Zn−1.
2.5 Valutazione e copertura di derivati 29
Dimostrazione. Sia V un portafoglio d’arbitraggio adattato. Allora esiste n ≥ 1 tale
che P (Vn ≥ 0) = 1 e P (Vn > 0) > 0. D’altra parte per la (2.15) si ha
V0 =1
(1 + r)nEQ (Vn) > 0,
che e assurdo.
Riassumendo: considerando portafogli adattati, nel modello binomiale il PNA e
equivalente all’esistenza di un’unica misura martingala.
2.5 Valutazione e copertura di derivati
In questo paragrafo assumiamo il modello di mercato descritto nel Paragrafo 2.1,
consideriamo portafogli autofinanzianti (cfr. Definizione 2.5) e assumiamo il PNA.
Mostriamo come e possibile risolvere i due principali problemi legati al derivato H:
i) determinare H0;
ii) la copertura di H ossia costruire un portafoglio V , composto solo da bond e
stock, che replichi l’andamento del derivato, nel senso che
P (VN = HN) = 1.
Tale portafoglio e detto portafoglio di replica.
Per l’Osservazione 2.9, deve essere
P (Vn = Hn) = 1, ∀n = 0, . . . , N, (2.16)
altrimenti sarebbe possibile costruire un portafoglio d’arbitraggio utilizzando V e H.
Dunque risolvendo ii) si ottiene anche il prezzo del derivato.
Vediamo come costruire un portafoglio V di replica. Sia
Vn = αnSn + bn, n = 0, . . . , N.
Dunque nel seguito indichiamo con bn l’ammontare di capitale investito in bonds al
tempo tn. La condizione (2.6) diventa
Vn+1 = αnSn+1 + bn(1 + r), n = 0, . . . , N − 1. (2.17)
30 Il modello binomiale
Combinando la (2.17) per n = N − 1 con la condizione di replica VN = HN q.s.,
otteniamo
αN−1SN + bN−1(1 + r) = VN = F (SN).
Esprimendo il prezzo del sottostante al tempo tN in funzione del prezzo al tempo tN−1,
abbiamo due eventualita
αN−1uSN−1 + bN−1(1 + r) = F (uSN−1),
αN−1dSN−1 + bN−1(1 + r) = F (dSN−1).
Poiche vogliamo che entrambe le equazioni siano soddisfatte, otteniamo un sistema
lineare di due equazioni nelle incognite αN−1 e bN−1. La soluzione e data da
αN−1 =F (uSN−1)− F (dSN−1)
uSN−1 − dSN−1
,
bN−1 =1
1 + r
uF (dSN−1)− dF (uSN−1)
u− d.
(2.18)
La (2.18) esprime αN−1 e bN−1 in funzione di SN−1 e mostra come si puo costruire
al tempo tN−1 un portafoglio che replica il derivato al tempo T qualunque sia l’anda-
mento dello stock. Si noti che αN−1 ha la forma di un rapporto incrementale (tecni-
camente detto Delta). Possiamo ora scrivere il valore del portafoglio al tempo tN−1 o
equivalentemente il valore del derivato allo stesso istante:
HN−1 = VN−1 = αN−1Sn−1 + bN−1 =
(facendo qualche conto, utilizzando la (2.18) e la definizione di q in (2.8))
=1
1 + r(qF (uSN−1) + (1− q)F (dSN−1)) . (2.19)
La (2.19) puo essere interpretata in due modi: il primo, se SN−1 e un prezzo noto allora
HN−1 e una funzione deterministica di SN−1:
HN−1(SN−1) =1
1 + rEQ(F (SN)). (2.20)
Il secondo, se SN−1 e una v.a. allora anche HN−1 e una v.a. e precisamente
HN−1 =1
1 + rEQ (HN | FN−1)
dove FN−1, definita in (2.12), indica le informazione note al tempo N − 1 o equivalen-
temente
HN−1 =1
1 + rEQ (HN | SN−1)
2.5 Valutazione e copertura di derivati 31
ossia l’attesa di F (SN) condizionata alla conoscenza di SN−1.
Ripetendo il ragionamento possiamo calcolare αN−2 e bN−2. Per l’ipotesi di porta-
foglio autofinanziato:
αN−2SN−1 + bN−2(1 + r) = VN−1 = HN−1(SN−1);
da cui otteniamo
αN−2 =HN−1(uSN−2)−HN−1(dSN−2)
uSN−2 − dSN−2
,
bN−2 =uHN−1(uSN−2)− dHN−1(dSN−2)
(1 + r)(u− d).
Sostituendo poi l’espressione trovata in precedenza per HN−1 si trova:
HN−2 =1
(1 + r)2
(q2F (u2SN−2) + 2q(1− q)F (udSN−2) + (1− q)2F (d2S
N−2)
),
o in altri termini
HN−2(SN−2) =1
(1 + r)2EQ (HN | FN−2) .
Iterando il ragionamento precedente si ottiene
HN−n =1
(1 + r)nEQ(HN | FN−n) =
1
(1 + r)n
n∑
k=0
(N
k
)qk(1− q)n−kF (ukdn−kSN−n),
ed in particolare il valore attuale del derivato:
H0 =1
(1 + r)NEQ(HN) =
1
(1 + r)N
N∑
k=0
(N
k
)qk(1− q)N−kF (ukdN−kS0).
Tale espressione e calcolabile esplicitamente in funzione del valore attuale del sotto-
stante una volta data l’espressione di F .
32 Il modello binomiale
Capitolo 3
Elementi di calcolo stocastico
3.1 Moto Browniano
Sia dato uno spazio di probabilita (Ω,F , P ).
Definizione 3.1. Un processo stocastico (nel seguito p.s.)) e una famiglia X =
(Xt)t∈[0,+∞[ di v.a.
Xt : Ω −→ RN , t ≥ 0.
Il concetto di p.s. estende quello di funzione f : [0, +∞[−→ RN : come f associa a
t la variabile f(t) in RN , cosı il p.s. X associa a t la v.a. Xt in RN . Un p.s. puo essere
utilizzato per descrivere un fenomeno aleatorio che si evolve nel tempo: per esempio si
puo pensare alla v.a. Xt in R come al prezzo di un titolo rischioso al tempo t, oppure
alla v.a. Xt in R3 come alla posizione di una particella nello spazio al tempo t.
Per aiutare ancora l’intuizione, e utile pensare ad una funzione
g : [0, +∞[−→ RN
come ad una curva o traiettoria in RN : il sostegno della curva g e definito da
γ ≡ g(t) | t ∈ [0, +∞[.
Dunque, al variare del parametro t, g(t) rappresenta un punto del sostegno γ. L’idea si
estende ai p.s. e in questo caso ad ogni ω ∈ Ω corrisponde una diversa curva (e quindi
un possibile andamento del prezzo di un titolo oppure una possibile traiettoria di una
particella nello spazio):
γω ≡ Xt(ω) | t ∈ [0, +∞[.
33
34 Elementi di calcolo stocastico
Definizione 3.2. Una filtrazione F = (Ft)t≥0 in (Ω,F , P ) e una famiglia crescente di
sotto-σ-algebre di F . Dato un p.s. X = (Xt)t∈[0,+∞[ , poniamo
FXt = σ(Xs | 0 ≤ s ≤ t) = σ(X−1
s (H) | 0 ≤ s ≤ t, H ∈ B).
Chiaramente, se 0 ≤ s ≤ t, allora FXs ⊆ FX
t ⊆ F , e dunque FX = (FXt )t∈[0,+∞[ e una
filtrazione detta filtrazione associata a X.
Ricordando l’Esempio 1.25, si puo pensare a FXt come alle informazioni su X
disponibili fino al tempo t.
Definizione 3.3. Si dice Moto Browniano reale (nel seguito MB) di punto iniziale
x0 ∈ R, un qualsiasi p.s. W = (Wt)t∈[ 0,+∞[ tale che
i) P (W0 = 0) = 1;
ii) per ogni ω ∈ Ω, la funzione t 7→ Wt(ω) e continua;
iii) per ogni t, h ≥ 0, la v.a. Wt+h − Wt ha distribuzione normale N0,h ed e
indipendente da FWt .
Secondo la definizione precedente, un qualsiasi p.s. che verifichi i),ii) e iii) si dice
MB. In linea di principio, esistono dunque diversi MB definiti su diversi spazi di pro-
babilita. La definizione precedente si adatta facilmente anche al caso in cui t ∈ [a, b]
con a < b.
Notazione: nel seguito, salvo diversa ed esplicita indicazione, W denotera un MB
di punto iniziale l’origine.
Osservazione 3.4. Non e banale provare l’esistenza di un MB: chi e proprio interessato
veda per esempio [5], [9] o [8]. In particolare e possibile costruire un MB sullo spazio
Ω = C([0, +∞[,R), definendo (notare che in questo caso ω e una funzione reale)
Wt(ω) = ω(t), t ∈ [0, +∞[, ω ∈ Ω. (3.1)
Si definisce poi la seguente σ-algebra su Ω
F = σ(W−1t (H) | t ≥ 0, H ∈ B),
in modo tale che W e un p.s. A questo punto c’e la parte difficile: e possibile dimostrare
che, per ogni x0 ∈ R, esiste una misura di probabilita P x0 su (Ω,F) tale che W definito
in (3.1) e un MB di punto iniziale x0 sullo spazio di probabilita (Ω,F , P x0). Questo
particolare MB si dice moto Browniano standard.
3.1 Moto Browniano 35
Osservazione 3.5. Per le proprieta i) e ii) della Definizione 3.3, le traiettorie di un MB
di punto iniziale x0 partono (per t = 0) da x0 q.s. e sono continue. Come conseguenza
delle i) e iii), per ogni t ∈ [0, +∞[, vale
Wt ∼ Nx0,t. (3.2)
Infatti si ha q.s.
Wt = (Wt −W0) + x0 ∼ Nx0,t,
ricordando l’Osservazione 1.23. Dalla iii) segue anche che un MB ha gli incrementi
indipendenti nel senso che Wt2 − Wt1 e Wt4 − Wt3 sono v.a. indipendenti per ogni
0 ≤ t1 < t2 ≤ t3 < t4.
Osservazione 3.6. [MB come moto caotico]
Il MB e un modello probabilistico di moto casuale di una particella. Le seguenti
proprieta del MB sono ovvie conseguenza della (3.2):
a) E(Wt) = x0 per ogni t ≥ 0, ossia in ogni istante la posizione piu probabile della
particella e quella iniziale;
b) ricordando l’espressione della densita della distribuzione normale Γ(·, t) in (1.4),
si ha che, per ogni fissato t > 0, la probabilita che Wt appartenga ad un Borelliano H
diminuisce traslando H lontano da x0. Intuitivamente la probabilita che la particella
raggiunga H diminuisce allontanando H dal punto di partenza;
c) per ogni fissato H ∈ B,
limt→0+
P (Wt ∈ H) = δx0(H).
Intuitivamente, diminuendo il tempo diminuisce anche la probabilita che la particella
si sia allontanata dalla posizione iniziale;
d) E(|Wt − x0|2) = var(Wt) = t, ossia ci si attende che la distanza dal punto di
partenza, percorsa da una particella in moto casuale in un tempo t, sia√
t: questo
fatto e meno intuitivo ma corrisponde, per esempio, alle prime osservazioni empiriche
di Einstein [6].
Esempio 3.7. [MB come modello di titolo rischioso]
Sia W un MB di punto iniziale l’origine. Un primo modello a tempo continuo per
il prezzo di un titolo rischioso S e il seguente:
St = S0(1 + µt) + σWt, t ≥ 0. (3.3)
36 Elementi di calcolo stocastico
In (3.3), S0 indica il prezzo iniziale del titolo, µ indica il tasso di rendimento atteso e σ
indica la rischiosita del titolo o volatilita. Se σ = 0, la dinamica (3.3) e deterministica
e corrisponde ad una legge di capitalizzazione semplice con tasso privo di rischio pari
a µ. Se σ > 0, la dinamica (3.3) e stocastica e S = (St)t≥0 e un p.s. (a distribuzione)
normale nel senso che
St ∼ NS0(1+µt),σ2t, ∀ t ≥ 0. (3.4)
Da (3.4) segue che
E(St) = S0(1 + µt)
ossia l’andamento atteso di S corrisponde alla dinamica deterministica priva di rischio.
Inoltre σ e direttamente proporzionale alla varianza e quindi alla rischiosita del titolo.
Nella pratica questo modello non e utilizzato per due motivi: da una parte si
preferisce utilizzare la capitalizzazione composta; dall’altra (3.4) implica ovviamente
che P (St < 0) > 0 non appena t e positivo e questo e assurdo dal punto di vista
economico. Tuttavia (3.3) puo essere utilizzato come modello per i debiti/crediti di
un’azienda.
3.2 Moto Browniano ed equazione del calore
L’operatore differenziale del calore in due variabili e definito da
L =1
2∂xx − ∂t, (x, t) ∈ R2. (3.5)
In fisica l’operatore (3.5) e ben noto in quanto interviene nella modellizzazione del
processo di diffusione del calore: una soluzione u = u(x, t) dell’equazione del calore
Lu = 0 rappresenta la temperatura di un materiale al tempo t e alla posizione x.
Assegnata g ∈ C(R) e limitata, il classico problema di Cauchy per l’equazione del
calore consiste nel trovare una funzione u ∈ C2(R×]0, T [) ∩ C(R× [0, T [) tale che:
Lu(x, t) = 0, (x, t) ∈ R×]0, T [,
u(x, 0) = g(x) x ∈ R.(3.6)
La funzione g e solitamente detta dato iniziale del problema di Cauchy.
Si puo verificare direttamente che la funzione Γ in (1.4) risolve l’equazione del calore:
Γ ∈ C∞(R×]0, +∞[), LΓ = 0 in R×]0, +∞[.
3.3 Martingale 37
La funzione Γ e una soluzione molto particolare di L, detta soluzione fondamentale
dell’equazione del calore per il seguente motivo: non e difficile mostrare che il problema
di Cauchy (3.6) ha un’unica soluzione limitata data da
u(x, t) =
∫
RΓ(x− y, t)g(y)dy = (Γ(·, t) ∗ g)(x),
dove ∗ indica il simbolo di convoluzione di funzioni in R. Il risultato precedente vale
anche sotto ipotesi molto meno restrittive sulla funzione g.
Il legame fra MB ed equazione del calore dovrebbe essere ormai chiaro: consideriamo
un MB standard ed indichiamo con Ex il valore atteso nella misura P x. Allora, data
una funzione limitata g ∈ C(R), per il Teorema 1.15 si ha che
Ex(g(Wt)) =
∫
RΓ(x− y, t)g(y)dy (3.7)
e soluzione del problema di Cauchy (3.6). La (3.7) da una rappresentazione probabili-
stica della soluzione del problema di Cauchy per l’equazione del calore.
Confrontando la (3.7) con l’espressione (2.20) del prezzo di un derivato nel modello
binomiale, ci si puo aspettare che, come vedremo nel modello di Black&Scholes, il
prezzo di un derivato si ottenga come soluzione di un problema di Cauchy del tipo
(3.6).
3.3 Martingale
Sia dato uno spazio di probabilita (Ω,F , P,F) dove F = (Ft)t∈[0,+∞[ indica una
filtrazione.
Definizione 3.8. Si dice che un p.s. M e una martingala (nel seguito, mg) se, per
ogni t ∈ [0, +∞[, si ha:
i) Mt e Ft-misurabile, e in tal caso si dice che il p.s. M e F-adattato;
ii) Mt ∈ L1(Ω, P );
iii) E(Mt | Fs) = Ms q.s. per ogni 0 ≤ s ≤ t.
La i) e ii) sono proprieta di tipo tecnico, mentre la proprieta essenziale che caratterizza
una mg e la iii). Questa in particolare implica che il valore atteso di una mg M e
costante nel tempo, infatti:
E(Mt) = E(E(Mt | F0)) = E(M0), ∀ t ≥ 0.
38 Elementi di calcolo stocastico
Esempio 3.9. Un moto Browniano W di punto iniziale x0 e una mg rispetto alla
filtrazione Browniana FW . Infatti i) e ovviamente soddisfatta, inoltre si ha, per la
disuguaglianza di Holder1,
E(Wt)2 ≤ E(W 2
t ) = E((Wt − x0 + x0)2) = x2
0 + t,
che prova la ii). Infine per 0 ≤ s ≤ t si ha
E(Wt | FWs ) = E(Wt −Ws | FW
s ) + E(Ws | FWs ) =
(poiche Wt −Ws e indipendente da FWs e Ws e FW
s -misurabile)
= E(Wt −Ws) + Ws = Ws.
Esercizio 3.10. Data una v.a. Z sommabile in (Ω,F , P,F), provare che il p.s. definito
da
Mt = E(Z | Ft), t ≥ 0,
e una mg.
3.4 Regolarita delle traiettorie di un MB
Riprendiamo il modello di titolo rischioso dell’Esempio 3.7 in cui
St = S0(1 + µt) + σWt, t ∈ [0, T ].
Consideriamo una scomposizione s = t0, t1, . . . , tN di [0, T ]: per definizione 0 = t0 <
t1 < · · · < tN = T . Sia ora V = uS un portafoglio autofinanziante (cfr. Definizione
2.5) composto dal solo titolo S. Allora, per ogni k = 1, . . . , N , si ha
Vtk − Vtk−1= utk−1
(Stk − Stk−1) = µutk−1
(tk − tk−1) + σutk−1(Wtk −Wtk−1
).
1
∫|XY | ≤
(∫|X|p
) 1p
(∫|Y |q
) 1q
,
per ogni p, q ≥ 1 tali che1p
+1q
= 1
3.4 Regolarita delle traiettorie di un MB 39
Sommando per k da 1 a N , otteniamo
VT = V0 + µ
N∑
k=1
utk−1(tk − tk−1) + σ
N∑
k=1
utk−1(Wtk −Wtk−1
)
≡ V0 + µI1,s + σI2,s.
(3.8)
Per passare a tempo continuo occorre verificare l’esistenza dei limiti di I1,s e I2,s al
tendere del parametro di finezza2 |s| a zero.
Il primo termine I1,s e una somma di Riemann e dunque supponendo che la funzione
t 7→ ut(ω) sia, per esempio, continua3 in [0, T ] per ogni ω ∈ Ω, si ha semplicemente
lim|s|→0+
I1,s(ω) =
∫ T
0
ut(ω)dt,
per ogni ω ∈ Ω. Come vedremo, l’esistenza del secondo limite non e banale: suppo-
nendo che esista finito
lim|s|→0+
I2,s = I, (3.9)
per analogia, potremmo usare la notazione
I =
∫ T
0
ut dWt.
Otteniamo dunque, almeno formalmente, la seguente formula
VT = V0 + µ
∫ T
0
utdt + σ
∫ T
0
ut dWt.
In realta il limite in (3.9) non esiste in generale, a meno che non si introducano ul-
teriori ipotesi sul p.s. u. La giustificazione di questa affermazione richiede una breve
digressione di carattere matematico che porta anche ad osservare che le traiettorie di
un MB sono quasi sicuramente “irregolari” in un senso che specificheremo nel seguito.
Il resto del paragrafo puo essere tranquillamente sorvolato ad una prima lettura; nel
prossimo paragrafo vedremo sotto quali ipotesi e in quale senso vale (3.9).
2Il parametro di finezza di una scomposizione s e definito da
|s| = max1≤k≤N
|tk − tk−1|.
3Ovviamente e sufficiente che sia integrabile secondo Riemann. In effetti, in un portafoglio auto-finanziante con un solo titolo, si ha necessariamente che t 7→ ut e costante. La situazione non e piubanale nel caso di un portafoglio con almeno due titoli.
40 Elementi di calcolo stocastico
Consideriamo ω una traiettoria
t 7→ Wt(ω)
che sia di classe C1([0, T ]): in questo caso non ci sono problemi a dimostrare che esiste
lim|s|→0+
I2,s(ω) =
∫ T
0
ut(ω)W ′t(ω) dt, (3.10)
essendo l’integrale in (3.10) un normale integrale di Riemann e indicando con W ′t(ω)
la derivata ddt
Wt(ω). Infatti, per il Teorema del valor medio di Lagrange esistono
t∗k ∈ [tk−1, tk] tali che
I2,s(ω) =N∑
k=1
utk−1(ω)W ′
t∗k(ω)(tk − tk−1);
dunque I2,s(ω) e una somma di Riemann e la (3.10) segue facilmente.
Senza entrare nei dettagli, si puo procedere in maniera analoga per provare l’esisten-
za del limite in (3.9) sotto ipotesi molto piu deboli. Infatti e sufficiente assumere che
ut(ω) e Wt(ω) siano rispettivamente una funzione continua e una funzione a variazione
limitata4 della variabile t, per provare che esiste ed e finito il limite
lim|s|→0+
I2,s(ω) = l ∈ R.
Per definizione l =(∫ T
0ut dWt
)(ω) viene chiamato integrale di Riemann-Stieltjes di
ut(ω) rispetto a Wt(ω) su [0, T ].
4Date una funzione g : [0, T ] → Rn e una scomposizione s = t0, . . . , tN di [0, T ], si definisce lavariazione di g relativa a s nel modo seguente:
VT (g, s) =N∑
k=1
|g(tk)− g(tk−1)|.
Geometricamente la variazione VT (g, s) e la lunghezza della spezzata in Rn di estremi g(tk) conk = 0, . . . , N . La funzione g si dice a variazione limitata se l’estremo superiore di VT (g, s), al variaredi tutte le scomposizioni s di [0, T ], e finito:
VT (g) ≡ sups
VT (g, s) < +∞.
VT (g) e detta variazione (totale) di g su [0, T ]. Intuitivamente, raffinando la scomposizione s, VT (g, s)da un’approssimazione della lunghezza della curva g: in altre parole la curva g e a variazione limitata(o rettificabile) se ha lunghezza finita, approssimabile con spezzate. E facile provare (esercizio!) chele funzioni di classe C1([0, T ]) sono a variazione limitata.
3.4 Regolarita delle traiettorie di un MB 41
Concludiamo il paragrafo mostrando che l’insieme degli ω ∈ Ω tale che t 7→ Wt(ω)
e a variazione limitata, ha P -misura nulla: in parole povere, un MB ha le traiettorie
irregolari (non rettificabili5) quasi sicuramente. Di conseguenza, per quasi tutte le
traiettorie di un MB, non e possibile definire l’integrale nel senso di Riemann-Stieltjes.
Date una funzione g : [0, T ] → Rn e una scomposizione s = t0, . . . , tN di [0, T ], si
definisce la variazione quadratica di g relativa a s nel modo seguente:
V(2)T (g, s) =
N∑
k=1
|g(tk)− g(tk−1)|2.
La variazione quadratica (totale) 〈g〉T di g su [0, T ] e definita dal seguente limite, se
esiste,
lim|s|→0+
V(2)T (g, s) = 〈g〉T .
Lemma 3.11. Se una funzione g e continua e a variazione limitata su [0, T ], allora
ha variazione quadratica nulla: 〈g〉T = 0.
Dimostrazione. La funzione g e continua sul compatto [0, T ], quindi anche uniforme-
mente continua: di conseguenza, per ogni ε > 0, esiste δε > 0 tale che
| g(tk)− g(tk−1)| ≤ ε
per ogni scomposizione s = t0, t1, . . . , tN di [0, T ] tale che |s| < δε. La tesi e
conseguenza del fatto che
0 ≤ V(2)T (g, s) =
N∑
k=1
|g(tk)− g(tk−1)|2 ≤ ε VT (g)
con VT (g) < ∞ per ipotesi.
Proposizione 3.12. Per ogni t > 0 si ha
〈W 〉t = t q.s. (3.11)
In particolare W non e a variazione limitata su [0, t] quasi sicuramente.
Dimostrazione. Per alleggerire le notazioni, fissata una scomposizione s = t0, . . . , tNdi [0, t], poniamo ∆kW = Wtk −Wtk−1
per k = 1, . . . , N . Ricordiamo che vale
E((∆kW )2
)= tk − tk−1.
5Per ogni t > 0, un MB percorre una traiettoria di lunghezza infinita.
42 Elementi di calcolo stocastico
Inoltre si puo provare (esercizio6!) che vale
E((∆kW )4
)= 3(tk − tk−1)
2. (3.12)
Per provare la (3.11) e sufficiente7 dimostrare che
lim|s|→0+
V(2)t (W, s) = t in L2(Ω, P ),
ossia
lim|s|→0+
E((V
(2)t (W, s)− t)2
)= 0.
Ora si ha
E((V
(2)t (W, s)− t)2
)= E
(( ∑
k
(∆kW )2 − t)2
)
= E
(( ∑
k
((∆kW )2 − (tk − tk−1)
) )2)
=∑
k
E((
(∆kW )2 − (tk − tk−1))2
)
+ 2∑
h<k
E((
(∆kW )2 − (tk − tk−1)((∆hW )2 − (th − th−1)
))).
Osserviamo ora che
E((
(∆kW )2 − (tk − tk−1))2
)
= E((∆kW )4
)− 2(tk − tk−1)E((∆kW )2
)+ (tk − tk−1)
2 =
(per (3.12))
= 2(tk − tk−1)2.
D’altra parte
E((
(∆kW )2 − (tk − tk−1)) (
(∆hW )2 − (th − th−1)))
=
(per l’indipendenza degli incrementi del MB, se h < k)
E((∆kW )2 − (tk − tk−1)
)E
((∆hW )2 − (th − th−1)
)= 0.
6Si haE
((∆kW )4
)=
∫
Ry4Γ(y, tk − tk−1)dy,
e poi si integra per parti. Si veda anche l’Esempio 3.30-(3).7E noto che la convergenza in L2 implica la convergenza puntuale q.s.
3.5 Integrale stocastico di processi semplici 43
In definitiva si ha
E((V
(2)t (W, s)− t)2
)= 2
∑
k
(tk − tk−1)2 ≤ 2|s|t
che tende a zero per |s| → 0+.
3.5 Integrale stocastico di processi semplici
Sia dato un moto Browniano W su uno spazio di probabilita (Ω,F , P ). Nel seguito
indichiamo con F la filtrazione Browniana. In questo paragrafo e nel seguente diamo
una traccia della costruzione dell’integrale di Ito
∫ T
0
ut dWt.
Per garantire l’esistenza di tale integrale stocastico, e necessario imporre opportune
ipotesi sul processo u.
Definizione 3.13. Il p.s. u appartiene alla classe Λ2 se
i) u e F-adattato, ossia ut e Ft-misurabile per ogni t ≥ 0;
ii) per ogni T > 0, esiste ed e finitoT∫0
E(u2t )dt.
Mentre la ii) e una normale richiesta di sommabilita dell’integrando8, la i) e la
proprieta che gioca il ruolo cruciale nel seguito. La i) e anche legata alla nozione di
portafoglio adattato introdotta nel Capitolo 2.
Analogamente alla costruzione dell’integrale vista nel Capitolo 1, cominciamo col
definire l’integrale di Ito per una particolare classe di p.s. di Λ2.
Definizione 3.14. Un processo u ∈ Λ2 si dice semplice se e della forma
u =N∑
k=1
ekχ[tk−1,tk[, (3.13)
dove 0 ≤ t0 < t1 < · · · < tN e ek sono v.a.9 su (Ω,F , P ).
8u ∈ L2(Ω× [0, T ]) per ogni T > 0.9Assumiamo anche
P (ek−1 = ek) = 0, ∀ k = 1, . . . , N,
in modo che la rappresentazione (3.13) di u sia unica q.s.
44 Elementi di calcolo stocastico
Osservazione 3.15. E importante osservare che, essendo u adattato, allora ek in (3.13)
e Ftk−1-misurabile per ogni k = 1, . . . , N . Inoltre ek ∈ L2(Ω, P ) e si ha
T∫
0
E(u2t )dt =
N∑
k=1
T∫
0
E(e2k)χ[tk−1,tk[
(t)dt =N∑
k=1
E(e2k)(tk − tk−1) (3.14)
Se u ∈ Λ2 e un processo semplice della forma (3.13), allora il limite in (3.9) esiste
banalmente ed e naturale definire l’integrale di Ito nel modo seguente:
∫ut dWt =
N∑
k=1
ek(Wtk −Wtk−1) (3.15)
ed anche, per ogni 0 ≤ a < b,
∫ b
a
ut dWt =
∫utχ[a,b[
(t)dWt.
Esempio 3.16. Integrando il processo semplice u = χ[0,t[
, si ottiene10
Wt =
∫ t
0
dWs.
Riprendendo l’Esempio 3.7, si ha
St = S0 +
∫ t
0
µds +
∫ t
0
σdWs, t > 0.
Il seguente teorema contiene alcune importanti proprieta dell’integrale di Ito di processi
semplici.
Teorema 3.17. Per ogni u, v ∈ Λ2 semplici, α, β ∈ R e 0 ≤ a < b < c si ha:
(1) linearita:∫
(αut + βvt)dWt = α
∫ut dWt + β
∫vt dWt;
(2) additivita: ∫ c
a
ut dWt =
∫ b
a
ut dWt +
∫ c
b
ut dWt;
(3) media nulla:
E
(∫ut dWt
)= 0, (3.16)
10Al solito W0 = 0.
3.5 Integrale stocastico di processi semplici 45
ed anche
E
(∫ b
a
ut dWt
∫ c
b
vt dWt
)= 0; (3.17)
(4) isometria di Ito:
E
(( ∫ b
a
ut dWt
)2)
= E
(∫ b
a
u2t dt
)(3.18)
(5) il processo stocastico
Xt =
∫ t
0
us dWs, t ≥ 0, (3.19)
e una martingala rispetto a F .
Dimostrazione. Le proprieta (1) e (2) sono immediate. Per la (3):
E
(∫ut dWt
)=
N∑
k=1
E(ek(Wtk −Wtk−1
))
=
(poiche, per l’Osservazione 1.3, ek e Ftk−1-misurabile e dunque indipendente da Wtk −
Wtk−1)
=N∑
k=1
E (ek) E(Wtk −Wtk−1
)= 0.
Proviamo poi la (3.17): se v e della forma
v =M∑
h=1
dhχ[th−1,th[,
allora E(∫ b
aut dWt
∫ c
bvt dWt
)e una somma di termini del tipo
E(ekdh(Wtk −Wtk−1
)(Wth −Wth−1)), con tk ≤ th−1,
che sono tutti nulli poiche ekdh(Wtk −Wtk−1) e Fth−1
-misurabile e quindi indipendente
dall’incremento Wth −Wth−1che ha media nulla.
Proviamo l’isometria di Ito: assumendo u della forma (3.13), si ha11
E
(( ∫ b
a
ut dWt
)2)
= E
(( N∑
k=1
∫ tk
tk−1
ek dWt
)2)
=N∑
k=1
E
(( ∫ tk
tk−1
ek dWt
)2)
+ 2∑
h<k
E
(∫ tk
tk−1
ek dWt
∫ th
th−1
eh dWt
)
11Non e restrittivo assumere anche t0 = a e tN = b.
46 Elementi di calcolo stocastico
(per la (3.17) i termini della seconda somma sono nulli)
=N∑
k=1
E(e2
k(Wtk −Wtk−1)2
)
(per l’indipendenza di ek e Wtk −Wtk−1)
=N∑
k=1
E(e2
k
)E
((Wtk −Wtk−1
)2)
=N∑
k=1
E(e2
k
)(tk − tk−1)
e la tesi segue12 dalla (3.14).
Proviamo infine che il p.s. X in (3.19) e una F -martingala. Per la definizione (3.15)
e l’Osservazione 3.15, e ovvio che X sia adattato a F . Inoltre Xt e sommabile poiche
per la disuguaglianza di Holder si ha
E(Xt)2 ≤ E(X2
t ) =
(per l’isometria di Ito)
= E
(∫ t
0
u2sds
)< ∞
essendo u ∈ Λ2. Siano poi 0 ≤ s < t:
E(Xt | Fs) = E(Xs | Fs) + E( ∫ t
s
uτ dWτ | Fs
)= Xs
poiche Xs e Fs-misurabile, mentre
E( ∫ t
s
uτ dWτ | Fs
)=
∑
k
E(ek(Wtk −Wtk−1
) | Fs
)=
(essendo ek e Wtk −Wtk−1indipendenti)
=∑
k
E (ek | Fs) E(Wtk −Wtk−1
| Fs
)
(essendo Wtk −Wtk−1indipendente da Fs poiche s ≤ tk−1)
=∑
k
E (ek | Fs) E(Wtk −Wtk−1
)= 0.
12Per il Teorema di Tonelli, vale
E
(∫ b
a
u2t dt
)=
∫ b
a
E(u2
t
)dt
3.6 Integrale di Ito 47
3.6 Integrale di Ito
La (3.18) viene detta isometria di Ito perche si puo riscrivere in termini di uguaglianza
di norme in spazi L2: ∥∥∥∫ b
a
ut dWt
∥∥∥L2(Ω)
= ‖u‖L2(Ω×[a,b]) . (3.20)
L’isometria di Ito gioca un ruolo cruciale nella costruzione dell’integrale stocastico∫ T
0
ut dWt. (3.21)
Nel paragrafo precedente abbiamo definito l’integrale in (3.21) nel caso che u ∈ Λ2 sia
un p.s. semplice. Consideriamo ora un generico u ∈ Λ2: e possibile13 costruire una
successione (u(n)) di p.s. semplici di Λ2 che approssimi u nel senso che
limn→+∞
∫ T
0
E((ut − u
(n)t )2
)dt = lim
n→+∞
∥∥u− u(n)∥∥
L2(Ω×[0,T ])= 0.
Essendo convergente, (u(n)) e una successione di Cauchy14 in L2(Ω × [0, T ]). Allora,
per l’isometria di Ito, la successione degli integrali stocastici
In ≡∫ T
0
u(n)t dWt
e di Cauchy in L2(Ω) che e uno spazio metrico completo15. Di conseguenza la succes-
sione (In) e convergente in L2(Ω): per definizione, si pone∫ T
0
ut dWt = limn→+∞
In. (3.22)
E facile verificare (esercizio!) che la definizione e ben posta, nel senso che non dipende
dalla successione approssimante.
Osservazione 3.18. E possibile estendere la costruzione dell’integrale di Ito anche a
un processo adattato u che verifica la seguente debole condizione di sommabilita
P
(∫ b
a
|ut| dt < ∞)
= 1.
13Lo dimostriamo fra poco in un caso significativo (cfr. Proposizione 3.22 e Osservazione 3.23). Peril caso generale si veda, per esempio, [8].
14La successione (u(n)) si dice di Cauchy se per ogni ε > 0 esiste nε ∈ N tale che∥∥u(n) − u(m)
∥∥L2(Ω×[0,T ])
< ε, ∀m,n ≥ nε.
15Uno spazio metrico e completo se ogni successione di Cauchy e convergente.
48 Elementi di calcolo stocastico
Non dimostriamo il seguente teorema che estende al caso generale le proprieta
dell’integrale stocastico di processi semplici.
Teorema 3.19. Le proprieta (1–5) del Teorema 3.17 valgono per ogni u, v ∈ Λ2.
Vediamo ora che la definizione (3.22) estende la nozione di integrale di Riemann-
Stieltjes vista nel paragrafo precedente.
Definizione 3.20. Un processo u si dice L2-continuo in t0 se
limt→t0
E((ut − ut0)
2)
= 0.
Esempio 3.21. Poiche
E((Wt −Wt0)
2)
= |t− t0|,
ogni MB e L2-continuo. Inoltre, dato u ∈ Λ2, anche il processo
Xt =
∫ t
0
us dWs, t ≥ 0,
e L2-continuo in ogni punto. Infatti, se t > t0,
E((Xt −Xt0)
2)
= E
(( ∫ t
t0
us dWs
)2)
=
(per l’isometria di Ito)
=
∫ t
t0
E(u2
s
)ds −→ 0, per t → t0,
per il teorema della convergenza dominata di Lebesgue. Il caso t < t0 e analogo.
Proposizione 3.22. Sia u ∈ Λ2 un processo L2-continuo su [0, T ]. Posto
u(s) =N∑
k=1
utk−1χ
[tk−1,tk[,
dove s = t0, t1, . . . , tN e una scomposizione di [0, T ], allora u(s) e un processo semplice
di Λ2 e vale
lim|s|→0+
u(s) = u, in L2(Ω× [0, T ]). (3.23)
3.7 Processi e formula di Ito 49
Dimostrazione. Per ogni ε > 0, esiste16 δε > 0 tale che se |s| < δε allora si ha
∫ T
0
E((ut − u
(s)t )2
)dt =
N∑
k=1
∫ tk
tk−1
E((ut − utk−1
)2)dt ≤ εT.
Osservazione 3.23. La proposizione afferma che u(s) e un p.s. semplice in Λ2 che
approssima u in L2(Ω× [0, T ]) per |s| → 0+. Per la definizione (3.22) si ha allora
lim|s|→0+
∫ T
0
u(s)t dWt =
∫ T
0
ut dWt, in L2(Ω),
o equivalentemente, ricordando la (3.15),
lim|s|→0+
N∑
k=1
utk−1(Wtk −Wtk−1
) =
∫ T
0
ut dWt, in L2(Ω).
In questo senso l’integrale di Ito, essendo il limite delle somme (di Riemann-Stieltjes)
in (3.8), generalizza l’integrale di Riemann-Stieltjes.
Concludiamo il paragrafo enunciando un teorema di rappresentazione delle mg.
Abbiamo visto (cfr. (5) del Teorema 3.17) che il processo definito da un integrale
di Ito e una mg: il seguente risultato mostra che ogni mg rispetto alla filtrazione
Browniana F e rappresentabile in termini di un integrale stocastico.
Teorema 3.24. Sia M una F-mg di quadrato sommabile, Mt ∈ L2(Ω, P ). Allora
esiste ed e unico u ∈ Λ2 tale che
Mt = M0 +
∫ t
0
us dWs.
3.7 Processi e formula di Ito
Definizione 3.25. Un p.s. X della forma
Xt = X0 +
∫ t
0
usds +
∫ t
0
vs dWs, t > 0, (3.24)
con u, v ∈ Λ2, si dice un processo di Ito.
16Vale il Teorema di Heine-Cantor: se X e L2-continuo sul compatto [0, T ], allora e ancheuniformemente L2-continuo.
50 Elementi di calcolo stocastico
Notazione: la (3.24) viene solitamente scritta nella seguente “forma differenziale”:
dXt = utdt + vtdWt. (3.25)
Da una parte la (3.25) e piu breve da scrivere rispetto alla (3.24) e quindi piu comoda
da utilizzare; dall’altra la (3.25) risulta piu intuitiva e familiare, in quanto (solo for-
malmente!) ricorda il calcolo differenziale usuale per le funzioni di una variabile reale.
Sottolineiamo il fatto che abbiamo definito ogni singolo termine che appare nella (3.24):
e stato il lavoro degli ultimi paragrafi. Invece la (3.25) va invece presa “tutta insieme”
ed equivale esattamente alla (3.24): per esempio, il termine dXt, benche a volte deno-
minato differenziale stocastico, non e stato definito e ha senso solo se e all’interno della
formula (3.25).
Riprendendo l’Esempio 3.16, scriviamo
dSt = µdt + σdWt
La (3.11) diventa
d〈W 〉t = dt. (3.26)
Piu in generale, dato un p.s. Y , si definisce il processo variazione quadratica di Y nel
modo seguente
〈Y 〉t = lim|s|→0+
N∑
k=1
(Ytk − Ytk−1)2, in L2(Ω, P )
ammesso che tale limite esista e dove, al solito, s indica una scomposizione di [0, t]. Si
puo procedere come nella dimostrazione della Proposizione 3.12, per provare il seguente
Lemma 3.26. Sia X un processo di Ito della forma (3.24). Allora
〈Y 〉t =
∫ t
0
v2sds
o, in termini differenziali,
d〈Y 〉t = v2t dt.
Esempio 3.27. Se dSt = µdt + σdWt allora 〈S〉t = σ2t. Dunque in questo caso si
ha proprio 〈S〉t = var(St), ossia il processo variazione quadratica e deterministico e
coincide con la varianza. Piu in generale, se
St = S0 +
∫ t
0
µ(s)ds +
∫ t
0
σ(s) dWs
3.7 Processi e formula di Ito 51
con µ, σ funzioni deterministiche, allora, per la proprieta della media nulla, si ha
E(St) = S0 +
∫ t
0
µ(s)ds
e
var(St) = E
((St − S0 −
∫ t
0
µ(s)ds)2
)=
(per l’isometria di Ito)
=
∫ t
0
σ(s)2ds.
Possiamo ora enunciare (nel caso unidimensionale) il principale risultato della teoria
del calcolo stocastico.
Teorema 3.28. [Formula di Ito]
Siano X in (3.25) un processo di Ito e f = f(t, x) ∈ C2(R2). Allora il p.s. Y , definito
da Yt = f(t,Xt), e un processo di Ito e vale
dYt = ∂tf(t,Xt)dt + ∂xf(t,Xt)dXt +1
2∂xxf(t,Xt)d〈X〉t. (3.27)
Osservazione 3.29. In (3.27), ∂tf e ∂xf indicano le derivate parziali di f rispetto alle
variabili reali t e x. La formula di Ito e valida assumendo l’esistenza delle sole derivate
parziali ∂tf e ∂xxf continue. Le ipotesi di regolarita su f si possono ulteriormente
indebolire.
Esempio 3.30.
(1) Nel caso f(t, x) = tx e X = W MB, si ha
d(tWt) = Wtdt + tdWt.
Notare la somiglianza con la classica legge di derivazione di un prodotto di funzioni.
In forma integrale otteniamo:
tWt =
∫ t
0
Wsds +
∫ t
0
sdWs.
(2) se f(t, x) = x2 e X = W MB, si ha, per la (3.26),
d(W 2t ) = 2WtdWt + dt.
Dunque ricaviamo ∫ t
0
WsdWs =W 2
t − t
2;
52 Elementi di calcolo stocastico
(3) calcoliamo E(W 4t ). Per la formula di Ito si ha
dW 4t = 4W 3
t dWt + 6W 2t dt,
ossia
W 4t =
∫ t
0
4W 3s dWs +
∫ t
0
6W 2s ds.
Per la proprieta della media nulla (3.16), si deduce
E(W 4t ) =
∫ t
0
6E(W 2s )ds =
∫ t
0
6sds = 3t2.
Esempio 3.31. [Moto Browniano geometrico]
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 100000
2
4
6
8
10
12
Figura 3.1: Grafico di una traiettoria St(ω) di un moto Browniano geometrico S e del
valore atteso E(St).
Dati S0, µ, σ ∈ R, il p.s.
St = S0 exp
((µ− σ2
2
)t + σWt
). (3.28)
e detto moto Browniano geometrico ed e il modello piu comune per i titoli rischiosi.
In particolare e il modello per il sottostante utilizzato nell’analisi di Black&Scholes.
Rispetto al modello di titolo rischioso dell’Esempio 3.7, essendo S un’esponenziale, se
S0 > 0 allora St > 0 per ogni t > 0. Inoltre se σ = 0, la dinamica di S e deterministica
St = S0eµt
3.8 Metodo di Eulero per equazioni differenziali stocastiche 53
e corrisponde ad una legge di capitalizzazione composta con tasso µ. Il parametro σe
detto volatilita e µ e detto tasso di rendimento atteso . Non e difficile provare che
E(St) = S0eµt.
Poiche
log(St) = log(S0) +
(µ− σ2
2
)t + σWt,
si dice che S ha distribuzione log-normale, ed e dunque facile calcolare, per esempio,
P (St ∈ [a, b]).
Utilizzando la formula di Ito, si verifica (esercizio!) che
dSt = µStdt + σStdWt. (3.29)
3.8 Metodo di Eulero per equazioni differenziali sto-
castiche
La (3.29) e uno dei piu semplici esempi di equazione differenziale stocastica (SDE). Per
una SDE piu generale della forma
dSt = µ(t, St)Stdt + σ(t, St)StdWt, (3.30)
dove µ e σ sono funzioni deterministiche a valori reali, esiste una teoria dell’esistenza e
unicita delle soluzioni in cui molti risultati sono analoghi a quelli per le equazioni diffe-
renziali ordinarie. Non tratteremo questi argomenti benche SDE del tipo (3.30) inter-
vengano in molti modelli che generalizzano quello di Black&Scholes. Dal punto di vista
applicativo, mentre la (3.29) ha il vantaggio di avere la soluzione esplicita S in (3.28),
nel caso generale (3.30) e necessario ricorrere a metodi numerici per l’approssimazione
delle soluzioni.
Ricordando l’Osservazione 3.23, sotto opportune ipotesi di regolarita dei coefficienti
µ e σ, la SDE (3.30) puo essere discretizzata sull’intervallo [0, T ] nel modo seguente
Stk = Stk−1(1 + µ(tk−1, Stk−1
)(tk − tk−1) + σ(tk−1, Stk−1)(Wtk −Wtk−1
))
per k = 1, . . . , N , essendo t0, . . . , tN una scomposizione di [0, T ]. Ricordando che
Wtk −Wtk−1=
√tk − tk−1 Z
54 Elementi di calcolo stocastico
dove Z ∼ N0,1, la precedente formula ricorsiva puo essere utilizzata per generare delle
approssimazioni delle traiettorie della soluzione di (3.30) che possono essere utilizzate,
come vedremo in seguito, nell’applicazione del metodo Monte Carlo.
A questo riguardo, riportiamo un semplice codice Matlab c©: i parametri richiesti
sono T , il numero di intervalli n della scomposizione, il prezzo iniziale del titolo S0, la
funzione di rendimento atteso mu e la funzione di volatilita sigma.
function Stock = Stock(T,S0,n)
dt = (T/n);
S(1)=S0;
for j=2:n
S(j) = S(j-1)(1+mu((j-1)dt,S(j-1))*dt
+sigma((j-1)dt,S(j-1))*sqrt(dt)*randn));
end
plot(S)
3.9 Un’estensione della formula di Ito
Dati due processi di Ito
dX it = ui
tdt + vitdWt, i = 1, 2 (3.31)
si definisce il processo variazione quadratica congiunta di X1 e X2 nel modo seguente
〈X1, X2〉t = lim|s|→0+
N∑
k=1
(X1tk−X1
tk−1)(X2
tk−X2
tk−1), in L2(Ω, P )
ammesso che tale limite esista e dove, al solito, s indica una scomposizione di [0, t].
Vale il seguente
Lemma 3.32. Siano X1, X2 processi di Ito della forma (3.31). Allora
〈X1, X2〉t =
∫ t
0
v1sv
2sds
o, in termini differenziali,
d〈X1, X2〉t = v1t v
2t dt.
Osservazione 3.33. Se v1 = 0 oppure v2 = 0 allora si ha 〈X1, X2〉t = 0.
3.9 Un’estensione della formula di Ito 55
Enunciamo la seguente estensione del Teorema di Ito.
Teorema 3.34. Sia X = (X1, . . . , XN) un p.s. di Ito N-dimensionale, con X i processi
di Ito della forma (3.31) per i = 1, . . . , N . Sia f = f(t, x1, . . . , xN) ∈ C2(RN+1). Allora
il p.s. Y , definito da Yt = f(t,Xt), e un processo di Ito e vale
dYt = ∂tf(t, Xt)dt +N∑
i=1
∂xif(t,Xt)dX i
t +1
2
N∑i,j=1
∂xixjf(t,Xt)d〈X i, Xj〉t. (3.32)
Per esempio si ha
d(X1t X2
t ) = X1t dX2
t + X2t dX1
t + v1t v
2t dt. (3.33)
56 Elementi di calcolo stocastico
Capitolo 4
Modelli a tempo continuo per i
derivati
In questo capitolo estendiamo al caso continuo alcuni concetti introdotti nel Capitolo
2, presentiamo l’analisi di Black&Scholes [2] per la determinazione del prezzo e la
copertura di un derivato e discutiamo qualche possibile generalizzazione. Nel seguito
(Ω,F , P ) indica uno spazio di probabilita su cui e definito un moto Browniano W di
punto iniziale l’origine e con filtrazione Browniana F .
4.1 Portafoglio autofinanziante e di arbitraggio
Consideriamo un mercato in cui ci siano N titoli (azioni, bonds) S1, . . . , SN e assumia-
mo che siano processi di Ito. Si definisce strategia un processo h = (h1, . . . , hN), con
hk processo di Ito; inoltre il processo
V =N∑
k=1
hkSk,
e detto portafoglio. Dunque Vt indica il valore del portafoglio e hkt il numero di titoli
k-esimi in portafoglio al tempo t (e ammesso che hkt sia negativo). Notiamo che, per
ipotesi, h e un processo adattato a F , ossia la strategia di investimento viene decisa
in base alle informazioni disponibili al momento. La seguente definizione estende in
modo naturale le nozioni di portafoglio autofinanziante e di arbitraggio date nel caso
discreto (cfr. Definizione 2.5 e 2.6).
57
58 Modelli a tempo continuo per i derivati
Definizione 4.1. Un portafoglio V si dice autofinanziante se vale
dVt =N∑
k=1
hkt dV k
t . (4.1)
Si dice che un portafoglio autofinanziante V e un portafoglio di arbitraggio se
i) V0 = 0,
ed esiste t tale che
ii) P(Vt ≥ 0) = 1,
iii) P (Vt > 0) > 0.
4.2 Modello di Black&Scholes
Consideriamo un mercato in cui ci siano tre titoli:
- un titolo non rischioso (bond) con dinamica Bt = B0ert dove r e il tasso di interesse
privo di rischio;
- un titolo rischioso (stock) S modellizzato da un MB geometrico
dSt = µStdt + σStdWt, (4.2)
con tasso di rendimento atteso µ e volatilita σ;
- un derivato H con scadenza T e payoff ϕ(ST ).
Ipotesi 1: assumiamo che esista una funzione f = f(t, s) ∈ C2(R2) tale che Ht =
f(t, St) per t ∈ [0, T ].
Come nel modello binomiale, si e interessati alla valutazione del prezzo e alla co-
pertura del derivato: piu precisamente, il modello permette di determinare la funzione
f e un portafoglio autofinanziante
Vt = αtSt + βtBt,
che replichi il derivato, ossia tale che
P (VT = HT ) = 1. (4.3)
Ipotesi 2: Principio di Non Arbitraggio (PNA). Nel mercato (B,S, H) non
esistono portafogli di arbitraggio.
Come per l’Osservazione 2.9, vale il seguente risultato.
4.2 Modello di Black&Scholes 59
Lemma 4.2. Assumendo il PNA, se U,W sono portafogli autofinanzianti tali che
P (UT = WT ) = 1 per un certo T > 0, allora si ha anche P (Ut = Wt) = 1 per ogni
t ∈ [0, T ].
Dimostrazione. Per esercizio.
Come immediata conseguenza, per ogni portafoglio replicante V deve valere la
seguente condizione
Vt = Ht q.s. ∀t ∈ [0, T ]. (4.4)
Il portafoglio V e autofinanziante1 se vale
dVt = αtdSt + βtdBt. (4.5)
Ora, sostituendo l’espressione (4.2) di S in (4.5), si ha
dVt = (αtµSt + βtrBt)dt + αtσStdWt.
D’altra parte, per la formula di Ito e abbreviando f = f(T − t, St), si ha
dHt = ∂tfdt + ∂sfdSt +1
2∂ssfd〈S〉t
=
(∂tfdt + µSt∂sf +
σ2S2t
2∂ssf
)dt + σSt∂sfdWt.
Per ottenere un portafoglio replicante e sufficiente imporre che V abbia la stessa dina-
mica di H: in particolare e sufficiente2 imporre l’uguaglianza dei termini in dt e dWt
1Per la formula di Ito (si veda la (3.33)), si avrebbe
dVt = αtdSt + βtdBt + Stdαt + Btdβt + d〈α, S〉t,
e dunque l’ipotesi che V sia autofinanziante equivale anche alla condizione
Stdαt + Btdβt + d〈α, S〉t = 0.
2Chiaramente, imporre
dVt = utdt + vtdWt = dHt, P (VT = HT ) = 1,
equivale, in forma integrale a
Vt = VT −∫ T
t
usds−∫ T
t
vsdWs =q.s.
HT −∫ T
t
usds−∫ T
t
vsdWs = Ht
e quindi e soddisfatta la condizione (4.4) di replicazione.
60 Modelli a tempo continuo per i derivati
di V e H. Uguagliando i termini in dWt, ricaviamo
αt = ∂sf(t, St). (4.6)
Uguagliando i termini in dt e utilizzando la (4.6), otteniamo
∂tf +σ2S2
t
2∂ssf − rβtBt = 0. (4.7)
Ora utilizziamo il PNA e osserviamo che, per la (4.4), si ha
βt =Vt − αtSt
Bt
=f(t, St)− St∂sf(t, St)
Bt
, q.s. (4.8)
e quindi, sostituendo la (4.8) nella (4.7), otteniamo
∂tf(t, St) + rSt∂sf(t, St) +σ2S2
t
2∂ssf(t, St)− rf(t, St) = 0, q.s. (4.9)
L’equazione (4.9) e risolta da f per ogni possibile valore di t e St. Dunque3 f e soluzione
della seguente equazione differenziale (deterministica)
∂tf(t, s) + rs∂sf(t, s) +σ2s2
2∂ssf(t, s)− rf(t, s) = 0, (4.10)
per (t, s) ∈ ]0, T [× ]0, +∞[, con condizione finale
f(T, s) = ϕ(s), s ∈ ]0, +∞[. (4.11)
La (4.10) e detta equazione di Black&Scholes. Il problema (4.10)-(4.11) ammette un’u-
nica4 soluzione f che puo essere determinata (nella maggior parte dei casi con metodi
numerici). Le formule (4.6)-(4.8) forniscono una strategia replicante (α, β) in termini
di f . Di conseguenza e possibile calcolare il valore V0 del portafoglio replicante e, dalla
(4.4), ricavare infine il prezzo del derivato H0.
Osservazione 4.3. I risultati precedenti si estendono al caso generale in cui il sotto-
stante verifica un SDE del tipo (3.30)
dSt = µ(t, St)Stdt + σ(t, St)StdWt,
supponendo ipotesi ragionevoli su µ, σ (che garantiscano, per esempio, che (3.30) ab-
bia soluzione). In questo caso f e soluzione dell’equazione differenziale a coefficienti
variabili
∂tf(t, s) + rs∂sf(t, s) +σ2(t, s)s2
2∂ssf(t, s)− rf(t, s) = 0, (4.12)
per (t, s) ∈ ]0, T [× ]0, +∞[, con condizione finale (4.11).
Esercizio 4.4. Verificare che la strategia (α, β) in (4.6)-(4.8) e autofinanziante.
3Poiche St ha distribuzione log-normale, la sua densita e strettamente positiva su ]0,+∞[.4Sotto alcune naturali ipotesi.
4.3 Equazione di Black&Scholes ed equazione del calore 61
4.3 Equazione di Black&Scholes ed equazione del
calore
Come avevamo anticipato nel Paragrafo 3.2, l’equazione di Black&Scholes puo essere
trasformata in un’equazione alle derivate parziali di tipo parabolico (come l’equazione
del calore) tramite un semplice cambio di variabili. Poniamo
f(t, s) = e−r(T−t)u(log s + r(T − t), T − t), t, s > 0,
ovvero consideriamo il cambio di variabili x = log s + r(T − t), τ = T − t. Allora si ha
∂tf + rf = −e−r(T−t)∂xu− e−r(T−t)∂τu,
∂sf = −e−r(T−t)
s∂xu,
∂ssf = −e−r(T−t)
s2(∂xxu− ∂xu).
Dunque il problema (4.10)-(4.11) si trasforma5 nel problema di Cauchy per la funzione
u = u(x, τ)
σ2
2(∂xxu(x, τ)− ∂xu(x, τ))− ∂τu(x, τ) = 0, (x, τ) ∈ R×]0, T [,
u(x, 0) = ϕ(ex), x ∈ R.(4.13)
Per problemi di questo tipo e disponibile una teoria, ormai classica, dell’esistenza e
unicita delle soluzioni. Sono inoltre ben noti diversi metodi di risoluzione numerica per
l’approssimazione della soluzione e delle sue derivate.
Nel caso di un’opzione call europea con strike K, il payoff e ϕ(s) = (s−K)+ e puo
essere conveniente il seguente cambio di variabili, simile al precedente,
f(t, s) = Ke−r(T−t)u(log(s/K) + r(T − t), T − t), t, s > 0.
In questo caso, u risolve la stessa equazione differenziale in (4.13) ma con dato iniziale
u(x, 0) = (ex−1)+. Quindi risolvendo un’unico problema di Cauchy, e possibile valutare
tutte le opzioni call su S al variare dello strike e della scadenza (fino a T ).
5Con un po’ di pazienza in piu si puo ottenere esattamente l’equazione del calore. Basta considerarel’ulteriore cambio di variabili
u(x, τ) = ex2−σ2τ
8 v
(x√
2σ
, τ
).
Si ha allora che v = v(y, τ) risolve ∂yyv − ∂τv = 0 in R× ]0, T [.
62 Modelli a tempo continuo per i derivati
4.4 Valutazione neutrale al rischio
Nell’ipotesi che il mercato sia privo di arbitraggi, nel modello di Black&Scholes il prezzo
di un derivato H e ottenuto determinando la funzione f che esprime in ogni istante Ht
in termini di t e St. Si noti che il problema (4.10)-(4.11), e quindi f , non dipende dal
rendimento atteso µ del sottostante. Questo fatto, contrario all’intuizione, si puo in
parte spiegare proprio osservando che f non e il prezzo del derivato in termini assoluti,
bensı la funzione che esprime tale prezzo in termini di t e St.
Per analogia con quanto abbiamo visto nel caso del modello binomiale (cfr. Osser-
vazione 2.2), chiamiamo P probabilita oggettiva (o del mondo reale) e assumiamo la
seguente dinamica per S nella6 probabilita P
dSt = µ(t, St)Stdt + σ(t, St)StdWt. (4.14)
Supponiamo ora che esista una misura di probabilita Q su (Ω,F) e un moto Browniano
W in (Ω,F , Q), e consideriamo un altro titolo S che soddisfi l’equazione
dSt = rStdt + σ(t, St)StdWt,
ossia una SDE analoga alla (4.14), con µ ≡ r. Per evitare confusione, indichiamo con
EQ l’attesa nella misura Q e con (Ft) la filtrazione associata al moto Browniano W .
Osserviamo che il prezzo scontato di S e una (Ft)-martingala, infatti, utilizzando la
formula di Ito, si ha
d(e−rtSt) = σ(t, St)e−rtStdWt,
e la tesi segue dalla (3.19).
Poiche l’equazione (4.12) non dipende dal rendimento atteso, due derivati H e H
rispettivamente su S e S con lo stesso payoff ϕ si esprimono in termini della stessa
funzione f :
Ht = f(t, St), Ht = f(t, St).
Consideriamo il prezzo scontato del derivato H: per la formula di Ito si ha
d(e−rtHt) = d(e−rtf(t, St)) = e−rt
(−rf + ∂tf + rSt∂sf +
σ2S2t
2∂ssf
)dt
+ e−rtσSt∂sfdWt =
6Ossia, assumendo che W sia un MB rispetto alla misura P sullo spazio (Ω,F).
4.4 Valutazione neutrale al rischio 63
(poiche f e soluzione dell’equazione di Black&Scholes)
= e−rtσSt∂sfdWt.
Dunque otteniamo un risultato analogo a quello dei Paragrafi 2.4 e 2.5: il prezzo
scontato del derivato H e una (Ft)-martingala e quindi vale la seguente formula di
valutazione neutrale al rischio:
Ht = EQ(e−r(T−t)ϕ(ST ) | Ft) = E(e−r(T−t)HT | Ft), t ∈ [0, T ]. (4.15)
Per t = 0, essendo la σ-algebra F0 banale7, per la proprieta (2) della attesa condizionata
si ha
H0 = EQ(e−rT ϕ(ST )) = E(e−rT HT ). (4.16)
La formula (4.16), essendo noto il prezzo attuale del sottostante, fornisce il valore del
derivato come numero reale; la (4.15) fornisce il valore del derivato come variabile
aleatoria, in termini di attesa condizionata alle informazioni disponibili fino al tempo
t.
Torniamo ora al problema della determinazione del prezzo di un derivato su S. Con-
sideriamo il modello di Black&Scholes e assumiamo che µ e σ in (4.14) siano costanti.
Il risultato cruciale e la seguente prima formulazione del Teorema di Girsanov.
Teorema 4.5. Sia λ ∈ R. Esiste una misura di probabilita Q, equivalente a P , tale
che il p.s. W definito da
Wt = Wt + λt, t ≥ 0, (4.17)
e un MB su (Ω,F , Q).
Osserviamo che
dSt = µStdt + σStdWt = rStdt + σSt
(dWt +
µ− r
σdt
)= rStdt + σStdWt,
avendo posto
λ =µ− r
σ
ed essendo W il p.s. in (4.17). Il parametro λ e detto il prezzo di mercato del rischio in
quanto fornisce una misura della propensione al rischio degli investitori ovvero indica
il rapporto fra il premio sul rendimento atteso µ − r richiesto per assumersi il rischio
e la volatilita σ. Il caso λ = 0 ossia µ = r indica la neutralita al rischio.
7F0 contiene solo eventi impossibili o certi.
64 Modelli a tempo continuo per i derivati
Analogamente al caso del modello binomiale (cfr. Osservazione 2.2), i parametri µ
e σ sono da determinare in base ad osservazioni sul mercato reale e la dinamica (4.14)
nella misura P descrive tali osservazioni. Il Teorema 4.5 garantisce l’esistenza di una
misura di probabilita Q, detta misura martingala equivalente, rispetto alla quale
S e un MB geometrico con rendimento atteso r. Dunque nella misura Q il sottostante
ha una dinamica che non descrive le osservazioni reali ma e tale che gli investitori sono
neutrali al rischio.
Possiamo allora riassumere i risultati precedenti nel seguente enunciato.
Teorema 4.6. Esiste una misura di probabilita Q, equivalente a P , tale che il sotto-
stante ha la seguente dinamica in Q:
dSt = rStdt + σStdWt.
Inoltre SB, H
Bsono mg e vale la seguente formula di valutazione neutrale al rischio
Ht = EQ(e−r(T−t)ϕ(ST ) | Ft), t ∈ [0, T ].
In particolare
H0 = EQ(e−rT ϕ(ST )).
Il risultato precedente puo essere esteso al caso (4.14) utilizzando una versione
generale del Teorema di Girsanov.
Teorema 4.7. [Teorema di Girsanov]
Sia W un moto Browniano sullo spazio (Ω,F , P ) con filtrazione Browniana (Ft). Sia
u un processo adattato tale che esista in [0, T ] la soluzione L di
dLt = utLtdWt,
L0 = 1.(4.18)
Se vale la condizione
E(LT ) = 1, (4.19)
definiamo la misura di probabilita Q su FT mediante
dQ
dP= LT in FT .
Allora il p.s. (Wt)t∈[0,T ] definito da
dWt = dWt − utdt, ossia Wt = Wt −∫ t
0
usds,
e un moto Browniano nello spazio (Ω,FT , Q).
4.5 Metodo Monte Carlo 65
Provare per esercizio, utilizzando la formula di Ito, che una soluzione di (4.18) e
data, almeno formalmente, da
Lt = exp
(∫ t
0
usdWs − 1
2
∫ t
0
u2sds
).
L’ipotesi (4.19) del Teorema di Girsanov non e facile da verificare in generale. Il
risultato seguente da una condizione sufficiente.
Proposizione 4.8. [Condizione di Novikov] Supponiamo che
E(e
12
R t0 u2
sds)
< ∞,
allora il processo L definito da (4.18) e una martingala e vale la (4.19).
4.5 Metodo Monte Carlo
4.6 Put-Call parity
4.7 Formula di Black&Scholes
4.8 Volatilita implicita e generalizzazioni del mo-
dello di Black&Scholes
4.9 Opzioni asiatiche e modelli con dipendenza dal
passato
66 Modelli a tempo continuo per i derivati
Bibliografia
[1] T. Bjork, Arbitrage theory in continuous time, Second edition, Oxford University
Press, Oxford, 2004.
[2] F. Black and M. Scholes, The pricing of options and corporate liabilities, J.
Political Economy, 81 (1973), pp. 637–654.
[3] H. Brezis, Analisi funzionale, Liguori Editore, Napoli, 1983. Teoria e
applicazioni.
[4] J. Cox, S. Ross, and M. Rubinstein, Option pricing: a simplified approach,
J. Financial Econ., 7 (1979).
[5] R. Durrett, Brownian motion and martingales in analysis, Ed. Wadsworth
Advance Book & Softer, 1984.
[6] A. Einstein, On the movement of small particles suspended in a stationary liquid
demanded by molecular kinetic theory of heat, Ann. Phys., 17 (1905).
[7] T. W. Epps, Pricing derivative securities, World Scientific, Singapore, 2000.
[8] I. Karatzas and S. E. Shreve, Brownian motion and stochastic calculus,
vol. 113 of Graduate Texts in Mathematics, Springer-Verlag, New York, second ed.,
1991.
[9] L. C. G. Rogers and D. Williams, Diffusions, Markov processes, and mar-
tingales. Vol. 1, Cambridge Mathematical Library, Cambridge University Press,
Cambridge, 2000. Foundations, Reprint of the second (1994) edition.
[10] , Diffusions, Markov processes, and martingales. Vol. 2, Cambridge Mathema-
tical Library, Cambridge University Press, Cambridge, 2000. Ito calculus, Reprint
of the second (1994) edition.
67
68 BIBLIOGRAFIA
[11] D. Williams, Probability with martingales, Cambridge Mathematical Textbooks,
Cambridge University Press, Cambridge, 1991.
Indice analitico
E(X | G), 19
E(·,B)18
E(·), 11
L1, 11
L2, 42, 43
Nµ,σ2 , 8
P (· | B), 15
PX , 9
V(2)T (·, s), 41
VT (·, s), 40
X+, 11
FXt , 34
Γ(x, t), 8
Λ2, 43
Φ, 14
χ, 7
δx0 , 7dQdP
, 17
〈W 〉T , 41
〈X〉t, 50
〈X1, X2〉t, 54
¿, 16
B, 5
ϕX , 9
σ(X), 14
σ-algebra, 5
σ-algebra generata da una v.a., 14
∼, 9
var (·), 13
F , 34
m, 7
σ-algebra generata da, 5
Arbitraggio, 24, 58
Assoluta continuita, 16
Attesa di una v.a. condizionata a una σ-
algebra , 19
Attesa di una v.a. condizionata ad un even-
to, 18
Borelliani, 5
Curva rettificabile, 40
Delta, 30
Delta di Dirac, 7
Densita di una distribuzione, 6
Derivata di Radon-Nikodym, 17
Distribuzione, 6
Distribuzione di Cauchy, 8
Distribuzione di una v.a., 9
Distribuzione esponenziale, 7
Distribuzione normale, 8
Distribuzione normale standard, 14
Distribuzione uniforme, 7
Disuguaglianza di Holder, 38
Equazione del calore, 36
Equazione di Black&Scholes, 60
Equazione differenziale stocastica, 53
69
70 INDICE ANALITICO
Eventi indipendenti, 15
Evento, 6
Evento certo, 6
Evento impossibile, 6
Filtrazione, 34
Formula di Ito, 51, 55
Funzione a variazione limitata, 40
Funzione caratteristica, 7
Funzione di distribuzione normale standard,
14
Funzione di distribuzione, 9
Funzione integrabile, 11
Funzione sommabile, 11
Holder, 38
Indipendenza, 16
Integrale, 10
Integrale di ItO, 47
Integrale di Ito, 43
Integrale di Riemann-Stieltjes, 40
Isometria di Ito, 45, 47
Martingala, 28, 37
MB, 34
mg, 37
Misura σ-finita, 17
Misura assolutamente continua, 16
Misura di Lebesgue, 7
Misura di probabilita, 6
Misura martingala equivalente, 26, 64
Misura risk neutral, 26
Misure equivalenti, 17
Modello binomiale, 21
Moto Browniano geometrico, 52
Moto Browniano reale, 34
Moto Browniano standard, 34
Operatore del calore, 36
p.s., 33
Parametro di finezza, 39
PNA, 24, 58
Portafoglio, 23, 57
Portafoglio adattato, 27
Portafoglio autofinanziante, 23, 58
Portafoglio di arbitraggio, 24, 58
Portafoglio di replica, 29
Prezzo di mercato del rischio, 63
Principio di Non Arbitraggio, 24, 58
Probabilita condizionata a un evento, 15
Probabilita oggettiva o del mondo reale,
22, 62
Problema di Cauchy, 36
Processo L2-continuo, 48
Processo adattato, 37
Processo di Ito, 49
Processo semplice, 43
Processo stocastico, 33
Processo variazione quadratica, 50
Processo variazione quadratica congiunta,
54
q.s., 19
Rendimento atteso, 36
Scomposizione, 38
SDE, 53
Soluzione fondamentale dell’equazione del
calore, 37
Spazio di probabilita, 6
Strategia, 23, 57
INDICE ANALITICO 71
Strategia adattata, 27
Tasso di rendimento atteso, 53
Teorema di Girsanov, 63, 64
Teorema di Ito, 51, 55
Teorema di Radon-Nikodym, 17
Teorema di rappresentazione delle martin-
gale, 49
v.a., 9
v.a. semplice, 10
Valore atteso, 11
Variabile aleatoria, 9
Varianza, 13
Variazione, 40
Variazione quadratica, 41
Volatilita, 36, 53
top related