Probabilidade para Finanças

Transcrição

Probabilidade para Finanças
Probabilidade para Finanças
José Fajardo Barbachan
IBMEC Business School
2 de Junho de 2003
Conteúdo
Introdução
3
1 Axiomas da Probabilidade
1.1 Medida de Probabilidade . . . . . . . . . . . . . . . . . . . . .
4
5
2 Independência e Probabilidade Condicionada
6
3 Variáveis Aleatórias
3.1 Variáveis Aleatórias em Espaços
3.1.1 Esperança e Variância .
3.2 Variáveis Aleatórias em Espaços
não Enumeráveis . . . . . . . .
3.2.1 Esperança e Variância .
8
Enumeráveis . . . . . . . . . 8
. . . . . . . . . . . . . . . . . 10
. . . . . . . . . . . . . . . . . 11
. . . . . . . . . . . . . . . . . 13
4 Esperança Condicionada
17
4.0.2 Propriedades . . . . . . . . . . . . . . . . . . . . . . . 17
5 Processos Estocásticos
5.1 Processos de Markov .
5.2 Movimento Browniano
5.3 Martingalas . . . . . .
5.3.1 Exemplo . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6 Medida Martingala Equivalente
6.1 Teorema de Radon-Nikodym . .
6.2 Integral Estocástica . . . . . . .
6.3 Teorema de Girsanov . . . . . .
6.4 Formula de Ito . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
19
20
20
.
.
.
.
23
23
24
25
27
7 Modelo de Black e Scholes
7.1 Um pouco de Hı́storia . . . . . . . . . .
7.2 Derivação da Equação de Black e Scholes
7.2.1 Carteira Equivalente . . . . . . .
7.2.2 Carteira de Risco Neutro . . . . .
7.3 Formula de Black e Scholes . . . . . . . .
7.3.1 Metódo de Merton . . . . . . . .
7.3.2 Formula de Feynman-Kac . . . .
7.3.3 Aproximação Binomial . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
32
32
33
35
35
38
39
8 Opções Americanas
44
9 Opções Exóticas
45
10 Exercı́cios Numéricos
46
Bibliográfia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2
Introdução
A probabilidade é uma das ferramentas mas útieis em finanças, ela nos
permite modelar a incerteza associada as variáveis de risco existentes no
mercado financeiro. Para poder analizar e aplicar os modelos já existentes
teremos que entender a estrutura probabilistica envolvida na engenharia do
modelo. O presente texto tem como objetivo mostrar ao aluno, de uma forma
simples mais rigurosa, a beleza e elegância desta teoria e como é usada em
finanças.
3
Capı́tulo 1
Axiomas da Probabilidade
Para entender como se obtem uma medida de probabilidade precisamos
de axiomas muito razoaveis. Para presentar estes axiomas precisamos da
noção de σ−algebra. Para definir este objeto denotemos por Ω o conjunto
de possı́veis eventos de um experimento, por exemplo lançar uma moeda,
possı́veis resultados: cara(c) ou corõa(c̃), então Ω = {c, c̃}.
Agora denotemos o conjunto de todos os subconjuntos de Ω por P(Ω)
este conjunto possue 2n(Ω) elementos por isto tambem é denotado por 2Ω .
Além disto seja A um subconjunto de P(Ω). O conjunto vacio será denotado
por ∅.
Definição 1 A é uma algebra se satisfaz:
1. ∅ ∈ A e Ω ∈ A,
2. Se A ∈ A então Ac ∈ A, onde Ac denota o complemento de A em
relação a Ω,
3. Se A1 , A2 , . . . , An ∈ A, então
n
\
Ai ∈ A
i=1
E dizemos que A é uma σ−algebra se satisfaz (1), (2) e no lugar de
(3) satisfaz
4
4. se A1 , A2 , A3 , . . . ∈ A, então
∞
[
Ai ∈ A e
i=1
∞
\
Ai ∈ A
i=1
Dado qualquer subconjunto C de P(Ω), temos que a σ−algebra gerada por
C e denotada por σ(C), é a menor σ−algebra que contem C. Esta sempre
existe por que P(Ω) é uma σ−algebra. Além disto a interseção de uma familia de σ−algebras é outra vez uma σ−algebra (Prove!)
Exemplos
• A = {∅, Ω} é a σ−algebra trivial
• A subconjunto, então σ(A) = {∅, A, Ac , Ω}
• Se Ω = IR, a σ−algebra de Borel é a σ−algebra gerada pelos conjuntos
abertos, ou pelos fechados.
1.1
Medida de Probabilidade
Usaremos a definição acima para definir uma medida de probabilidade,
Definição 2 Uma medida de probabilidade definida numa σ−algebra A de
Ω é uma função P : A → [0, 1] que satisfaz:
• P (∅) = 0 e P (Ω) = 1
• Para cada sequência (An )n≥1 de elementos de A, disjuntos dois a dois,
isto é se m 6= n, então An ∩ Am = ∅, temos que
P(
∞
[
An ) =
n=1
∞
X
P (An )
n=1
Exercı́cios
1. Prove que se A, B ∈ A e A ⊂ B, então P (A) ≤ P (B).
2. Prove que se A, B ∈ A então P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
5
Capı́tulo 2
Independência e Probabilidade
Condicionada
A partir de agora dado um Ω, uma σ−algebra F e uma probabilidade P
definida em F, nos referiremos à tripla (Ω, F, P ) como espaço de probabilidade.
Sejam A e B dos eventos do espaço de probabilidade definido acima, seja
fn (A) o numero de veces que A acontece dividido por n, daqui
lim fn (A) = P (A)
n→∞
. Suponhamos que o evento B ha ocontecido, então denotemos por P (A/B)
a probabilidade de que aconteça A dado que aconteceu B, então
P (A/B) ≈
nfn (A ∩ B)
nfn (B)
tomando limites teriamos que P (A/B) =
P (A∩B)
.
P (B)
Agora que pasaria se o evento A fosse independente de B no sentido de
que a informação “B ha acontecido”em nada afeta a possı́vel ocorrência de
A. Então devemos ter que P (A/B) = P (A), daqui
P (A) =
P (A ∩ B)
P (B)
ou P (A ∩ B) = P (A)P (B). Isto motiva a seguinte definição
6
Definição 3 Dois eventos A e B são independentes se P (A∩B) = P (A)P (B).
Uma coleção de eventos (Ai )i∈I é uma coleção independente se para todo subconjunto finito J de I, temos
P(
\
Aj ) =
j∈J
Y
P (Aj )
j∈J
Exemplo
Seja Ω = {1, 2, 3, 4} e A = P(Ω). Seja P (i) = 14 , i = 1, 2, 3, 4. Seja
A = {1, 2}, B = {1, 3}, C = {2, 3}, então A, B, C são idpendentes dois a
dois mais não são independentes. (Exercı́cio!)
Definição 4 Sejam A, B dois eventos e P (B) > 0. A probabilidade condicional de A dado B é P (A/B) = P (A ∩ B)/P (B).
Teorema 1 Suponha que P (B) > 0
• A e B são independentes se e somente se P (A/B) = P (A)
• A operação A → P (A/B) de A → [0, 1] define uma nova medida de
probabilidade em A, chamada medida de probabilidade condicional dado
B.
Prova:
(a) é fácil. Para (b) é suficente definir Q(A) = P (A/B) e verificar que satisfaz
os axiomas.2
Teorema 2 (Teorema de Bayes) Seja (En ) uma partição finita ou enumerável de Ω, e suponha P (A) > 0. Então
P (A/En )P (En )
m P (A/Em )P (Em )
P (En /A) = P
A prova será deixada como Exercı́cio!
7
Capı́tulo 3
Variáveis Aleatórias
Uma variável aleátoria X é definida como uma função de Ω em T ⊂ IR.
Ela representa uma quantidade incerta, daqui o nome variável, que varia não
como se fosse uma variável algebrica, isto é tomando valores deterministicos,
pelo contrario dando eventos aleátorios.
Podemos definir a distribuição de uma variável aleatória X como
PX (A) = P ({ω : X(ω) ∈ A}) = P (X ∈ A)
3.1
Variáveis Aleatórias em Espaços Enumeráveis
No caso que Ω seja enumerável podemos definir a distribuição de X da
seguinte forma:
X
P (X = j) =
pi ,
{ωi :X(ωi )=j}
onde pi =probabilidade de acontecer ωi . Neste caso a distribuição de X será
X
P (X ∈ A) =
P (X = j)
j∈A
A este tipo de variável aleatória a chamremos discreta.
Exemplos:
• X é Poisson com parametro λ. Então X : Ω → IN , e
P (X ∈ A) =
X
P (X = j) =
j∈A
8
X λj e−λ
j∈A
j!
P
é fácil provar que ∞
j=0 P (X = j) = 1. Esta distribuição pode modelar
o número de´pessoas que chega a uma fila num banco, ou o número de
inadimplentes numa determinada carteira de empréstimos.
• X é de Bernoulli, se X toma somente dois valores 0 e 1, este caraterı́stico
númerico corresponde a um experimento com dois possı́veis resultados
“erro” ou “acerto”. É comun asignar as seguintes probabilidades:
P (X = 1) = p e P (X = 0) = 1 − p
Daqui, qual serı́a a distribuição da variavél Y = número de lances até
o primer acerto? (esta é chamada de distribuição Geometrica)
• Agora modelemos a seguinte variável X = número de acertos em n
tentativas, X pode tomar valores em {0, 1, 2, . . . , n}, a distribuição será
P (X = k) =
³n ´
k
pk (1 − p)n−k ,
esta distribuição é denominada distribuição Binomial de parametros p
e n.
Agora defino, Yi =1 se acerto no i−esimo lance e 0 caso contrario, qual
P
serı́a a distribuição de Z = ni=1 Yi ?
• Uma distribuição muito conhecida em economia é a distribuiçaõ de
Pareto, o nome é devido a que foi Vilfredo Pareto o primeiro a usar
esta distribuição para modelar a distribuição de renda. X toma valores
em IN , onde
a
P (X = j) = α+1
j
com α > 0 sendo um parametro fixo, e a é uma constante tal que
j P (X = j) = 1. A seguinte função é conhecida como a Função Zero
de Riemann:
∞
X
1
ζ(s) =
, s > 1,
s
k=1 k
P
daqui a =
1
,
ζ(α+1)
e
P (X = j) =
9
1
ζ(α + 1)j α+1
3.1.1
Esperança e Variância
Dada a distribuição de uma variável podemos definir dois constantes importantes,
Definição 5 Seja uma variável aleatória real num espaço enumerável Ω. A
esperança de X, denotada por E(X), é definida por
E(X) =
X
X(ωi )pi
j
Seja L1 o espaço das variáveis aleatórias reais que tem esperança finita,
então:
Se X e X 2 pertencem a L1 . A variância de X é definida como:
2
σX
≡ E(X − E(X))2
e σX será o desvio padrão.
Exercı́cios
1. Encontre a esperança e a variância das variáveis apresentadas na seção
3.1.
2. Se X é Geometrica(p), calcule E(1/X).
3. Se X é Binomial (n, p) a onde tende a distribuiçao, se np → c quando
n → ∞?
4. Se X é Poisson(λ), λ > 0 e inteiro. Encontre E|X − λ|.
5. Se X é Poisson(λ), que valor de λ maximiza P (X = j) para j fixo?
6. Suponha que temos tres securities no mercado, o primeiro será um atvo
com risco tal que seu preço satisfaz oseguinte equação:
St+1 = St Ht+1
onde H é um processo tal que ∀t > 1, Ht pode tomer dois valores
U > 0 e D > 0 com U > D. Agora suponha que o segundo ativo é um
ativo sem risco, cujo preço é tal que
Bt+1 = RBt , B0 > 0
10
onde R > 1 é uma constante. Consideire agora que o terceiro security
seja uma Opção de compra Européia em S com maturidade T e preço
de exercı́cio K ≥ 0. Isto significa que o preço da opção no tempo T
será
C(T ) = (ST − K)+ = max{ST − K, 0}
com C(t) = 0, t > T . A opção da ao tenedor o direito, mais não a
obrigação, de comprar o ativo S ao preço K na maturidade T . Assumindo ausência de arbitragem temos que D < R < U . Prove que:
• Para todo t < T ,
C(t) =
1
T
−t
X
RT −t
i=0
b(i, T − t, p)(U i DT −t−i St − K)+ ,
onde
³n ´
R−D
pi (1 − p)n−i
e b(i, n, p) =
k
U −D
são a probabilidade de sucesso num lançe e a probabilidade de i
sucessos em n lançes.
p=
3.2
Variáveis Aleatórias em Espaços
não Enumeráveis
Agora asumiremos que Ω é uma σ−algebra. Seja A ⊂ Ω. Como fizimos
anteriormente construiremos uma medida de probabilidade em A. Porém
não poderemos usar as mesmas técnicas usadas no caso enumerável, já que
uma medida de probabilidade naturalmente farı́a P (ω) = 0.
Outro problem mais delicado é o fato de também não podemos tomar A
como sendo o conjunto de tosdos os subconjuntos de Ω, já que se por exemplo Ω = [0, 1] e definamos uma medidade de probabilidade P nos conjunto
sdo tipo (a, b] 0 ≤ a ≤ b ≤ 1 como P ((a, b]) = b − a, agora tentemos extender P de maneira única a todos os subconjuntos do [0, 1] (2[0,1] ) tal que
P∞
S
P (∅) = 0, P (Ω) = 1 e P ( ∞
n=1 P (An ) para qualquer sequência de
n=1 An ) =
conjuntos (An ) disjunta dois a dois. Então pode-se provar que tal extensão
não existe!. O conjunto 2[0,1] é muito grande, porém Borel percebeu que tal
extensão poderı́a existir na menor σ−algebra contendo intervalos da forma
11
(a, b].
Agora suponhamos que A é a σ−algebra de Borel em IR.
Definição 6 A função de distribuição inducida pela probabilidade P em (IR, A, P )
é a função
F (x) = P ((−∞, x]).
Pode-se provar o seguinte teorema
Teorema 3 Uma função F é a função de distribuição de uma probabilidade
se e somente se
i) F é não-decresente
ii) F é continua pela direita
iii) limx→−∞ F (x) = 0 e limx→+∞ F (x) = 1
Exemplos
• Se f é positiva e
R +∞
−∞
f (x)dx = 1, a função
Z x
F (x) =
−∞
f (y)dy
é uma função de distribuição de uma probabilidade em IR, e a função
f é chamada de sua densidade. Em geral não toda distribuição admite
uma densidade.
• Seja c ∈ IR uma constante. Uma probabilidade com massa pontoal em
IR é uma que satifaz:
½
P (A) =
1,
0
se c ∈ A
caso contrario
A função de distribuição será
½
F (x) =
0
1
se x < c
se x ≥ c
Esta probabilidade é denominada de Delta de Dirac não têm densidade.
A seguir mostraremos outras distrbuições obtidas apartir de densidades,
12
• A distribuição Uniforme em [a, b] é dada pela seguinte densidade:
½ 1
se a ≤ x ≤ b
0
caso contrario
A ideia desta distribuição é que todo ponto tenha a mesma chance.
f (x) =
b−a
• A distribuição Exponêncial com parametro β > 0 é dada pela seguinte
densidade:
½ −βx
se x ≥ 0
f (x) = βe
0
se x < 0
Esta distribuição é muito usada para modelar o tempo de arrivo de nova
informação, por exemplo o tempo de arrivo de clientes a um banco.
• A distribuição Normal com parametros (µ, σ 2 ), −∞ < µ < +∞, 0 <
σ 2 < ∞ é obtida da seguinte densidade
f (x) = √
−(x−µ)2
1
e 2σ2
2πσ
tambem conhecida como distribuição Gaussiana e denotada comunmente por N (µ, σ 2 ), esta é quiza a mais importante em probabilidade.
Se X ∼ N (µ, σ 2 ) então dizemos que Y = eX tem uma distribuição
lognormal, esta distribuição é muito usada em finanças para modelar
os retornos dos ativoos, isto será visto com detalhe no modelo de Black
e Scholes.
• A distribuição de Cauchy com parametros α e β, −∞ < α < +∞, 0 <
β < ∞ é obtida de
1
β
f (x) =
2
π β + (x − α)2
com −∞ < x < +∞. Esta distribuição possue caudas muito pesadas,
por isto sirvio muito como countraexemplos para muitos teoremas. Em
finanças é usada para capturar eventos extremos.
3.2.1
Esperança e Variância
No caso das variáveis aleatórias em espa ços não enumeráveis a esperança
e definida da seguinte maneira:
Z
E(X) =
xP X (dx)
13
onde P X (B) = P (X −1 (B)) = P ({ω : X(ω) ∈ A}). De fato podemos obter
resultados mais gerais, como mostra o seguinte teorema
Teorema 4 Seja X uma v.a. em (Ω, A, P ) com valores em T e distribuição
P X . Seja h : T → IR uma função, então
Z
h(x)P X d(x).
E[h(X)] =
Agora se a v.a. X tem densidade f e E[|h(X)|] < ∞, então
Z
E[h(X)] =
h(x)f (x)dx
2
daqui facilmente obtem-se a variância σX
= E(X − E(X))2 , já que basta
tomar h(X) = (X − E(X))2 .
14
Exercı́cios
1. Encontre a Esperança e Variância das distribuições presentadas nos
exemplos
2. Mostre que a densidade da distribuição Normal atinge seu máximo em
x = µ.
3. Dado (Ω, A, P ), suponha que se X é uma v.a. com X ≥ 0 q.c.(isto
é P ({ω : X(ω) ≥ 0}) = 1) e E(X) = 1. Defina Q : A → IR por
Q(A) = E(X1A ), onde 1A (ω) = 1 se ω ∈ A e 0 caso contrario. Prove
que Q define uma medida de probabilidade em (Ω, A).
4. No caso da distribuição lognormal mostre que
E(Y ) = eµ+
σ2
2
2
2
e σY2 = e2µ+σ (eσ − 1)
5. Defina a covariância de X com Y , como
σXY ≡ Cov(X, Y ) = E [(X − E(X))(Y − E(Y ))]
Prove que |σXY | ≤ σX σY
6. Encontre a solução do seguinte problema
min E(X − c)2
c∈IR
Isto é encontre c∗ tal que E(X − c∗ )2 ≤ E(X − c)2 ∀c ∈ IR
7. (Desigualdade de Jensen) Seja g concâva e X v.a. , então mostre que
g(E(X)) ≥ Eg(X)
8. * Seja h : IR → [0, ∞) e X uma v.a., prove que pata todo c > 0
P (h(X) ≥ c) ≤
15
E(h(X))
c
9. * (Desigualdades de Chebyshev) Seja X uma v.a., então para todo c > 0
mostre que
i) P (|X| ≥ c) ≤
E(X 2 )
c2
ii) P (|X − E(X)| ≥ c) ≤
2
σX
c2
Obs: Se X tivesse uma distribuição simétrica com média 0 e variância
σ 2 finita, tomando c = 7, 071σ teriamos:
P (X ≥ 7, 071σ) ≤ 0, 01,
logo o VaR (Value at Risk) máximo a um nı́vel de 0,99 séria 7,071σ, se
calculassemos o V aR assumindo que X é normal terı́amos V aR0.99 (X) =
2, 326σ, daqui se a verdadeira distribuição tiver uma cauda mais pessada do que a normal e finita, multiplicando por 3 (3×2, 326σ) terı́amos
uma aproximação aceitável para o verdadeiro valor de V aR0,99 (X) ≈
6, 978σ < 7, 071σ.
10. ** Seja X uma v.a. uniforme em [−π, π] e Y = c tan(X),
Encontre a densidade de Y
16
c > 0.
Capı́tulo 4
Esperança Condicionada
Seja (Ω, F, P ) um espaço de probabilidade, F0 ⊂ F uma sub σ−algebra
e X : Ω → IR uma varı́avel aleatória.
Definição 7 Uma varı́avel aleatória X0 : Ω → IR a qual é F0 −mesurável é
chamada de Esperança Condicionada de X sob F0 se ∀A ∈ F0
Z
A
Z
X0 dP =
A
XdP
E denotamos esta nova varı́avel por E [X|F0 ].
Observação
Se X ≥ 0 ou E[X] < ∞ esta esperança condicionada existe.Além disto ela
é única quace certamente, isto é se existem duas v.a. Y1 e Y2 satisfazendo a
definição acima então
P ({w ∈ Ω : Y1 (ω) = Y2 (ω)}) = 1
4.0.2
Propriedades
• E [X + Y |F0 ] = E [X|F0 ] + [Y |F0 ]
• E [cX|F0 ] = cE [X|F0 ]
• E [E [X|F0 ]] = E [X]
17
• Se X é independente de F0 , então
E [X|F0 ] = E[X]
• Se X é F0 −mesurável, então
E [X|F0 ] = X q.t.p.
• Sejam F1 , F2 ⊂ F0 , então
E [E [X|F1 ] |F2 ] = E [X|F1 ∩ F2 ] q.t.p.
Exercı́cios
1. (Desigualdade de Jensen) Seja g : IR → IR uma função convexa e X
uma v.a. tal que E|g(X)| ≤ ∞, então
E(g(X)|F) ≥ g (E(X|F)) q.t.p.
2. Mostre que a solução do seguinte problema:
min E(X − Y )2
Y ∈F
é Y ∗ = E(X|F)
Daqui em adelante as igualdades de vaeı́aveis aleatórias serão entendedidas
no sentido q.t.p.(quase toda parte)
18
Capı́tulo 5
Processos Estocásticos
Dizemos que (Xt )t≥0 é um processo estócastico se para todo t, Xt é uma
variável aleatória
5.1
Processos de Markov
Seja (Ω, F, P ) um espaço de probabilidade e seja (Ft )0≤t≤T uma filtração,
isto é uma familia de σ−algebras Ft ⊂ F ∀t tal que
s ≤ t ⇒ Fs ⊂ F t ,
Ft pode ser entendido como o conjunto de eventos observados até o tempo t.
Definição 8 Dizemos que um processo estocástico (Xt )0≤t≤T é um processo
de Markov se
• Xt ∈ Ft ∀t ≤ T
• A distribuição de Xt+1 condicionada a Ft é a mesma que a distribuição
de Xt+1 condicionada a Xt
5.2
Movimento Browniano
Seja (Bt )t≥0 um processo estocástico tal que
1. Bt é continuo em t,
19
2. Para todo t e s > t, Bs − Bt esta Normalmente distribuido com media
0 e variância s − t,
3. Para quaisquer tempos t0 , t1 , . . . , tn tais que t0 < t1 < . . . < tn < ∞, as
variáveis aleatórias Bt0 , Bt1 − Bt0 , . . . , Btn − Btn−1 são independentes.
Lembremos que este processo esta definido no espaço de probabilidade (Ω, F, P ),
onde F é a σ−algebra gerada pelas uniões das σ({Bs : 0 ≤ s ≤ t}). tambem
observe que os incrementos deste processo são estacionarios
Este processo é chamado Moviemento Browniano, devido a que foi o
Botanista Inglês Robert Brown (1828) quem simulando o movimento de particulas de polem num ambiente poroso descubrio este tipo de comportamento
irregular.
5.3
Martingalas
Consideire agora uma filtração (Ft )t>0 .
Definição 9 Um processo estócastico (Xt )t>0 é chamado de martingale (submartingale, supermartingale) em relação a (Ft )t>0 ) ou um {Ft }−martingale
(submartingale, supermartingale) se as seguintes condições são satisfeitas
i) Xt é Ft −mesurável e E |Xt | < ∞ ∀t ≥ 0.
ii) E [Xt |Fs ] = Xs q.t.p. ∀s ≤ t (≥, ≤, respectivamente).
5.3.1
Exemplo
O Movimento Browniano (Bt )t>0 é um martingale.
Prova
Consideremos quaisquer s < t, logo
E [Bt |Fs ] = E [Bs + (Bt − Bs )|Fs ] = E [Bs |Fs ] + E [Bt − Bs |Fs ]
= Bs + E [Bt − Bs ] = Bs .
|
{z
}
0
A partir desta definição nos perguntamos se um processo que cumpre a propriedades de martingale para um determinado conjunto de tempos pode ser
de interesse, a resposta é afirmativa, o seguinte conjunto de tempos nos permitirá extender a definição acima:
20
Definição 10 Dizemos que τ é um {Ft } −tempo de parada se a seguinte
condição é satisfeita:
[τ > t] ∈ Ft , ∀t
um exemplo de tempo de parada é:
τ = inf{t > 0 : Bt ≥ a}
Onde Bt é um Movimento Browniano standard é a > 0 é uma constante
qualquer.
Os conceitos acima sugerem a seguinte extensão:
Definição 11 Dizemos que um processo {Xt } é um Martingala local se existe
uma sequência de {Ft } −tempos de parada τn tais que
i) τn → ∞
ii) ∀n {Xt∧τn } é um {Ft } − martingale.
Um exemplo de martingala local é a integral estocástica que veremos com
mais detalhe na seção 6.2. Agora um teorema que permitirá analizar e extender varios resultados de Martingalas para semimartingalas(super and submartingalas), incluindo os Martingalas Locais limitados, já que todo Martingala Local positivo é um supermartingala(A verificação deste fato ficará como
exercı́cio):
Teorema 5 (Decomposição de Doob-Meyer). Seja (Xn )n≥0 um submartingale. Então existem um martingale (Mn )n≥0 e um processo (An )n≥0 com
An+1 ≥ An q.t.p. e An+1 sendo Fn −mensurável para todo n ≥ 0, tais que
Xn = X0 + Mn + An e M0 = A0 = 0
Esta decomposição é única.
Prova
Defina A0 = 0 e
An =
n
X
E [Xk − Xk−1 |Fk−1 ] ∀n ≥ 1
k=1
Logo é fácil comprovar que An satisfaz as propriedades acima e que
Mn = Xn − An é um martingale.2
21
Exercı́cios
t
1. Mostre que o processo Xt = eBt − 2 é um Martingala. Onde Bt é um
Movimento Browniano standard.
2. Mostre que se um prosesso Xt satisfaz a seguinte condição então é um
Martingala:
E(Xs ) = E(Xt ), ∀t, s ≥ 0
3. Mostre que todo Martingala local positivo é um supermartingala.
4. Mostre que τ = inf{t > 0 : Bt ≥ a} é um {Ft } −tempo de parada
5. Relacione os conceitos Mercados Eficientes e Martingala
22
Capı́tulo 6
Medida Martingala Equivalente
6.1
Teorema de Radon-Nikodym
Seja (Ω, F, P ) um espaço de probabilidade. Suponha que a varı́avel aleatória
X ≥ 0 q.t.p. tem a seguinte propriedade E[X] = 1. Então se definimos a
função Q sob os conjuntos de F por:
Q(A) = E[1A X]
è fácil verificar que Q é uma nova probabilidade, além disto temos que:
• Se P (A) = 0 então Q(A) = 0, já que 1A = 0 q.t.p
• Para todo ² > 0 existe um δ > 0 tal que se A ∈ F e P (A) < δ, então
Q(A) < ².
Mais formalmente temos
Teorema 6 (Radon-Nikodym). Seja (Ω, F, P ) um espaço de probabilidade .
Se Q é uma medida finita em F é se P (A) = 0 implica Q(A) = 0 para todo
A ∈ F, então existe uma única varı́avel aleatória integrável e positiva tal que
Q(A) = E[1A X]
Denotamos esta nova varı́avel por X =
23
dQ
.
dP
( X é única q.t.p.)
6.2
Integral Estocástica
Para construir uma integral estocástica, que denotaremos por I(t), precisaremos do movimento Browniano (B(t))t≥0 com a filtração associada (Ft )t≥0 .
Tomemos Π = {t0 , t1 , . . . , tn } uma partição do intervalo [0, T ], isto é
0 = t0 ≤ t1 ≤ . . . ≤ tn = T,
Agora consideire um processo θ(t) tal que
• θ(t) ∈ Ft ∀t,
• E[
RT 2
0 θ (t)dt] < ∞
• θ(t) é constante em cada subintervalo [tk , tk+1 ]
este processo é chamado de processo elementar. A integral estocástica, então
será representadapor
Z
I(t) =
t
0
θ(s)dB(s),
A seguinte intuição poderá ajudarnos a definir a integral estocástica: imagine
que
• B(t) é o preço por unidade de um ativo no tempo t,
• θ(t) será o número de unidades de ativo adquiridos no tempo tk e retidos
até o tempo tk+1 .
Daqui podemos entender a integral estocástica I(t) como o ganho acumulado
pelos negocios até a data t, por exemplo imagine que n = 4, então:


 θ(t0 )[B(t) − B(t0 )]
0 ≤ x ≤ t1
I(t) = θ(t0 )[B(t1 ) − B(t0 )] + θ(t1 )[B(t) − B(t1 )]
t1 ≤ x ≤ t2


θ(t0 )[B(t1 ) − B(t0 )] + θ(t1 )[B(t2 ) − B(t1 )] + θ(t2 )[B(t) − B(t2 )] t2 ≤ x ≤ t3
Em geral, se tk ≤ t ≤ tk+1 ,
I(t) =
k−1
X
θ(tj )[B(tj+1 ) − B(tj )] + θ(tk )[B(t) − B(tk )].
j=0
24
Exercı́cios
1. Mostre que sobre certas condições I(t) é um Martingala
2. Prove que E(I(t)) = 0
3. * Mostre que
Z T
0
B 2 (T ) T
B(s)dB(s) =
−
2
2
4. ** Mostre que E(I 2 (t)) = E
6.3
³R
t
0
θ2 (s)ds
´
Teorema de Girsanov
Seja (Ω, F, P ) um espaço de probabilidade e (Bt )t>0 um Movimento Browniano en relação a P e θ = (θ1 , .., θd ) ∈ L2 , definimos a seguinte varı́avel
aleatória:
³ R
´
R
ηt (θ) = e
−
t
0
t
θs ·dBs − 12
0
θs ·θs ds
(6.1)
Se a seguinte condição (condição de Novikov) é satisfeita, temos que ηt (θ) é
um martingale em relação a F:
" ³ Rt
1
2
E e
0
´#
θs ·θs ds
<∞
(6.2)
Suponha que esta condição é satisfeita, como E(ηo (θ)) = 1, então E(ηt (θ)) =
1 para todo t e também temos que ηt (θ) > 0 q.t.p, podemos definir uma
nova probabilidade:
Q(A) = E P (1A ηt (θ))
ou
dQ
|F = ηt (θ)
dP t
Logo
Btθ
= Bt +
è um Movimento Browniano sob Q.
25
Z t
0
θs ds
Considere o processo de preço descontado Ŝt = e−rt St , logo derivando
obtemos
(6.3)
dŜt = −re−rt St dt + e−rt dSt
Agora se temos que dSt = µSt dt + σSt dBt , então
dŜt = −re−rt St dt + e−rt St µdt + e−rt St σdBt
= Ŝt ((µ − r)dt + σdBt )
Definimos Wt = Bt + µ−r
t, pelo teorema de Girsanov temos que este novo
σ
processo é um Movimento Browniano sob a nova probailidade Q, onde Q é
obtida subtituindo θs = µ−r
em (6.1), isto é:
σ
dQ
= ηt (θ) = e
dP
³
(µ−r)2
r−µ
Bt −
t
σ
2σ 2
´
(6.4)
Agora com o novo Movimento Browniano temos:
dŜt = σ Ŝt dWt
(6.5)
esta equação tem por solução:
Ŝt = S0 eσWt −
σ2
t
2
(6.6)
è facil ver da equação (6.5) que (Ŝt )t>0 é um martingale sob Q, pois a
Wt é um movimento Browniano sobre Q, daqui assumindo a condição de
Novikov (6.2), temos que a integral estocástica é uma Martingala sobre Q.
Esta Q é chamada de medida martingale equivalente. Quando os mercados
são completos esta medida é unica.
26
Para saber como serı́a o caminho percorrido por este preço bastaria retornar às varı́aveis originais:
St = S0 eσBt −(
6.4
σ2
−µ)t
2
(6.7)
Formula de Ito
A seguinte questão apareceu de forma muito natural: se conhecemos o processo seguido por S qual será o processo seguido por f (S, t)? Já que um
derivativo é uma funçaõ do preço do ativo objeto e do tempo, resolver esta
questão seria importante para entender o preço do derivativo. Esta reposta
foi dada por Katayoshi Ito para funções que sejam duas veces continuamente
diferênciaveis no primer argumento e uma vez continuamente diferenciável
no segundo. Sigamos o razonamento dele:
A serie de taylor de f (x, t) serı́a
∆f =
∂f
∂f
1 ∂2f
∂ 2f
1 ∂2f 2
2
∆x +
∆t +
∆x
+
∆x∆t
+
∆t + r
∂x
∂t
2 ∂x2
∂x∂t
2 ∂t2
Agora como ∆t ≈ n1 então (∆t)m ≈ 0 quando m > 1. Daqui como o
√
3
termo ∆S = ∆x tem variância ∆t então ∆x∆t tem variância (∆t) 2 daqui
a variância é approx. zero, por tanto ∆x∆t coincide com sua esperança: zero.
Por tanto a equação acima fica reduzida a:
∆f =
∂f
∂f
1 ∂ 2f
∆x +
∆t +
∆x2
∂x
∂t
2 ∂x2
(6.8)
agora suponhamos que
dx = a(x, t)dt + b(x, t)dBt
ou
√
∆x = a∆t + bε ∆t,
onde ε ∼ N (0, 1). Substituindo na equação (6.8) e eliminando termos com
(∆t)m , m > 1, obtemos
∆f =
∂f
1 ∂ 2f 2 2
∂f
∆x +
∆t +
b ε ∆t
∂x
∂t
2 ∂x2
27
Agora é fácil provar que E(ε2 ∆t) = ∆t é a variância é proporcional a (∆t)2 ≈
0 por tanto ε2 ∆t ≈ ∆t, tomando limites na equação temos
df =
∂f
∂f
1 ∂ 2f 2
dx +
dt +
b dt
∂x
∂t
2 ∂x2
e substituindo dx = adt + bdBt temos a formula de Ito:
df =
³ ∂f
∂x
a+
∂f
1 ∂ 2f 2´
∂f
+
b dt +
bdBt
2
∂t
2 ∂x
∂x
Exercı́cios
1. Supondo que dxt = µxt dt+σxt dBt , aplique a formula de Ito as seguintes
funções:
(a) f (x, t) = ln x
(b) f (x, t) = x2
√
(c) f (x, t) = x
2. Apartir de (1.a) obtenha a solução da equação (6.5)
3. ** Considere qualquer solução φ(x) da equação:
1 00
φ (x) + q(x)φ(x) = 0, −∞ < x < ∞,
2
onde q(x) é uma função limitada e continua. Mostre que:
hR
M (t) = φ(Bt )e
t
0
i
q(Bs )ds
,
é um martingala em relação ao filtro gerado pelo movimento Browniano
standard Bt .
Dica: Aplique a formula de Ito para φ(t) e M (t) e obtenha:
hR
dM (t) = φ0 (Bt )e
28
t
0
i
q(Bs )ds
dBt
Capı́tulo 7
Modelo de Black e Scholes
7.1
Um pouco de Hı́storia
O modelo que apresentaremos a continuação teve suas raiçes no modelo pioneiro de Louis Bachelier (1900), quem no dı́a 29 de Março de 1900 na Faculté des Sciences de Parı́s, defendeu sua dissertação de Doutorado intitulada
“Théorie de la spéculation”, na qual ele sugere um processo Browniano aritmetico para modelar os preços dos ativos. Cabe destacar que esta tese foi
desenvolvida sob a orientação do celebre matemático Henri Poincaré. Apartir
deste brilhante trabalho forám desenvolvidos varios modelos que tratarám de
explicar o comportamento dos preços dos ativos do Mercado Financeiro.
Varios anos pasarám até que forám descubertos estos primeiros trabalhos.
Foi na década do 50 com o desenvolvimento do cáculo esócástico que se pudo
entender e aplicar com sucesso as ideias de Bachelier. E aqui que aparece a
figura do Premio Nobel Paul Samuelson quem na década do sessenta sugere o
seguinte modelo: Imaginemos que estamos no tempo t e queremos ver como
variaria o preço se o tempo avansasse um ∆t
St −−−−→ St+∆t
∆t
Daqui
∆St = St+∆t − St
t
, esta taxa tem que ter duas
Agora daqui temos a taxa de retorno Rt = ∆S
St
compoentes: uma compoente deterministica e uma aleatória.
29
• A parte deterministica é conhecida, isto é se a taxa de crescimento for
µ, então:
St+∆t = St eµ∆t ≈ St (1 + µ∆t)
Daqui obtemos que
∆St = St+∆t − St ≈ St µ∆t
fazendo ∆t → 0 teriamos
dSt = St µdt
• A parte aleatória será modelada da seguinte forma: Suponha que temos
um processo estocástico {Bt }t≥0 tal que :
1. Bt+∆t ∼ N (Bt , ∆t) Daqui Bt+∆t − Bt ∼ N (0, ∆t)
2. ∆Bt e ∆Bs são independentes para todo t e s. Daqui Bt − B0 =
PT
t=0 ∆Bt ∼ N (0, T )
3. Bt+s − Bt ∼ Bs − B0 (estacionariedade)
√
4. Por último fazendo ∆ → 0, temos que dBt ∼ dtN (0, 1) Como
vimos antes este processo é denominado Movimento Browniano.
Qué é um caso particula de Processo de Lévy, isto é um processo
com incrementos independentes e estacionarios.
Agora para considerar uma variabilidade maior nos retornos usaremos
a volatilidade σ, a párte aleatória será
√
dSt
∼ σ dtN (0, 1) ∼ σdBt
St
Desta duas componentes obtemos o modelo de Samuelson para os preços:
dSt = µSt dt + σSt Bt ,
(7.1)
Exemplo:
Podemos simular o caminho de um preço, tome S0 = 40, µ = 0, 2, σ = 0, 3
e ∆t = 0, 001, então
(7.2)
∆S = 0, 0014S + 0, 02Sε
onde ε ∼ N (0, 1)
30
30
25
20
15
0
0.5
1
1.5
2
2.5
3
Figura 7.1: Simulação da equação (7.2)
Observação:
Este modelo foi depois geralizado para funções mais gerais no µ (drift) e σ
(volatilidade):
dSt = µ(St , t)dt + σ(St , t)Bt
A partir daqui Black e Scholes analisaram o valor de um opção de compra,
isto é um derivativo que te da o direito mais não a obrigação de comprar um
ativo numa determinada data (maturidade) a um determinado preço(preço de
exercı́cio), que tivesse como ativo subjacente um ativo, cujo preço fosse modelado pela equação (7.1), como resultado deste análise eles obtiveram uma
formula que da o preço da opção de compra. A continuação apresentaremos a formula. O mesmo análise pode ser usado para derivativos do tipo
contingente, isto é cujo retorno acontece numa determinada data no tempo.
31
7.2
Derivação da Equação de Black e Scholes
Nesta seção mostraremos 2 formas diferentes de obter a Equação de Black e
Scholes:
7.2.1
Carteira Equivalente
Nesta parte apresentaremos a metódolgia usada por Fischer Black e Myron
Scholes (1973), na qual eles usaram a ideia de preço racional, isto é qual serı́a
único valor que poderı́a satisfazer a seguintes condições:
1. Qualquer investidor que no lugar de aquirir a opção aplique este valor
num ativo com risco e num ativo sem risco, poderia gerenciar sua
carteira deacordo com uma estrátegia autofinanciada, isto é sem investir mais dinheiro duarante a vida da opção, de maneira a obter o
mesmo retorno da opção na maturidade,
2. Se a opção fosse oferecida a outro preço diferente, existiriam oportunidades de arbitragem , isto é ganhos sem o risco de perda associado.
Para determinar este valor escolheamos uma estrategia autofinanciada
(α(t), β(t)) onde α(t) é a posição no ativo com risco S(t) cuja equação é
dada por (7.1) e β(t) é a posição no ativo sem risco P (t) cuja equaçãoe dada
pela equação:
dP (t) = rP (t)dt
Isto é o ativo sem risco tem taxa de retorno constante r capitalizada continuamente. Associada a esta estrátegia temos um processo valor V que determinara o valor da carteira no tempo, assim assumiremos que esta V será
função do preço do ativo com risco e do tempo que falta para o vencimento
da opção, isto existirá uma f talque:
1. Vt = f (St , T − t)
2. f ∈ C 2,1 ((0, ∞) × (0, T ])
3. f (x, 0) = (x − K)+ = max{0, x − K}
Aqui T é a maturidade da opção e K é o preço de exercı́cio. Agora se
denotamos por fx and fxx a derivadas parciais em relação a x e por fs a
32
derivada parcial em relação ao segundo argumento, aplicando a formula de
Ito teremos:
Vt −V0 =
Z t
0
fx (Su , T −u)dSu −
Z t
0
fs (Su , T −u)du+
1Z t 2 2
σ Su fxx (Su , T −u)du, ∀t.
2 0
Por outra parte V é o valor da carteira autofinanciada, então ela deve ser
igual a:
Vt = αt St + βt Pt e Vt = V0 +
Z t
0
αu dSu +
Z t
0
βu dPu ∀t,
comparando os integrandos de Vt − V0 da parte dSu , obtemos:
αt = fx (St , T − t), ∀t,
(7.3)
e do fato de
Vt − αt St
f (St , T − t) − αt St
=
, ∀t
Pt
Pt
temos que βu dPu = rβu Pu du = r(f (Su , T − u) − αu Su ), daqui comparando
os elementos de Vt − V0 da parte du e usando (7.3), obtemos:
βt =
1
r(f (St , T − t) − St fx (St , T − t)) = −fs (St , T − t) + σ 2 St2 fxx (St , T − t)
2
Esta equação será satisfeita se f cumpre a seguinte equação:
1 2 2
σ xt fxx + rxfx − rf − fs = 0.
2
(7.4)
Esta equação é conhecida como a equação diferêncial parcial de Black e Scholes. Antes de passar a obter a solução desta equação, pasaremos a mostrar
outra forma de encontrar esta equação.
7.2.2
Carteira de Risco Neutro
Agora construiremos uma carteira de risco neutro, isto é cujá taxa de retorno
seja a tax do ativo sem risco, isto é r. Mais uma vez pela formula de Ito
temos que:
df =
³ ∂f
∂x
µS +
∂f
∂f
1 ∂ 2f 2 2´
+
σ S dt +
σSdBt
2
∂t
2 ∂x
∂x
Agora construiremos a seguinte carteira:
33
(7.5)
1. -1 opção (vendi uma opção)
2.
∂f
∂S
unidades do ativo.
Seja V o valor desta carteira, então como f é o preço da opção, temos:
V = −f +
∂f
S,
∂S
(7.6)
a variação deste valor no tempo será:
∆V = −∆f +
∂f
∆S
∂S
substituindo as versões continuas (7.5) e (7.1):
Ã
!
∂f
1 ∂ 2f 2 2
dV = −
−
σ S dt
∂t
2 ∂S 2
Como esta expresão no involve Bt , esta carteira possue retorno sem risco,
então:
dV = rV dt
Igualando os valotres de V nas duas ultimas equações é usando (7.6), temos:
Ã
!
Ã
∂f
1 ∂ 2f 2 2
∂f
−
−
σ S = r −f +
S
2
∂t
2 ∂S
∂S
!
ordenando a equação:
∂f
∂f
1 ∂ 2f 2 2
+ rS
+
σ S = rf
∂t
dS 2 ∂S 2
(7.7)
A principal diferença entre a equação obtida em (7.4) e a equação (7.7) esta
em que a função considerada em (7.7) é f (S, t) é não f (S, T − t), assim o
único que muda é o sinal da derivada parcial em relação ao tempo ft . As
derivadas parciais em relção ao primer argumento x é o mesmo que a derivada
em realção a S.
Agora para encontrar a solução da equação de Black e Scholes necesitaremos da condição de contorno: f (x, 0) = (x − K)+ ou f (x, T ) = (x − K)+ ,
dependerá de qual seja o segundo argumeto T − t ou t, respectivamente. O
importante é que o valor da carteira na maturidade seja igual ao retorno da
opção.
34
7.3
Formula de Black e Scholes
Nesta seção mostraremos três formas de obter a formula de Black e Scholes.
7.3.1
Metódo de Merton
Embora na literatura a formula que vamos a derivar seja conhecida como
formula de Black e Scholes, foi Merton (1973), quem tambem simultaneamente obteve a mesma formula, assim formula é conhecida por muitos como
Formula de Black-Scholes-Merton, motivo pelo qual ele também obteve o
premio nobel de economia em 1997. A seguir apresentaremos a forma com
ele obteve a formula.
Primeiro linearizaremos a equação diferencial parcial (7.7), ja que aparece
um termo x2 , para isto faremos a seguinte mudança de variável y = log(x),
daqui temos que
(
fˆ(y, t) = f (ey , T − t) ⇒
fˆy (y, t) = fx (x, t)x,
fˆyy (y, t) = x2 fxx (x, t) + fˆy (y, t),
Daqui a equação (7.7) se transforma em:
σ2
1ˆ 2
fyy σ + (r − )fˆy − fˆr − fˆt = 0
2
2
As condições de contorno seram:
f (0, T − t) = fˆ(−∞, t) = 0 e f (x, T ) = fˆ(ey , 0) = (ey − K)+
Agora seja ϕ a função dada pela seguinte expresão:
1 Z∞ ˆ
ϕ(ξ, t) = √
f (y, t)eiξy dy
2π −∞
esta função é conhecida como a transformada de Fourier da função fˆ. Assumindo que esta integral é limitada e que as condicões de regularidade são
satisfeita podemos obter a transformada inversa de Fourier:
1 Z∞
ϕ(ξ, t)e−iξy dξ,
fˆ(y, t) = √
2π −∞
daqui temos que
35
1. fˆy =
√−i
2π
R∞
ξϕ(ξ, t)e−iξy dξ
−∞
R∞ 2
2. fˆyy = − √12π −∞
ξ ϕ(ξ, t)e−iξy dξ
3. fˆt =
√1
2π
R∞
−∞
ϕt (ξ, t)e−iξy dξ
substituindo estas expressões na equação linearizada obtemos:
"Ã
!
#
ξ 2σ2
σ2
1 Z∞
√
−
− (r − )iξ − r ϕ(ξ, t) + ϕt (ξ, t) e−iξy dξ = 0, ∀y.
2
2
2π −∞
Como a integral é zero para todo y, o integrando tera que ser nulo, logo:
"
#
σ2 2
−
(ξ − iξ) + r(1 + iξ) ϕ(ξ, t) = ϕt (ξ, t)
2
resolvendo esta equação diferêncial ordinaria, obtemos:
h
−
ϕ(ξ, t) = ϕ(ξ, 0)e
i
σ2
(ξ 2 −iξ)+r(1+iξ)
2
t
retornando agora à função fˆ via transformada inversa de Fourier:
h 2
i
Z ∞
− σ2 (ξ 2 −iξ)+r(1+iξ) t −iξy
1
ϕ(ξ, 0)e
e
dξ,
fˆ(y, t) = √
2π −∞
mais lembremos que:
1 Z∞ ˆ
ϕ(ξ, 0) = √
f (z, 0)eiξz dz
2π −∞
incluindo isto na equação do preço da opção, temos:
h 2
i
Z ∞ Z ∞
− σ2 (ξ 2 −iξ)+r(1+iξ) t−i(ξy−ξz)
1
fˆ(y, t) =
fˆ(z, 0)e
dξdz,
2π −∞ −∞
agora faremos a integração em relação a ξ, para isto re-escrevamos a equação
acima:
h 2
i
Z ∞
Z ∞
− σ2 (ξ 2 −iξ)+irξ t−i(ξy−ξz)
1
−rt
fˆ(y, t) =
fˆ(z, 0)e
e
dξ dz,
2π −∞
−∞
{z
}
|
Iξ
36
logo esta integral pode ser escrita da seguinte forma:
Iξ = e
onde a =
√
σ√ t
,
2
mudança de
obtemos :
R
√
σ 2t
varı́avel √η2
b=
R2
2σ 2 t
Z ∞
−∞
2
e−(aξ+b) dξ
h
i
2
e R = i (y − z) − ( σ2 − r)t logo fazendo a seguinte
√
R ∞ − η2
e 2 dη = 2π,
= aξ + b, e usando o fato de que −∞
√
Iξ =
R2
2πe 2σ2 t
√
σ t
usando a condição de contorno fˆ(z, 0) = (ez − K)+ , temos:
R2
Z ∞ −rt+ 2σ
2t
e
1
√ (ez − K)+ dz,
fˆ(y, t) = √
2π −∞ σ t
agora partimos esta integral em duas:
2
2
Z ∞
Z ∞
z−rt+ R2
−rt+ R2
2σ t
2σ t
e
e
1
K
√
√ dz,
fˆ(y, t) = √
dz − √
2π z>log(K) σ t
2π z>log(K) σ t
façamos a seguinte mudança de varı́avel u =
daqui:
x
fˆ(y, t) = √
2π
Z
log(x/K)
√
σ t
−∞
Ke−rt Z
− √
2π
e−uσ
√
−∞
h
√
t−rt+
− uσ
e
e lembrando que y = log(x),
− uσ
h
log(x/K)
√
σ t
y−z
√
σ t
i2
2
t−( σ2 −r)t
2σ 2 t
du
i2
√
2
t−( σ2 −r)t
2σ 2 t
du,
Agora façamos
as ´seguintes mudanças de√varı́aveis:
³
´ na primeira integral
√ ³
2
2
v = u + σt r + σ2 e na segunda v = u + σt r − σ2 , daqui obtemos:
2
σ
Z log(x/K)+(r+
2
√
x
σ t
fˆ(y, t) = √
2π −∞
2
)t
e
2
− v2
log(x/K)+(r− σ2
√
Ke−rt Z
σ t
dv − √
2π −∞
37
)t
v2
e− 2 dv,
Lembrando que a função de distribuição acumulada da distribuição Normal
Rx
y2
e− 2 dy, temos a formula de Black e Scholes:
standard é Φ(x) = √12π −∞

log(x/K) + (r +
√
f (x, T −t) = xΦ 
σ t
7.3.2

σ2
)t 
2

log(x/K) + (r −
√
−Ke−rt Φ 
σ t

σ2
)t 
2
Formula de Feynman-Kac
Outra maneira de obter a formula acima é via tecnicas probabilisticas, isto
é usando o teorema de Girsanov, sabemos que a equação (6.6) é satisfeita,
daqui:
σ2
St = S0 e(r− 2 )t+σWt
logo
³
E Q (St2 ) = S02 E Q e2rt−σ
2 t+2σW
´
t
Onde Q é a medida martingala equivalente dada por (6.4). Agora sabendo
que St satisfaz (6.3) obtemos:
dSt = rSt dt + σSt dWt
Daqui apliquemos a formula de Ito à função e−rt f (St , T − t):
e−rt f (St , T − t) − f (S0 , T ) =
= σ
−
+
Z ∞
Z ∞0
0
e−ru fx (Su , T − u)Su dWu + r
−ru
e
fs (Su , T − u)du − r
Z ∞
0
e
Z ∞
0
−ru
e−ru fx (Su , T − u)Su du
f (Su , T − u)du
1 2 Z ∞ −ru
σ
e fxx (Su , T − u)Su2 du
2
0
Como f satisfaz (7.4) a equação acima se reduz a:
e
−rt
f (St , T − t) − f (S0 , T ) = σ
Z ∞
0
e−ru fx (Su , T − u)Su dWu
agora se fx é limitada, como St tem variância finita, temos que a integral
estocástica em relação a Wt é limitada e tem variância finita, daqui o lado
38
direito da última equação é um martingala, ou seja a esperança em relação
a Q é constante, neste caso zero, logo tomando esperança a ambos membros
da equação teremos:
³
³
´
f (S0 , T ) = E Q e−rT f (ST , 0) = E Q e−rT (ST − K)+
´
esta é famosa formula de Feynman-Kac. Para chegar a formula de Black
e Scholes usaremos a equação de ST e o fato de WT ser um movimento
Browniano sobre Q:
f (S0 , T ) = S0
Z ∞
ST >K
e−
σ2
T +σWT
2
dQ − K
Z ∞
ST >K
e−rT dQ
logo a segunda integral se transforma em: Ke−rT Q(ST > K), usando mais
uma ves a expressão de ST temos:
Z ∞
Ã
log(S0 /K) + (r − 21 σ 2 )T
dQ−Ke Q WT > −
f (S0 , T ) = S0
e
σ
ST >K
√
Agora como WT é uma varı́avel Normal com média 0 e varı́ância T sobre
√ T é uma varı́avel Normal standar
Q, temos que −WT tambem o é, logo −W
T
sobre Q, daqui:
f (S0 , T ) = S0
2
− σ2 T +σWT
Z ∞
ST >K
e
2
− σ2 T +σWT
!
−rT
Ã
log(S0 /K) + (r − 21 σ 2 )T
√
dQ − Ke−rT Φ
σ T
!
agora use argumento similar para obter a outra distribuição acumulada (isto
fica como execı́cio):
!
Ã
Ã
log(S0 /K) + (r + 12 σ 2 )T
log(S0 /K) + (r − 12 σ 2 )T
−rT
√
√
f (S0 , T ) = S0 Φ
−Ke Φ
σ T
σ T
7.3.3
Aproximação Binomial
Uma outra forma de derivar a formula de Black e Scholes é a via a formula
binomial, cmo foi descrito na capı́tulo das variáveis aleatórias discretas, o
preço de uma call pode ser escrita como:
C(t) =
1
T
−t
X
RT −t
i=0
b(i, T − t, p)(U i DT −t−i St − K)+ ,
39
!
onde
³n ´
R−D
e b(i, n, p) =
pi (1 − p)n−i
k
U −D
Agota tomemos t = 0 e sejá n o número de perı́odos considerados na árvore,
então:
n
1 X
Cn := C(0) = n
b(i, n, p)(U i Dn−i S0 − K)+ ,
R i=0
p=
para desenvolver mais esta formula conseidremos o seguinte número:
.
j = inf{i ∈ IN U i Dn−i S0 > K}
Se [[x]] denota a parte inteira de x tal que [[x]] ≤ x < [[x]] + 1, então temos
que:
´ 
 ³
ln SK
0D 
+1
j = 
U
ln( D )
Este número é o mı́nimo de subidas que devem acontecer durantes os n
perı́odos para que a opção este no dinheiro, isto é para obter lucro. Daqui:
Cn =
n
1 X
b(i, n, p)(U i Dn−i S0 − K),
Rn i=j
Agora lembremos que b(i, n, p) representa a probabilidade de que uma varı́avel
aleatória, com distribuição binomial de parametros n e p, tome o valor i.
Agora denotemos por:
B(j, n, p) =
n
X
b(i, n, p)
i=j
usando a definição de p =
R−D
U −D
e a igualdade
1−
pU
D − DP
=
R
R
obtemos
C n = S0
n
X
i=j
µ
(ni )
pU
R
¶i µ
Cn = S0 B(j, n,
D − Dp
R
¶n−i
−
K
B(j, n, p),
Rn
K
pU
) − n B(j, n, p),
R
R
40
Agora como temos n perı́odos e a maturidade é T , os perı́odos terão comprimento Tn , logo para conseguir uma approximação para o modelo continuo
faremos n → ∞. Por tanto para cada n teremos parametros Un , Dn , Rn e pn .
Peguemos Rn = 1 + rn então:
lim (Rn )n = lim (1 + rn )n = eρT
n→∞
n→∞
onde ρ é a taxa de retorno instantanea. Agora como Sn (i) = S0 Uni Dnn−i ,
temos que:
µ
¶
µ
¶
Sn
Un
ln
= I ln
+ n ln Dn ,
S0
Dn
onde I é uma variável aleatória com distribuição binomial de parametros
n é qn , com qn sendo a distribuição dada pela natureza de acontecer uma
súbida, daqui
1. E(I) = nqn
2. V ar(I) = nqn (1 − qn )
se denotamos por nµn e nσn2 a esperança e a variância de ln
preço do ativo na maturidade, temos que
³
V
³
´´
Sn
→
³ ³S0 ´´
ar ln SSn0 →
E ln
³
V
³
Sn
S0
´
e seja ST o
´´
ST
³ ³S0
ar ln SST0
E ln
³
´´
como o preço da opção é calculado num mundo neutro ao risco, isto é não
depende da probabilidade qn e sim de pn , podemos escolher qn = 12 . Daqui
podemos escolher Un e Dn de tal forma que nµn → µT e nσn2 → σ 2 T , onde
µ e σ 2 representam a média e a variãncia instantanea do retorno do ativo,
isto pode ser feito tomando por exemplo:
√T
√T
T
T
Un = eµ n +σ n e Dn = eµ n −σ n
(7.8)
Agora analizemos o comportamento de
Ã
!
pn Un
K
Cn = S0 B jn , n,
−
B(jn , n, pn ),
(1 + rn )
(1 + rn )n
onde
41

jn = 
³
K
S0 Dn
Un
)
ln( D
n
ln
´ 
 + 1
e pn =
(1 + rn ) − Dn
Un − Dn
Agora B(jn , n, pn ) = 1−P (Yn < jn ) onde Yn é a soma de n variáveis aleatórias
independentes de Bernoulli com parametro pn . Daqui


Yn − npn
jn − npn

P (Yn < jn ) = P  q
<q
npn (1 − pn )
npn (1 − pn )
usando a definição de jn e (7.8), temos que:
ln( SK0 ) − µT
√
1
√
jn = n +
+ o( n)
2
2σ T
e
√
T
1
1
pn − ≈ √ (ρ − µ − σ 2 )
2
2σ n
2
Daqui obtemos que:
ln( SK0 ) − (ρ − 12 σ 2 )T
q
√
→
σ T
npn (1 − pn )
jn − npn
(7.9)
Agora para derivar a formula de Black e Scholes usaremos um Teorema de
Lindeberg:
Teorema 7 Para todo n sejam (X1,n , X2,n , . . . , Xn,n ) n variáveis aleatórias
independentes e identicamente distribuidas, com distribuição P (Xi,n = 1) =
P
1 − P (Xi,n = 0) = pn . Seja Yn = ni=1 Xi,n . Então:
Yn − npn
q
npn (1 − pn )
−→ D N (0, 1)
onde −→ D significa convergência em distribuição.
Agora apliquemos o teorema tomando enconta (7.9), daqui:

B(jn , n, pn ) −→ D

ln( K ) − (ρ − 12 σ 2 )T

√
1 − Φ  S0
σ T
42
Porém como 1 − Φ(x) = Φ(−x), obtemos
Ã
B(jn , n, pn ) −→
D
ln( SK0 ) + (ρ − 12 σ 2 )T
√
Φ
σ T
Tambem podemos obter resultados analogos para pen =
jn − npen
q
npen (1 − pen )
Daqui,
→
B(jn , n, pen ) −→
pn Un
,
(1+rn )
isto é:
ln( SK0 ) − (ρ + 12 σ 2 )T
√
σ T
Ã
D
!
ln( SK0 ) + (ρ + 12 σ 2 )T
√
Φ
σ T
!
Por tanto se limn→∞ Cn = C, temos que:
√
C = S0 Φ(d) − Ke−ρT Φ(d − σ T )
com
ln( SK0 ) + (ρ + 21 σ 2 )T
√
σ T
que é a formula de Black e Scholes, isto é quando o número de perı́odos da
árvore é muito grande nos aproximamos do valor dado pela formula de Black
e Scholes.
d=
43
Capı́tulo 8
Opções Americanas
44
Capı́tulo 9
Opções Exóticas
45
Capı́tulo 10
Exercı́cios Numéricos
46
Bibliografia
[1] Bachelier, L. (1900), “ Théorie de la Speculation”, annales Scientifiques
de lÉcole Normale Supérieure. troisième serie 17, 21-88. Translation:
The Random Character of Stock Market Prices, ed. Paul Cootner, Cambridge, MA: MIT Press.
[2] Black, F adn Scholes, M. (1973), “The Pricing of Options and Corporate
Liabilities”, Journal of Political Economy 81, 637-654.
[3] Hull, J. (2002), Fundamentals of Futures and Options Markets. (4th
Edition).
[4] Hull, J. (2002), Options, Futures, and Other Derivatives. (5th Edition).
[5] Jacod, J. and Protter, P.(2000), Probability Essentials. Springer- Verlag.
[6] Karatzas, I. and Shreve, S.(1998), Mathematical Methods in Finance
[7] Merton, R.C. (1973), “The Theory of Rational option pricing”, Bell
Journal of Economics and Management Science 4, 141-183.
[8] A.N. Shirjaev (1998), Probability. Springer-Verlag.
47

Documentos relacionados

Matemática Financeira - Universidade Nova de Lisboa

Matemática Financeira - Universidade Nova de Lisboa • O bid-ask spread é nulo, isto é, a diferença entre o preço de compra e o preço de venda dos activos é nula. • Os custos de transacção são nulos. • Há liquidez completa do mercado, isto ...

Leia mais